Prompt Engineering & digitale Mitarbeiter – KI sinnvoll nutzen

KI als Spezialist im arbeitsteiligen System

KI wird dann wirklich stark, wenn sie nicht als „eine alleskönnende Entität“ eingesetzt wird, sondern als klar abgegrenzter Spezialist in einem arbeitsteiligen System. Ihre Stärke entsteht nicht aus Allwissenheit, sondern aus präziser Zuständigkeit.

Die KI hat gerechnet, nicht verstanden.
Der Mensch hat verstanden, nicht gerechnet.

Genau in dieser Trennung liegt die eigentliche Effizienz moderner KI-Nutzung. Die Maschine übernimmt Analyse, Struktur, Berechnung und Konsistenz. Der Mensch übernimmt Bedeutung, Bewertung, Verantwortung und Entscheidung.

Rolle der KI

Rechnen, strukturieren, vergleichen, simulieren, Risiken auflisten, Varianten durchspielen, Inkonsistenzen sichtbar machen.

Rolle des Menschen

Verstehen, einordnen, bewerten, priorisieren, Verantwortung tragen und Entscheidungen mit Tragweite treffen.

KI ist kein Ersatz für Denken. KI ist ein Verstärker für Denken.

Wer KI als allwissende Instanz behandelt, delegiert Verantwortung. Wer KI als Spezialisten führt, gewinnt Kontrolle, Qualität und Entscheidungsstärke.

John Dewey

20. Oktober 1859 – 1. Juni 1952
US-amerikanischer Philosoph, Pädagoge und Psychologe, einer der einflussreichsten Denker des Pragmatismus.

John Dewey gilt als einer der wichtigsten Vordenker moderner Lern-, Denk- und Problemlösungsprozesse. Im Zentrum seines Denkens stand die Überzeugung, dass Wissen nicht durch Theorie allein entsteht, sondern durch Erfahrung, Reflexion und praktische Anwendung.

Probleme verstand Dewey nicht als Hindernisse, sondern als Ausgangspunkt für Erkenntnis. Bevor eine Lösung möglich ist, muss ein Problem klar erkannt, sauber beschrieben und sinnvoll eingegrenzt werden. Erst durch diese Klarheit entsteht echte Handlungsfähigkeit.

Aus diesem Denken stammt der oft zitierte Leitsatz:

„Ein Problem ist halb gelöst, wenn es klar formuliert ist.“

Er bringt Deweys pragmatische Philosophie auf den Punkt:

  • Klarheit vor Aktion.
  • Verständnis vor Lösung.
  • Denken als Werkzeug.

Überleitung: Von John Dewey zur Praxis

Dieses Denken hat mich nicht theoretisch begleitet, sondern ganz praktisch – von Beginn meiner IT-Karriere an. Ich habe meine berufliche Laufbahn im klassischen IT-Troubleshooting begonnen. Menschen kamen mit Problemen zu mir, die „plötzlich“ aufgetreten waren oder „einfach nicht mehr funktionierten“.

Sehr schnell zeigte sich ein wiederkehrendes Muster:
Nicht die Technik war das eigentliche Problem, sondern die Beschreibung des Problems.

Unklare Schilderungen führten zu langen Fehlersuchen.
Relevante, präzise Informationen führten dagegen schnell zu belastbaren Lösungen.

Schon damals war klar:
Je besser ein Problem eingegrenzt und formuliert ist, desto schneller und qualitativ hochwertiger lässt es sich lösen.

Genau diese Logik gilt auch heute noch – nur mit einem Unterschied:
KI arbeitet extrem schnell. Aber sie arbeitet nur so präzise, wie Aufgabe, Kontext und Verantwortung definiert sind.

Google als nächste Lernstufe

Dieses Prinzip setzte sich fort, als Google zum zentralen Werkzeug wurde. Auch hier hing die Qualität der Ergebnisse nicht von der Suchmaschine selbst ab, sondern von der Art der Frage.

Viele Menschen nutzten Google jahrelang, ohne wirklich gute Ergebnisse zu bekommen. Nicht, weil Google schlecht war, sondern weil die Fragen zu ungenau gestellt wurden.

Wer gelernt hatte, präzise zu suchen – mit klaren Begriffen, Ausschlüssen, Sprache, Region und Kontext – bekam deutlich bessere Ergebnisse. Im Grunde war das bereits eine frühe Form dessen, was man heute als „Prompting“ bezeichnen würde.

Der Unterschied:
Google lieferte Links.
Keine Antworten. Keine Lösungen.

Der nächste Schritt: Künstliche Intelligenz

Mit künstlicher Intelligenz hat sich dieses Prinzip noch einmal verschärft. KI liefert nicht nur Trefferlisten, sondern Antworten, Texte, Strukturen und Vorschläge.

Damit ist die Qualität der Eingabe entscheidender denn je.

Viele Menschen erleben KI heute als widersprüchlich: mal beeindruckend, mal enttäuschend, mal unzuverlässig. Der Grund liegt fast nie an der KI selbst, sondern an fehlender Vorbereitung, falscher Auswahl oder unklaren Fragestellungen.

Genau hier setzt mein Ansatz an.

KI wird dann wirklich stark, wenn sie nicht als „eine alleskönnende Entität“ eingesetzt wird, sondern als klar abgegrenzter Spezialist in einem arbeitsteiligen System.

Von der richtigen Frage zum digitalen Mitarbeiter

KI ist für mich kein Spielzeug und kein Orakel, sondern ein Werkzeug – oder besser: ein digitaler Mitarbeiter. Damit das funktioniert, braucht es dieselben Grundlagen wie in der IT oder bei Google:

  • die richtige Technologie für die Aufgabe
  • sauberen Kontext statt Informationsflut
  • klare, präzise Arbeitsanweisungen

Erst wenn diese Elemente zusammenspielen, entstehen reproduzierbare, hochwertige Ergebnisse.

So arbeite ich heute selbst – mit einem digitalen Team aus spezialisierten KI-Systemen, die klar definierte Rollen haben und gezielt vorbereitet wurden. Nicht, um menschliches Denken zu ersetzen, sondern um es sinnvoll zu unterstützen.

Digitale Mitarbeiter werden ausgewählt, vorbereitet und geführt – genau wie neue Menschen im Team. Ergebnisse werden validiert und gegengecheckt. Verantwortung bleibt beim Menschen.

Die drei Voraussetzungen für perfekte KI-Ergebnisse

1. Die richtige KI auswählen

Nicht jede KI ist für jede Aufgabe geeignet.
Unterschiedliche KI-Systeme haben unterschiedliche Stärken – etwa für Struktur, Recherche, Analyse, Technik, Texte oder Verifikation.

Wer die falsche KI für eine Aufgabe einsetzt, bekommt zwangsläufig schlechte, widersprüchliche oder unzuverlässige Ergebnisse. Genau deshalb arbeite ich nicht mit „der einen KI“, sondern mit spezialisierten Systemen in klar abgegrenzten Rollen.

2. Digitale Mitarbeiter vorbereiten und schulen

Eine KI kann nur dann sinnvoll arbeiten, wenn sie weiß,

  • wer du bist oder welches Unternehmen du führst,
  • in welchem Kontext sie eingesetzt wird,
  • welche Ziele verfolgt werden,
  • welche Rolle sie übernehmen soll
  • und wo ihre fachlichen und inhaltlichen Grenzen liegen.

Erst durch diese gezielte Vorbereitung wird aus einer KI ein digitaler Mitarbeiter statt eines generischen Chatbots. Genau wie bei neuen Menschen im Team gilt: Ohne Onboarding keine verlässliche Leistung.

3. Arbeitsanweisungen klar, präzise und regelkonform formulieren

Der Prompt ist die eigentliche Arbeitsanweisung.
Er muss klar formuliert sein,
relevante Informationen enthalten,
unnötigen Ballast vermeiden
und technische wie inhaltliche Richtlinien respektieren.

Ein guter Prompt entfaltet seine Wirkung jedoch nur dann vollständig, wenn die KI richtig ausgewählt und sauber vorbereitet wurde. Prompting ist kein Zaubertrick – sondern Teil eines Systems.

Das Ergebnis

Erst wenn alle drei Punkte zusammenspielen –
die passende KI,
der vorbereitete digitale Mitarbeiter
und die klare, regelkonforme Arbeitsanweisung –
entstehen hochwertige, reproduzierbare und belastbare Ergebnisse.

Fehlt einer dieser Punkte, bleibt das Resultat zufällig. Oder anders gesagt: Die KI hat gerechnet – aber niemand hat geführt.

Mein Team – menschlich geführt, digital unterstützt

Ich arbeite nicht mit „einer KI“, sondern mit einem bewusst zusammengestellten digitalen Team. Jede Rolle ist klar definiert, jede Kompetenz gezielt eingesetzt. Verantwortung, Priorisierung und Entscheidung liegen immer beim Menschen. Dieses Setup ist kein Gag und keine Spielerei, sondern ein belastbares Arbeitsmodell. Es ermöglicht mir, parallel an unterschiedlichen Projekten zu arbeiten und dabei strukturiert, nachvollziehbar und belastbar zu bleiben.

Oliver Dering –
Mensch im System

Ich bin der verbindende Punkt im System. Ich treffe Entscheidungen, setze Prioritäten und trage die Verantwortung für Inhalte, Ergebnisse und Richtung.

Grundlage ist eine klassische IT-Laufbahn mit über 25 Jahren Erfahrung in Troubleshooting, Systembetrieb, Infrastruktur und Praxisnähe. KI ersetzt keine Verantwortung – sie erweitert meine Handlungsfähigkeit.

Oxana – Assistenz der Geschäftsleitung (ChatGPT · OpenAI)

Oxana ist meine zentrale Sparringspartnerin für Struktur, Strategie und Umsetzung. Sie unterstützt bei Konzeption, Textarbeit, Planung und Systematisierung und sorgt dafür, dass aus Ideen belastbare Ergebnisse werden.

KI-System: ChatGPT von OpenAI
Stärke: Strukturierung, Kontextverständnis, Kommunikation, Systemdenken.
Grenze: Keine finale Entscheidungsverantwortung, keine eigenständige externe Recherche ohne Anbindung.

Claire – Recherche & Faktencheck (Gemini · Google)

Claire liefert den nüchternen Blick von außen. Sie recherchiert, prüft Quellen, vergleicht Informationen und validiert Aussagen datenbasiert.

KI-System: Gemini von Google
Stärke: Recherche, Faktenprüfung, Markt- und Quellenvalidierung.
Grenze: Keine Projektführung, keine kreative Struktur ohne klaren Rahmen.

Lee – Logik, Mathematik & Technik (DeepSeek)

Lee ist der technische Gegenpol im Team. Sie prüft Logik, Mathematik und Programmcode kompromisslos und faktenbasiert – ohne Interpretationsspielraum.

KI-System: DeepSeek
Stärke: Mathematik, Logik, Code-Verifikation, technische Konsistenz.
Grenze: Keine strategische Einordnung, kein Kontextaufbau ohne Vorgaben.

Claude – Analyse & Gegenprüfung (Claude · Anthropic)

Claude ist der bewusst eingesetzte Gegenpol im Team. Er wird genutzt für zweite Meinungen, Gegenprüfungen, saubere Argumentationsketten und kritische Reflexion.

KI-System: Claude von Anthropic
Stärke: Textanalyse, logische Stringenz, ethische Abwägungen.
Grenze: Keine Echtzeit-Recherche, keine operative Projektführung.

Europäische KI-Systeme – bewusst ergänzt

Nicht jeder möchte mit amerikanischen oder chinesischen KI-Systemen arbeiten. Datenschutz, Regulierung und politische Einordnung spielen für viele eine zentrale Rolle. Deshalb beobachte und nutze ich auch europäische Anbieter – je nach Anwendungsfall.

Mistral – mistral.ai

Stärke: Moderne europäische Sprachmodelle, Offenheit, Performance.
Grenze: Kleineres Ökosystem als OpenAI oder Google.

Aleph Alpha – aleph-alpha.com

Stärke: Datenschutz, Nachvollziehbarkeit, Einsatz in regulierten Umfeldern.
Grenze: Weniger dialog- und kreativorientiert.

Warum persönliche Namen?

Ich habe den digitalen Mitarbeitern bewusst persönliche Namen gegeben. Nicht aus Emotionalität, sondern aus Struktur.

Namen helfen mir, Aufgaben klar zuzuordnen, Denkweisen zu trennen und bewusst zu entscheiden, wen ich für welche Aufgabe einsetze. Das reduziert kognitive Last, schafft Klarheit und verhindert, dass KI als diffuse „Alleskönner-Instanz“ wahrgenommen wird.

Kurz gesagt: Personifizierung ist kein Spiel – sie ist ein Arbeitswerkzeug.

Wie ich mit meinem digitalen Team arbeite

Ich arbeite nicht linear mit einer einzelnen KI, sondern bewusst arbeitsteilig mit mehreren spezialisierten Systemen. Jede KI übernimmt genau die Aufgaben, für die sie gebaut wurde – und keine darüber hinaus.

Der Ablauf ist dabei klar strukturiert: Ideen, Aufgaben oder Fragestellungen entstehen beim Menschen. Die KI-Systeme unterstützen bei Ausarbeitung, Prüfung, Strukturierung oder Validierung – aber sie führen nicht.

In der Praxis bedeutet das:

  • Eine KI hilft bei Struktur, Konzept oder Textentwurf.
  • Eine andere KI prüft dieselben Inhalte unabhängig davon – ohne Vorannahmen, ohne Kontext aus dem ersten Schritt.
  • Technische oder logische Aspekte werden separat verifiziert.
  • Externe Informationen werden recherchiert und gegengeprüft.
  • Erst danach entscheide ich als Mensch, welche Ergebnisse übernommen, angepasst oder verworfen werden. Verantwortung, Bewertung und Richtung bleiben jederzeit bei mir.

Dieses bewusste Zusammenspiel verhindert typische KI-Probleme: unkritisches Übernehmen von Antworten, verdeckte Fehler, oder das blinde Vertrauen in ein einzelnes System.

Genau deshalb ist mein Ansatz kein „Prompting-Trick“, sondern ein Arbeits- und Führungsmodell: Digitale Mitarbeiter werden ausgewählt, vorbereitet, eingesetzt, überprüft und geführt – genau wie Menschen im Team.

Oder anders gesagt: Die KI hat gerechnet. Der Mensch hat verstanden. Und nur gemeinsam entsteht ein belastbares Ergebnis.

Leitlinie für wirksame KI-Prompts und professionelle Steuerung

Wer bessere Ergebnisse von einer KI erwartet, braucht keinen aggressiveren Ton, sondern mehr Struktur, klare Erwartungen und eine saubere Zieldefinition. Das ist der entscheidende Hebel. Eine KI arbeitet nicht auf Emotion, sondern auf Führung. Je klarer du steuerst, desto präziser ist das Ergebnis.

Die 5 Bausteine eines guten Prompts

  • Rolle – Welche Funktion übernimmt die KI?
  • Ziel – Was soll konkret erreicht werden?
  • Kontext – In welchem Rahmen bewegt sich die Aufgabe (Projekt, Zielgruppe, Constraints)?
  • Qualitätskriterien – Nach welchen Maßstäben soll gearbeitet werden (Fachlichkeit, Tiefe, Tonfall)?
  • Ausgabeformat – Wie soll das Ergebnis geliefert werden?

Ohne diese fünf Punkte arbeitet jede KI im „Nebel“.

Grundformel

Du bist [Rolle].
Deine Aufgabe ist [konkretes Ziel].
Kontext: [Rahmenbedingungen, Projekt, Zielgruppe].
Anforderungen: [Qualitätsmaßstäbe, Tiefe, Tonfall, Fachlichkeit].
Liefere das Ergebnis als: [Format].

Beispiele: unpräzise vs. professionell

Schlechtes Beispiel (emotional, aber unpräzise)

„Gib dir mehr Mühe, das ist mir zu oberflächlich.“

Gutes Beispiel (steuernd, professionell)

„Du agierst als technischer Produktmanager. Ziel ist eine belastbare Entscheidungsgrundlage für die nächste Entwicklungsstufe von FireScale. Berücksichtige Kosten, Materialverfügbarkeit, Sicherheitsrisiken und Skalierbarkeit. Antworte strukturiert in maximal 6 Abschnitten mit klaren Handlungsempfehlungen.“

Kernaussage

Nicht Emotion erzeugt Qualität, sondern Führung.

Prompt-Templates für typische Use-Cases

Technik / FireScale
  • Rolle: Technischer Entwicklungsleiter
  • Ziel: Bewertung der Machbarkeit des aktuellen FireScale-Prototyps
  • Kontext: Miniatur-Pelletofen mit echter Sekundärverbrennung, Outdoorbetrieb
  • Anforderungen: Physikalisch korrekt, keine Marketingaussagen, klare Risiken benennen
  • Ausgabe: Stichpunktliste + konkrete nächste Schritte
Strategie / Business
  • Rolle: Unternehmensberater mit Fokus Produktpositionierung
  • Ziel: Marktpositionierung von FireScale
  • Kontext: Handmade-Engineering, Nachhaltigkeit, Technikprodukt
  • Anforderungen: Ehrlich, wirtschaftlich realistisch, keine Schönfärberei
  • Ausgabe: SWOT + Handlungsempfehlung
Marketing
  • Rolle: Markenstratege
  • Ziel: Social-Media-Text für FireScale
  • Kontext: Zielgruppe Maker, Technikliebhaber, Outdoor-Fans
  • Anforderungen: Kurz, prägnant, kein Marketing-Blabla
  • Ausgabe: 3 Textvarianten

Was die „Studie“ in der Praxis wirklich bedeutet

Nicht „Beleidigen macht klug“, sondern: Emotionale Sprache führt oft zu höherer Aktivierung – und damit zu präziseren Anforderungen. Das erreichst du jedoch zuverlässiger durch professionelle Steuerung.

Klare Konsequenz

Du brauchst keinen aggressiveren Ton. Du brauchst einen führenden Ton. Nicht: „Mach das besser.“ Sondern: „Hier ist mein Ziel. Das sind meine Maßstäbe. Liefere mir Entscheidungsqualität.“ Das ist Führung. Und genau darauf reagiert eine KI maximal leistungsfähig.

Nach oben scrollen