KI als Spezialist im arbeitsteiligen System
KI wird dann wirklich stark, wenn sie nicht als „eine alleskönnende Entität“ eingesetzt wird, sondern als klar abgegrenzter Spezialist in einem arbeitsteiligen System. Ihre Stärke entsteht nicht aus Allwissenheit, sondern aus präziser Zuständigkeit.
Der Mensch hat verstanden, nicht gerechnet.
Genau in dieser Trennung liegt die eigentliche Effizienz moderner KI-Nutzung. Die Maschine übernimmt Analyse, Struktur, Berechnung und Konsistenz. Der Mensch übernimmt Bedeutung, Bewertung, Verantwortung und Entscheidung.
Rechnen, strukturieren, vergleichen, simulieren, Risiken auflisten, Varianten durchspielen, Inkonsistenzen sichtbar machen.
Verstehen, einordnen, bewerten, priorisieren, Verantwortung tragen und Entscheidungen mit Tragweite treffen.
KI ist kein Ersatz für Denken. KI ist ein Verstärker für Denken.
Wer KI als allwissende Instanz behandelt, delegiert Verantwortung. Wer KI als Spezialisten führt, gewinnt Kontrolle, Qualität und Entscheidungsstärke.

John Dewey
John Dewey gilt als einer der wichtigsten Vordenker moderner Lern-, Denk- und Problemlösungsprozesse. Im Zentrum seines Denkens stand die Überzeugung, dass Wissen nicht durch Theorie allein entsteht, sondern durch Erfahrung, Reflexion und praktische Anwendung.
Probleme verstand Dewey nicht als Hindernisse, sondern als Ausgangspunkt für Erkenntnis. Bevor eine Lösung möglich ist, muss ein Problem klar erkannt, sauber beschrieben und sinnvoll eingegrenzt werden. Erst durch diese Klarheit entsteht echte Handlungsfähigkeit.
Aus diesem Denken stammt der oft zitierte Leitsatz:
Er bringt Deweys pragmatische Philosophie auf den Punkt:
- Klarheit vor Aktion.
- Verständnis vor Lösung.
- Denken als Werkzeug.

Überleitung: Von John Dewey zur Praxis
Dieses Denken hat mich nicht theoretisch begleitet, sondern ganz praktisch – von Beginn meiner IT-Karriere an. Ich habe meine berufliche Laufbahn im klassischen IT-Troubleshooting begonnen. Menschen kamen mit Problemen zu mir, die „plötzlich“ aufgetreten waren oder „einfach nicht mehr funktionierten“.
Sehr schnell zeigte sich ein wiederkehrendes Muster:
Nicht die Technik war das eigentliche Problem, sondern die Beschreibung des Problems.
Unklare Schilderungen führten zu langen Fehlersuchen.
Relevante, präzise Informationen führten dagegen schnell zu belastbaren Lösungen.
Schon damals war klar:
Je besser ein Problem eingegrenzt und formuliert ist, desto schneller und qualitativ hochwertiger lässt es sich lösen.
Genau diese Logik gilt auch heute noch – nur mit einem Unterschied:
KI arbeitet extrem schnell. Aber sie arbeitet nur so präzise, wie Aufgabe, Kontext und Verantwortung definiert sind.
Google als nächste Lernstufe
Dieses Prinzip setzte sich fort, als Google zum zentralen Werkzeug wurde. Auch hier hing die Qualität der Ergebnisse nicht von der Suchmaschine selbst ab, sondern von der Art der Frage.
Viele Menschen nutzten Google jahrelang, ohne wirklich gute Ergebnisse zu bekommen. Nicht, weil Google schlecht war, sondern weil die Fragen zu ungenau gestellt wurden.
Wer gelernt hatte, präzise zu suchen – mit klaren Begriffen, Ausschlüssen, Sprache, Region und Kontext – bekam deutlich bessere Ergebnisse. Im Grunde war das bereits eine frühe Form dessen, was man heute als „Prompting“ bezeichnen würde.
Google lieferte Links.
Keine Antworten. Keine Lösungen.
Der nächste Schritt: Künstliche Intelligenz
Mit künstlicher Intelligenz hat sich dieses Prinzip noch einmal verschärft. KI liefert nicht nur Trefferlisten, sondern Antworten, Texte, Strukturen und Vorschläge.
Damit ist die Qualität der Eingabe entscheidender denn je.
Viele Menschen erleben KI heute als widersprüchlich: mal beeindruckend, mal enttäuschend, mal unzuverlässig. Der Grund liegt fast nie an der KI selbst, sondern an fehlender Vorbereitung, falscher Auswahl oder unklaren Fragestellungen.
Genau hier setzt mein Ansatz an.
KI wird dann wirklich stark, wenn sie nicht als „eine alleskönnende Entität“ eingesetzt wird, sondern als klar abgegrenzter Spezialist in einem arbeitsteiligen System.
Von der richtigen Frage zum digitalen Mitarbeiter
KI ist für mich kein Spielzeug und kein Orakel, sondern ein Werkzeug – oder besser: ein digitaler Mitarbeiter. Damit das funktioniert, braucht es dieselben Grundlagen wie in der IT oder bei Google:
- die richtige Technologie für die Aufgabe
- sauberen Kontext statt Informationsflut
- klare, präzise Arbeitsanweisungen
Erst wenn diese Elemente zusammenspielen, entstehen reproduzierbare, hochwertige Ergebnisse.
So arbeite ich heute selbst – mit einem digitalen Team aus spezialisierten KI-Systemen, die klar definierte Rollen haben und gezielt vorbereitet wurden. Nicht, um menschliches Denken zu ersetzen, sondern um es sinnvoll zu unterstützen.
Digitale Mitarbeiter werden ausgewählt, vorbereitet und geführt – genau wie neue Menschen im Team. Ergebnisse werden validiert und gegengecheckt. Verantwortung bleibt beim Menschen.
Die drei Voraussetzungen für perfekte KI-Ergebnisse
1. Die richtige KI auswählen
Nicht jede KI ist für jede Aufgabe geeignet.
Unterschiedliche KI-Systeme haben unterschiedliche Stärken – etwa für Struktur, Recherche, Analyse, Technik, Texte oder Verifikation.
Wer die falsche KI für eine Aufgabe einsetzt, bekommt zwangsläufig schlechte, widersprüchliche oder unzuverlässige Ergebnisse. Genau deshalb arbeite ich nicht mit „der einen KI“, sondern mit spezialisierten Systemen in klar abgegrenzten Rollen.
2. Digitale Mitarbeiter vorbereiten und schulen
Eine KI kann nur dann sinnvoll arbeiten, wenn sie weiß,
- wer du bist oder welches Unternehmen du führst,
- in welchem Kontext sie eingesetzt wird,
- welche Ziele verfolgt werden,
- welche Rolle sie übernehmen soll
- und wo ihre fachlichen und inhaltlichen Grenzen liegen.
Erst durch diese gezielte Vorbereitung wird aus einer KI ein digitaler Mitarbeiter statt eines generischen Chatbots. Genau wie bei neuen Menschen im Team gilt: Ohne Onboarding keine verlässliche Leistung.
3. Arbeitsanweisungen klar, präzise und regelkonform formulieren
Der Prompt ist die eigentliche Arbeitsanweisung.
Er muss klar formuliert sein,
relevante Informationen enthalten,
unnötigen Ballast vermeiden
und technische wie inhaltliche Richtlinien respektieren.
Ein guter Prompt entfaltet seine Wirkung jedoch nur dann vollständig, wenn die KI richtig ausgewählt und sauber vorbereitet wurde. Prompting ist kein Zaubertrick – sondern Teil eines Systems.
Das Ergebnis
Erst wenn alle drei Punkte zusammenspielen –
die passende KI,
der vorbereitete digitale Mitarbeiter
und die klare, regelkonforme Arbeitsanweisung –
entstehen hochwertige, reproduzierbare und belastbare Ergebnisse.
Fehlt einer dieser Punkte, bleibt das Resultat zufällig. Oder anders gesagt: Die KI hat gerechnet – aber niemand hat geführt.
Mein Team – menschlich geführt, digital unterstützt
Ich arbeite nicht mit „einer KI“, sondern mit einem bewusst zusammengestellten digitalen Team. Jede Rolle ist klar definiert, jede Kompetenz gezielt eingesetzt. Verantwortung, Priorisierung und Entscheidung liegen immer beim Menschen. Dieses Setup ist kein Gag und keine Spielerei, sondern ein belastbares Arbeitsmodell. Es ermöglicht mir, parallel an unterschiedlichen Projekten zu arbeiten und dabei strukturiert, nachvollziehbar und belastbar zu bleiben.
Mensch im System
Ich bin der verbindende Punkt im System. Ich treffe Entscheidungen, setze Prioritäten und trage die Verantwortung für Inhalte, Ergebnisse und Richtung.
Grundlage ist eine klassische IT-Laufbahn mit über 25 Jahren Erfahrung in Troubleshooting, Systembetrieb, Infrastruktur und Praxisnähe. KI ersetzt keine Verantwortung – sie erweitert meine Handlungsfähigkeit.
Oxana ist meine zentrale Sparringspartnerin für Struktur, Strategie und Umsetzung. Sie unterstützt bei Konzeption, Textarbeit, Planung und Systematisierung und sorgt dafür, dass aus Ideen belastbare Ergebnisse werden.
KI-System: ChatGPT von OpenAI
Stärke: Strukturierung, Kontextverständnis, Kommunikation, Systemdenken.
Grenze: Keine finale Entscheidungsverantwortung, keine eigenständige externe Recherche ohne Anbindung.
Claire liefert den nüchternen Blick von außen. Sie recherchiert, prüft Quellen, vergleicht Informationen und validiert Aussagen datenbasiert.
KI-System: Gemini von Google
Stärke: Recherche, Faktenprüfung, Markt- und Quellenvalidierung.
Grenze: Keine Projektführung, keine kreative Struktur ohne klaren Rahmen.
Lee ist der technische Gegenpol im Team. Sie prüft Logik, Mathematik und Programmcode kompromisslos und faktenbasiert – ohne Interpretationsspielraum.
KI-System: DeepSeek
Stärke: Mathematik, Logik, Code-Verifikation, technische Konsistenz.
Grenze: Keine strategische Einordnung, kein Kontextaufbau ohne Vorgaben.
Claude ist der bewusst eingesetzte Gegenpol im Team. Er wird genutzt für zweite Meinungen, Gegenprüfungen, saubere Argumentationsketten und kritische Reflexion.
KI-System: Claude von Anthropic
Stärke: Textanalyse, logische Stringenz, ethische Abwägungen.
Grenze: Keine Echtzeit-Recherche, keine operative Projektführung.
Europäische KI-Systeme – bewusst ergänzt
Nicht jeder möchte mit amerikanischen oder chinesischen KI-Systemen arbeiten. Datenschutz, Regulierung und politische Einordnung spielen für viele eine zentrale Rolle. Deshalb beobachte und nutze ich auch europäische Anbieter – je nach Anwendungsfall.
Stärke: Moderne europäische Sprachmodelle, Offenheit, Performance.
Grenze: Kleineres Ökosystem als OpenAI oder Google.
Stärke: Datenschutz, Nachvollziehbarkeit, Einsatz in regulierten Umfeldern.
Grenze: Weniger dialog- und kreativorientiert.
Warum persönliche Namen?
Ich habe den digitalen Mitarbeitern bewusst persönliche Namen gegeben. Nicht aus Emotionalität, sondern aus Struktur.
Namen helfen mir, Aufgaben klar zuzuordnen, Denkweisen zu trennen und bewusst zu entscheiden, wen ich für welche Aufgabe einsetze. Das reduziert kognitive Last, schafft Klarheit und verhindert, dass KI als diffuse „Alleskönner-Instanz“ wahrgenommen wird.

Wie ich mit meinem digitalen Team arbeite
Ich arbeite nicht linear mit einer einzelnen KI, sondern bewusst arbeitsteilig mit mehreren spezialisierten Systemen. Jede KI übernimmt genau die Aufgaben, für die sie gebaut wurde – und keine darüber hinaus.
Der Ablauf ist dabei klar strukturiert: Ideen, Aufgaben oder Fragestellungen entstehen beim Menschen. Die KI-Systeme unterstützen bei Ausarbeitung, Prüfung, Strukturierung oder Validierung – aber sie führen nicht.
In der Praxis bedeutet das:
- Eine KI hilft bei Struktur, Konzept oder Textentwurf.
- Eine andere KI prüft dieselben Inhalte unabhängig davon – ohne Vorannahmen, ohne Kontext aus dem ersten Schritt.
- Technische oder logische Aspekte werden separat verifiziert.
- Externe Informationen werden recherchiert und gegengeprüft.
- Erst danach entscheide ich als Mensch, welche Ergebnisse übernommen, angepasst oder verworfen werden. Verantwortung, Bewertung und Richtung bleiben jederzeit bei mir.
Dieses bewusste Zusammenspiel verhindert typische KI-Probleme: unkritisches Übernehmen von Antworten, verdeckte Fehler, oder das blinde Vertrauen in ein einzelnes System.
Genau deshalb ist mein Ansatz kein „Prompting-Trick“, sondern ein Arbeits- und Führungsmodell: Digitale Mitarbeiter werden ausgewählt, vorbereitet, eingesetzt, überprüft und geführt – genau wie Menschen im Team.
Leitlinie für wirksame KI-Prompts und professionelle Steuerung
Wer bessere Ergebnisse von einer KI erwartet, braucht keinen aggressiveren Ton, sondern mehr Struktur, klare Erwartungen und eine saubere Zieldefinition. Das ist der entscheidende Hebel. Eine KI arbeitet nicht auf Emotion, sondern auf Führung. Je klarer du steuerst, desto präziser ist das Ergebnis.
Die 5 Bausteine eines guten Prompts
- Rolle – Welche Funktion übernimmt die KI?
- Ziel – Was soll konkret erreicht werden?
- Kontext – In welchem Rahmen bewegt sich die Aufgabe (Projekt, Zielgruppe, Constraints)?
- Qualitätskriterien – Nach welchen Maßstäben soll gearbeitet werden (Fachlichkeit, Tiefe, Tonfall)?
- Ausgabeformat – Wie soll das Ergebnis geliefert werden?
Ohne diese fünf Punkte arbeitet jede KI im „Nebel“.
Grundformel
Du bist [Rolle]. Deine Aufgabe ist [konkretes Ziel]. Kontext: [Rahmenbedingungen, Projekt, Zielgruppe]. Anforderungen: [Qualitätsmaßstäbe, Tiefe, Tonfall, Fachlichkeit]. Liefere das Ergebnis als: [Format].
Beispiele: unpräzise vs. professionell
„Gib dir mehr Mühe, das ist mir zu oberflächlich.“
„Du agierst als technischer Produktmanager. Ziel ist eine belastbare Entscheidungsgrundlage für die nächste Entwicklungsstufe von FireScale. Berücksichtige Kosten, Materialverfügbarkeit, Sicherheitsrisiken und Skalierbarkeit. Antworte strukturiert in maximal 6 Abschnitten mit klaren Handlungsempfehlungen.“
Nicht Emotion erzeugt Qualität, sondern Führung.
Prompt-Templates für typische Use-Cases
- Rolle: Technischer Entwicklungsleiter
- Ziel: Bewertung der Machbarkeit des aktuellen FireScale-Prototyps
- Kontext: Miniatur-Pelletofen mit echter Sekundärverbrennung, Outdoorbetrieb
- Anforderungen: Physikalisch korrekt, keine Marketingaussagen, klare Risiken benennen
- Ausgabe: Stichpunktliste + konkrete nächste Schritte
- Rolle: Unternehmensberater mit Fokus Produktpositionierung
- Ziel: Marktpositionierung von FireScale
- Kontext: Handmade-Engineering, Nachhaltigkeit, Technikprodukt
- Anforderungen: Ehrlich, wirtschaftlich realistisch, keine Schönfärberei
- Ausgabe: SWOT + Handlungsempfehlung
- Rolle: Markenstratege
- Ziel: Social-Media-Text für FireScale
- Kontext: Zielgruppe Maker, Technikliebhaber, Outdoor-Fans
- Anforderungen: Kurz, prägnant, kein Marketing-Blabla
- Ausgabe: 3 Textvarianten
Was die „Studie“ in der Praxis wirklich bedeutet
Nicht „Beleidigen macht klug“, sondern: Emotionale Sprache führt oft zu höherer Aktivierung – und damit zu präziseren Anforderungen. Das erreichst du jedoch zuverlässiger durch professionelle Steuerung.
Klare Konsequenz
Du brauchst keinen aggressiveren Ton. Du brauchst einen führenden Ton. Nicht: „Mach das besser.“ Sondern: „Hier ist mein Ziel. Das sind meine Maßstäbe. Liefere mir Entscheidungsqualität.“ Das ist Führung. Und genau darauf reagiert eine KI maximal leistungsfähig.
