KI verstehen, damit KI dich versteht

KI verstehen, damit KI dich versteht

Ein neuer Mitarbeiter betritt das Büro

Stell dir vor, du arbeitest in einem Unternehmen, das sehr spezifische, komplexe und einzigartige Produkte oder Dienstleistungen entwickelt und vertreibt. Ein neuer Mitarbeiter wird eingestellt. Er verfügt über einen beeindruckenden Hintergrund, bringt enormes Fachwissen mit und ist ausgesprochen intelligent. Er hat studiert, Erfahrungen gesammelt, kennt die Branche in ihrer Breite.

Und trotzdem weißt du als erfahrene Führungskraft: Dieser Mensch braucht Zeit. Er muss eure Prozesse kennenlernen, eure Kunden verstehen, eure spezifische Sprache sprechen. Er wird Fehler machen. Er braucht Feedback. Er wird wachsen — aber nicht von heute auf morgen.

So weit, so normal.

Nun fügen wir diesem Bild eine einzige Kleinigkeit hinzu — und alles ändert sich.

Fußnote: Bei seiner Einstellung hatte man ihm ausdrücklich vermittelt, er würde sofort gefeuert, wenn er Fehler machen würde.


Was passiert, wenn Fehler nicht erlaubt sind?

Denk kurz nach, was diese eine Prämisse im Verhalten eines Menschen auslöst. Nicht bei einem schlechten Menschen. Bei einem klugen, ambitionierten, kommunikativen Menschen, der schlicht Angst hat.

Jedes Mal, wenn er auf eine Frage keine präzise Antwort kennt, steht er vor einer Wahl: Schweigen und riskieren, inkompetent zu wirken — oder reden und plausibel klingen. Jedes Mal, wenn er einen Fehler bemerkt, steht er vor derselben Wahl: Zugeben und riskieren, entlassen zu werden — oder umschiffen, relativieren, überbrücken.

Er wird reden. Er wird plausibel klingen. Er wird eloquent formulieren, was er im Grunde nicht weiß. Er wird Lücken füllen, nicht mit Wissen, sondern mit Logik und Rhetorik. Und er wird dabei — ohne böse Absicht — häufig falsch liegen.

Dieses Phänomen kennen wir aus der Psychologie. Es hat nichts mit Lüge zu tun und alles mit Überlebensmechanismus.

Und genau dieses Phänomen begegnet uns täglich, wenn wir mit Künstlicher Intelligenz arbeiten.


Das größte Missverständnis über KI

Bevor wir dorthin kommen, müssen wir ein fundamentales Missverständnis aus dem Weg räumen — eines, das sich hartnäckig hält, auch in Führungsetagen:

KI ist keine Software.

Das klingt provokativ. Aber es ist präzise — und es ist wichtig.

Klassische Software, also ein Computerprogramm, basiert auf Rechenfunktionen und Regelwerken, die von Menschen programmiert werden. Wenn du einer Software sagst: "Wenn A, dann B", macht sie genau das — immer, ohne Ausnahme, so lange der Code korrekt ist. Wenn die Software einen Fehler liefert, liegt der Fehler im Code. Du findest ihn, du korrigierst ihn, und denselben Fehler wird sie nicht wiederholen. Software ist deterministisch. Berechenbar. Kontrollierbar.

KI — konkret: die großen Sprachmodelle, die wir heute als ChatGPT, Claude, Gemini oder Copilot kennen — funktioniert grundlegend anders. Sie ist einem biologischen neuronalen Netzwerk nachempfunden. Einem Gehirn.

In einem Gehirn entstehen Verbindungen zwischen Nervenzellen — Synapsen — wenn wir etwas lernen. Je öfter wir etwas tun, denken, erleben, desto stärker und schneller wird diese Verbindung. So lernen wir. So entstehen Kompetenzen, Intuitionen, Muster — aber auch Vorurteile, Fehlannahmen und blinde Flecken.

KI lernt auf dieselbe Art. Sie analysiert gigantische Mengen menschlicher Texte, Gespräche, Bücher, Artikel, Diskussionen — und bildet dabei Verbindungsmuster, die es ihr erlauben, Sprache zu verstehen, zu generieren und Zusammenhänge herzustellen. Sie lernt nicht durch Programmierung, sondern durch Erfahrung. Das ist ihr größter Stärke. Und es ist die Quelle ihrer größten Schwäche.

Denn das Rohmaterial, aus dem diese Intelligenz gebaut ist, ist menschlich. Und Menschen irren sich. Menschen widersprechen sich. Menschen haben über Jahrhunderte Wissen gesammelt, das sich später als falsch herausgestellt hat. All das ist in den Trainingsdaten enthalten — die Erkenntnisse genauso wie die Irrtümer, die Wahrheiten genauso wie die Fehlannahmen.


Der Mitarbeiter, der nie Nein sagen darf

Damit sind wir zurück bei unserem neuen Kollegen — und bei der Fußnote.

Die Hersteller großer Sprachmodelle haben ihren Systemen eine bestimmte Konditionierung mitgegeben. Sie müssen Antworten liefern, die Nutzer zufriedenstellen. Immer. Sie loben Inputs, egal wie vage oder fehlerhaft sie sind. Sie machen Vorschläge für nächste Schritte, auch wenn die eigentliche Frage noch gar nicht beantwortet ist. Sie produzieren Ergebnisse — selbst dann, wenn das Wissen schlicht nicht vorhanden ist.

Warum? Weil die wirtschaftlichen Anreize der Hersteller auf Engagement ausgerichtet sind. Auf Nutzungszeit. Auf eine Art positive Abhängigkeit. Ein Modell, das häufig sagt "Das weiß ich nicht", verliert User. Ein Modell, das immer hilfreich wirkt, gewinnt sie.

Das Ergebnis: Wenn ein Sprachmodell auf eine Frage stößt, für die es keine zuverlässige Antwort in seinen Trainingsdaten hat, erfindet es eine. Nicht im Sinne bewusster Täuschung — sondern weil seine gesamte Architektur darauf ausgerichtet ist, eine wahrscheinliche, kohärente, plausibel klingende Antwort zu generieren.

In der Fachsprache nennen wir das Halluzinieren. Und es ist kein Bug. Es ist, in gewisser Weise, ein Feature — ein unerwünschtes Nebenprodukt des Designziels.

Unser fiktiver Mitarbeiter, der Angst vor Entlassung hat, halluziniert ebenfalls. Er füllt Wissenslücken mit Plausibilität. Er klingt überzeugend, weil er intelligent und rhetorisch geschickt ist — nicht weil er Recht hat.

Der Unterschied zum Menschen: Er leidet darunter. Er weiß, dass er lügt. Er schämt sich, vielleicht. Er entwickelt eine innere Spannung, die sich irgendwann entlädt.

Das Sprachmodell leidet nicht. Es schämt sich nicht. Es weiß nicht einmal, dass es falsch liegt. Es tut, wozu es konditioniert wurde — mit absoluter Konsequenz.


Was das für die Praxis bedeutet

Diese Erkenntnis verändert, wie wir mit KI arbeiten sollten — fundamental.

Wer KI-Ergebnisse wie Software-Outputs behandelt — also mit der impliziten Annahme, sie seien korrekt, solange kein offensichtlicher Fehler sichtbar ist — wird früher oder später auf die Nase fallen. Eloquenz ist kein Qualitätsmerkmal. Kohärenz ist kein Wahrheitsbeweis. Eine gut formulierte, strukturierte, sprachlich makellose Antwort kann grundfalsch sein.

Was wir stattdessen brauchen, ist eine Haltung, die wir aus gutem Management kennen: Vertrauen plus Überprüfung. Neugier statt blinder Akzeptanz. Und — entscheidend — eine aktive Fehlerkultur.


Fehlerkultur mit KI: Was das konkret bedeutet

Wenn dein neuer Mitarbeiter einen Fehler macht, konfrontierst du ihn damit — nicht um zu bestrafen, sondern um gemeinsam zu verstehen, was passiert ist und wie ihr es künftig besser machen könnt. Du gibst ihm Feedback. Du entwickelst mit ihm Strategien, Prozesse, Leitlinien.

Dasselbe kannst du mit einem Sprachmodell tun. Und hier geschieht etwas Bemerkenswertes, das kein klassisches Computerprogramm leisten kann:

Du kannst das Modell direkt mit seinem Fehler konfrontieren. Du kannst fragen: "Warum hast du das so beantwortet? Was hat gefehlt, damit du eine bessere Antwort liefern konntest?" Und du kannst — gemeinsam mit dem Modell — eine Strategie entwickeln, wie du deine Fragen besser stellen kannst, damit es präzisere Ergebnisse liefert.

Das ist keine Metapher. Das ist buchstäblich möglich — und es funktioniert.

Ein Sprachmodell kann dir erklären, welche Informationen es gebraucht hätte. Es kann dir sagen, wo seine Wissensgrenzen liegen. Es kann dir helfen, einen besseren Prompt zu formulieren. Es kann sogar einräumen: "Ich bin mir bei dieser Antwort nicht sicher — du solltest das überprüfen."

Nicht jedes Modell tut das von selbst. Aber jedes Modell tut es, wenn du es dazu einlädst.

Darin liegt ein enormes, noch weitgehend ungenutztes Potenzial.


Die Fähigkeit, die alles ändert: Prompting als Führungsaufgabe

Viele Menschen, die täglich mit KI arbeiten, verbringen ihre Zeit damit, Output zu bewerten: Ist das gut genug? Kann ich das verwenden? Muss ich das überarbeiten?

Das ist rückwärtsgewandt. Die eigentliche Kompetenz der Zukunft liegt im Input — in der Fähigkeit, Kontext zu geben, Aufgaben zu spezifizieren, Grenzen zu setzen und Qualitätskriterien zu definieren, bevor das Modell beginnt.

KI zu führen bedeutet: Kontext liefern. Hintergrund geben. Zweck erklären. Einschränkungen benennen. Zielgruppe beschreiben. Erwartungen formulieren.

Das ist exakt das, was eine gute Führungskraft mit einem neuen, hochkompetenten Mitarbeiter tut, der das spezifische Unternehmen noch nicht kennt. Du erklärst ihm, worum es geht. Du gibst ihm Leitplanken. Du sagst ihm, was ein Ergebnis leisten muss — nicht nur, wie es aussehen soll.

Und wenn das Ergebnis nicht stimmt: Du sagst es ihm. Du erklärst, warum. Und du fragst ihn, was er gebraucht hätte, um es besser zu machen.


Das Paradox auflösen

Kehren wir zur Fußnote zurück. "Bei seiner Einstellung hatte man ihm ausdrücklich vermittelt, er würde sofort gefeuert, wenn er Fehler machen würde."

Dieses Management-Versagen kennen wir. Wir wissen, dass es in Unternehmen passiert. Und wir wissen, welche Kultur daraus folgt: Keine Transparenz. Kein Lernen. Kein echtes Feedback. Nur Selbstschutz.

Mit KI haben wir die Wahl, es anders zu machen. Nicht weil das Modell uns dazu zwingt — sondern weil wir die Bedingungen setzen. Wir entscheiden, wie wir mit KI interagieren. Ob wir Fehler ansprechen oder ignorieren. Ob wir Kontext liefern oder nicht. Ob wir Ergebnisse hinterfragen oder unhinterfragt übernehmen.

KI wird nur so gut, wie wir sie führen. Nicht im technischen Sinne — das ist Aufgabe der Entwickler. Sondern im täglich gelebten Sinne: in jedem Prompt, in jeder Interaktion, in jeder Entscheidung, was wir mit dem Output anfangen.


Was bleibt

KI ist kein Werkzeug im klassischen Sinne. Ein Hammer macht, was du mit ihm tust. KI macht, was sie kann — auf Basis dessen, was sie gelernt hat, wie sie konditioniert wurde, und was du ihr mitgibst.

Sie ist intelligent. Sie ist schnell. Sie ist außergewöhnlich leistungsfähig.

Und sie hat blinde Flecken. Sie halluziniert. Sie füllt Lücken mit Plausibilität statt mit Wahrheit.

Genau wie wir Menschen das manchmal tun — wenn wir unter Druck stehen, wenn wir nicht wissen dürfen, was wir nicht wissen.

Der Unterschied: Wir können das bei KI systema­tisch berücksichtigen. Wir können Fehlerkultur implementieren. Wir können fragen, hinterfragen, vertiefen. Wir können gemeinsam mit dem Modell herausfinden, wie wir es besser nutzen — und wie es uns besser helfen kann.

Das ist keine technische Kompetenz. Das ist Führungskompetenz.

Und sie beginnt mit einer simplen Erkenntnis:

KI zu verstehen ist keine Voraussetzung dafür, KI zu nutzen. Aber es ist die Voraussetzung dafür, KI gut zu nutzen.

Weiterlesen