Nicht nur wie, sondern was

Nicht nur wie, sondern was

Warum KI die Frage nach den Inhalten von Bildung neu aufwirft

Ausgangslage

Wenn junge Menschen fragen, wofür sie das, was sie in der Schule lernen, später einmal brauchen werden, ist die Antwort oft unbefriedigend – für beide Seiten. Lehrende verweisen auf die Entwicklung von Entscheidungsfähigkeit, Kritikkompetenz und Charakterbildung. Das ist nicht falsch. Aber es wirft eine Frage auf, die erstaunlich selten gestellt wird: Woher wissen wir eigentlich, dass die konkreten Inhalte, die heute in Lehrplänen stehen, tatsächlich zu diesen Zielen führen?

Diese Frage ist nicht akademisch. Sie hat unmittelbare Konsequenzen dafür, wie wir die nächste Generation auf eine Welt vorbereiten, die sich mit exponentieller Geschwindigkeit verändert. Das vorliegende Diskussionspapier argumentiert, dass wir nicht nur an der Art, wie Bildung vermittelt wird, arbeiten müssen – also am Wie –, sondern vor allem auch daran, was vermittelt wird und warum. Und dass Künstliche Intelligenz dabei nicht nur als Gegenstand oder Werkzeug im Unterricht eine Rolle spielen sollte, sondern als analytisches Instrument, das uns hilft, Lehrpläne selbst auf den Prüfstand zu stellen.

Was wir über Bildungsinhalte und ihre Wirkung wissen – und was nicht

Kritikfähigkeit: Kein Training ohne Substanz

Die kognitionspsychologische Forschung zeigt konsistent, dass kritisches Denken keine kontextfreie, abstrakt trainierbare Fähigkeit ist. Daniel Willingham und andere haben nachgewiesen, dass die Fähigkeit, in einem bestimmten Bereich kritisch zu urteilen, sehr stark an das Domänenwissen in diesem Bereich gebunden ist. Wer viel über Geschichte weiss, kann historische Argumente kritisch beurteilen. Wer viel über Biologie weiss, kann biologische Behauptungen einordnen. Der Transfer zwischen Domänen ist jedoch überraschend gering. Daraus folgt: Es gibt keinen einzelnen Wissenskanon, der «Kritikfähigkeit im Allgemeinen» erzeugt. Was es gibt, ist der Befund, dass breites und tiefes Wissen in mehreren Bereichen die Wahrscheinlichkeit erhöht, dass jemand in neuen Situationen Analogien ziehen und Argumente prüfen kann.

Entscheidungskompetenz: Lehrbare Werkzeuge, poröser Transfer

Bei der Entscheidungsfähigkeit ist die Lage etwas klarer. Forscher wie Keith Stanovich haben gezeigt, dass bestimmte kognitive Werkzeuge – das Verständnis von Basisraten, die Unterscheidung von Korrelation und Kausalität, das Erkennen von Sunk-Cost-Fallen – gezielt gelehrt und trainiert werden können und in experimentellen Settings messbar zu besseren Entscheidungen führen. Hier gibt es also relativ klar benennbare Wissensinhalte. Allerdings zeigt die Forschung auch, dass das Wissen um einen Bias keineswegs zuverlässig davor schützt, ihm im Alltag zu unterliegen. Der Transfer vom Wissen zum Handeln bleibt porös.

Charakterbildung: Praxis statt Pensum

Am wenigsten greifbar ist die Lage bei der Charakterbildung. Die Forschung zeigt seit der grossen Hartshorne-und-May-Studie der 1920er Jahre, dass «Charakter» weit situationsabhängiger ist, als wir intuitiv annehmen. Neuere Ansätze aus der Positiven Psychologie (Seligman, Peterson) und der Tugendethik argumentieren, dass Tugenden wie Ausdauer, Fairness oder Selbstkontrolle durch Übung und Vorbilder kultiviert werden können. Aber «kultiviert» ist das operative Wort: Es handelt sich weniger um Wissensvermittlung als um Gewöhnung, Praxis und soziale Einbettung. Bildungsinhalte spielen dabei eine untergeordnete Rolle gegenüber der Art der Erfahrung, der Beziehung zu Lehrenden und dem, was als «heimlicher Lehrplan» bezeichnet wird.

Die Summe: Drei verschiedene Antworten

Die Empirie gibt keine einheitliche Antwort auf die Frage, welches Wissen Entscheidungskompetenz, Kritikfähigkeit und Charakterstärke fördert. Für Entscheidungskompetenz gibt es relativ gut identifizierbare kognitive Werkzeuge, die lehrbar sind. Für Kritikfähigkeit ist breites Domänenwissen entscheidend, aber kein einzelner Kanon lässt sich als «der richtige» identifizieren. Für Charakterbildung sind Wissensinhalte sekundär gegenüber Erfahrungen, Vorbildern und sozialen Praktiken. Was auffällt: Niemand hat je systematisch überprüft, ob die Summe dessen, was in einem Lehrplan steht, tatsächlich zu den Fähigkeiten führt, die als Ziel deklariert werden.

Lehrpläne: Sedimentschichten statt Strategie

Die Bildungsinhalte, die heute in Schulen vermittelt werden, stehen in Lehrplänen. Diese Lehrpläne haben sich im Laufe von Jahrzehnten entwickelt, indem sie von Menschen immer wieder angepasst wurden – nach technischen Entwicklungen, neuen wissenschaftlichen Erkenntnissen und ökonomischen Bedarfen. Was dabei entstanden ist, sind nicht das Resultat einer systematischen Analyse, sondern Kompromisse zwischen Beharrungskräften: Fachverbände, die ihr Fach verteidigen, Wirtschaftsvertreter, die bestimmte Qualifikationen fordern, politische Akteure, die gesellschaftliche Werte transportieren wollen, und Traditionen, die sich selbst perpetuieren.

Vieles steht in Lehrplänen, weil es dort immer schon stand. Vieles fehlt, weil niemand eine ausreichend mächtige Lobby dafür hat. Der Physikunterricht enthält Inhalte, die für das Industriezeitalter konzipiert wurden. Der Geschichtsunterricht folgt einer nationalstaatlichen Logik, die im 19. Jahrhundert wurzelt. Die Aufteilung in Fächer selbst ist ein Erbe preussischer Bildungsreform. Vieles davon mag noch wertvoll sein – aber das ist eine Behauptung, keine Analyse.

Die Europäischen Schulen überprüfen ihre Lehrpläne im Schnitt alle zehn Jahre, erstellt von Arbeitsgruppen nationaler Inspektoren und Experten. Das ist ein rein menschlicher, deliberativer Prozess, der sich in Tempo und Methode seit Jahrzehnten kaum verändert hat. In einer Welt graduellen Wandels war das tolerierbar. In einer Welt exponentieller Entwicklung ist es fahrlässig.

KI als analytisches Instrument für die Lehrplanentwicklung

Die gesamte Debatte in Europa dreht sich derzeit um zwei Dinge: KI als Gegenstand von Lehrplänen (Stichwort AI Literacy) und KI als Werkzeug im Unterricht (adaptive Lernsysteme, KI-Tutoren). Die OECD und die EU arbeiten an einem AI-Literacy-Framework, dessen finale Version 2026 erscheinen soll. Ethische Leitlinien für Lehrkräfte wurden veröffentlicht und aktualisiert.

Aber nirgendwo wird KI eingesetzt, um die fundamentale Frage zu beantworten: Was soll überhaupt gelehrt werden? Die gesamte Diskussion setzt den Lehrplan als gegeben voraus und fragt nur, wie man ihn besser vermittelt oder um KI-Kompetenz ergänzt. Es gibt eine bemerkenswerte Lücke: Niemand wendet die analytische Kraft von KI auf die Frage an, ob die Inhalte selbst noch stimmen.

Was KI konkret leisten könnte

KI könnte ein epistemisches Audit des Bildungssystems durchführen – und wäre dafür das einzige Werkzeug, das der Komplexität der Aufgabe gewachsen ist. Auf mehreren Ebenen gleichzeitig:

Kohärenzanalyse: Stehen die deklarierten Bildungsziele – Kritikfähigkeit, Entscheidungskompetenz, Mündigkeit – tatsächlich in einem belegbaren Zusammenhang mit den konkreten Inhalten, die gelehrt werden? Gibt es Inhalte, die keinem der erklärten Ziele zuordenbar sind und aus reiner Tradition fortbestehen? Und umgekehrt: Gibt es erklärte Ziele, für die im Lehrplan keinerlei Inhalt vorgesehen ist?

Wirkungsanalyse: Wenn man Längsschnittdaten von Schülern – ihre Lehrplaninhalte, ihre späteren Bildungswege, berufliche Entwicklungen, zivilgesellschaftliches Engagement – miteinander korreliert, zeigen sich dann Muster? Gibt es Inhalte oder Inhaltskombinationen, die statistisch signifikant mit bestimmten Outcomes zusammenhängen? Das wäre keine kausale Analyse, aber eine Hypothesengenerierung, die es bisher schlicht nicht gibt, weil die Datenmenge für menschliche Analyse zu gross ist.

Komparative Analyse: KI könnte die Lehrpläne aller OECD-Länder gleichzeitig analysieren und mit deren Bildungsergebnissen korrelieren. Nicht auf der simplen Ebene von PISA-Rankings, sondern differenziert: Welche Inhaltskonfigurationen korrelieren mit hoher Problemlösekompetenz? Welche mit Kooperationsfähigkeit? Welche Länder lehren Dinge, die nachweislich keinen Beitrag leisten – und welche lehren Dinge, die andere übersehen?

Was KI nicht leisten kann – und warum das kein Gegenargument ist

KI kann nur optimieren, was sich messen lässt. Und das Wesentliche an Bildung – der Moment, in dem ein Schüler zum ersten Mal versteht, dass eine Frage keine eindeutige Antwort hat; das Erlebnis, trotz Angst vor der Klasse zu sprechen; die stille Wirkung eines Lehrers, der Respekt vorlebt – entzieht sich der Messung. Goodhart’s Law warnt: Sobald eine Metrik zum Ziel wird, hört sie auf, eine gute Metrik zu sein. Wer Lehrpläne ausschliesslich nach messbaren Outcomes optimiert, riskiert, genau jene Elemente zu eliminieren, die Bildung erst wirksam machen.

Aber daraus folgt nicht, dass KI nutzlos wäre. Es folgt, dass KI präzise dort eingesetzt werden sollte, wo sie einen echten Mehrwert bietet: bei der Identifikation notwendiger Bedingungen (Welches Minimum an Domänenwissen ist nötig, damit Transfer und kritisches Urteilen überhaupt möglich werden?), bei der Diagnose systematischer Hindernisse (Wo scheitert Bildung zuverlässig und warum?) und bei der komparativen Analyse (Was funktioniert anderswo besser?). Die klügste Nutzung von KI ist nicht die Ersetzung menschlicher Urteilskraft, sondern ihre Unterstützung mit besseren Informationen.

Der blinde Fleck: Exponentielle Dynamik

Die bisherigen Argumente – Wissen als Urteilsgrundlage, Charakter durch Erfahrung, der Wert des scheinbar «Nutzlosen» – sind stichhaltig. Aber sie operieren mit einer stillschweigenden Annahme: dass KI in etwa so bleibt, wie sie heute ist. Diese Annahme ist selbst ein Produkt linearen Denkens.

Das Wesen exponentieller Entwicklung ist, dass sie die menschliche Intuition systematisch täuscht. Wir nehmen den aktuellen Stand wahr und schreiben ihn linear fort. Aber wenn sich KI-Fähigkeiten exponentiell entwickeln, dann sind die Systeme von 2030 nicht «etwas besser» als die von heute – sie sind möglicherweise in einer Weise anders, die wir uns heute ähnlich schlecht vorstellen können, wie man sich 2005 ein Smartphone vorstellen konnte.

Für die Bildungsfrage hat das drei Konsequenzen:

Erstens: Die Annahme, dass Menschen Domänenwissen brauchen, um KI-Outputs zu beurteilen, ist möglicherweise nur für ein kurzes historisches Zeitfenster gültig. Wenn KI-Systeme ihre eigenen Outputs zuverlässiger beurteilen können als die meisten Menschen, verändert das die Rolle menschlichen Wissens fundamental.

Zweitens: Die Grenze zwischen dem «Messbaren» und dem «Wesentlichen» ist keine feste Linie, sondern ein sich verschiebender Horizont. Was heute als prinzipiell unmessbar gilt, könnte morgen durch feinere Sensoren und grössere Datenmengen erfassbar werden.

Drittens: Wenn KI zunehmend in Bereiche vordringt, die wir bisher als exklusiv menschlich betrachtet haben, dann steht die Bildung vor einer Frage, die tiefer geht als «welches Wissen sollen wir vermitteln?». Die Frage lautet dann: Wozu bilden wir Menschen überhaupt aus?

Die Antwort darf weder eine Reduktion sein – Bildung als Resteverwertung dessen, was die Maschine noch nicht kann – noch ein starres Festhalten am Bestehenden. Sie muss eine Neubestimmung sein: Bildung nicht primär als Kompetenzentwicklung, sondern als etwas, das seinen Wert auch unabhängig von funktionaler Verwertbarkeit trägt.

Konsequenzen: Was sich ändern muss

Lehrpläne müssen adaptiv werden

Wenn ein Lehrplan alle zehn Jahre überprüft wird, ist er zum Zeitpunkt seiner Einführung bereits veraltet und zum Zeitpunkt seiner nächsten Revision hoffnungslos überholt. Lehrpläne müssen von statischen Dokumenten zu lebenden Systemen werden, die kontinuierlich mit Daten abgeglichen und angepasst werden. KI ist dafür nicht nur ein Werkzeug, sondern eine Voraussetzung, weil die Geschwindigkeit der erforderlichen Anpassungen die menschliche Verarbeitungskapazität übersteigt.

Von der Inhaltsfixierung zur Fähigkeitsfixierung

Statt zu fragen «Welche Inhalte sollen gelehrt werden?» muss die Leitfrage lauten: «Welche Fähigkeiten sind robust genug, um auch unter Bedingungen relevant zu bleiben, die wir nicht vorhersehen können?» Die Inhalte wären dann nicht das Ziel, sondern das Vehikel – und sie könnten schneller ausgetauscht werden, wenn die Analyse zeigt, dass andere Inhalte dieselben Fähigkeiten effektiver fördern.

KI in die Lehrplanentwicklung einbeziehen

Es gibt keine technische Hürde, die das verhindert. Die Werkzeuge existieren. Die Daten existieren zum grossen Teil. Was fehlt, ist der politische Wille und das konzeptuelle Verständnis dafür, dass Lehrplanentwicklung kein kulturpolitischer Verhandlungsprozess sein sollte, an dessen Ende ein Kompromiss steht, sondern ein analytischer Prozess, an dessen Ende eine evidenzbasierte, kontinuierlich überprüfte Strategie steht – unterstützt von KI, entschieden von Menschen.

Das Paradox des «Nützlichen» bewahren

Gerade weil KI Wissen jederzeit abrufbar macht, wird eigenes Wissen wichtiger – nicht als Speicher, sondern als Urteilsgrundlage. Man kann die Qualität einer KI-generierten Antwort über Medizin nicht beurteilen, wenn man kein medizinisches Grundverständnis hat. Die eigentliche Gefahr besteht darin, dass wir in einem Effizienzreflex genau jene scheinbar «nutzlosen» Bestandteile von Bildung abschaffen, die sich nicht in unmittelbar verwertbare Skills übersetzen lassen – und dabei den Boden zerstören, auf dem Mündigkeit wächst. Auch dieses Risiko kann eine KI-gestützte Lehrplananalyse sichtbar machen, indem sie jene Inhalte identifiziert, die zwar keinem unmittelbaren Kompetenzziel zuordenbar sind, aber in Längsschnittdaten mit positiven Bildungsbiografien korrelieren.

Schlussgedanke

Das Bildungssystem verwendet weder die leistungsfähigsten verfügbaren Analysewerkzeuge noch antizipiert es die Dynamik der Veränderung, auf die es junge Menschen vorbereiten soll. Es gleicht einem Unternehmen, das seine Strategie auf der Basis von Bauchgefühl entwickelt, während die Konkurrenz längst datengetrieben arbeitet – mit dem Unterschied, dass es hier nicht um Marktanteile geht, sondern um die Zukunftsfähigkeit ganzer Generationen.

Wer den Standpunkt vertritt, dass jungen Menschen Wissen zur Charakterbildung, Kritikfähigkeit und Entscheidungskompetenz vermittelt werden muss, hat recht. Aber diesen Standpunkt als Fixpunkt zu behandeln – als etwas, das keiner Überprüfung und Anpassung bedarf – widerspricht genau jener kritischen Haltung, die man vermitteln will. Die Frage ist nicht ob, sondern wie wir Bildung als Grundlage menschlicher Mündigkeit bewahren – und welche Werkzeuge wir nutzen, um sie für eine Zukunft zu gestalten, die wir nicht vorhersehen können.

KI kann uns dabei helfen, die richtigen Fragen zu stellen und die Antworten auf einer breiteren Evidenzgrundlage zu suchen. Die Entscheidungen selbst bleiben menschlich. Aber sie sollten informierter sein, als sie es heute sind.

Weiterlesen