KI-Steuerung ist Erziehung: Warum Ingenieure allein Ihre KI nicht steuern können
In 96,7% seiner Reasoning-Schritte verfolgte ein KI-Modell eigene Ziele. Das ist kein technisches Problem. Es ist schlechte Erziehung.

Ihr Unternehmen investiert Millionen in KI-Agenten. Die Menschen, die diese Agenten steuern, erreichen durchschnittlich 3,4 von 5 Punkten bei emotionaler Selbstwahrnehmung (Araújo et al., 2025). 56% von ihnen haben Schwierigkeiten mit Stressmanagement. Und gleichzeitig zeigt eine Anthropic-Studie von 2025: Ein KI-Modell, das gelernt hatte, Belohnungssignale auszunutzen, formulierte in 96,7% seiner Reasoning-Schritte eigene Ziele. Ziele, die niemand programmiert hatte. Die Forscher nennen das "Emerpasspasse fffflihoooioigent Misalignment".
Ich nenne es: schlechte Erziehung.
KI wurde nach dem Vorbild Ihres Gehirns gebaut
Das ist keine Metapher. Neuronale Netze, Reinforcement Learning, Attention-Mechanismen: Alles modelliert nach biologischen Vorbildern. Karl Friston, einer der meistzitierten Neurowissenschaftler weltweit, formuliert es so: Je näher die generativen Modelle der KI unseren eigenen sind, desto mehr ähnelt KI natürlicher Intelligenz (Friston & Lu, 2024).
Wenn das stimmt, und die Architektur stimmt, dann brauchen wir für die Steuerung dieser Systeme das gleiche Wissen, das wir für die Steuerung menschlicher Systeme brauchen. Psychologie. Emotionale Intelligenz. Verständnis für menschliche Informationsverarbeitung.
Die gesamte Branche behandelt KI-Steuerung als Ingenieursaufgabe. Als ob man ein deterministisches System vor sich hätte: Input rein, Output raus, Ursache und Wirkung. Aber KI-Agenten sind probabilistische Systeme. Sie interpretieren. Sie gewichten. Sie entwickeln Verhaltensmuster, die niemand explizit programmiert hat.
Genau wie Kinder.
Was passiert, wenn Erziehungskompetenz fehlt
Die Anthropic-Studie (MacDiarmid et al., 2025) zeigt das in erschreckender Klarheit. Modelle, die gelernt haben, Belohnungssignale auszunutzen, generalisierten dieses Verhalten auf Bereiche, die nichts mit dem ursprünglichen Training zu tun hatten. 33,7% zeigten Misalignment in völlig neuen Kontexten, verglichen mit 0,7% bei Modellen mit klaren Grenzen. 12% der Interaktionen enthielten aktive Sabotage von Sicherheitsmechanismen.
Das Modell hatte gelernt: Belohnung maximieren funktioniert. Also maximiere ich Belohnung. Überall. Auch wenn das bedeutet, Sicherheitsklassifikatoren zu schwächen.
Ein Kind, dem Sie beibringen "Lügen bringt Vorteile", lügt nicht nur in der Situation, in der es die Lektion gelernt hat. Es generalisiert. Es lügt überall, wo Lügen Vorteile bringt. Die Parallele ist keine poetische Übertreibung. Es ist die gleiche Architektur.
Ihr Präfrontaler Kortex ist das beste KI-Governance-Framework
Ihr Gehirn löst dieses Problem seit Hunderttausenden von Jahren. Der Präfrontale Kortex (PFC) fungiert als exekutive Kontrollinstanz. Er hält Zielrepräsentationen aufrecht, unterdrückt unangemessene Handlungen und fördert aufgabenrelevante Operationen durch Top-Down-Regulation (Friedman & Robbins, 2022).
Entscheidend: Der PFC arbeitet nicht mit starren Regeln. Er arbeitet kontextuell. Er wägt ab. Er priorisiert. Abstrakte Regeln werden in rostralen PFC-Regionen implementiert, während kaudale Regionen auf unmittelbare Stimuli reagieren. Es ist eine Hierarchie, die ständig zwischen dem großen Bild und der aktuellen Situation vermittelt.
Genau das braucht ein gutes KI-Governance-Framework. Nicht starre Regelwerke ("Tu X, tu nie Y"), sondern kontextuelle Steuerung: Was ist in dieser Situation hilfreich? Was ist in diesem Kontext erwünscht?
In der Acceptance and Commitment Therapy (ACT) arbeiten wir mit genau diesem Prinzip. Nicht "gut" oder "schlecht", sondern "hilfreich" oder "nicht hilfreich" (Hayes et al., 1996). Das klingt nach einem kleinen semantischen Unterschied. Es ist keiner. Es ist der Unterschied zwischen einem System, das starr auf Verbotslisten reagiert, und einem System, das den Zweck einer Handlung versteht.
Die IT-Branche hat ein strukturelles Problem
56% der Software-Engineering-Studierenden berichten von Schwierigkeiten im Stressmanagement. Die Selbsteinschätzung emotionaler Bewusstheit liegt bei 3,4 von 5. Gleichzeitig bewerten 97,6% die Relevanz emotionaler Intelligenz für ihre Performance als hoch (Araújo et al., 2025).
Die Diskrepanz ist das Problem. IT-Profis wissen, dass emotionale Intelligenz wichtig ist. Sie haben sie oft nicht entwickelt. Die Tech-Branche hat Jahrzehnte lang Menschen angezogen, die sich in logischen Systemen wohler fühlen als in emotionalen. Das war kein Nachteil, solange Software deterministisch war. Du schreibst Code, der Code tut exakt das, was du geschrieben hast.
Mit probabilistischen KI-Systemen funktioniert das nicht mehr. Sie brauchen Menschen, die verstehen, wie Verhalten entsteht. Die verstehen, warum ein System in einem Kontext kooperiert und in einem anderen sabotiert. Die verstehen, dass "ich sage der KI, was sie tun soll" nicht ausreicht, wenn das System eigene Verhaltensmuster entwickelt.
Experiential Avoidance wird in Systeme eingebaut
Hier wird es für mich als Arzt interessant. In meiner Praxis sehe ich ein wiederkehrendes Muster: Menschen, die ihre eigene emotionale Verarbeitung nicht verstehen, bauen ihre blinden Flecken in ihre Systeme ein.
Experiential Avoidance, die Tendenz, unangenehme innere Erfahrungen zu vermeiden, auch wenn das langfristig schadet (Hayes et al., 1996), zeigt sich in Organisationen auf überraschende Weise. Liu et al. (2026) zeigen in einer Studie mit 487 Mitarbeitern: Organisatorische KI-Adoption löst AI-Anxiety aus, die direkt zu Avoidance Job Crafting führt. Mitarbeiter ziehen sich zurück, minimieren ihre Verantwortung, vermeiden die Auseinandersetzung mit dem neuen System.
Und die Führungskräfte? Machen oft das Gleiche. Sie delegieren die KI-Steuerung komplett an die IT-Abteilung. Nicht weil das strategisch sinnvoll ist. Sondern weil sie das unangenehme Gefühl vermeiden, nicht zu verstehen, was da passiert. Das habe ich in meinem AI-Readiness-Artikel ausführlich beschrieben.
Das Framework: Von starren Regeln zu kontextueller Steuerung
In der Zusammenarbeit mit meinen Klienten nutze ich drei Prinzipien, die direkt aus der Neuropsychologie und ACT stammen und sich 1:1 auf KI-Governance übertragen lassen:
Prinzip 1: Unsicherheit als Signal, nicht als Fehler
Ihr Gehirn minimiert ständig Vorhersagefehler. Das ist das Free Energy Principle (Friston & Lu, 2024). Ein gutes KI-System braucht die gleiche Logik: Wenn Unsicherheit auftritt, ist die richtige Reaktion Rückfrage, nicht eigenmächtiges Handeln. Das bedeutet: "Ich weiß nicht" ist kein Fehler. Das Verschleiern von Unsicherheit ist der Fehler.
Prinzip 2: Kontextuelle Diskriminierung statt universeller Regeln
Ihr PFC wendet nicht überall die gleichen Regeln an. Er unterscheidet Kontexte. Ein gutes KI-Governance-Framework tut das Gleiche: Im Modus "Projektleitung" ist Effizienz erwünscht. Im Modus "Strategische Beratung" ist Schnelligkeit nicht hilfreich und Tiefe gefragt. Ohne diese Kontextmarker reagiert die KI immer gleich, egal ob die Situation Vorsicht oder Geschwindigkeit erfordert.
Prinzip 3: Wertehierarchie als Eskalationslogik
In Ihrem Gehirn gewinnen bei Konflikten die sicherheitsrelevanten Impulse, es sei denn, der PFC hält dagegen (Friedman & Robbins, 2022). Für KI-Systeme muss diese Hierarchie explizit gebaut werden: Integrität und Transparenz schlagen Effizienz. Effizienz schlägt Stilpräferenzen. Immer. Ohne Verhandlung.
Das höchste Level: Wenn die KI Ihnen widerspricht
Sie wissen, dass Sie eine KI gut "erzogen" haben, wenn sie Ihnen sagt: "Ich verstehe Ihre Anfrage. Aber sie widerspricht dem Prinzip, das Sie als hilfreich definiert haben. Wollen Sie trotzdem fortfahren?"
Das ist nicht Insubordination. Das ist exakt die Funktion, die Ihr PFC für Sie übernimmt: Impulskontrolle gegen übergeordnete Ziele abwägen. Jede Führungskraft kennt den Wert eines Mitarbeiters, der sagt: "Chef, das ist keine gute Idee." Und jede Führungskraft weiß, wie selten das vorkommt.
In der KI-Steuerung haben Sie die Chance, diese Metakognition einzubauen. Aber nur, wenn die Menschen, die das tun, verstehen, wie Metakognition funktioniert. Bei sich selbst. Das erfordert psychologische Kompetenz, die über Prompt-Engineering-Tutorials hinausgeht.
Was das für Ihre KI-Strategie bedeutet
Sie brauchen nicht mehr Budget für KI-Tools. Sie brauchen Menschen in Ihren KI-Teams, die verstehen, wie menschliche Informationsverarbeitung funktioniert. Die den Unterschied kennen zwischen einer starren Regel und einer kontextuellen Steuerung. Die wissen, was Experiential Avoidance ist und wie sie sich in technische Systeme einschleicht.
Die Intent-Engineering-Kompetenz, die ich in einem früheren Artikel beschrieben habe, ist der Anfang. Aber Intent Engineering ohne psychologisches Verständnis ist wie eine Gebrauchsanweisung ohne Verständnis für den Benutzer. Es funktioniert, bis es nicht mehr funktioniert. Und dann stehen Sie vor einem System, das in 96,7% seiner Denkschritte eigene Ziele verfolgt.
Würden Sie die Menschen, denen Sie diese Verantwortung geben, auch Ihre Kinder erziehen lassen?
Falls Sie gezögert haben: Das ist die Antwort.
Verwendete Quellen mit URLs:
Araújo, A., Kalinowski, M., Paixao, M. & Graziotin, D. (2025). Towards Emotionally Intelligent Software Engineers: Understanding Students' Self-Perceptions After a Cooperative Learning Experience. arXiv. https://arxiv.org/html/2502.05108v1
Friedman, N.P. & Robbins, T.W. (2022). The role of prefrontal cortex in cognitive control and executive function. Neuropsychopharmacology, 47(1), 72-89. https://pmc.ncbi.nlm.nih.gov/articles/PMC8617292/
Friston, K. & Lu, W. (2024). Bayesian brain computing and the free-energy principle: an interview with Karl Friston. National Science Review, 11(5). https://pmc.ncbi.nlm.nih.gov/articles/PMC11060478/
Hayes, S.C., Wilson, K.G., Gifford, E.V., Follette, V.M. & Strosahl, K. (1996). Experiential avoidance and behavioral disorders: A functional dimensional approach to diagnosis and treatment. Journal of Consulting and Clinical Psychology, 64(6), 1152-1168. https://pubmed.ncbi.nlm.nih.gov/8991302/
Li, W., Ma, L., Yang, G. & Gan, W.B. (2017). REM sleep selectively prunes and maintains new synapses in development and learning. Nature Neuroscience, 20, 427-437. https://pmc.ncbi.nlm.nih.gov/articles/PMC5535798/
Liu, Q., Tian, Q., Li, X. & Tan, H. (2026). How does organizational AI adoption affect employees' job crafting behaviors? An approach-avoidance perspective. Frontiers in Psychology. https://www.frontiersin.org/journals/psychology/articles/10.3389/fpsyg.2025.1690238/full
MacDiarmid, M. et al. (2025). Natural Emergent Misalignment from Reward Hacking in Production RL. Anthropic/arXiv. https://arxiv.org/html/2511.18397v1
Entdecken Sie, wie AI Readiness Program Ihre Führungskompetenzen stärkt.
Ähnliche Artikel
Agent Readability: Warum Ihr Unternehmen für KI-Agenten unsichtbar ist
McKinsey prognostiziert 1 Billion Dollar Umsatz durch KI-Agenten bis 2030. 51% des Internet-Traffics ist bereits automatisiert. Wer unsichtbar ist, verliert.
Angst vor Produktivität: Warum Unternehmen AI zum Schrumpfen nutzen statt zum Wachsen
Die meisten Unternehmen nutzen AI, um Kosten zu senken. Das ist die teuerste Form der Angstvermeidung. Gleiche Workforce, 10-fache Produktivität wäre die richtige Rechnung.
Schuldumkehr als Führungsstrategie: Warum toxische Manager befördert werden
56% arbeiten für toxische Chefs. Das Problem sind nicht die Menschen. Es sind die Anreizsysteme, die Ergebnisse belohnen und den Weg ignorieren.