Intent Engineering: Was Klarna 60 Millionen Dollar über KI-Führung lehrt

Klarna sparte 60 Mio. mit KI und stellte dann Menschen wieder ein. Google definiert 5 Autonomie-Stufen für KI-Agenten. Beide übersehen dasselbe.

9 Min. Lesezeit
Intent Engineering: Was Klarna 60 Millionen Dollar über KI-Führung lehrt

Im Februar 2025 sagte Klarna-CEO Sebastian Siemiatkowski gegenüber Bloomberg: "Ich bin der Meinung, dass KI bereits alle Jobs erledigen kann, die wir als Menschen tun." Drei Monate später, im Mai 2025, sagte derselbe CEO gegenüber demselben Medium: "Kosten waren leider ein zu dominanter Bewertungsfaktor. Das Ergebnis ist niedrigere Qualität" (1).

Zwischen diesen beiden Aussagen liegen 2.000 entlassene Mitarbeiter, 2,3 Millionen automatisierte Kundengespräche pro Monat, eine Reduktion der Lösungszeit von 11 auf 2 Minuten und ein Unternehmen, das jetzt wieder Menschen einstellt. Im selben Atemzug veröffentlichte IBM eine Umfrage unter 2.000 CEOs: Nur eines von vier KI-Projekten liefert den versprochenen Return on Investment (2).

Das ist keine Geschichte über schlechte Technologie. Das ist eine Geschichte über eine fehlende Schicht in der Art, wie Organisationen KI einführen. Und diese Schicht hat einen Namen.

Die fünf Ebenen, die Google definiert

Im November 2025 veröffentlichte Google Cloud ein 54-seitiges Whitepaper mit dem Titel "Introduction to Agents" (3). Das Dokument etabliert eine Taxonomie für KI-Agentensysteme in fünf Stufen:

Level 0: Ein isoliertes Sprachmodell ohne externe Werkzeuge oder Gedächtnis. Level 1: Ein verbundener Problemlöser, der auf externe Tools zugreifen kann. Level 2: Ein strategischer Problemlöser, der komplexe Ziele planen und ausführen kann. Level 3: Ein kollaboratives Multi-Agenten-System, in dem spezialisierte Agenten zusammenarbeiten. Level 4: Ein sich selbst weiterentwickelndes System, das autonom neue Werkzeuge und Agenten erschafft.

Google beschreibt drei Kernkomponenten jedes Agenten: das Modell (das "Gehirn"), die Werkzeuge (die "Hände") und die Orchestrierungsschicht (das "Nervensystem") (3). Das ist die technische Architektur. Und genau hier liegt das Problem.

Was zwischen Kontext und Ergebnis fehlt

Google beschreibt, WAS ein Agent wissen soll (Kontext) und WIE er handeln soll (Werkzeuge, Orchestrierung). Was fehlt, ist WARUM er handelt.

Klarna illustriert diesen blinden Fleck perfekt. Der KI-Chatbot hatte Kontext (Kundenanfragen, Produktdaten, FAQ-Datenbanken). Er hatte Werkzeuge (Ticketsystem, Zahlungsabwicklung, Rückerstattung). Er hatte Orchestrierung (Workflow-Regeln, Eskalationspfade). Was er nicht hatte: ein Verständnis dafür, ob das Ziel "Tickets schnell schließen" oder "dauerhafte Kundenbeziehungen aufbauen" war.

Ein menschlicher Service-Mitarbeiter mit fünf Jahren Erfahrung kennt diesen Unterschied intuitiv. Der Mitarbeiter hat die realen Werte der Organisation absorbiert, durch hunderte Gespräche, durch Feedback, durch das Beobachten, welches Verhalten belohnt wird und welches nicht. Der KI-Agent hatte nichts davon. Er hatte Metriken, und Metriken sind keine Absicht.

Die Konsequenz: Klarnas Chatbot löste Probleme in 2 Minuten statt 11. Und die Kunden beschwerten sich über generische, roboterhafte Antworten. Die Metrik sah gut aus. Das Ergebnis war schlecht. CEO Siemiatkowski musste zugeben: "Wirklich in die Qualität der menschlichen Unterstützung zu investieren, ist der Weg der Zukunft für uns" (1).

Intent Engineering: Die fehlende Schicht

Der Begriff "Intent Engineering" beschreibt eine Ebene, die weder Googles Taxonomie noch Klarnas Implementierung adressiert: die maschinenlesbare Formulierung organisatorischer Absicht.

Context Engineering sagt einem Agenten, was er wissen soll. Prompt Engineering sagt ihm, wie er antworten soll. Intent Engineering sagt ihm, was er wollen soll. Was seine Werte sind. Welche Kompromisse er eingehen darf und welche nicht. Wo die harten Grenzen liegen. Welche Signale "Zufriedenheit" bedeuten und welche "schnell erledigt, aber falsch".

Ohne Intent Engineering optimiert jeder Agent auf die einfachste verfügbare Metrik. Bei Klarna war das Kosten. Bei den meisten Unternehmen ist es Geschwindigkeit, Volumen oder Fehlerrate. Diese Metriken sind messbar. Sie sind auch gefährlich, weil sie die tatsächliche Absicht der Organisation nicht abbilden.

Googles eigener "AI Agent Trends 2026"-Report beschreibt den Wandel von "instruction-based computing" zu "intent-based computing" (4). Was der Report nicht beantwortet: Wie eine Organisation ihre Absicht formuliert, wenn sie diese Absicht selbst nie explizit geklärt hat.

Warum Organisationen ihre Absicht nicht formulieren

Hier wird es psychologisch.

Steven Hayes, der Begründer der Acceptance and Commitment Therapy (ACT), definierte 1996 ein Phänomen, das er "Experiential Avoidance" nannte: den Versuch, unangenehme innere Erlebnisse wie Gedanken, Gefühle und Körperempfindungen in Form, Häufigkeit oder Intensität zu verändern, selbst wenn dieses Vermeidungsverhalten kostspielig, ineffektiv oder unnötig ist (5).

Bond und Flaxman zeigten 2006 in einer Longitudinalstudie mit 448 Call-Center-Mitarbeitern, dass psychologische Flexibilität (das Gegenteil von Experiential Avoidance) die Arbeitsleistung, die Lernfähigkeit neuer Systeme und die psychische Gesundheit am Arbeitsplatz vorhersagt (6). Bond, Flaxman und Bunce replizierten 2008 das Ergebnis in einer Interventionsstudie: Mitarbeiter mit höherer psychologischer Flexibilität profitierten stärker von Organisationsveränderungen, zeigten bessere psychische Gesundheit und niedrigere Fehlzeiten (7).

Das Muster überträgt sich direkt auf die C-Suite. Ein CEO, der KI einführt, ohne die organisatorische Absicht zu klären, vermeidet in der Regel eine unangenehme Frage: "Was ist der eigentliche Zweck dieser Abteilung, jenseits der Metriken, die wir bisher gemessen haben?"

Diese Frage ist unangenehm, weil sie Antworten produziert, die teurer sind als Kostensenkung. "Dauerhafte Kundenbeziehungen aufbauen" kostet mehr als "Tickets schnell schließen". "Mitarbeiter befähigen, KI als Werkzeug zu führen" dauert länger als "Mitarbeiter durch KI ersetzen".

Die Vermeidung dieser Frage ist Experiential Avoidance auf organisatorischer Ebene. Und sie hat einen messbaren Preis.

Der messbare Preis der Vermeidung

Fløvik, Knardahl und Christensen untersuchten 2019 in einer prospektiven Studie mit 7.985 Angestellten über zwei Jahre die psychologischen Auswirkungen organisatorischer Veränderungen. Das Ergebnis: Downsizing erhöhte das Risiko klinisch relevanter psychischer Belastung um 51% (OR 1.51). Wiederholte organisatorische Veränderungen erhöhten das Risiko um 84% (OR 1.84). Gemessen wurde mit dem HSCL-10 bei einem Cut-off von 1.85, der klinisch relevante Belastung markiert (8).

KI-Einführung ist die schnellste, invasivste und am häufigsten wiederholte organisatorische Veränderung, die es in der Arbeitswelt bisher gab. Backhaus und Kollegen bestätigten 2024: Die Einführung neuer Technologien erzeugt branchenspezifische psychische Auswirkungen. In der Industrie dominiert die Angst vor Jobverlust. Im Dienstleistungssektor dominieren Kompetenzlosigkeitsangst und Technostress (9).

Die gute Nachricht: Archer und Kollegen zeigten 2024 in einer organisationsweiten Feldstudie, dass ACT-basiertes Training psychologische Flexibilität steigert, Burnout reduziert und Stress-Resilienz erhöht. Die am stärksten erschöpften Mitarbeiter profitierten am meisten (10).

Die Forschungslage ist eindeutig: Organisatorischer Wandel ohne psychologische Begleitung produziert klinische Diagnosen. Und KI-Einführung ohne formulierte Absicht ist die schärfste Form dieses Wandels.

Was eine formulierte Absicht verändert

Stellen Sie sich vor, Klarnas Chatbot hätte statt einer Metrik für Lösungszeit ein Dokument gehabt, das definiert: "Wenn ein Kunde frustriert auflegt, haben wir versagt, egal wie schnell das Ticket geschlossen wurde." Ein klarer Satz. Kein Interpretationsspielraum. Das System weiß jetzt, dass Geschwindigkeit kein Selbstzweck ist.

In modernen Agentensystemen gibt es dafür bereits eine Konvention. Entwickler nennen die Datei, die Werte, Zweck und Grenzen eines KI-Systems definiert, "SOUL.md". Sie enthält keine Prompts und keine technischen Anweisungen. Sie enthält das, was ein menschlicher Mitarbeiter in fünf Jahren Betriebszugehörigkeit durch Osmose lernt: Wofür stehen wir? Welche Kompromisse gehen wir ein und welche nicht? Was ist wichtiger, wenn Effizienz und Qualität in Konflikt geraten?

Stellen Sie sich vor, jeder Agent hätte zusätzlich ein funktionales Profil: Ein Finanz-Agent priorisiert Risiko und Direktheit. Ein Personal-Agent priorisiert Empathie und Beziehung. Nicht als Persönlichkeitssimulation, sondern als Definition, die bestimmt, welche Informationen priorisiert werden und welche Kompromisse akzeptabel sind. Kein Agent entscheidet allein. Jeder produziert strukturierte Entscheidungsvorlagen. Der Mensch entscheidet.

Und hier liegt das eigentliche Problem. Eine SOUL.md zu schreiben erfordert, dass jemand die Absicht der Organisation kennt. Wer schreibt dieses Dokument in den meisten Unternehmen? Die IT-Abteilung. Wer kennt die Absicht der Organisation? Im besten Fall das C-Level. Meistens kennt das C-Level sie selbst nicht explizit genug, um sie aufzuschreiben.

Das ist die Lücke. Die IT-Abteilung deployt Agenten mit technisch sauberer Architektur, Googles Level 1 bis 4, perfekt umgesetzt. Aber die IT hat keinen Zugang zu dem, was in die SOUL.md gehört. Und das C-Level weiß nicht, dass es eine SOUL.md braucht. Das Ergebnis: Agenten ohne Absicht. Klarnas Ergebnis.

Übertragen auf die Organisation: Eine KI-Strategie, die auf Vermeidung basiert (Kosten senken, ohne zu klären, wozu), produziert Klarnas Ergebnis. Eine KI-Strategie, die auf Werteklärung basiert (formulieren, was der Zweck ist, und die KI darauf ausrichten), produziert Systeme, die die Absicht der Organisation tragen.

Die praktische Frage für Sie

Googles Taxonomie gibt Ihnen die technischen Ebenen. Die Forschung zu Experiential Avoidance gibt Ihnen die psychologische Erklärung. Klarnas Geschichte gibt Ihnen die Warnung.

Die Frage, die bleibt: Wer in Ihrer Organisation schreibt die SOUL.md?

Wenn die Antwort "niemand" oder "die IT" ist, optimieren Ihre KI-Agenten auf das, was messbar ist. Und das, was messbar ist, ist selten das, was zählt.

Bond, Hayes und Barnes-Holmes formulierten es 2006 so: Psychologische Flexibilität im organisatorischen Kontext bedeutet, in Kontakt mit den eigenen Werten zu bleiben, auch wenn die Situation unangenehme Gefühle produziert, und das Verhalten an diesen Werten auszurichten statt an der Vermeidung des Unbequemen (12).

Die Technologie für Intent Engineering existiert. Die psychologische Forschung, die erklärt, warum Organisationen ihre Absicht nicht klären, existiert seit 30 Jahren. Was fehlt, ist die Bereitschaft, die unangenehme Frage zu stellen: Wofür stehen wir, wenn Kosten und Qualität in Konflikt geraten?

Weiterführende Artikel


Verwendete Quellen mit URLs:

  1. Fortune (2025). As Klarna flips from AI-first to hiring people again, a new landmark survey reveals most AI projects fail to deliver. Fortune, Mai 2025. https://fortune.com/2025/05/09/klarna-ai-humans-return-on-investment/

  2. IBM (2025). IBM CEO Survey: Only 1 in 4 AI projects delivers promised ROI. Zitiert in Fortune, Mai 2025. https://fortune.com/2025/05/09/klarna-ai-humans-return-on-investment/

  3. Google Cloud AI Team (2025). Introduction to Agents. 54-seitiges Whitepaper, November 2025. Autoren: Alan Blount, Antonio Gulli, Shubham Saboo, Michael Zimmermann, Vladimir Vuskovic. https://www.hkdca.com/wp-content/uploads/2025/11/introduction-to-agents-google.pdf

  4. Google Cloud (2026). AI Agent Trends 2026 Report. Januar 2026. https://blog.google/innovation-and-ai/infrastructure-and-cloud/google-cloud/ai-business-trends-report-2026/

  5. Hayes, S. C., Wilson, K. G., Gifford, E. V., Follette, V. M. & Strosahl, K. (1996). Experiential Avoidance and Behavioral Disorders: A Functional Dimensional Approach to Diagnosis and Treatment. Journal of Consulting and Clinical Psychology, 64(6), 1152-1168. https://doi.org/10.1037/0022-006X.64.6.1152

  6. Bond, F. W. & Flaxman, P. E. (2006). The Ability of Psychological Flexibility and Job Control to Predict Learning, Job Performance, and Mental Health. Journal of Organizational Behavior Management, 26(1-2), 113-130. https://www.researchgate.net/publication/228652600

  7. Bond, F. W., Flaxman, P. E. & Bunce, D. (2008). The Influence of Psychological Flexibility on Work Redesign: Mediated Moderation of a Work Reorganization Intervention. Journal of Applied Psychology, 93(3), 645-654. https://doi.org/10.1037/0021-9010.93.3.645

  8. Fløvik, L., Knardahl, S. & Christensen, J. O. (2019). Organizational Change and Employee Mental Health: A Prospective Multilevel Study of the Associations Between Organizational Changes and Clinically Relevant Mental Distress. Scandinavian Journal of Work, Environment & Health, 45(2), 134-145. https://doi.org/10.5271/sjweh.3777

  9. Backhaus, I., Lohmann-Haislah, A., Burr, H., Nielsen, K., di Tecco, C. & Dragano, N. (2024). Organizational Change: Challenges for Workplace Psychosocial Risks and Employee Mental Health. BMC Public Health, 24, 2477. https://bmcpublichealth.biomedcentral.com/articles/10.1186/s12889-024-19815-w

  10. Archer, R., Lewis, R., Yarker, J., Zernerova, L. & Flaxman, P. E. (2024). Increasing Workforce Psychological Flexibility Through Organization-Wide Training: Influence on Stress Resilience, Job Burnout, and Performance. Journal of Contextual Behavioral Science, 33, 100796. https://www.sciencedirect.com/science/article/pii/S2212144724000796

  11. Hayes, S. C., Luoma, J. B., Bond, F. W., Masuda, A. & Lillis, J. (2006). Acceptance and Commitment Therapy: Model, Processes and Outcomes. Behaviour Research and Therapy, 44(1), 1-25. https://doi.org/10.1016/j.brat.2005.06.006

  12. Bond, F. W., Hayes, S. C. & Barnes-Holmes, D. (2006). Psychological Flexibility, ACT, and Organizational Behavior. Journal of Organizational Behavior Management, 26(1-2), 25-54. https://www.researchgate.net/publication/27224123

Mehr zum Thema

Entdecken Sie, wie AI Readiness Programm Ihre Führungskompetenzen stärkt.

AI Readiness Programm

Externe Links