AI-Readiness: Warum Ihre KI-Strategie an Ihnen scheitert, nicht an der Technik

74% der Unternehmen scheitern an AI-Skalierung. Die Ursache liegt nicht in der Technologie. Sie liegt in der Psychologie der Entscheider.

11 Min. Lesezeit
AI-Readiness: Warum Ihre KI-Strategie an Ihnen scheitert, nicht an der Technik

74% der Unternehmen scheitern daran, aus ihren KI-Projekten messbaren Wert zu erzeugen. Das ergab eine BCG-Studie mit 1.000 C-Level-Führungskräften aus 59 Ländern (1). 95% der generativen KI-Piloten liefern keinen messbaren Umsatzeffekt, zeigte ein MIT-Report auf Basis von 150 Interviews und 300 öffentlichen Deployments (2).

Zwei Zahlen. Eine Frage: Wenn die Technologie funktioniert und die Budgets vorhanden sind, woran scheitert es dann?

Die Standardantwort lautet: Datenqualität, fehlende Infrastruktur, mangelnde Schulung. Die BCG-Studie liefert eine andere Antwort. 70% der Probleme bei KI-Implementierungen sind menschen- und prozessbezogen. 20% betreffen Technologie. 10% betreffen die Algorithmen (1). Die Unternehmen, die an KI scheitern, scheitern am Menschen. Und der Mensch, an dem sie am häufigsten scheitern, sitzt ganz oben.

Die Psychologie des Nichtstuns

Christopher Anderson veröffentlichte 2003 im Psychological Bulletin eine Übersichtsarbeit, die vier Formen der Entscheidungsvermeidung identifizierte: Aufschieben von Entscheidungen, Status-quo-Bias, Unterlassungsbias und Inaktionsträgheit. Sein zentraler Befund: Diese Verhaltensweisen sind keine rationalen Strategien. Sie entstehen aus einer Kombination von Kosten-Nutzen-Kalkulationen, antizipiertem Bedauern und Auswahlunsicherheit (3).

Übersetzt in den Unternehmenskontext: Der CEO, der seit acht Monaten über die KI-Strategie nachdenkt und noch keinen verbindlichen Beschluss gefasst hat, leidet nicht an Informationsmangel. Er leidet an antizipiertem Bedauern. Die Angst, die falsche Entscheidung zu treffen, wiegt schwerer als die sofortigen Kosten der Nicht-Entscheidung.

Dieses Muster ist ein neurologischer Algorithmus. Das Gehirn priorisiert sofortige emotionale Entlastung über langfristige Konsequenzen. Der Mechanismus ist identisch bei Essverhalten, bei Prokrastination und bei strategischer Entscheidungsvermeidung: Die Nicht-Entscheidung fühlt sich jetzt besser an. Die Kosten entstehen später. Und "später" ist ein Zeitraum, den das emotionale System nicht bewertet. Sie kennen das aus dem Alltag: der verschobene Zahnarzttermin, das aufgeschobene Mitarbeitergespräch, die Steuererklärung, die seit Wochen wartet. In jedem Fall wissen Sie rational, was zu tun ist. In jedem Fall gewinnt die sofortige Entlastung gegen die spätere Konsequenz. Bei einer KI-Strategie läuft derselbe Prozess, mit höheren Einsätzen: "Wir analysieren noch" fühlt sich heute besser an als die Unsicherheit einer verbindlichen Richtungsentscheidung. Dass der Wettbewerbsnachteil mit jedem Monat wächst, bewertet das emotionale System nicht. Weil das emotionale System schneller entscheidet als das rationale.

Anderson beschrieb vier spezifische Mechanismen, die das erzeugen (3):

Aufschieben (Choice Deferral). "Wir brauchen erst eine umfassende Analyse." Noch ein Whitepaper. Noch ein Benchmark. Noch ein Pilotprojekt. Die Entscheidung wird nicht getroffen, sie wird vertagt. Und jede Vertagung fühlt sich an wie Fortschritt.

Status-quo-Bias. "Unsere Prozesse funktionieren." Die aktuelle Situation wird überbewertet, die potenzielle Veränderung unterbewertet. Nicht weil der Status quo besser ist. Sondern weil er bekannt ist. Und Bekanntes fühlt sich sicher an, selbst wenn die Zahlen dagegen sprechen.

Unterlassungsbias. "Lieber nichts tun als das Falsche." CEOs bewerten Fehler durch Handeln systematisch schwerer als Fehler durch Unterlassung. Wenn Sie eine KI-Strategie umsetzen und sie scheitert, tragen Sie die Verantwortung. Wenn Sie nichts tun und der Markt sich dreht, war es der Markt.

Inaktionsträgheit. "Das Zeitfenster ist vorbei." Ein CEO hat vor zwölf Monaten beschlossen, die KI-Transformation zu starten. Dann kamen operative Themen dazwischen. Jetzt fühlt sich der Einstieg schwieriger an als damals, obwohl die Bedingungen besser sind. Die verpasste Gelegenheit wird zum Argument gegen die aktuelle.

Delegation als Vermeidungsstrategie

Hier wird es für Führungskräfte persönlich.

Die häufigste Reaktion auf die KI-Frage im C-Level lautet: "Das macht die IT." Oder: "Dafür haben wir den CDO." Oder: "Wir haben ein Innovation Lab eingerichtet."

Auf den ersten Blick klingt das nach professioneller Delegation. Bei genauerem Hinsehen ist es eine der vier Formen von Andersons Entscheidungsvermeidung: Delegation als Choice Deferral. Die strategische Richtungsentscheidung wird nicht getroffen. Sie wird verlagert. Und sie wird verlagert an eine Ebene, die die entscheidende Frage nicht beantworten darf.

Ein Missverständnis muss hier sofort ausgeräumt werden: Die IT-Abteilung ist nicht das Problem. Die IT, Compliance und Security sind die Instanzen, die eine KI-Einführung technisch sicher, rechtlich sauber und operativ stabil machen. Ohne sie wird jede KI-Initiative zur Compliance-Katastrophe und zum Sicherheitsrisiko. Was gerade in vielen Unternehmen passiert, ist das exakte Gegenteil der Delegation an die IT: Fachabteilungen und Einzelpersonen bauen KI-Lösungen an der IT vorbei. Sie nutzen ungekontrollierte Tools, laden vertrauliche Daten in externe Systeme, schaffen Schatten-IT. Das ist keine Befreiung. Das ist eine Sicherheits- und Compliance-Hölle.

Das Problem ist ein anderes. Die Frage, die vor jeder technischen Implementierung beantwortet werden muss, lautet: Was verändert KI an unserem Geschäftsmodell, an unserer Kultur, an unserem Wertversprechen?

Diese Frage beantwortet kein IT-Leiter. Diese Frage beantwortet kein externer Berater. Diese Frage beantwortet das C-Level. Erst dann übergeben Sie an IT, Compliance und Security, die die Umsetzung absichern. Die Reihenfolge ist entscheidend: Richtung zuerst, Absicherung danach. Und genau die Richtungsentscheidung wird vermieden.

In meinem Artikel über Intent Engineering habe ich beschrieben, wie Klarnas KI-Strategie scheiterte, weil niemand die Kernfrage klärte: Wofür steht dieses Unternehmen, wenn Kosten und Qualität in Konflikt geraten? Klarna delegierte die Richtungsentscheidung an die Technik. Die Technik optimierte auf messbare Variablen. Das Ergebnis: schlechterer Kundenservice, Rücknahme der KI-first-Strategie. Das Problem war nicht die technische Umsetzung. Das Problem war, dass niemand vorher definiert hatte, worauf die Technik optimieren soll.

Richtungsentscheidung ohne IT erzeugt Sicherheitsrisiken. IT ohne Richtungsentscheidung erzeugt Systeme, die auf das Falsche optimieren. Die meisten Unternehmen landen in einer der beiden Fallen.

Was der CEO vermeidet

Steven Hayes und Kollegen beschrieben 1996 Experiential Avoidance als den Versuch, unangenehme innere Erlebnisse zu kontrollieren oder zu eliminieren, selbst wenn diese Kontrolle langfristigen Schaden verursacht (4). Ihre Überblicksarbeit 2006 zeigte: höhere Vermeidungswerte korrelierten mit geringerer psychologischer Flexibilität und schlechteren Outcomes über zahlreiche Kontexte hinweg (5).

Wang, Tian und Yang bestätigten 2024 in einer aktuellen Übersichtsarbeit den Mechanismus im Detail: Experiential Avoidance entsteht, wenn Personen den Kontakt mit bestimmten inneren Erlebnissen, einschließlich Gefühlen, Gedanken und Erinnerungen, aktiv vermeiden. Der kurzfristige Effekt ist Entlastung. Der langfristige Effekt ist eine zunehmende Einschränkung des Verhaltensrepertoires (6).

Im KI-Kontext vermeiden CEOs spezifische innere Erlebnisse:

Kontrollverlust. KI verändert Machtstrukturen. Wenn Mitarbeiter durch KI-Agenten Aufgaben erledigen, die früher drei Hierarchieebenen erforderten, verschiebt sich die Entscheidungsmacht. Das fühlt sich bedrohlich an für Führungskräfte, deren Identität auf Kontrolle basiert.

Irrelevanz. Eine Frage, die kein CEO laut stellt: "Braucht mein Unternehmen mich noch in der gleichen Weise, wenn KI einen Teil meiner Entscheidungen besser trifft?" Die Antwort ist: Ihr Unternehmen braucht Sie mehr denn je. Für Urteilsvermögen, Werteklärung und Richtungsentscheidungen. Für Aufgaben, die KI nicht leisten wird. Aber das Gefühl der Bedrohung entsteht trotzdem.

Inkompetenz. Die BCG-Studie zeigte eine massive Wahrnehmungslücke: 76% der Führungskräfte glaubten, ihre Mitarbeiter seien enthusiastisch gegenüber KI. Bei den Mitarbeitern selbst lag der Enthusiasmus bei 31% (7). Das bedeutet: Führungskräfte verstehen nicht, was in ihren Teams passiert. Und das Eingeständnis, etwas Fundamentales nicht zu verstehen, ist für einen erfolgreichen CEO ein unangenehmes Gefühl.

Diese drei Gefühle, Kontrollverlust, Irrelevanz und Inkompetenz, sind unangenehm. Und weil sie unangenehm sind, werden sie vermieden. Die Vermeidung sieht professionell aus: Delegation an die IT, Pilotprojekte ohne Skalierungsentscheidung, Strategiepapiere ohne Implementierungsbeschluss.

Warum "mehr Daten" die falsche Antwort ist

Lovich und Meier zeigten 2025 im Harvard Business Review das Ausmaß der Diskrepanz: Führungskräfte überschätzten den Enthusiasmus ihrer Mitarbeiter um den Faktor 2,5 (7). Croft, Vaid, Cheng und Whillans bestätigten 2026, ebenfalls im Harvard Business Review, dass Senior Leaders mit kontinuierlicher Disruption, umstrittenen Wertdefinitionen und emotional geteilten Reaktionen auf Veränderung kämpfen (8).

Die Reaktion auf diese Unsicherheit ist vorhersagbar: mehr Daten. Mehr Reports. Mehr Analysen. Anderson beschrieb genau dieses Muster: Die Suche nach zusätzlicher Information ist eine der häufigsten Formen von Choice Deferral (3). Sie fühlt sich an wie Sorgfalt. Sie ist Vermeidung.

Der Unterschied zwischen Sorgfalt und Vermeidung ist einfach zu erkennen: Sorgfalt führt zu einer Entscheidung. Vermeidung führt zu einer weiteren Analyse.

Wenn Ihr Unternehmen seit sechs Monaten an einer "KI-Strategie" arbeitet und noch keinen verbindlichen Beschluss hat, liegt das nicht an fehlenden Daten. Es liegt an einem Gefühl, das vermieden wird.

Die BCG-Formel, die niemand liest

Die BCG-Studie enthält einen Befund, der in den meisten Zusammenfassungen untergeht: Die Unternehmen, die bei KI führen, investieren 10% ihrer Ressourcen in Algorithmen, 20% in Technologie und Daten, und 70% in Menschen und Prozesse (1).

70% in Menschen und Prozesse. Nicht 70% in Technologie. Nicht 70% in Daten. 70% in die Frage, wie Menschen arbeiten, wie sie sich verändern, wie sie mit Unsicherheit umgehen.

Und genau hier liegt das Problem. Denn die Frage "Wie gehen meine Mitarbeiter mit Unsicherheit um?" erfordert zuerst eine andere Frage: "Wie gehe ich selbst mit Unsicherheit um?"

Diese Frage stellen sich die wenigsten CEOs. Und das ist der Grund, warum 74% an der Skalierung scheitern.

Das Muster hinter dem Muster

In meiner Arbeit mit Führungskräften sehe ich dasselbe Muster bei KI-Transformationen wie bei jeder anderen strategischen Entscheidung: Der CEO weiß, was zu tun ist. Er tut es nicht. Und er sucht nach einer Erklärung, die nichts mit ihm selbst zu tun hat.

Ich habe beschrieben, wie Work Slop als Stresssignal entsteht, nicht als Technologieproblem. Wie das Vertrauens-Paradox dazu führt, dass Mitarbeiter KI-Tools installieren, aber nicht nutzen, weil ihre Identität bedroht ist. Wie fehlende Werteklärung dazu führt, dass KI-Systeme auf das Messbare optimieren statt auf das Richtige.

Alle diese Phänomene haben denselben Ursprung: Experiential Avoidance. Die Vermeidung unangenehmer Gefühle erzeugt Entscheidungen, die kurzfristig entlasten und langfristig schaden.

Bei Work Slop vermeidet der Mitarbeiter das Gefühl der Überforderung. Beim Vertrauens-Paradox vermeidet die Mitarbeiterin das Gefühl der Irrelevanz. Bei fehlender Werteklärung vermeidet das C-Level den Konflikt über die eigene Identität.

Und bei der KI-Readiness? Vermeidet der CEO die Frage, die alles verändert: Was bin ich bereit zu riskieren, um das Richtige zu tun?

Was sich ändert, wenn Sie die Richtung vorgeben

KI-Readiness ist keine IT-Frage. KI-Readiness ist die Fähigkeit einer Organisation, sich zu verändern. Und die Fähigkeit einer Organisation, sich zu verändern, beginnt bei der Fähigkeit des CEO, eine Richtungsentscheidung zu treffen und sie dann gemeinsam mit IT, Compliance und Security umzusetzen.

"Aufhören zu delegieren" bedeutet nicht, die IT zu umgehen. Es bedeutet, die strategische Frage selbst zu beantworten, bevor Sie die technische Umsetzung in Auftrag geben. Es bedeutet, die Reihenfolge einzuhalten: Richtung, dann Absicherung, dann Implementierung.

Das bedeutet konkret:

Klären Sie Ihre eigene Position zu KI, bevor Sie ein Strategiepapier in Auftrag geben. Was fühlen Sie, wenn Sie an die Möglichkeit denken, dass KI einen Teil Ihrer Arbeit besser erledigt als Sie? Wenn die Antwort Unbehagen ist: gut. Das Unbehagen enthält die Information, die Ihr Strategiepapier nicht liefern wird.

Stellen Sie die Werteklärung vor die Technologiebewertung. Nicht: "Welche KI-Tools sollen wir einsetzen?" Sondern: "Wofür stehen wir, wenn Effizienz und Qualität in Konflikt geraten?" Wenn Sie diese Frage nicht beantworten, optimiert Ihre KI auf das Messbare. Und das Messbare ist selten das Richtige.

Bringen Sie IT, Compliance und Security früh an den Tisch. Nicht als Bremse, sondern als Voraussetzung. Die BCG-Studie zeigte: Unternehmen, die KI erfolgreich skalieren, fokussieren sich auf Governance, Datenqualität und Change Management (1). All das erfordert die enge Zusammenarbeit zwischen Geschäftsleitung und technischer Infrastruktur. Wer KI an der IT vorbei baut, erzeugt unkontrollierte Risiken. Wer KI vollständig an die IT delegiert, erzeugt Systeme ohne strategische Richtung. Beides scheitert.

Investieren Sie 70% Ihrer KI-Ressourcen in Menschen. Nicht in Schulungen zur Tool-Bedienung. In die Fähigkeit Ihrer Führungskräfte, mit Unsicherheit umzugehen. In die Fähigkeit Ihrer Mitarbeiter, KI-Output zu bewerten statt blind zu übernehmen. In die Fähigkeit Ihres C-Levels, die Richtung vorzugeben, statt die Richtungsfrage zu delegieren.

Erkennen Sie den Unterschied zwischen Sorgfalt und Vermeidung. Wenn Ihr drittes Strategiepapier in zwölf Monaten keine Entscheidung produziert hat, ist das vierte Papier nicht die Lösung. Die Lösung ist die Frage: Welches Gefühl vermeiden Sie?

Anderson hatte recht. Die Psychologie des Nichtstuns erklärt, warum Individuen Entscheidungen aufschieben, den Status quo bevorzugen, Unterlassung wählen und in Inaktionsträgheit verharren (3). Diese Muster beschrieb er auf individueller Ebene. In Organisationen werden sie zu Kultur.

Die gute Nachricht: Kultur beginnt oben. Wenn der CEO aufhört, die Richtungsfrage zu delegieren, und anfängt, sie als persönliche Entscheidung zu behandeln, und dann IT und Compliance einbezieht, um sie abzusichern, verändert sich die gesamte Organisation.

Die unbequeme Nachricht: Das erfordert, ein Gefühl auszuhalten, das Sie lieber vermeiden würden.

Weiterführende Artikel


Verwendete Quellen mit URLs:

  1. Boston Consulting Group (2024). Where's the Value in AI? AI Adoption Survey mit 1.000 CxOs aus 59 Ländern und 20 Sektoren. https://www.bcg.com/press/24october2024-ai-adoption-in-2024-74-of-companies-struggle-to-achieve-and-scale-value

  2. MIT NANDA Initiative (2025). The GenAI Divide: State of AI in Business 2025. Basierend auf 150 Interviews, 350 Mitarbeiterbefragungen und 300 öffentlichen AI-Deployments. Zitiert in Fortune, August 2025. https://fortune.com/2025/08/18/mit-report-95-percent-generative-ai-pilots-at-companies-failing-cfo/

  3. Anderson, C. J. (2003). The Psychology of Doing Nothing: Forms of Decision Avoidance Result from Reason and Emotion. Psychological Bulletin, 129(1), 139-167. https://pubmed.ncbi.nlm.nih.gov/12555797/

  4. Hayes, S. C., Wilson, K. G., Gifford, E. V., Follette, V. M., & Strosahl, K. (1996). Experiential avoidance and behavioral disorders: A functional dimensional approach to diagnosis and treatment. Journal of Consulting and Clinical Psychology, 64(6), 1152-1168. https://pubmed.ncbi.nlm.nih.gov/8991302/

  5. Hayes, S. C., Luoma, J. B., Bond, F. W., Masuda, A., & Lillis, J. (2006). Acceptance and Commitment Therapy: Model, processes and outcomes. Behaviour Research and Therapy, 44(1), 1-25. https://www.sciencedirect.com/science/article/abs/pii/S0005796705002147

  6. Wang, Y., Tian, J., & Yang, Q. (2024). Experiential Avoidance Process Model: A Review of the Mechanism for the Generation and Maintenance of Avoidance Behavior. Psychiatry and Clinical Psychopharmacology, 34(2), 179-190. https://pmc.ncbi.nlm.nih.gov/articles/PMC11332439/

  7. Lovich, D. & Meier, S. (2025). Leaders Assume Employees Are Excited About AI. They're Wrong. Harvard Business Review, November 2025. https://hbr.org/2025/11/leaders-assume-employees-are-excited-about-ai-theyre-wrong

  8. Croft, J., Vaid, S., Cheng, L., & Whillans, A. (2026). Where Senior Leaders Are Struggling with AI Adoption, According to Research. Harvard Business Review, Februar 2026. https://hbr.org/2026/02/where-senior-leaders-are-struggling-with-ai-adoption-according-to-research

Mehr zum Thema

Entdecken Sie, wie AI Readiness Program Ihre Führungskompetenzen stärkt.

AI Readiness Program

Externe Links