Das Vertrauens-Paradox: Warum Ihre Mitarbeiter KI-Tools installieren, aber nicht nutzen

49% der Beschäftigten nutzen KI nie bei der Arbeit. Das Problem ist kein Schulungsdefizit. Es ist ein psychologisches Muster, das Führungskräfte erkennen müssen.

9 Min. Lesezeit
Das Vertrauens-Paradox: Warum Ihre Mitarbeiter KI-Tools installieren, aber nicht nutzen

Eine Mitarbeiterin installiert ein KI-gestütztes Coding-Tool, um sich bei einer statistischen Auswertung helfen zu lassen. Sie hat den Zugang. Die Software läuft. Und dann passiert: nichts.

Sie öffnet das Tool nicht. Oder sie öffnet es, tippt eine Frage ein, bekommt eine Antwort, und schließt das Fenster wieder. Am Ende macht sie die Statistik von Hand. Drei Stunden statt dreißig Minuten.

Warum?

Weil sie dem Ergebnis nicht vertraut. Weil sie nicht weiß, ob die Antwort stimmt. Weil sie nicht gelernt hat, KI als Sparringspartner zu nutzen, der Ergebnisse vorevaluiert, testet und verbessert. Und weil sie ein unangenehmes Gefühl hat, das sie nicht benennen will.

Diese Mitarbeiterin ist kein Einzelfall. Gallup-Daten aus dem vierten Quartal 2025 zeigen: 49% der US-Beschäftigten nutzen KI bei der Arbeit nie. Unter den Führungskräften liegt die regelmäßige Nutzung bei 69%, unter individuellen Mitarbeitern bei 40% (1). BCG befragte im selben Jahr Tausende Beschäftigte weltweit und fand: Nur 51% der Frontline-Mitarbeiter nutzen KI regelmäßig, obwohl über 75% der Führungskräfte und Manager angeben, KI mehrmals pro Woche einzusetzen (2).

Die Tools sind da. Die Lizenzen sind bezahlt. Die Schulungen wurden durchgeführt. Die Nutzung bleibt aus.

Das ist das Vertrauens-Paradox. Und es ist kein Technologie-Problem.

Warum Menschen Algorithmen bestrafen

2015 veröffentlichten Berkeley Dietvorst, Joseph Simmons und Cade Massey von der Wharton School eine Studie, die ein Phänomen benannte, das Führungskräfte seitdem beschäftigt: Algorithm Aversion. In fünf Experimenten zeigten sie, dass Menschen algorithmische Vorhersagen seltener nutzten, nachdem sie diese in Aktion gesehen hatten. Selbst dann, wenn der Algorithmus besser abschnitt als ein menschlicher Vorhersager. Der Grund: Menschen verlieren schneller das Vertrauen in einen Algorithmus als in einen Menschen, wenn beide denselben Fehler machen (3).

Das ist keine rationale Abwägung. Das ist ein emotionales Muster.

Der Algorithmus darf keinen einzigen Fehler machen. Der Mensch darf sich irren. Dietvorst und Kollegen fanden in einer Folgestudie 2018, dass sich die Aversion reduzieren lässt, wenn Menschen die Möglichkeit bekommen, die algorithmischen Ergebnisse leicht zu verändern. Selbst minimale Anpassungsoptionen reichten aus, um die Bereitschaft zur Nutzung zu erhöhen und die Zufriedenheit mit dem Prozess zu steigern (4).

Was sagt das über Ihre Mitarbeiterin, die das KI-Tool installiert hat, aber nicht nutzt?

Sie hat das Tool in Aktion gesehen. Sie hat eine Antwort bekommen, bei der sie unsicher war. Ein einziger zweifelhafter Output reichte, um das Vertrauen zu zerstören. Und sie hat keine Möglichkeit gesehen, das Ergebnis zu modifizieren, zu testen, zu verbessern. Sie stand vor der binären Wahl: Akzeptiere den KI-Output oder mach es selbst.

Sie wählte "selbst". Nicht weil sie technikfeindlich ist. Sondern weil ihr Gehirn einem Algorithmus weniger Fehler verzeiht als sich selbst.

Das tiefere Problem: Identität unter Bedrohung

Algorithm Aversion erklärt, warum Menschen KI-Ergebnissen misstrauen. Es erklärt nicht, warum die Mitarbeiterin das Tool gar nicht erst öffnet.

Dafür brauchen wir ein anderes Konzept. Mirbabaie und Kollegen veröffentlichten 2022 in der Zeitschrift Electronic Markets eine Untersuchung zum "AI Identity Threat". Ihre Kernaussage: Die Einführung von KI bedroht die berufliche Identität von Mitarbeitern. Drei Faktoren treiben diese Bedrohung. Erstens: Veränderungen der Arbeit selbst. Zweitens: Der gefühlte Verlust von Status und Kompetenz. Drittens: Die Art, wie sich Mitarbeiter in Bezug auf KI selbst wahrnehmen (5).

Das ist der Punkt, den die meisten KI-Schulungen komplett ignorieren.

Ihre Mitarbeiterin hat Jahre damit verbracht, statistische Auswertungen zu erstellen. Das ist ihre Kompetenz. Dafür wird sie respektiert. Wenn eine KI dieselbe Auswertung in dreißig Minuten erstellt, stellt sich eine Frage, die sie nicht laut ausspricht: "Was bin ich dann noch wert?"

Selenko und Kollegen beschrieben 2022 in Current Directions in Psychological Science, wie KI die funktionale Identität von Beschäftigten verändert. Arbeit erfüllt Identitätsfunktionen: Sie liefert Selbstwert, Zugehörigkeit, Kompetenzerleben. Wenn KI die Aufgaben übernimmt, über die sich eine Person definiert, entsteht ein Vakuum. Die Forscher fanden, dass Mitarbeiter besser mit der Veränderung umgehen, wenn sie Mitsprache bei der Implementierung haben und wenn es geschützte Räume gibt, in denen sie neue Kompetenzen aufbauen, ohne bewertet zu werden (6).

"Geschützte Räume" klingt weich. Die Konsequenz ist hart. Ohne diese Räume verweigern Mitarbeiter die Nutzung, ohne es offen zu sagen. Sie installieren die Tools. Sie erscheinen bei den Schulungen. Und dann arbeiten sie weiter wie vorher.

Selbstwirksamkeit: Der vergessene Faktor

Albert Bandura formulierte 1977 das Konzept der Selbstwirksamkeit: Ob eine Person eine Handlung ausführt, hängt weniger von ihren tatsächlichen Fähigkeiten ab als von ihrer Überzeugung, die Handlung erfolgreich ausführen zu können (7).

Es reicht nicht, dass Ihre Mitarbeiterin technisch in der Lage ist, das Tool zu bedienen. Sie muss glauben, dass sie KI erfolgreich einsetzen wird.

Eine Studie von 2024 in Humanities and Social Sciences Communications untersuchte 416 Berufstätige in Südkorea über drei Erhebungszeitpunkte. Die Ergebnisse: KI-Adoption erhöht den Arbeitsstress. Selbstwirksamkeit im KI-Lernen schwächt diesen Zusammenhang ab. Mitarbeiter mit hoher Selbstwirksamkeit erleben bei der Einführung von KI-Tools weniger Stress als Mitarbeiter mit niedriger Selbstwirksamkeit (8).

Das bedeutet: Wenn Sie Ihren Mitarbeitern KI-Tools geben, ohne ihre Selbstwirksamkeit zu stärken, erhöhen Sie deren Stresslevel. Sie lösen kein Problem. Sie schaffen eins.

Bandura identifizierte vier Mechanismen, die Selbstwirksamkeit aufbauen (7): eigene Erfolgserlebnisse, Beobachtung anderer, die erfolgreich sind, verbale Ermutigung und der Umgang mit emotionalen Zuständen. Keiner dieser vier Mechanismen wird durch ein Webinar am Freitagmorgen aktiviert.

Was Führungskräfte falsch machen

Die meisten Unternehmen adressieren KI-Adoption mit drei Standardmaßnahmen: Tool-Schulungen, Nutzungsrichtlinien und KPIs für KI-Nutzung.

Alle drei verfehlen das Problem.

Tool-Schulungen vermitteln Bedienung. Sie vermitteln keine Selbstwirksamkeit. Sie zeigen, welche Knöpfe zu drücken sind, aber sie adressieren nicht die Frage: "Traue ich mir zu, das Ergebnis zu bewerten?" Und sie schaffen keine Erfolgserlebnisse, weil die Teilnehmer nach der Schulung allein vor dem Tool sitzen und beim ersten fragwürdigen Output aufgeben.

Nutzungsrichtlinien regulieren Verhalten. Sie verändern keine inneren Zustände. Wenn jemand KI-Ergebnissen nicht vertraut, ändert eine Policy nichts an diesem Gefühl. Die Forschung zu Algorithm Aversion zeigt genau das: Transparenz allein reicht nicht. Leichtmann und Kollegen fanden 2023 in einem Experiment mit 410 Teilnehmern, dass visuelle Erklärungen zwar die Vertrauenskalibrierung verbessern, ein Wissenstransfer über KI-Funktionsweise allein die Nutzung nicht veränderte. Kontrolle über den Output wirkt stärker als Erklärungen über den Algorithmus (9).

KPIs für KI-Nutzung messen die falsche Größe. Sie messen, ob jemand das Tool öffnet, nicht ob jemand es produktiv einsetzt. Gallup berichtet, dass der tägliche KI-Einsatz in den USA bei etwa 10% der Beschäftigten liegt, obwohl fast die Hälfte KI mindestens gelegentlich nutzt (1). Das bedeutet: Viele Menschen öffnen KI-Tools, ohne sie sinnvoll zu verwenden.

Die Writer-Studie von 2025, durchgeführt in Partnerschaft mit Workplace Intelligence, enthüllte eine zusätzliche Dimension: 31% der Mitarbeiter, darunter 41% der Generation Z, sabotieren aktiv die KI-Strategie ihres Unternehmens. Sie weigern sich, KI-Tools zu nutzen, oder untergraben deren Einführung (10). Das ist keine passive Verweigerung. Das ist aktiver Widerstand.

Was stattdessen funktioniert

Wenn Algorithm Aversion durch Kontrolle reduziert wird und Selbstwirksamkeit durch Erfolgserlebnisse aufgebaut wird, ergeben sich vier konkrete Maßnahmen.

Geben Sie Mitarbeitern die Kontrolle über den KI-Output. Trainieren Sie die Bewertung der Ergebnisse, nicht die Bedienung des Tools. Die zentrale Frage lautet nicht "Wie nutze ich das Tool?" sondern "Wie erkenne ich, ob das Ergebnis brauchbar ist?" Dietvorsts Forschung zeigt: Schon die Möglichkeit, minimale Anpassungen vorzunehmen, reduziert die Aversion (4).

Schaffen Sie geschützte Räume für Experimente. Selenko und Kollegen betonen die Bedeutung von "liminal spaces" für die Identitätsanpassung (6). Eine Stunde pro Woche, in der Mitarbeiter mit KI experimentieren, ohne Ergebnispflicht. Die einzige Frage: "Was hast du ausprobiert?" Das senkt den gefühlten Stress und baut Selbstwirksamkeit durch Erfahrung auf.

Normalisieren Sie Unsicherheit. Die BCG-Studie zeigte, dass der Anteil der Mitarbeiter, die KI positiv bewerten, von 15% auf 55% steigt, wenn sie starke Führungsunterstützung erfahren (2). Das bedeutet: Führungskräfte, die offen über ihre eigene Unsicherheit im Umgang mit KI sprechen. Die zeigen, dass sie selbst KI-Output hinterfragen.

Adressieren Sie die Identitätsfrage direkt. Sagen Sie nicht: "KI macht Ihren Job leichter." Sagen Sie: "Ihre Expertise wird wichtiger. Die KI liefert Rohmaterial. Sie liefern das Urteil." Das adressiert den Statusverlust, den Mirbabaie und Kollegen als zentralen Treiber der AI Identity Threat identifizierten (5).

Die unbequeme Wahrheit

Nicht jeder Mitarbeiter, der KI nicht nutzt, hat ein psychologisches Problem. Manche Tools sind schlecht. Manche Aufgaben eignen sich nicht für KI. Manche Schulungen sind so miserabel, dass die logische Reaktion Verweigerung ist.

Wenn Sie aber sehen, dass Ihr Unternehmen Lizenzen bezahlt, Schulungen anbietet, Tools bereitstellt, und die Nutzungsraten trotzdem bei unter 50% stagnieren, dann schauen Sie nicht auf die Technologie. Schauen Sie auf die Menschen.

Ihre Mitarbeiterin hat das KI-Tool installiert. Sie hat die technische Hürde genommen. Was sie zurückhält, ist kein fehlendes Tutorial. Es ist die Angst, dass ein Tool in dreißig Minuten erledigt, wofür sie zehn Jahre Expertise aufgebaut hat. Es ist der fehlende Glaube, dass sie in der Lage ist, KI-Output zu bewerten. Es ist das Gefühl, die Kontrolle über die eigene Arbeit zu verlieren.

Diese drei Dinge lösen Sie nicht mit einer Policy. Sie lösen sie mit Führung.

Die Frage, die Sie sich heute stellen, ist: Wissen Sie, warum Ihre Mitarbeiter die Tools nicht nutzen? Oder nehmen Sie an, es liegt an der Schulung?

Wenn Sie annehmen, liegt die Antwort in der Schulung. Wenn Sie fragen, liegt die Antwort im Menschen.

Und da gehört sie hin.

Weiterführende Artikel


Verwendete Quellen mit URLs:

  1. Gallup (2025). Frequent Use of AI in the Workplace Continued to Rise in Q4. Gallup Workplace Report, Q4 2025. https://www.gallup.com/workplace/701195/frequent-workplace-continued-rise.aspx

  2. Boston Consulting Group (2025). AI at Work 2025: Momentum Builds, but Gaps Remain. BCG Global AI at Work Survey. https://www.bcg.com/publications/2025/ai-at-work-momentum-builds-but-gaps-remain

  3. Dietvorst, B. J., Simmons, J. P. & Massey, C. (2015). Algorithm Aversion: People Erroneously Avoid Algorithms After Seeing Them Err. Journal of Experimental Psychology: General, 144(1), 114-126. https://pubmed.ncbi.nlm.nih.gov/25401381/

  4. Dietvorst, B. J., Simmons, J. P. & Massey, C. (2018). Overcoming Algorithm Aversion: People Will Use Imperfect Algorithms If They Can (Even Slightly) Modify Them. Management Science, 64(3), 1155-1170. https://marketing.wharton.upenn.edu/wp-content/uploads/2020/07/Dietvorst-Overcoming-Algorithm-Aversion.pdf

  5. Mirbabaie, M., Brünker, F., Möllmann, N. R. J., Frick, N. R. J. & Stieglitz, S. (2022). The Rise of Artificial Intelligence – Understanding the AI Identity Threat at the Workplace. Electronic Markets, 32(1), 73-99. https://link.springer.com/article/10.1007/s12525-021-00496-x

  6. Selenko, E., Bankins, S., Shoss, M., Warburton, J. & Restubog, S. L. D. (2022). Artificial Intelligence and the Future of Work: A Functional-Identity Perspective. Current Directions in Psychological Science, 31(3), 272-279. https://journals.sagepub.com/doi/full/10.1177/09637214221091823

  7. Bandura, A. (1977). Self-Efficacy: Toward a Unifying Theory of Behavioral Change. Psychological Review, 84(2), 191-215. https://doi.org/10.1037/0033-295X.84.2.191

  8. Baig, S. A., Iqbal, S., Abrar, M., Baig, I. A., Amjad, F. & Zia-ur-Rehman, M. (2024). The Mental Health Implications of Artificial Intelligence Adoption: The Crucial Role of Self-Efficacy. Humanities and Social Sciences Communications, 11, Artikel 1522. https://www.nature.com/articles/s41599-024-04018-w

  9. Leichtmann, B., Humer, C., Hinterreiter, A., Streit, M. & Mara, M. (2023). Effects of Explainable Artificial Intelligence on Trust and Human Behavior in a High-Risk Decision Task. Computers in Human Behavior, 139, 107539. https://www.sciencedirect.com/science/article/pii/S0747563222003594

  10. Writer & Workplace Intelligence (2025). 2025 AI Survey: Generative AI Adoption in the Enterprise. https://workplaceintelligence.com/ai-adoption-study/

Mehr zum Thema

Entdecken Sie, wie AI Readiness Programm Ihre Führungskompetenzen stärkt.

AI Readiness Programm

Externe Links