Agent Readability: Warum Ihr Unternehmen für KI-Agenten unsichtbar ist

McKinsey prognostiziert 1 Billion Dollar Umsatz durch KI-Agenten bis 2030. 51% des Internet-Traffics ist bereits automatisiert. Wer unsichtbar ist, verliert.

7 Min. Lesezeit
Agent Readability: Warum Ihr Unternehmen für KI-Agenten unsichtbar ist

51% des gesamten Internet-Traffics kommt von Bots. Nicht von Menschen. Das zeigt der Imperva Bad Bot Report 2025, basierend auf der Analyse globaler Web-Traffic-Daten des Jahres 2024 (1). Zum ersten Mal in einem Jahrzehnt übertrifft automatisierter Traffic den menschlichen.

Gleichzeitig prognostiziert McKinsey, dass bis 2030 allein im US-Einzelhandel bis zu 1 Billion Dollar Umsatz durch KI-Agenten orchestriert wird. Global: 3 bis 5 Billionen Dollar (2). Gartner sagt voraus, dass organischer Suchmaschinen-Traffic bis 2028 um 50% sinkt, weil Konsumenten auf KI-gestützte Suche umsteigen (3).

Drei Zahlen. Eine Realität: Aufmerksamkeit verschiebt sich von Menschen zu Maschinen. Und Aufmerksamkeit war schon immer die Vorstufe von Umsatz. Wer in den kommenden 6 bis 12 Monaten für KI-Agenten unsichtbar bleibt, nimmt an dieser Billion-Dollar-Verschiebung nicht teil.

Ich bin Arzt. Ich schaue nicht auf Datenflüsse und API-Architekturen. Ich schaue auf den Menschen dahinter. Und was ich sehe, ist ein Muster, das ich aus der klinischen Praxis kenne: Organisationen, die aus Angst vor Mangel Mauern bauen. Mauern, die sie jetzt von ihren zukünftigen Kunden trennen.

20 Jahre Anti-Bot-Architektur

Seit zwei Jahrzehnten baut die Unternehmens-IT Schutzmauern gegen automatisierte Zugriffe. CAPTCHAs. JavaScript-lastige Frontends. Rate Limiting. Bot-Detection. IP-Blocking. Die gesamte Web-Architektur der letzten 20 Jahre wurde darauf optimiert, Maschinen auszusperren.

Das war rational. Der Imperva-Report zeigt: 37% des gesamten Internet-Traffics besteht aus schadhaften Bots. Scraping, Credential Stuffing, DDoS-Angriffe (1). Die Abwehr war nötig.

Aber hier passiert etwas, das die IT-Abteilung nicht auf dem Radar hat. Dieselben Mauern, die gegen schadhafte Bots schützen, sperren jetzt die KI-Agenten aus, die Kaufentscheidungen treffen. Der Schutzmechanismus wird zum Geschäftsrisiko.

McKinsey beschreibt den Wandel so: Shopping transformiert sich von einer Abfolge diskreter Schritte (suchen, vergleichen, kaufen) in einen "kontinuierlichen, absichtsgetriebenen Fluss, gesteuert von autonomen KI-Systemen" (2). Wenn Ihr System für diese Agenten nicht lesbar ist, existieren Sie in diesem Fluss nicht.

API ist nicht genug

Die Standardreaktion vieler IT-Abteilungen: "Wir haben eine API." Das reicht nicht.

Eine API gibt Rohdaten zurück. Produktnummern, Preise, Verfügbarkeiten. Ein KI-Agent braucht mehr. Er braucht interpretierte Daten. Nicht "SKU-4892, Preis 119,99, Lieferzeit 3-5 Werktage." Sondern: "Laufschuh, unter Budget, passende Größe, Lieferung bis Donnerstag möglich, flexible Retoure."

Der Unterschied zwischen einer API und einem MCP-Server (Model Context Protocol) ist derselbe Unterschied wie zwischen einem Aktenschrank und einem kompetenten Mitarbeiter. Der Aktenschrank enthält die Information. Der Mitarbeiter versteht die Frage.

McKinseys Report betont: Produktverzeichnisse müssen für "Agent Readability" optimiert werden. Offene Protokolle wie MCP ermöglichen es Agenten, Daten zu lesen, mit anderen Agenten zu verhandeln und sicher zu transagieren (2). Aber die Voraussetzung ist: Die Daten müssen interpretierbar sein.

Und genau hier liegt das Problem, das kein IT-Berater adressiert.

80% Ihres Wissens existiert nicht

In den meisten Unternehmen stecken 80% des Produktwerts in dem, was Organisationsforscher "Tribal Knowledge" nennen. Fair-Trade-Zertifizierung. Besondere Materialeigenschaften. Warum dieses Produkt besser passt als das Konkurrenzprodukt. Dieses Wissen lebt in Marketingtexten, in den Köpfen von Vertriebsmitarbeitern, in internen Wikis, die seit drei Jahren nicht aktualisiert wurden.

Kein KI-Agent hat Zugriff darauf. Und ohne diesen Zugriff trifft der Agent seine Entscheidung auf Basis der 20%, die in strukturierten Datenbankfeldern stehen. Preis. Verfügbarkeit. Lieferzeit. Wenn zwei Anbieter bei diesen 20% gleich abschneiden, gewinnt der, dessen restliche 80% maschinenlesbar sind.

Das Explizitmachen von implizitem Wissen ist kein technisches Projekt. Es ist ein psychologisches. Denn es erfordert, dass eine Organisation zugibt, was sie nicht dokumentiert hat. Und Organisationen vermeiden dieses Eingeständnis aus demselben Grund, aus dem Menschen unangenehme Arztbesuche verschieben.

Das Muster: Mangel, Kontrolle, Unsichtbarkeit

Sendhil Mullainathan und Eldar Shafir beschrieben 2013 in ihrer Forschung zur Knappheitspsychologie ein Phänomen, das sie "Tunneling" nannten: Unter dem Eindruck von Knappheit verengt sich die Aufmerksamkeit auf die unmittelbare Bedrohung, auf Kosten aller anderen Faktoren. Die kognitive Bandbreite für langfristige Planung sinkt messbar. Mullainathan und Shafir zeigten, dass allein das Auslösen von Knappheitsgedanken die kognitive Leistung um eine ganze Standardabweichung reduziert (4).

In meiner Arbeit mit Führungskräften sehe ich dieses Tunneling bei der Frage nach KI-Agenten und Agent Readability in drei Stufen:

Stufe 1: Mangelangst. "Wir verlieren die Kontrolle über unsere Daten." "Agenten werden unsere Preise scrapen." "Wir machen uns angreifbar." Die gefühlte Knappheit ist Sicherheit. Die Reaktion ist vorhersehbar.

Stufe 2: Kontrolle. CAPTCHAs verstärken. APIs restriktiv gestalten. Daten hinter Logins verstecken. Jede Maßnahme fühlt sich an wie Schutz. Jede Maßnahme reduziert die Sichtbarkeit für KI-Agenten.

Stufe 3: Unsichtbarkeit. Der Agent findet das Unternehmen nicht. Der Agent empfiehlt das Produkt nicht. Der Agent schließt den Kauf woanders ab. Der Mensch dahinter bekommt das Angebot nie zu sehen.

Das ist Experiential Avoidance auf Infrastrukturebene. Hayes, Strosahl und Wilson beschrieben 1999 den Mechanismus: Menschen vermeiden unangenehme innere Erfahrungen, selbst wenn die Vermeidung langfristig mehr schadet als das vermiedene Gefühl selbst (5). Die kurzfristige Erleichterung ("Unsere Daten sind sicher") überwiegt die langfristige Konsequenz ("Wir sind unsichtbar").

Die Deloitte-Falle

Monahan, Cotteleer und Fisher beschrieben in ihrer Analyse für Deloitte Insights drei Wege, wie die Knappheitsmentalität kognitive Leistung zerstört: permanente innere Unterbrechung, zwanghafte Fokussierung auf die unmittelbare Bedrohung und mentale Erschöpfung durch endlose Trade-off-Entscheidungen (6).

Alle drei Mechanismen sehe ich bei Führungskräften, die über Agent Readability entscheiden müssen.

Die permanente Unterbrechung: "Was ist, wenn Agenten unsere Preise unterbieten?" Dieser Gedanke läuft im Hintergrund und blockiert strategisches Denken.

Die zwanghafte Fokussierung: Die gesamte Energie fließt in Datensicherheit und Bot-Abwehr. Die Frage "Wie werden wir für kaufbereite Agenten sichtbar?" wird nicht gestellt.

Die mentale Erschöpfung: Die Komplexität des Umbaus (Datenstrukturen bereinigen, Tribal Knowledge explizieren, MCP-Server aufsetzen) fühlt sich überwältigend an. Also wird nichts entschieden. Ich habe beschrieben, warum dieses Muster der Entscheidungsvermeidung bei KI-Strategien so verbreitet ist.

Das Zeitfenster schließt sich

Gartner prognostiziert bis 2028 einen Rückgang des organischen Suchmaschinen-Traffics um 50% (3). Bis 2026 sinkt das Suchmaschinen-Volumen um 25%. Das sind keine Jahrzehnt-Prognosen. Das passiert jetzt.

Salesforce berichtete im Dezember 2025, dass bereits 1 von 5 Bestellungen am Cyber Weekend einen KI-Agenten involvierte, mit einem Gesamtvolumen von 67 Milliarden Dollar (7). Die Verschiebung hat begonnen.

Die Datenbereinigung, die nötig ist, um Agent Readability herzustellen, dauert Monate. Nicht Wochen. Die Transformation von implizitem Wissen in maschinenlesbare Strukturen ist ein Quartalsprojekt, kein Sprint. Wer jetzt "abwartet", verliert 6 bis 12 Monate. Und in 6 bis 12 Monaten hat sich der Markt bewegt.

In meinem Artikel über die Angst vor Produktivität habe ich beschrieben, warum Unternehmen KI zum Schrumpfen statt zum Wachsen nutzen. Agent Readability ist die Wachstumsseite. Es geht nicht darum, Mitarbeiter durch Agenten zu ersetzen. Es geht darum, für die Agenten sichtbar zu sein, die Kaufentscheidungen treffen.

Was Agent Readability wirklich erfordert

Agent Readability ist kein IT-Projekt. Es ist ein Transparenzprojekt.

Erstens: Ihr implizites Wissen muss explizit werden. Alles, was ein erfahrener Vertriebsmitarbeiter im Kopf hat und was er einem Kunden am Telefon erklären würde, muss in maschinenlesbare Strukturen überführt werden.

Zweitens: Ihre Daten müssen interpretiert sein, nicht nur verfügbar. Ein MCP-Server liefert keine Rohdaten. Er liefert Antworten auf Fragen, die ein Agent stellt. Das ist ein fundamentaler Architekturwechsel.

Drittens: Ihre Schutzmechanismen müssen differenzieren. Schadhafte Bots aussperren, kaufbereite Agenten einlassen. Das erfordert eine andere Denkweise als "alles blockieren, was kein Mensch ist."

Keiner dieser drei Schritte scheitert an Technologie. Alle drei scheitern an der Bereitschaft, die Kontrolle über den Informationsfluss zu lockern. Und diese Bereitschaft scheitert am Mangelgefühl.

Die Frage, die sich stellt

McKinsey spricht von einem "seismischen Wandel" (2). Gartner spricht von 50% weniger organischem Traffic (3). Imperva zeigt, dass die Mehrheit des Internet-Traffics bereits automatisiert ist (1).

Die technische Frage ("Wie baue ich einen MCP-Server?") ist lösbar. Die psychologische Frage ("Warum baue ich keinen?") ist die, die niemand stellt.

In meiner Arbeit mit Führungskräften beginne ich genau dort. Nicht bei der Architektur. Beim Gefühl, das die Entscheidung blockiert. Denn die Rigidität, die heute Sicherheit verspricht, kostet morgen Aufmerksamkeit. Und Aufmerksamkeit war noch nie so direkt mit Umsatz verbunden wie in einer Welt, in der Agenten die Kaufentscheidungen vorbereiten.

Walk the Talk: Diese Website setzt Agent Readability selbst um — mit strukturierten Daten, llms.txt, RSS-Feeds und vernetzten Schema.org-Graphen. Alle technischen Details und Maßnahmen im Agent Readability Report.


Verwendete Quellen mit URLs:

  1. Imperva (2025). 2025 Bad Bot Report: AI-Driven Bots Surpass Human Traffic. Thales Group. https://cpl.thalesgroup.com/about-us/newsroom/2025-imperva-bad-bot-report-ai-internet-traffic

  2. McKinsey & Company (2025). The Agentic Commerce Opportunity: How AI Agents Are Ushering in a New Era for Consumers and Merchants. McKinsey QuantumBlack. https://www.mckinsey.com/capabilities/quantumblack/our-insights/the-agentic-commerce-opportunity-how-ai-agents-are-ushering-in-a-new-era-for-consumers-and-merchants

  3. Gartner (2024). Gartner Predicts Search Engine Volume Will Drop 25% by 2026, Due to AI Chatbots and Other Virtual Agents. Gartner Newsroom. https://www.gartner.com/en/newsroom/press-releases/2024-02-19-gartner-predicts-search-engine-volume-will-drop-25-percent-by-2026-due-to-ai-chatbots-and-other-virtual-agents

  4. Mullainathan, S. & Shafir, E. (2013). Scarcity: Why Having Too Little Means So Much. Times Books/Henry Holt and Company. https://en.wikipedia.org/wiki/Scarcity:_Why_Having_Too_Little_Means_So_Much

  5. Hayes, S.C., Strosahl, K.D. & Wilson, K.G. (1999). Acceptance and Commitment Therapy: An Experiential Approach to Behavior Change. Guilford Press. https://contextualscience.org/publications/hayes_strosahl_wilson_1999

  6. Monahan, K., Cotteleer, M. & Fisher, J. (2016). A Behavioral Understanding of the Scarcity Mind-Set. Deloitte Insights. https://www.deloitte.com/us/en/insights/topics/leadership/scarcity-mind-set-improving-decision-making.html

  7. Salesforce (2025). Salesforce Confirms AI Agents Hit 20% of Cyber Week Orders. https://paz.ai/blog/salesforce-confirms-ai-agents-hit-20-of-cyber-week-orders-the-tipping-point-has-arrived

Mehr zum Thema

Entdecken Sie, wie AI Readiness Ihre Führungskompetenzen stärkt.

AI Readiness

Externe Links