KI Narrative und ihr Irrtum
Ich las die Tage eine Reihe von Artikel und Posts zu 2026 und KI. Es tauchen immer mehr Narrative auf, deren inhaltliche Behauptungen schlicht falsch und Irreführung sind.
Hier einige davon und meine Einschätzung:
- „2026 entscheidet KI-Kompetenz über Wettbewerbsvorteil oder -nachteil“ – eine technokratische Verkürzung
Diese Aussage ist strategisch irreführend, weil sie suggeriert, dass der technologische KI-Einsatz an sich bereits ein strategischer Vorteil sei. Das ist falsch:
• Wettbewerbsvorteile entstehen nicht durch Technologie allein, sondern durch ein überlegenes, anpassungsfähiges Geschäftsmodell in einem konkreten Systemkontext.
• KI-Kompetenz kann eine Variable sein – aber nur, wenn sie systemisch eingebettet ist in Marktverständnis, Viabilitätslogik und unternehmerisches Denken. Alles andere ist Tool-Hype.
Kritik: Diese Aussage verkennt die grundlegende strategische Erkenntnis: Technologie ist ein Enabler, kein Selbstzweck. Erfolg beruht auf der Fähigkeit, Technologie in ein stimmiges, resilient-lebensfähiges System zu integrieren. - KI-Agenten als revolutionäre Prozessverantwortliche – Wunschdenken mit Systemrisiken
Die Behauptung, dass KI-Agenten jetzt „komplexe Workflows von Anfang bis Ende steuern“ und operative Prozesse eigenständig koordinieren, ist strategisch hochriskant:
• Komplexe Workflows sind soziotechnische Systeme, keine rein technischen Abläufe. Sie beinhalten implizite Kontexte, Interdependenzen, Prioritäten und normative Zielkonflikte.
• KI kann assistieren, aber nicht eigenständig kontextadäquat handeln – sie hat keine Semantik, keine Verantwortung, kein situatives Verständnis, keine ethische Urteilskraft.
• Der blinde Glaube an „vollautomatisierte Agenten“ ignoriert das Risiko emergenter Nebenwirkungen durch inadäquate oder nicht antizipierte Wechselwirkungen – eine klassische Komplexitätsfalle.
Fazit: KI-Agenten sind Werkzeuge – nicht strategische Akteure. Wer das verwechselt, riskiert Kontrollverlust. - „KI muss sich jetzt durch Produktivität selbst finanzieren“ – ökonomisch fragwürdig
Die pauschale Forderung, dass KI-Projekte nach 90 Tagen ROI zeigen müssen, ist betriebswirtschaftlich und strategisch unrealistisch und kurzsichtig:
• Produktivitätsgewinne aus KI ergeben sich nicht linear oder sofort, sondern erfordern Lernkurven, Kontextadaption, Prozessneugestaltung und kulturelle Integration.
• Der Versuch, KI nur unter kurzfristiger ROI-Logik zu führen, verkennt deren systemische Natur: In vielen Fällen führt gerade dieser Fokus zu Schein-Rationalisierung und Dysfunktionalität (Stichwort: „Effizienzfalle“).
• Viabilität entsteht nicht durch kurzfristige Amortisation, sondern durch strategische Fähigkeit zur Anpassung und Resilienz im jeweiligen Systemkontext.
Bewertung: Wer KI auf 90-Tage-Rendite einschwört, reduziert Strategie auf Controlling – und unterwirft sie einem Effizienzfetisch, der langfristige Tragfähigkeit unterminiert. - „Mitarbeitende als Orchestratoren“ – halbrichtig, aber unvollständig
Die Rolle des Menschen als „Agenten-Orchestrator“ ist ein wichtiger Gedanke – aber:
• Diese Rolle verlangt systemisches Denken, intuitive Urteilskraft und Reflexionsfähigkeit, nicht nur „Zielsetzung und Outputprüfung“.
• Die kritische Kompetenz ist nicht „Agenten steuern“, sondern Systeme verstehen, Komplexität deuten, strategische Zielbilder entwickeln.
• Die Reduktion auf Koordinationstätigkeit ist eine gefährliche Deprofessionalisierung des strategischen Denkens. - „Nicht mehr Exploration, sondern aggressive Implementierung“ – brandgefährlich
Diese Aussage ist systemtheoretisch und strategisch falsch:
• Komplexe Systeme können nicht top-down „ausgerollt“ werden, ohne dabei Risiken exponentiell zu vergrößern.
• Gerade im Umfeld dynamischer Unsicherheit ist Exploration eine notwendige permanente Kompetenz, keine Phase, die „vorbei“ ist.
• „Aggressives Implementieren“ ohne tiefes Systemverständnis führt zu struktureller Fragilität, Schattenprozessen und Kontrollillusionen.
Fazit – Was bleibt von dieser These übrig?
Die zitierten Meinungen sind typische Beispiele für KI-Propaganda, die Komplexität ignoriert, strategische Kategorien vermischt und Technologie zum Selbstzweck überhöht.
Sie alle
• verwechseln operative Automatisierung mit strategischer Wertschöpfung,
• stilisieren KI zur zentralen Quelle des Wettbewerbsvorteils,
• propagieren Effizienz über Viabilität,
• und unterschätzen massiv die systemische, kulturelle und menschliche Dimension der Transformation.
Richtig ist:
KI verändert viele Spielregeln – aber nicht im Sinne von „ersetzen“, sondern im Sinne von „neu integrieren“. Wer den Unterschied nicht versteht, läuft Gefahr, nicht zu gewinnen, sondern zu scheitern.
Zwei Publikationen zu AI und Unternehmensführung
Mit all den Erkenntnissen habe ich daran gearbeitet, zentrale Fragen, wie AI Führung und Strategie in Unternehmen verändert und welche Maßnahmen nötig sind, um AI zu implementieren, zu beantworten. Das Ergebnis habe ich zum Jahreswechsel publiziert. Keine wissenschaftliche Theorie, sondern bewusst kurze Impulsbände für die Praxis.
Ab sofort als Kindle-Ausgabe und Taschenbuch bestellbar:
Das Vertiefungsbuch dazu als Kindle eBook, Taschenbuch und Hardcover