Foto: KI-Illustration
KI-Modelle überaltern ohne menschliche Expertise
30.04.2026
Mit der Einführung von KI erhoffen sich Unternehmen mehr Effizienz, bessere Entscheidungen und weniger Fehler. Neben den positiven, gibt es allerdings auch negative Effekte, wie eine konzeptionelle Theoriestudie der Universität Passau und der Arizona State University nahelegt: Das interne menschliche Expertenwissen nimmt langsam ab. In der Folge verschlechtern sich die KI-Modelle. Die Qualität der Ergebnisse sinkt, und es drohen systematische Fehlentscheidungen in Unternehmen.
Die Studie basiert nicht auf neuen empirischen Daten, sondern führt vorhandene Forschungsergebnisse aus den Bereichen Organisationswissenschaft und Informatik systematisch zusammen, beispielsweise zu organisationalem Lernen, zur Alterung von Machine-Learning-Modellen, zur Automatisierung und zum Verlust von Fähigkeiten.
Daraus haben die Forscher eine Prozesstheorie abgeleitet, die erklärt, wie und warum organisatorisches Wissen unter KI-Einsatz verfallen kann. Darin beschreiben sie typische Dynamiken: vom anfänglichen Produktivitätsschub über den Rückgang menschlicher Expertise bis zum Punkt, an dem veraltete Modelle ohne ausreichend internes Fachwissen kaum noch sinnvoll aktualisiert werden können.
Für ihre Studie wählten die Forscher ein einfaches Szenario: KI-Systeme übernehmen Aufgaben wie die Qualitätskontrolle in der Fertigung oder die Bonitätsprüfung im Kreditgeschäft. Auf den ersten Blick scheint es viele Vorteile zu geben: Prozesse laufen stabiler, schneller, günstiger. Doch mit der Zeit nutzen Ingenieurinnen, Sachbearbeiter oder Analystinnen das dafür relevante Fachwissen immer seltener, sie verlernen es, oder sie verlassen die Firma. Neue Angestellte können entsprechendes Fachwissen gar nicht mehr in der Tiefe aufbauen, weil die KI bereits übernommen hat.
Ungeeignetes Sparprogramm
Fehlt die menschliche Expertise, kann die Qualität der KI-Ausgaben unbemerkt sinken.
„Wenn Mitarbeiter die Vorhersagen und Entscheidungen eines veralteten KI-Modells unkritisch übernehmen, kann dies ihr menschliches Wissen weiter verfälschen“, prognostizieren die Studienautoren.
Die Forscher beschreiben diesen Prozess als Wissensfalle in mehreren Stufen: KI übernimmt, menschliches Knowhow nimmt ab, die Modelle altern. Gerade dann wären Expertinnen und Experten notwendig, um die Modelle zu prüfen, zu korrigieren und die KI-Daten zu aktualisieren.
Die Studienautoren empfehlen Unternehmen bewusst gegenzusteuern. Dazu gehören
- Doppelkompetenz sichern: kritische Aufgaben nicht vollständig automatisieren, sondern bewusst Teams aufbauen, in denen Menschen sowohl Domänenwissen als auch ein Grundverständnis der Modelle haben.
- Wissenspflege institutionalisieren: Reviews, Fehlersimulationen und Post-Mortem-Analysen, sollten nicht nur für KI-Systeme, sondern auch für die Zusammenarbeit von Mensch und Maschine durchgeführt werden.
- Lernpfade für Nachwuchskräfte: Ausbildungswege so gestalten, dass junge Ingenieurinnen und Ingenieure zunächst das physikalische oder betriebswirtschaftliche Fundament erlernen, bevor sie Aufgaben an KI delegieren.
- Modell-„Alterung“ ernst nehmen: klare Prozesse für Re-Training, Validierung und Decommissioning von Modellen einführen und dafür ausreichend Fachkräfte vorhalten.
Kognitive Atrophie
Die aktuelle Studie reiht sich ein in eine wachsende internationale Debatte rund um generative KI und „kognitive Atrophie“ ein. So beschreiben Teams der École Polytechnique in Frankreich, wie ständige KI-Unterstützung das eigene Kompetenzgefühl verzerren und Lernprozesse schwächen kann.
Offen bleibt, wo genau die Kipppunkte liegen. Ab wann ist so viel Wissen ausgelagert, dass Organisationen den zentralen Überblick verlieren? Wie lässt sich Wissensverlust messen: über Fehlerquoten, Innovationsfähigkeit oder Sicherheitsvorfälle? Hier gibt es weiteren Forschungsbedarf – auch mit empirischen Langzeitstudien in Betrieben.
Klar ist schon jetzt: Die eigentliche Kunst der KI-Einführung besteht nicht darin, möglichst viel zu automatisieren, sondern das richtige Maß zu finden. Damit aus smarten Maschinen keine stillen Wissensvernichter werden.
Neueste Beiträge
- KI-Modelle überaltern ohne menschliche Expertise 30. April 2026
- Pizza, Softdrinks und Gummibärchen – Deutschland bei Gesundheitsprävention hinten 27. März 2026
- „Preiswertes KI-Wissen“ führt zu Lohndruck und bremst Nachwuchskräfte aus 18. März 2026
- Innovationsstau durch inkohärente Unternehmensstrategie 27. Februar 2026
- Emissionsarm: Biobeton aus Urin 5. Februar 2026
- EU-Klimadienst: 2025 drittwärmstes Jahr seit Messbeginn 16. Januar 2026
- Industrie testet KI – strategischer Gesamtblick bleibt aus 18. Dezember 2025
- Pestizide zum Frühstück: Müsli und Mehl mit Chemikalien belastet 9. Dezember 2025
- 2025: Fossile Emissionen mit neuem Rekordhoch 13. November 2025
- Digitalisierung auf die Nutzer ausrichten 15. Oktober 2025