Fehlt die menschliche Expertise, kann die Qualität der KI-Ausgaben unbemerkt sinken.
KI kann Wissensspeicher sein, wenn beispielsweise Erfahrungswerte altgedienter Fachkräfte in die Modelle einfließen. KI-Systeme können aber auch zum Risiko werden, wenn Organisationen sie als billiges Sparprogramm missverstehen, in dem sie erfahrene Mitarbeiter abbauen, die Ausbildung zurückfahren und komplexe Entscheidungen an Modelle delegieren, deren Grenzen niemand mehr kritisch beurteilen kann.
Foto: KI-Illustration

KI-Modelle überaltern ohne menschliche Expertise

30.04.2026

Mit der Einführung von KI erhoffen sich Unternehmen mehr Effizienz, bessere Entscheidungen und weniger Fehler. Neben den positiven, gibt es allerdings auch negative Effekte, wie eine konzeptionelle Theoriestudie der Universität Passau und der Arizona State University nahelegt: Das interne menschliche Expertenwissen nimmt langsam ab. In der Folge verschlechtern sich die KI-Modelle. Die Qualität der Ergebnisse sinkt, und es drohen systematische Fehlentscheidungen in Unternehmen.

Die Studie basiert nicht auf neuen empirischen Daten, sondern führt vorhandene Forschungsergebnisse aus den Bereichen Organisationswissenschaft und Informatik systematisch zusammen, beispielsweise zu organisationalem Lernen, zur Alterung von Machine-Learning-Modellen, zur Automatisierung und zum Verlust von Fähigkeiten.

Daraus haben die Forscher eine Prozesstheorie abgeleitet, die erklärt, wie und warum organisatorisches Wissen unter KI-Einsatz verfallen kann. Darin beschreiben sie typische Dynamiken: vom anfänglichen Produktivitätsschub über den Rückgang menschlicher Expertise bis zum Punkt, an dem veraltete Modelle ohne ausreichend internes Fachwissen kaum noch sinnvoll aktualisiert werden können.

Für ihre Studie wählten die Forscher ein einfaches Szenario: KI-Systeme übernehmen Aufgaben wie die Qualitätskontrolle in der Fertigung oder die Bonitätsprüfung im Kreditgeschäft. Auf den ersten Blick scheint es viele Vorteile zu geben: Prozesse laufen stabiler, schneller, günstiger. Doch mit der Zeit nutzen Ingenieurinnen, Sachbearbeiter oder Analystinnen das dafür relevante Fachwissen immer seltener, sie verlernen es, oder sie verlassen die Firma. Neue Angestellte können entsprechendes Fachwissen gar nicht mehr in der Tiefe aufbauen, weil die KI bereits übernommen hat.

Ungeeignetes Sparprogramm

Fehlt die menschliche Expertise, kann die Qualität der KI-Ausgaben unbemerkt sinken.

„Wenn Mitarbeiter die Vorhersagen und Entscheidungen eines veralteten KI-Modells unkritisch übernehmen, kann dies ihr menschliches Wissen weiter verfälschen“, prognostizieren die Studienautoren.

Die Forscher beschreiben diesen Prozess als Wissensfalle in mehreren Stufen: KI übernimmt, menschliches Knowhow nimmt ab, die Modelle altern. Gerade dann wären Expertinnen und Experten notwendig, um die Modelle zu prüfen, zu korrigieren und die KI-Daten zu aktualisieren.

Die Studienautoren empfehlen Unternehmen bewusst gegenzusteuern. Dazu gehören

  • Doppelkompetenz sichern: kritische Aufgaben nicht vollständig automatisieren, sondern bewusst Teams aufbauen, in denen Menschen sowohl Domänenwissen als auch ein Grundverständnis der Modelle haben.
  • Wissenspflege institutionalisieren: Reviews, Fehlersimulationen und Post-Mortem-Analysen, sollten nicht nur für KI-Systeme, sondern auch für die Zusammenarbeit von Mensch und Maschine durchgeführt werden.
  • Lernpfade für Nachwuchskräfte: Ausbildungswege so gestalten, dass junge Ingenieurinnen und Ingenieure zunächst das physikalische oder betriebswirtschaftliche Fundament erlernen, bevor sie Aufgaben an KI delegieren.
  • Modell-„Alterung“ ernst nehmen: klare Prozesse für Re-Training, Validierung und Decommissioning von Modellen einführen und dafür ausreichend Fachkräfte vorhalten.

Kognitive Atrophie

Die aktuelle Studie reiht sich ein in eine wachsende internationale Debatte rund um generative KI und „kognitive Atrophie“ ein. So beschreiben Teams der École Polytechnique in Frankreich, wie ständige KI-Unterstützung das eigene Kompetenzgefühl verzerren und Lernprozesse schwächen kann.

Offen bleibt, wo genau die Kipppunkte liegen. Ab wann ist so viel Wissen ausgelagert, dass Organisationen den zentralen Überblick verlieren? Wie lässt sich Wissensverlust messen: über Fehlerquoten, Innovationsfähigkeit oder Sicherheitsvorfälle? Hier gibt es weiteren Forschungsbedarf – auch mit empirischen Langzeitstudien in Betrieben.

Klar ist schon jetzt: Die eigentliche Kunst der KI-Einführung besteht nicht darin, möglichst viel zu automatisieren, sondern das richtige Maß zu finden. Damit aus smarten Maschinen keine stillen Wissensvernichter werden.

Schreibe einen Kommentar