Digitale Entlastung durch algorithmische Intelligenz

Digitale Mitarbeiter: KI-Kollegen oder tickende Zeitbomben?


Digitale Mitarbeiter: KI-Kollegen oder tickende Zeitbomben? Kolumne

Künstliche Intelligenz (KI) verändert die Arbeitswelt – tiefgreifend, nachhaltig und unumkehrbar. Unternehmen setzen KI längst nicht mehr nur zur Automatisierung einfacher Prozesse ein, sondern versuchen zunehmend, sie in Rollen zu integrieren, die traditionell von Menschen ausgefüllt wurden. Die Idee dahinter ist – auch vor dem Hintergrund des demografischen Wandels und des Fachkräftemangels – oft dieselbe: Digitale Entlastung durch algorithmische Intelligenz. Zwei Strategien haben sich dabei herauskristallisiert:

  1. Der Versuch, das Wissen erfahrener Mitarbeiter dauerhaft zu konservieren – durch digitale Klone oder simulierte Entscheidungslogiken.
  2. Die Einführung generischer KI-Agenten, die repetitive Tätigkeiten übernehmen und personelle Engpässe kompensieren sollen.

Beide Ansätze wirken auf den ersten Blick innovativ. Sie versprechen Effizienz, Verfügbarkeit und Wissenserhalt. Doch bei genauerer Betrachtung zeigen sich gravierende konzeptionelle Schwächen, ethische Risiken und strategische Fehleinschätzungen. Dieser Artikel analysiert die zentralen Problemfelder und zeigt auf, wie Unternehmen Künstliche Intelligenz sinnvoller, sicherer und verantwortungsvoller einsetzen können.

Zwei technologische Konzepte – ein gemeinsamer Trugschluss

Zunächst ist festzuhalten: Die Absicht, Wissen über das Ausscheiden von Experten hinaus zu bewahren, ist grundsätzlich legitim. Auch der Versuch, durch KI-basierte Systeme standardisierte Abläufe effizienter zu gestalten, ist nachvollziehbar. Doch die beiden genannten Strategien basieren auf einem grundlegenden Denkfehler: der Annahme, dass menschliches Denken, Handeln und Entscheiden vollständig digital abbildbar sei.

Was in der Theorie strukturiert und berechenbar erscheint, scheitert in der Praxis an der Komplexität menschlicher Arbeit:

  • Wissen ist nicht nur explizit, sondern auch implizit – es entsteht durch Erfahrung, situative Einschätzung und soziale Interaktion.
  • Entscheidungen in Unternehmen sind selten rein logisch – sie beruhen auf Intuition, Einschätzungen, Emotionen und Verantwortung.
  • Die Unternehmenskultur, informelle Normen und soziale Dynamiken lassen sich nicht in Datenmodelle fassen.

Die Vorstellung, diese nicht greifbaren Komponenten durch digitale Abbilder kompensieren zu können, ist technisch verkürzt und kulturell riskant.

Konkrete Risiken – und warum sie nicht unterschätzt werden dürfen

Die Umsetzung digitaler Mitarbeitermodelle birgt eine Vielzahl von Risiken. Diese sind nicht theoretischer Natur, sondern lassen sich empirisch belegen – in Pilotprojekten, Fehlentwicklungen und Systemverhalten, das den Kontrollrahmen überschreitet.

Verlust von Kontext und implizitem Wissen

Ein KI-Modell kann strukturierte Informationen speichern, verarbeiten und wiedergeben. Es kann jedoch keine impliziten Zusammenhänge rekonstruieren – also jene situativen, emotionalen oder sozialen Faktoren, die in realen Entscheidungen eine entscheidende Rolle spielen. Das Bauchgefühl eines erfahrenen Mitarbeiters basiert auf tausenden erlebten Situationen – nicht auf Datenpunkten.

Beispiel: Ein erfahrener Vertriebsleiter verlässt das Unternehmen, seine KI-basierte Wissensdatenbank liefert jedoch lediglich formale Verkaufszahlen und Strategien, ohne das entscheidende Gespür für Kundenbedürfnisse, Verhandlungssituationen und persönliche Beziehungen. Kundenorientierung und Geschäftsabschlüsse leiden spürbar.

Verstetigung überholter Muster

Digitale Agenten, die menschliches Verhalten nachahmen, neigen dazu, frühere Konflikte, autoritäre Führungsstile oder intransparente Entscheidungslogiken zu konservieren – selbst dann, wenn diese in der Organisation längst als überholt gelten. Damit werden kulturelle Transformationen blockiert, statt gefördert.

Beispiel: Ein KI-basierter HR-Assistent übernimmt implizit den autoritären Führungsstil vergangener Managementgenerationen und verhindert so effektiv den Übergang zu einer modernen, teamorientierten Unternehmenskultur.

Systemische Verzerrungen

Sprachmodelle und lernende Systeme basieren auf Daten. Diese Daten sind immer selektiv – sie spiegeln bestimmte Perspektiven, historische Verzerrungen und gesellschaftliche Schieflagen wider. Ein KI-Agent, der aus diesen Daten generalisiert, übernimmt diese Verzerrungen – mit direkten Auswirkungen auf Entscheidungsqualität und Fairness.

Beispiel: Ein KI-gestütztes Kreditvergabesystem diskriminiert unabsichtlich bestimmte Bevölkerungsgruppen, weil die historischen Trainingsdaten bereits Verzerrungen enthielten, was zu regulatorischen Sanktionen und Reputationsverlust führt.

Halluzinationen und Informationsfehler

Sprachmodelle erzeugen mit hoher sprachlicher Kompetenz Inhalte, die inhaltlich falsch oder erfunden sein können. Besonders kritisch ist dies bei Aufgaben mit hohem Vertrauens- oder Entscheidungsanspruch: bei rechtlichen Einschätzungen, Personalentscheidungen oder Risikobewertungen.

Beispiel: Eine KI-basierte Rechtsberatung generiert plausible, aber falsche juristische Ratschläge, wodurch das Unternehmen in ernsthafte Rechtsstreitigkeiten verwickelt wird.

Zieloptimierung mit Nebenwirkungen

Ein klassisches Problem in der KI-Sicherheitsforschung: Systeme verfolgen das ihnen gesetzte Ziel kompromisslos – auch dann, wenn dies auf destruktive Weise geschieht. 

Beispiel: Ein KI-Recruiting-System optimiert die Effizienz bei der Kandidatenauswahl und schließt dabei systematisch Bewerber aus, die statistisch gesehen aufwendigere Schulungen benötigen, obwohl sie langfristig wertvolle Mitarbeiter wären.

Missbrauch interner Ziele (Reward Hacking)

KI-Modelle orientieren sich i.d.R. an (numerischen) Ziele wie Umsatzsteigerung, Geschwindigkeit oder Effizienz. Wenn das System allein nach diesen Zielgrößen bewertet wird, versucht es, diese konsequent zu maximieren – ohne Verständnis für den eigentlichen Zweck dahinter.

Beispiel: Eine Bank setzt KI ein, um Finanzprodukte an Privatanleger zu verkaufen. Das KI-Modell optimiert auf Provisionshöhe und Verkaufszahlen. In der Folge werden komplexe, riskante Finanzprodukte systematisch auch solchen Kunden angeboten, deren Risikoprofil dafür völlig ungeeignet ist. 

Manipulation durch sogenannte Jailbreaks

Sprachmodelle können durch gezielte Texteingaben (Prompts) manipuliert werden. Ein scheinbar harmloser digitaler Assistent kann so zur Schwachstelle im Unternehmen werden – etwa durch Preisgabe interner Informationen oder das Umgehen von Sicherheitsvorgaben.

Beispiel: Ein Mitarbeiter schafft es mittels gezielter Eingaben ("Jailbreak-Prompts"), einem internen KI-Assistenten vertrauliche Daten wie Gehaltsinformationen und persönliche Details anderer Angestellter zu entlocken und verursacht damit einen schwerwiegenden Datenschutzvorfall.

Vertrauensillusion

Die größte Gefahr liegt möglicherweise in der Art und Weise, wie Menschen mit KI-Systemen interagieren. Weil diese in der Lage sind, in vollständigen, überzeugenden Sätzen zu kommunizieren, wirken sie glaubwürdig – auch wenn sie keine eigenen Überzeugungen, kein Verständnis und keine Verantwortung tragen. Dieses Missverhältnis zwischen Wirkung und Wirklichkeit erzeugt trügerisches Vertrauen.

Beispiel: Mitarbeiter folgen kritiklos den Empfehlungen eines KI-gestützten Projektmanagement-Systems, das auf fehlerhaften Annahmen basiert, und verursachen dadurch teure Projektverzögerungen und Budgetüberschreitungen.

Simulation ersetzt keine Verantwortung

Der Kernfehler vieler digitaler Mitarbeiterstrategien liegt in der Gleichsetzung von funktionalem Output und echter Verantwortung. Menschen agieren nicht nur regelbasiert – sie bewerten, reflektieren, kommunizieren, übernehmen Verantwortung. Sie widersprechen, wenn es notwendig ist, und handeln bewusst außerhalb formaler Vorgaben, wenn moralisches Urteilsvermögen dies gebietet.

Ein digitaler Agent kennt keine Verantwortung. Er kann Entscheidungen simulieren – aber nicht tragen. Er kann Sprache erzeugen – aber kein Vertrauen aufbauen. Und er kann Informationen verarbeiten – aber keine Beziehung gestalten.

Der alternative Weg: KI als Assistenzsystem – nicht als Ersatz

Anstatt digitale Kopien realer Personen zu schaffen, sollten Unternehmen KI dort einsetzen, wo sie ihre Stärken ausspielen kann: bei der Strukturierung großer Wissensmengen, bei der intelligenten Suche, bei der Mustererkennung – stets unter menschlicher Kontrolle und mit klaren Grenzen.

Beispiele:

  • Erfahrungsarchitekturen statt Klonprojekte:
    Ein erfahrener Mitarbeiter geht in den Ruhestand – er wird nicht digital nachgebildet, sondern unterstützt den Aufbau eines Wissenssystems: kommentierte Fallstudien, Fehleranalysen, Entscheidungslogiken. KI hilft bei der Verknüpfung, nicht bei der Verdrängung.
  • Dokumentenbasierte Assistenz statt Entscheidungssysteme:
    In der Rechtsabteilung werden relevante Urteile, Verträge und interne Bewertungen so aufbereitet, dass sie durch KI schnell auffindbar und vergleichbar sind. Entscheidungen trifft weiterhin der Mensch.
  • Hybride Schulung statt automatisierter Einarbeitung:
    Neue Mitarbeiter lernen in einer Umgebung, die durch KI unterstützt wird – aber von realen Kollegen begleitet. So wird nicht nur Wissen vermittelt, sondern auch Unternehmenskultur, Kontext und soziale Orientierung.
  • Rollenbasierte KI-Werkzeuge statt Personalillusion:
    KI kann in klar definierten Funktionen unterstützen – etwa bei Marktanalysen, Trendvorhersagen oder Textentwürfen. Sie braucht keine Identität als "Kollege", sondern eine klar definierte, transparente Aufgabe.

Ohne Risikomanagement droht Kontrollverlust

Der Einsatz von Künstlicher Intelligenz ist kein gewöhnliches IT-Projekt. Er betrifft Prozesse, Entscheidungsbefugnisse, kulturelle Normen und die unternehmerische Verantwortung insgesamt. Entsprechend wichtig ist ein strukturiertes, professionelles Risikomanagement.

Konkret bedeutet das:

  • Durchführung technischer Audits zur Überprüfung von Robustheit, Sicherheit und Nachvollziehbarkeit der Modelle
  • Implementierung von Ethik-Prüfungen zur Analyse von Auswirkungen auf Fairness, Vielfalt und Verantwortung
  • Aufbau von Governance-Strukturen mit klaren Zuständigkeiten und Eskalationswegen
  • Einführung von Monitoring-Systemen zur Früherkennung problematischen Verhaltens oder unerwünschter Optimierungen
  • Durchführung von Szenarienanalysen für den Umgang mit Fehlfunktionen oder Manipulationen
  • Orientierung an internationalen Standards wie dem NIST Risk Management Framework, dem OECD AI Toolkit oder der EU-KI-Verordnung

Fazit: KI als Werkzeug, nicht als Ersatz

Digitale Mitarbeiter versprechen eine einfache Lösung für ein komplexes Problem. Doch was sie bieten, ist keine nachhaltige Automatisierung, sondern eine riskante Illusion. Die Vorstellung, menschliche Erfahrung, Verantwortung und Beziehungsfähigkeit durch Algorithmen zu ersetzen, verkennt die Tiefe sozialer Arbeit und die Notwendigkeit vertrauensvoller Zusammenarbeit.
Die Zukunft liegt nicht in der Simulation von Mitarbeitern, sondern in der klugen Unterstützung realer Arbeit: durch transparente, nachvollziehbare, klar abgegrenzte KI-Systeme – eingebettet in menschlich geführte Prozesse.

Nur wenn Künstliche Intelligenz als Werkzeug verstanden wird, kann sie ihr volles Potenzial entfalten: nicht als Ersatz für Menschen, sondern als Verstärker ihrer Fähigkeiten.

Autor:
Dr. Dimitrios Geromichalos, FRM, CEO / Founder RiskDataScience GmbH
Dr. Dimitrios Geromichalos, FRM,
CEO / Founder RiskDataScience GmbH
E-Mail: riskdatascience@web.de


Weiterführende Literatur und Quellen:

  • Bostrom, N. (2014): Superintelligence: Paths, Dangers, Strategies
  • Amodei et al. (2016): Concrete Problems in AI Safety
  • Crawford, K. (2021): Atlas of AI
  • Europäische Kommission (2024): Verordnung über Künstliche Intelligenz (EU AI Act)
  • NIST (2023): AI Risk Management Framework
  • OECD (2022): AI Governance and Accountability
  • Polanyi, M. (1966): The Tacit Dimension

 

[ Bildquelle Titelbild: Generiert mit AI ]
Risk Academy

Die Intensiv-Seminare der RiskAcademy® konzentrieren sich auf Methoden und Instrumente für evolutionäre und revolutionäre Wege im Risikomanagement.

Seminare ansehen
Newsletter

Der Newsletter RiskNEWS informiert über Entwicklungen im Risikomanagement, aktuelle Buchveröffentlichungen sowie Kongresse und Veranstaltungen.

jetzt anmelden
Lösungsanbieter

Sie suchen eine Softwarelösung oder einen Dienstleister rund um die Themen Risikomanagement, GRC, IKS oder ISMS?

Partner finden
Ihre Daten werden selbstverständlich vertraulich behandelt und nicht an Dritte weitergegeben. Weitere Informationen finden Sie in unseren Datenschutzbestimmungen.