Neue Risikoszenarien im AI-Zeitalter 

Wenn Maschinen täuschen lernen


Neue Risikoszenarien im AI-Zeitalter: Wenn Maschinen täuschen lernen Studie

Im Frühjahr 2024 wurde das britische Ingenieurunternehmen Arup, bekannt als Planer der Sydney Opera House Renovierung, Opfer eines perfekt inszenierten Deepfake-Angriffs: Ein Mitarbeiter in Hongkong erhielt einen Videoanruf von einem manipulierten "CEO", woraufhin er umgerechnet rund 25 Millionen US-Dollar überweis. Die Täuschung war so überzeugend, dass sowohl Stimme als auch Video fast ununterscheidbar von real wirkten. Dieser Vorfall zeigt: Selbst große, global aufgestellte Unternehmen haben enorme Schwierigkeiten, sich vor neuartigen AI-basierten Bedrohungen zu schützen.

AI-Fortschritte ohne Analyse der Downside-Risiken

Laut der ISACA Studie "Taking the Pulse of AI – European Edition 2025" nutzen bereits über die Hälfte (56 Prozent) der befragten Unternehmen AI Lösungen zur Produktivitätssteigerung und für die Generierung schriftlicher Inhalte; 42 Prozent automatisieren Routineaufgaben, 39 Prozent werten große Datensätze aus. Dennoch verfügen nur 31 Prozent über eine formalisierte AI Policy, und lediglich 28 Prozent bieten umfassende Schulungen zu AI Themen für alle Mitarbeitenden an.

Zu viele Organisationen lassen den Einsatz generativer KI weitgehend ungeregelt: 63 Prozent erlauben ihn, kontrollieren ihn aber kaum – viele Nutzungen bleiben ungeprüft, teilweise sogar explizit untersagt. Durch diese Mischung aus Verfügbarkeit und fehlender Steuerung entsteht eine riskante Grauzone, in der Datenlecks, Compliance-Verstöße oder eben Deepfake-Betrügereien möglich werden.

Bekannte Risiken – aber geringe Dringlichkeit

Die ISACA-Studie verdeutlicht, dass die Risiken umfassend erkannt, aber nur selten priorisiert werden:

  • 85 Prozent befürchten Desinformation und Deepfakes,
  • 68 Prozent sehen Datenschutzausfälle,
  • 62 Prozent warnen vor Social Engineering
  • 58 Prozent: Verlust geistigen Eigentums.

Doch nur 43 Prozent bewerten AI Risikomanagement als aktuelle Priorität – tiefergehende Vorbereitungsmaßnahmen fehlen vielfach. Auffällig ist besonders, dass lediglich 26 Prozent glauben, AI gestützte Desinformation zuverlässig erkennen zu können – ein Alarmsignal angesichts zahlreicher bekannter Fälle.

Deepfake-Angriffe steigen – Technologien zur Erkennung fehlen

71 Prozent der befragten Experten erwarten innerhalb der nächsten zwölf Monate eine Zunahme von Deepfake-Angriffen. Dennoch setzen nur 18 Prozent auf Erkennungstools. Diese Zurückhaltung ist gefährlich – nicht zuletzt, weil Betrugsfälle wie Arup zeigen, dass solche Deepfake-Angriffe erwartbar und schon real sind.

Unzureichende Vorbereitung der Belegschaft

Für 71 Prozent der Digital Trust Professionals sind AI-Kenntnisse "sehr" oder "extrem" relevant. Trotzdem sehen sich 61 Prozent auf Einsteiger  bis Fortgeschrittenen Level, nicht aber auf Experten-Level. Ein Drittel rechnet damit, innerhalb des nächsten halben Jahres zusätzliche Schulungen zu benötigen, um KI basiert arbeitsfähig zu bleiben. Gleichzeitig entstehen Kompetenzlücken und überlastete Teams, die Sicherheitslücken noch weiter öffnen .

Fazit: Governance, Technologie und Ausbildung dringend stärken

Der Arup-Fall mahnt eindrücklich: AI ist weit mehr als ein Innovationsmotor – sie ist ein potenzieller Sicherheitsvektor. Unternehmen müssen die Einführung von AI aktiv steuern und absichern:

  1. AI Governance etablieren: Eine klare Struktur für Einsatz und Verantwortung fehlt bei 69 Prozent der befragten Unternehmen.
  2. Investitionen in Deepfake-Erkennung: Nur 18 Prozent handeln proaktiv – viel zu wenig.
  3. Flächendeckende Schulungen: Mitarbeiter müssen AI Risiken erkennen und einschätzen können – nicht nur einmalig, sondern kontinuierlich.
  4. Ethik und Compliance priorisieren: Richtlinien müssen auch bei AI gelten – abgedeckt in Prozessen, Audits und Verträgen.

Nur so lässt sich das Potenzial von AI nutzen, ohne in die nächsten Krisen zu stolpern – denn getäuschte Vertrauensträger sind die gefährlichste Form der Unternehmenskrise.

Download Studie

 

[ Bildquelle Titelbild: Generiert mit AI ]
Risk Academy

Die Intensiv-Seminare der RiskAcademy® konzentrieren sich auf Methoden und Instrumente für evolutionäre und revolutionäre Wege im Risikomanagement.

Seminare ansehen
Newsletter

Der Newsletter RiskNEWS informiert über Entwicklungen im Risikomanagement, aktuelle Buchveröffentlichungen sowie Kongresse und Veranstaltungen.

jetzt anmelden
Lösungsanbieter

Sie suchen eine Softwarelösung oder einen Dienstleister rund um die Themen Risikomanagement, GRC, IKS oder ISMS?

Partner finden
Ihre Daten werden selbstverständlich vertraulich behandelt und nicht an Dritte weitergegeben. Weitere Informationen finden Sie in unseren Datenschutzbestimmungen.