Artifizielle Intelligenz

Das größte Risiko ist die Reduzierung des Menschen auf Zahlen


Artificial intelligence: Das größte Risiko ist die Reduzierung des Menschen auf Zahlen Interview

Künstliche Intelligenz, kurz KI, ist ein Dauerthema in Politik, Wirtschaft und Wissenschaft. Letztere beschäftigt sich in unterschiedlichen Disziplinen mit KI, dem zukünftigen Leben von Menschen im KI-Zeitalter, deren Transformation und einer möglichen Superintelligenz als kommendem Schritt in der Evolution. Wir sprachen mit Dr. Janina Loh, Universitätsassistentin (Post-Doc) im Bereich Technik- und Medienphilosophie an der Universität Wien, über Trans- und Posthumanismus, der Rolle des Menschen im KI-Umfeld und den Einsatz von Algorithmen im Finanzdienstleistungsbereich.

Frau Loh, der Titel Ihres Buches zum »Trans- und Posthumanismus« klingt sehr akademisch. Können Sie für unsere Leser kurz zusammenfassen, was sich dahinter verbirgt?

Janina Loh: Der Transhumanismus (beispielsweise Nick Bostrom, Max More und Stefan Lorenz Sorgner) will den Menschen technologisch weiterentwickeln, optimieren, modifizieren und verbessern. Durch radikale Lebensverlängerung, neue kognitive und emotionale Wahrnehmungsmöglichkeiten soll der jetzige Mensch zu einem posthumanen (aber immer noch menschlichen) Wesen werden. Der technologische Posthumanismus (beispielsweise Ray Kurzweil, Hans Moravec und Marvin Minsky) ist auch an der Transformation des Menschen interessiert, viel mehr aber noch an der Entwicklung einer künstlichen Superintelligenz, die dann den nächsten Schritt der Evolution darstellt und die Singularität einläutet, wenn sich das menschliche Dasein komplett verändert haben wird. Der kritische Posthumanismus (beispielsweise Donna Haraway, Rosi Braidotti und Karen Barad – ich verstehe mich selbst als kritische Posthumanistin) hinterfragt die tradierten, zumeist humanistischen Dichotomien wie etwa Frau/Mann, Natur/Kultur oder Subjekt/Objekt, die zur Entstehung unseres gegenwärtigen Menschen- und Weltbilds maßgeblich beigetragen haben. Er möchte ›den‹ Menschen überwinden, indem er mit konventionellen Kategorien und dem mit ihnen einhergehenden Denken bricht.

Wenn wir das Ganze auf die Künstliche Intelligenz, kurz KI, herunterbrechen, wie lässt sich das Thema hier einordnen und wo sind Querverbindungen zu Ihrer Forschung? 

Janina Loh: Von Künstlicher Intelligenz ist insbesondere im technologischen Posthumanismus die Rede, wo es vorrangig um die Entwicklung einer starken, künstlichen Superintelligenz geht, die ›den‹ Menschen als ›Krone der Schöpfung‹ ablösen und überholen wird. Zudem habe ich in meiner Arbeit zur Roboterethik natürlich mit dem Thema Künstliche Intelligenz zu tun.

Bleiben wir bei den beiden Buchstaben KI. Es wird viel über den tiefen Eingriff Künstlicher Intelligenz in Arbeits- und Prozesswelten gesprochen. Wo stehen wir hier Ihrer Meinung nach, auch vor dem Hintergrund selbstlernender Systeme?

Janina Loh: In einem schwachen Sinne haben wir unterschiedliche Formen Künstlicher Intelligenz bereits in vielen Bereichen unseres Alltags. Von Suchmaschinen über private artifizielle Assistent*innen, wie Siri und Alexa, bis hin zu Facebook-, Amazon- und Netflix-Algorithmen, die unsere Vorlieben analysieren und uns vor diesem Hintergrund Vorschläge für beispielsweise bestimmte Produkte, die uns gefallen könnten, unterbreiten. In vielen anderen Bereichen treffen wir ebenfalls bereits auf teilautonome und zuweilen zumindest schwach lernfähige Systeme, wie in der Pflege, in der Industrie und im Straßenverkehr. Aber alle diese Technologien sind bis auf weiteres für ganz konkrete Zwecke gemacht, sie haben immer ›Inselbegabungen‹, und selbst wenn sie in einem schwachen Sinne lernfähig sind, sind sie noch lange nicht so flexibel und umfassend einsatzfähig wie Menschen.

Ein Schachcomputer kann eben nur Schach spielen (wenn auch das vielleicht besser als die meisten Menschen), nicht aber Auto fahren, bügeln oder unseren Kindern bei den Hausaufgaben helfen.

Die Entwicklung einer starken Künstlichen Intelligenz, die ganz so wie die Menschen ist, ist nicht absehbar, und wir müssten uns nun Gedanken darüber machen, ob wir eine solche starke KI überhaupt wollen.

Und welchen Einfluss hat der Mensch noch auf diese Systeme mit Blick auf die schwachen und starken KI-Hypothesen?

Janina Loh: Es gibt nicht ›den‹ Menschen. Es gibt Menschen. Und die haben je nach Platz in der Gesellschaft (was ja auch immer eine konkrete Gesellschaft mit spezifischen politischen und rechtlichen Strukturen ist), finanziellen Möglichkeiten, beruflicher Profession usw. unterschiedliche Weisen der Einflussnahme.

Technologische Entwicklungen sind in jedem Fall keine Naturgesetze! Sie sind menschengemacht und unterliegen menschlichen Bedingungen. Nicht alles, was möglich ist, wird notwendig auch wirklich werden. Häufig wird der Diskurs über die Entwicklung und Einführung bestimmter Technologien so geführt, als ob es bereits ausgemacht wäre, dass diese Technologien irgendwann real werden. Dann fragt Nick Bostrom beispielsweise, welche Werte wir einer starken KI implementieren sollen, anstatt die Frage zu stellen, ob wir überhaupt eine starke KI wollen.

Die Frage des technologisch Machbaren und des Könnens darf der Frage des (moralisch) Wünschbaren und des Sollens nicht vorangestellt werden. In den empirischen Wissenschaften wird das gerne gemacht bzw. existiert da zumeist über die Entwicklung bestimmter Technologien ein Common Sense dahingehend, dass es natürlich gut und richtig ist, besagte Technologie zu entwickeln und auf den Markt zu bringen.

Wir müssen aber die Frage nach dem Wünschbaren und dem Sollen explizit stellen und in der Gesellschaft diskutieren. Für uns als Wissenschaftler*innen bedeutet das, den Diskurs in einer Weise zu beeinflussen, dass er möglichst transparent und verständlich geführt werden kann. Wir entmündigen uns, wenn wir einen gesellschaftlichen und technologischen Determinismus dahingehend vertreten, dass sich das Rad der Geschichte vor unseren Augen einfach abspult und wir keine Möglichkeiten der Beeinflussung haben.

Besteht nicht die Gefahr, dass der Mensch zum »Juniorpartner der Maschinen« verkommen könnte, wie es »Deutschlandfunk Kultur« jüngst in einem Beitrag nannte?  

Janina Loh: In den Debatten um KI und die modernen Technologien begegnet man häufig zwei Extremszenarien: die dystopische Sicht, dass die Maschinen die Weltherrschaft an sich reißen werden, und die utopische Sicht, dass wir irgendwann mit Nanobots verschmelzen, unseren Geist auf einen Computer hochladen und dann virtuell unsterblich werden. Wir haben nicht den Luxus, uns auf diese Schwarz-weiß-Sicht der Dinge zu beschränken. Wir müssen uns in den großen, "messy"-Graubereich zwischen diesen Polen hineinwagen und Technologien im Einzelnen und kritisch reflektieren!

Wenn Menschen über Roboter reden, wechseln sie häufig sehr schnell von der Ebene des konkreten artifiziellen Systems (beispielsweise dieser Schachcomputer ist sehr viel besser darin, Schach zu spielen als die meisten Menschen) zur allgemeinen Ebene ›der‹ Maschine (etwa die Maschinen werden irgendwann ›den‹ Menschen überholen). Das ist etwas, was wir mit Blick auf Tiere nie machen würden (beispielsweise ein Lawinenspürhund, der einzigartige Fähigkeiten hat, von dem wir aber niemals auf die abstrakte Ebene ›des‹ Tieres wechseln würden). Technik ist für ganz konkrete Zwecke gemacht. Roboter haben bis auf weiteres ›Inselbegabungen‹. Wir müssen die jeweiligen Kontexte und die fraglichen Technologien im Besonderen kritisch in den Blick nehmen.

Im Finanzdienstleistungsumfeld wird von allen möglichen Big-Data und Analyse-Methoden gesprochen, um Banken zu revolutionieren. Ein Blick hinter die Kulissen vieler etablierter Geldhäuser vermittelt allerdings ein anderes Bild. Nämlich das einer analogen Denk- und Handelsweise. Also viele Nebelkerzen und wenig Umsetzbares in der digitalisierten Bankenwelt bis dato? 

Janina Loh: Ich denke, neben der deskriptiven Frage, welche Veränderungen tatsächlich in diesem Bereich vor sich gehen, ist vor allem die normative Frage, welche Algorithmen und welche Big-Data-Anwendungen wir an welchen Stellen haben wollen, die eigentlich relevante.

Nehmen Sie das Beispiel des High-Speed-Trading: Hier passieren starke Kursbewegungen und Finanztransaktionen, weil die fraglichen Algorithmen das entsprechend provozieren bzw. vorgeben. Nach meinem Dafürhalten müssen wir entscheiden, welche Algorithmen in welcher Form und durch wen "gebiased" sein sollen bzw. wie wir diese demzufolge einsetzen möchten.

Sprechen wir von der Digitalisierung, so steht uns mit Big Data, KI und neuen Analysemethoden eine Welt offen, die immer mehr über (Bank-)Kunden offenlegt. Die Gewohnheiten im Bezahl- und Einkaufsverhalten aufzeigt, Bargeld überflüssig macht und den Menschen durch alle Irrungen und Wirrungen einer modernen Zivilisation lenkt. Klingt das nicht verlockend?

Janina Loh: Es klingt wie der Traum des modernen, kapitalistischen, westlichen (und damit vorrangig weißen und männlichen), massen-gesellschaftlichen und transhumanistischen Menschen – für mich persönlich ein ziemlicher Albtraum, wenn ich es mal ein bisschen zugespitzt ausdrücken darf. Dahinter steht die Vorstellung, dass sich alles, was an den Menschen von Bedeutung ist, in Zahlen übersetzen und ausdrücken lässt.

Das ist nicht nur eine Reduzierung und Vereinheitlichung des menschlichen Wesens. Sondern durch Zahlen werden Menschen bewertbar, messbar und kontrollierbar. Sie erwecken zudem den Eindruck der absoluten Transparenz bei gleichzeitigen Prognosemöglichkeiten menschlichen Verhaltens. Hannah Arendt würde sagen, dass es ein Sieg des Behaviorismus und der Nationalökonomie ist, indem wir Algorithmen und Statistiken wie Naturgesetze behandeln.

Wo sehen Sie aus Ihrer Sicht die größten Risiken im Einsatz von KI-Lösungen im Arbeits- und letztendlich dem Lebensumfeld für Menschen?

Janina Loh: Ich denke, dazu habe ich das Wesentliche bereits in der Antwort auf die vorherige Frage gesagt, weshalb ich mich hier ein wenig kürzer fasse. Aus meiner Sicht stellt das größte Risiko die Reduzierung des Menschen auf Zahlen dar, wodurch die Illusion der Vorhersagbarkeit und vollständigen Kontrolle erweckt wird.

Abschließend noch die Frage nach der von Ihnen benannten »Superintelligenz«. Ist diese bereits in Sichtweite oder müssen wir uns an dieser Stelle noch etwas gedulden?

Janina Loh: Na, der Begriff der Superintelligenz stammt ja nicht von mir. Aber aus meiner Sicht – und dazu habe ich mich ja auch bereits geäußert – müssen wir uns bis auf weiteres mit Robotern mit ›Inselfähigkeiten‹ zufriedengeben. Beziehungsweise sehe ich das eher als Möglichkeit, zunächst darüber nachzudenken, ob wir überhaupt eine solche starke KI beziehungsweise artifizielle Superintelligenz entwickeln wollen.

Dr. Janina Loh (geb. Sombetzki) ist Universitätsassistentin (Post-Doc) im Bereich Technik- und Medienphilosophie an der Universität Wien. Sie hat an der Humboldt-Universität zu Berlin studiert und von 2009 bis 2013 im Rahmen des von der DFG finanzierten Graduiertenkollegs "Verfassung jenseits des Staates: Von der europäischen zur Globalen Rechtsgemeinschaft?" promoviert, betreut durch Prof. Volker Gerhardt und Prof. Rahel Jaeggi. Ihre Dissertation "Verantwortung als Begriff, Fähigkeit, Aufgabe. Eine Drei-Ebenen-Analyse" erschien 2014 bei Springer VS. Janina Loh arbeitet nun, nach einem dreijährigen Post-Doc-Aufenthalt an der Christian-Albrechts-Universität zu Kiel (2013 bis 2016), seit April 2016 in Wien. Gerade erschien von ihr die erste deutschsprachige Einführung in den Trans- und Posthumanismus (Junius 2018). Sie schreibt an einer Einführung in die Roboterethik (Suhrkamp 2019). Ihr Habilitationsprojekt verfasst sie zu den Kritisch-Posthumanistischen Elementen in Hannah Arendts Denken und Werk (Arbeitstitel). Zu ihren engeren Forschungsinteressen zählen neben der Verantwortung, dem Trans- und Posthumanismus und der Roboterethik auch Hannah Arendt, feministische Technikphilosophie sowie Ethik in den Wissenschaften.

[ Bildquelle Titelbild: Adobe Stock ]
Risk Academy

Die Intensiv-Seminare der RiskAcademy® konzentrieren sich auf Methoden und Instrumente für evolutionäre und revolutionäre Wege im Risikomanagement.

Seminare ansehen
Newsletter

Der Newsletter RiskNEWS informiert über Entwicklungen im Risikomanagement, aktuelle Buchveröffentlichungen sowie Kongresse und Veranstaltungen.

jetzt anmelden
Lösungsanbieter

Sie suchen eine Softwarelösung oder einen Dienstleister rund um die Themen Risikomanagement, GRC, IKS oder ISMS?

Partner finden
Ihre Daten werden selbstverständlich vertraulich behandelt und nicht an Dritte weitergegeben. Weitere Informationen finden Sie in unseren Datenschutzbestimmungen.