Wenn Algorithmen für uns entscheiden

Total berechenbar?


Rezension

Sehr ausführlich diskutiert der Autor die Suchalgorithmen von Google (Kapitel 2), der praktisch täglich verändert und optimiert wird und so die marktbeherrschende Stellung des Konzerns zementiert. Kapitel 3 setzt sich mit den Verfahren für eine optimale Routenplanung auseinander. Wie kann ein Computer die kürzeste Verbindung in einem Straßennetz finden? Um diese Frage zu beantworten, lernen wir Edsger W. Dijkstra kennen, einen Informatiker aus den Niederlanden, der unter anderem den Dijkstra-Algorithmus zur Berechnung eines kürzesten Weges in einem Graphen entwickelt hat. Das Algorithmen nicht komplex sein müssen, zeigt sich daran, dass Dijkstra seine Erfindung im Jahr 1959 in einem dreiseitigen Artikel veröffentlichte. Der anschließend vorgestellte A*-Algorithmus berücksichtigt bei der Suche eine Schätzfunktion (Heuristik), um zielgerichtet zu suchen und damit die Laufzeit zu verringern. Dieser Algorithmus wurde das erste Mal im Jahr 1968 von Peter Hart, Nils J. Nilsson und Bertram Raphael beschrieben. Doch nicht nur bei der Routenplanung spielen derartige Algorithmen eine Rolle. Auch die sogenannte Arbitrage im Devisenhandel kann als Routenoptimierung dargestellt werden. Tauscht man beispielsweise Euro in US-Dollar und dann in Yen und anschließend in Chinesiche Renminbi Yuan und anschließend wieder zurück in Yen und US-Dollar sowie Euro, so können die Währungen als Knoten eines Graphen interpretiert werden. Ein optimaler Weg durch den Graphen würde mir mögliche "Arbitrage"-Gewinne aufzeigen.

In den weiteren Kapiteln lernt der Leser, wie Daten über den Geschmack von Nutzern für millionenschwere Investitionsentscheidungen ausschlaggebend sein können (siehe Produktion von "House of Cards" durch Netflix, deren Algorithmen die Daten von mehr als 60 Millionen zahlenden Nutzern auswerten). "Netflix ist wahrscheinlich die Firma auf der Welt, die am besten versteht, wie Filme funktionieren, welche Kombinationen von "Quanten" einen erfolgreichen Streifen ausmachen.", so Christoph Drösser.

Außerdem lernen wir die Algorithmen kennen, die hinter Facebook & Co stecken. So entscheidet beispielsweise der Edge-Rank-Algorithmus bei Facebook darüber, welche Informationen der Nutzer zu sehen bekommt und welche nicht.

In Kapitel 6 lernen wir über "predictive policing" sowie "predictive analytics" und wie aus Korrelationen Prognosen werden. Der einfachste Zusammenhang zwischen zwei Größen ist eine lineare Abhängigkeit. Eine Zielgröße wächst oder schrumpft in genau dem Maß, wie es der Prädiktor tut. Eine Methode, mit der solche linearen Zusammenhänge analysiert werden können, heißt "lineare Regression". Hierbei handelt es sich um ein statistisches Verfahren, mit dem versucht wird, eine beobachtete abhängige Variable durch eine oder mehrere unabhängige Variablen zu erklären. Bei der linearen Regression sucht man eine Gerade, die den Zusammenhang am besten beschreibt. In der Welt der Stochastik wird die Methode der kleinsten Quadrate häufig als Schätzmethode in der Regressionsanalyse (Kleinste-Quadrate-Schätzung) Wichtig hierbei ist jedoch, dass die lineare Regression nicht über einen kausalen Zusammenhang aussagt. Um die Qualität von Prognosen zu erhöhen, werden in der Praxis viele lineare oder logistische Regressionen miteinander verknüpft. "Die Propheten von Big Data versprechen uns nun, dass der Berg der Daten nur groß genug und die Computer rechenstark genug sein müssen, schon liefern und die Algorithmen die tollsten Erkenntnisse frei Haus.", so der Autor. 

Die anschließende Kapitel 7 bis 11 diskutieren Algo-Trading, Verschlüsselungs- und Komprimierungsalgorithmen sowie Matching-Algorithmen bei Partnerbörsen sowie den Weg zur Künstlichen Intelligenz.

Abschließend serviert uns der Autor acht Thesen zum neunen Verhältnis zwischen Menschen und Algorithmen: 1. Wenn wir etwas von Algorithmen erledigen lassen, wandelt es sich. Wenn wir beispielsweise ein Buch mit Hilfe des Computers schreiben, ist das Ergebnis ein anderes, als wenn wir mit Füller oder Schreibmaschine arbeiten würden. 

2. Algorithmen sind nicht objektiv. Hinter Software-Algorithmen stecken Annahmen, Voraussetzungen, Ziele, die nicht klar und objektiv sind. Daher sollten wir uns folgende Fragen stellen: Was für ein Modell der realen Welt liegt ihm zugrunde? Was für Regeln befolgt es?

3. Algorithmen ersetzen nicht den politischen Streit. Ein Algorithmus mag ein Optimierungsproblem (siehe beispielsweise Uber) besser lösen. Wenn aber unterschiedliche politische Interessen aufeinanderprallen, gibt es keine einfache oder "richtige" Lösung. Politik sucht vielmehr nach Kompromissen, um diese Interessenskonflikte zu berücksichtigen.

4. Algorithmen können diskriminieren. Ein Algorithmus tendiert dazu, den Status Quo zu zementieren und beispielsweise Menschen zu diskriminieren.

5. Wir müssen versuchen, die Algorithmen zu verstehen. Wir können Algorithmen analysieren (reverse engineering), auch wenn sie nicht mit expliziten Regeln arbeiten oder ihr Code als Blackbox geschützt wird. Christian Drösser legt da, dass wir nicht erwarten sollten, dass Algorithmen von den Unternehmen (beispielsweise Google, Amazon oder Facebook) transparent gemacht werden. Denn wenn ein Algorithmus öffentlich ist, kann auch jeder die Schwächen ausnutzen und damit sinkt beispielsweise die Qualität der Suchergebnisse (bei Suchmaschinen).

6. Algorithmen entscheiden, wer und was sichtbar ist. Journalisten oder Blogger schreiben ihre Texte und Überschriften so, dass sie den Algorithmen gefallen. Clickbaiting beziehungsweise auf deutsch Klickköder ist informationelles Fast Food, die langfristig keinen intellektuellen Nährwert haben.

7. Der Mensch ist nicht berechenbar. Wir wissen, dass unser Gehirn kein Computer ist und keinen Algorithmen folgt. Algorithmen können (statistische) Aussagen darüber treffen, wie sich eine große Anzahl Menschen verhält. Aber wir wissen nicht, wie sich ein Individuum in bestimmten Situationen verhält.

8. Algorithmen sind die neue Weltmacht. Google besteht im Kern aus zwei Milliarden Zeilen Programmiercode. Das gesamte Geschäftsmodell basiert auf Algorithmen.

Christoph Drösser beweist mit seinem Buch in einer sehr eindrücklichen und leicht verständlichen Weise, wie spannend die Welt der Algorithmen sein kann. Wie der Autor in seiner Einleitung schreibt, ist das Buch weder ein Manifest gegen die bedrohlichen Algorithmen, noch bejubelt es die Segnungen der Computerverfahren, ohne ihre Schattenseiten zu analysieren. Vor allem Bildung kann dabei helfen, sich souveräner in der neuen digitalen Welt zu bewegen: "Je mehr wir über die Verfahren wissen, die uns täglich begegnen, umso weniger hilflos müssen wir uns ihnen gegenüber fühlen. Und umso weniger berechenbar werden wir." (Seite 19). Das Buch liefert einen fundierten, kritischen und leicht lesbaren Einstieg in die Welt der Algorithmen und nimmt den Algorithmen die Aura des Bedrohlichen. Im Ergebnis werden Sie ein Stück Autonomie im Internet zurückgewinnen und vor allem erkennen, dass der Menschen schlicht und einfach nicht "berechenbar" ist.


Details zur Publikation

Autor: Christoph Drösser
Seitenanzahl: 252
Verlag: Carl Hanser Verlag
Erscheinungsort: München
Erscheinungsdatum: 2016

RiskNET Rating:

sehr gut Praxisbezug
sehr gut Inhalt
sehr gut Verständlichkeit

sehr gut Gesamtbewertung

Risk Academy

Die Intensiv-Seminare der RiskAcademy® konzentrieren sich auf Methoden und Instrumente für evolutionäre und revolutionäre Wege im Risikomanagement.

Seminare ansehen
Newsletter

Der Newsletter RiskNEWS informiert über Entwicklungen im Risikomanagement, aktuelle Buchveröffentlichungen sowie Kongresse und Veranstaltungen.

jetzt anmelden
Lösungsanbieter

Sie suchen eine Softwarelösung oder einen Dienstleister rund um die Themen Risikomanagement, GRC, IKS oder ISMS?

Partner finden
Ihre Daten werden selbstverständlich vertraulich behandelt und nicht an Dritte weitergegeben. Weitere Informationen finden Sie in unseren Datenschutzbestimmungen.