Rezension

Wenn Algorithmen für uns entscheiden

Total berechenbar?

Frank Romeike [Chefredakteur RiskNET]04.01.2017, 16:06

Sehr ausführlich diskutiert der Autor die Suchalgorithmen von Google (Kapitel 2), der praktisch täglich verändert und optimiert wird und so die marktbeherrschende Stellung des Konzerns zementiert. Kapitel 3 setzt sich mit den Verfahren für eine optimale Routenplanung auseinander. Wie kann ein Computer die kürzeste Verbindung in einem Straßennetz finden? Um diese Frage zu beantworten, lernen wir Edsger W. Dijkstra kennen, einen Informatiker aus den Niederlanden, der unter anderem den Dijkstra-Algorithmus zur Berechnung eines kürzesten Weges in einem Graphen entwickelt hat. Das Algorithmen nicht komplex sein müssen, zeigt sich daran, dass Dijkstra seine Erfindung im Jahr 1959 in einem dreiseitigen Artikel veröffentlichte. Der anschließend vorgestellte A*-Algorithmus berücksichtigt bei der Suche eine Schätzfunktion (Heuristik), um zielgerichtet zu suchen und damit die Laufzeit zu verringern. Dieser Algorithmus wurde das erste Mal im Jahr 1968 von Peter Hart, Nils J. Nilsson und Bertram Raphael beschrieben. Doch nicht nur bei der Routenplanung spielen derartige Algorithmen eine Rolle. Auch die sogenannte Arbitrage im Devisenhandel kann als Routenoptimierung dargestellt werden. Tauscht man beispielsweise Euro in US-Dollar und dann in Yen und anschließend in Chinesiche Renminbi Yuan und anschließend wieder zurück in Yen und US-Dollar sowie Euro, so können die Währungen als Knoten eines Graphen interpretiert werden. Ein optimaler Weg durch den Graphen würde mir mögliche "Arbitrage"-Gewinne aufzeigen.

In den weiteren Kapiteln lernt der Leser, wie Daten über den Geschmack von Nutzern für millionenschwere Investitionsentscheidungen ausschlaggebend sein können (siehe Produktion von "House of Cards" durch Netflix, deren Algorithmen die Daten von mehr als 60 Millionen zahlenden Nutzern auswerten). "Netflix ist wahrscheinlich die Firma auf der Welt, die am besten versteht, wie Filme funktionieren, welche Kombinationen von "Quanten" einen erfolgreichen Streifen ausmachen.", so Christoph Drösser.

Außerdem lernen wir die Algorithmen kennen, die hinter Facebook & Co stecken. So entscheidet beispielsweise der Edge-Rank-Algorithmus bei Facebook darüber, welche Informationen der Nutzer zu sehen bekommt und welche nicht.

In Kapitel 6 lernen wir über "predictive policing" sowie "predictive analytics" und wie aus Korrelationen Prognosen werden. Der einfachste Zusammenhang zwischen zwei Größen ist eine lineare Abhängigkeit. Eine Zielgröße wächst oder schrumpft in genau dem Maß, wie es der Prädiktor tut. Eine Methode, mit der solche linearen Zusammenhänge analysiert werden können, heißt "lineare Regression". Hierbei handelt es sich um ein statistisches Verfahren, mit dem versucht wird, eine beobachtete abhängige Variable durch eine oder mehrere unabhängige Variablen zu erklären. Bei der linearen Regression sucht man eine Gerade, die den Zusammenhang am besten beschreibt. In der Welt der Stochastik wird die Methode der kleinsten Quadrate häufig als Schätzmethode in der Regressionsanalyse (Kleinste-Quadrate-Schätzung) Wichtig hierbei ist jedoch, dass die lineare Regression nicht über einen kausalen Zusammenhang aussagt. Um die Qualität von Prognosen zu erhöhen, werden in der Praxis viele lineare oder logistische Regressionen miteinander verknüpft. "Die Propheten von Big Data versprechen uns nun, dass der Berg der Daten nur groß genug und die Computer rechenstark genug sein müssen, schon liefern und die Algorithmen die tollsten Erkenntnisse frei Haus.", so der Autor. 

Die anschließende Kapitel 7 bis 11 diskutieren Algo-Trading, Verschlüsselungs- und Komprimierungsalgorithmen sowie Matching-Algorithmen bei Partnerbörsen sowie den Weg zur Künstlichen Intelligenz.

Abschließend serviert uns der Autor acht Thesen zum neunen Verhältnis zwischen Menschen und Algorithmen: 1. Wenn wir etwas von Algorithmen erledigen lassen, wandelt es sich. Wenn wir beispielsweise ein Buch mit Hilfe des Computers schreiben, ist das Ergebnis ein anderes, als wenn wir mit Füller oder Schreibmaschine arbeiten würden. 

2. Algorithmen sind nicht objektiv. Hinter Software-Algorithmen stecken Annahmen, Voraussetzungen, Ziele, die nicht klar und objektiv sind. Daher sollten wir uns folgende Fragen stellen: Was für ein Modell der realen Welt liegt ihm zugrunde? Was für Regeln befolgt es?

3. Algorithmen ersetzen nicht den politischen Streit. Ein Algorithmus mag ein Optimierungsproblem (siehe beispielsweise Uber) besser lösen. Wenn aber unterschiedliche politische Interessen aufeinanderprallen, gibt es keine einfache oder "richtige" Lösung. Politik sucht vielmehr nach Kompromissen, um diese Interessenskonflikte zu berücksichtigen.

4. Algorithmen können diskriminieren. Ein Algorithmus tendiert dazu, den Status Quo zu zementieren und beispielsweise Menschen zu diskriminieren.

5. Wir müssen versuchen, die Algorithmen zu verstehen. Wir können Algorithmen analysieren (reverse engineering), auch wenn sie nicht mit expliziten Regeln arbeiten oder ihr Code als Blackbox geschützt wird. Christian Drösser legt da, dass wir nicht erwarten sollten, dass Algorithmen von den Unternehmen (beispielsweise Google, Amazon oder Facebook) transparent gemacht werden. Denn wenn ein Algorithmus öffentlich ist, kann auch jeder die Schwächen ausnutzen und damit sinkt beispielsweise die Qualität der Suchergebnisse (bei Suchmaschinen).

6. Algorithmen entscheiden, wer und was sichtbar ist. Journalisten oder Blogger schreiben ihre Texte und Überschriften so, dass sie den Algorithmen gefallen. Clickbaiting beziehungsweise auf deutsch Klickköder ist informationelles Fast Food, die langfristig keinen intellektuellen Nährwert haben.

7. Der Mensch ist nicht berechenbar. Wir wissen, dass unser Gehirn kein Computer ist und keinen Algorithmen folgt. Algorithmen können (statistische) Aussagen darüber treffen, wie sich eine große Anzahl Menschen verhält. Aber wir wissen nicht, wie sich ein Individuum in bestimmten Situationen verhält.

8. Algorithmen sind die neue Weltmacht. Google besteht im Kern aus zwei Milliarden Zeilen Programmiercode. Das gesamte Geschäftsmodell basiert auf Algorithmen.

Christoph Drösser beweist mit seinem Buch in einer sehr eindrücklichen und leicht verständlichen Weise, wie spannend die Welt der Algorithmen sein kann. Wie der Autor in seiner Einleitung schreibt, ist das Buch weder ein Manifest gegen die bedrohlichen Algorithmen, noch bejubelt es die Segnungen der Computerverfahren, ohne ihre Schattenseiten zu analysieren. Vor allem Bildung kann dabei helfen, sich souveräner in der neuen digitalen Welt zu bewegen: "Je mehr wir über die Verfahren wissen, die uns täglich begegnen, umso weniger hilflos müssen wir uns ihnen gegenüber fühlen. Und umso weniger berechenbar werden wir." (Seite 19). Das Buch liefert einen fundierten, kritischen und leicht lesbaren Einstieg in die Welt der Algorithmen und nimmt den Algorithmen die Aura des Bedrohlichen. Im Ergebnis werden Sie ein Stück Autonomie im Internet zurückgewinnen und vor allem erkennen, dass der Menschen schlicht und einfach nicht "berechenbar" ist.



Kommentare zu diesem Beitrag

Keine Kommentare

Themenverwandte Artikel

Interview

Garantenpflicht

Haftung eines Risikomanagers

Redaktion RiskNET16.07.2018, 19:30

Der Bundesgerichtshof (BGH) hat in seinem Urteil vom 17.07.2009 (Az 5 StR 394/08) einen Leiter einer Rechtsabteilung und Revision wegen Beihilfe zum Betrug durch Unterlassen zu einer Geldstrafe von...

Studie

Qualitative Evaluationsstudie

Risikomodellierung, Predictive Analytics und Big Data

Frank Romeike | Stefan Trummer19.06.2018, 08:07

Das Banken- und Versicherungsumfeld ist seit vielen Jahren im Umbruch. Dazu haben in nicht unerheblichem Maße die Aufsichtsbehörden und Standardsetter beigetragen. Wurden bis Mitte der 2000er...

Interview

Mundus vult decipi

Was tun mit Fake News?

Redaktion RiskNET06.06.2018, 14:24

Wahrheit oder Lüge? Wer kann das in unseren digitalen Zeiten noch beantworten? Umso wichtiger sind klare Parameter und ein methodisch sauberes Vorgehen, um Fake News zu enttarnen. Dafür plädiert...

Kolumne

Machine Learning-basierte Klassifikation von Marktphasen

Krisen frühzeitig identifizieren

Dimitrios Geromichalos [RiskDataScience]23.05.2018, 12:30

Wie in der Vergangenheit immer wieder beobachtet werden konnte, verhalten sich Märkte oftmals irrational und zeichnen sich – neben dem "Normal-Zustand" – durch Phasen im Krisen- und...

Kolumne

Geopolitik und Ökonomie

Über den Einfluss politischer Krisen

Martin W. Hüfner, Chief Economist, Assenagon Asset Management S.A.16.05.2018, 11:45

Mehr als sonst ist in den Börsenkommentaren in diesem Jahr nicht nur von ökonomischen Faktoren die Rede. Immer mehr Raum wird den politischen Krisenherden in der Welt eingeräumt. Da geht es um Iran...