• Deutsch
  • English

Folge 24: Coded Bias

 

“What worries me the most about AI, or whatever you want to call it, algorithms, is power. Because it’s really all about who owns the fucking code. The people who own the code then deploy it on other people […] That’s like a totally asymmetrical power situation. People are suffering algorithmic harm, they are not being told what’s happening to them, and there is no appeal system, there’s no accountability.”

 

Künstliche Intelligenz kannten wir lange hauptsächlich aus Science-Fiction Filmen wie Star Trek oder Iron Man. Doch spätestens seitdem uns Alexa (schlechte) Witze erzählen kann, sollte den meisten klar sein, dass es sich hierbei nicht mehr um ein reines Produkt der Fiktion handelt.

 

Welche Auswirkungen hat es auf das eigene Leben, wenn die Algorithmen, die das allgemeine Leben und verschiedenste Arbeitsprozesse optimieren sollen, voreingenommen sind? Genau damit setzt sich die Dokumentation Coded Bias auseinander. Hierbei werden unterschiedlichste Fälle (Lehrer*innen, Forscher*innen, Aktivist*innen, Mieter*innen etc.) vorgestellt, die genau von dieser Voreingenommenheit negativ beinträchtigt sind, und es wird gezeigt, wie sie sich aktiv gegen diese einsetzen.

 

Während es keine Hauptfigur per se gibt, so sind doch die meisten Akteur*innen über Joy Buolamwini verbunden, die somit quasi im Zentrum steht. Sie eröffnet die Dokumentation auch mit ihrer eindrücklichen Erfahrung: als MIT-Studentin wollte sie einen ermutigenden Spiegel mit Gesichtserkennung bauen, der jeden Morgen zum Beispiel das Gesicht eines Löwen oder das von Serena Williams auf seine Oberfläche und ihr eigenes Gesicht produziert. Das Problem: der Algorithmus erkannt ihr Gesicht nicht als solches. Erst als sie sich eine weiße Maske aufzog (man kennt sie, diese gruselig ausdruckslosen, schnee-weißen Masken) wurde es als ein Gesicht erkannt. Diese Eröffnungsszene fasst somit sehr gut die Problematik der ganzen Doku zusammen.

 

Die Dokumentation fokussiert sich zwar nicht allein auf Gesichtserkennung, doch stellt sie eigentlich den wichtigsten Punkt dar. Den Zuschauenden werden verschiedene Menschengruppen vorgestellt, die sich gegen den alltäglichen Gebrauch dieser Technologie wehren. Das gibt es zum einen Big Brother Watch – eine gemeinnützige britische Organisation, die sich gegen den polizeilichen Einsatz von Gesichtserkennung auf offener Straße einsetzt. Sie beharren darauf, dass es zu häufig zu falschen Identifikationen kommt, die sehr diskriminierend gegenüber vielen Gesellschaftsgruppen sind. So sind sie und die Kamera dabei, als ein 14-jähriger schwarzer Schüler als angeblicher Straftäter erkannt und von der Polizei auf offener Straße verhört und identifiziert wird. Gleichzeitig lernen wir die Bewohner*innen eines Gebäudekomplexes kennen, die sich dagegen wehren, dass Gesichtserkennung als Schlüssel in ihr Gebäude verwendet wird, da sie sich konstant überwacht und wie in einem Gefängnis fühlen.

 

“So, there are currently nine companies that are building the future of Artificial Intelligence. Six are in the United States, three are in China. AI is being developed along two very, very different tracks. China has unfettered access to everybody’s data. […] Building systems that automatically tag and categorizes all the people within China is a good way of maintaining social order. Conversely in the United States we have not seen a detailed point of view on artificial intelligence. So, what we see is that AI is not being developed for what’s best in our public interest but rather, it’s being developed for commercial applications, to earn revenue.

 

Die Dokumentation zieht auch den Vergleich zu dem zweiten Vorreiter in Sache KI: China und sein Social Credit System. Für uns ist das ganze System und die negativen Folgen, die es für viele der Bewohner*innen hat, schon ziemlich dystopisch und die Dokumentation unterstützt diese Lesart definitiv. Trotzdem haben die Filmemacher*innen ein Interview mit einer Chinesin beigefügt, die sich für das System ausspricht. Für sie erleichtert es viele Dinge, beispielweise das Kennenlernen neuer Menschen. Der Score eines Menschen sagt ihr von Anfang an ob die Person vertrauenswürdig ist und ob sie Zeit investieren sollte, sie näher kennenzulernen. Während diese Argumentation für uns wahrscheinlich etwas verstörend ist, so sollte man es der Doku zugutehalten, dass sie versucht andere Blickwinkel zu eröffnen.

 

Leider gelingt ihr dies über dieses Beispiel hinaus nicht wirklich. Während viele der Interviewten sich gegen Formen von KI und auch gegen Facebook, Amazon und Co. aussprechen, so kommen diese Firmen bzw. Leute, die für sie mit dieser Technologie arbeiten, nicht zur Sprache. Natürlich kann es sein, dass sie abgelehnt haben Stellung zu beziehen. Gleichzeitig kann ich mir aber nicht vorstellen, dass sie keinerlei öffentliche Erklärungen dazu gemacht haben, die man hätte einpflegen können. Als Resultat wirkt die Dokumentation etwas einseitig und weniger objektiv.

 

Etwas, dass ich positiv hervorheben möchte, ist das die Dokumentation nicht zu pro-amerikanisch ist, was manchmal schnell passiert. Die Interviewten sagen ganz klar, dass, während China keine gute Verwendung für KI hat, die USA es nicht unbedingt besser macht:

 

“We look at China and China’s surveillance and scoring system. And a lot of people say, ‘Thank Goodness we don’t live there!’. In reality, we’re all being scored all the time, including here in the United States. We are all grappling, everday, with algorithmic determinism. […] In somebody’s database somewhere, we are all being scored. The key difference between the United States and in China is that China’s transparent about it. “

 

Diese Reflektiertheit gibt mir zumindest das Gefühl, dass die Filmemacher*innen sich um Objektivität bemüht haben und es sich hierbei um Aufklärung handelt und nicht um eine Glorifizierung der amerikanischen KI-Praxis.

 

Mir ist zudem aufgefallen, dass die meisten Personen, die zu Wort kommen, Frauen und POCs sind. Das ist besonders interessant, da die Dokumentation einen großen Punkt daraus macht, dass KI meist von (weißen) Männern für (weiße) Männer ist – weiße Männer haben in den 1950er die Grundsteine gelegt und damit gleichzeitig das Datenfundament für die Voreingenommenheit der resultierenden Algorithmen. Ich kann nicht sagen, ob diese Auswahl an Interviewten absichtlich gemacht wurde, denn es handelt sich z.B. bei Cathy O’Neil und Joy Buolamwini um tatsächliche Expertinnen und Forscherinnen, aber ich wollte es dennoch erwähnt haben.

 

Coded Bias ist eine interessante und nicht zu komplizierte Einführung in das Thema KI und deren Voreingenommenheit. Da es sich hierbei sowohl um ein Projekt der nahen Zukunft als auch eine Gefahr der Gegenwart handelt würde ich die Dokumentation jedem ans Herz legen. Gleichzeitig würde ich aber auch sagen, dass sie für Zuschauende, die sich bereits ein wenig mit dem Thema befasst haben, nicht unbedingt so viel neues aufdeckt. Ich möchte diese Rezension mit den folgenden Worten aus der Doku beenden:

 

“The thing I actually fear is not that we’re going down the totalitarian “1984” model but that we’re going to go down this quiet model where we are surveilled, and socially controlled, and individually nudged, and measured, and classified in a way that we don’t see, to move us along paths desired by power. Though it’s not what will AI do to us on its own, it’s what will the powerful do to us with the AI.”

 

Schaut doch mal in den Trailer rein!

Die Dokumentation könnt ihr euch auf Netflix oder auf YouTube anschauen.

 

Unsere Förderer

Contact us!

Deutsch-Amerikanisches Institut Tübingen
Karlstr. 3 · 72072 Tübingen
Tel. 07071-795 26-0 · Fax 07071-795 26-26
mail [at] dai-tuebingen.de · www.dai-tuebingen.de

 
Visit us!

Bibliothek: Di - Fr: 13.00 - 18.00, Sa: 11.00 - 14.00 Uhr
Montags geschlossen
Sekretariat: Di - Fr: 9:00 - 13.00, 14.00 - 17.00 Uhr
Montags geschlossen

 
Find us!