In Shalini Kantayyas warnendem Dokumentarfilm Coded Bias gibt es eine faszinierende Gegenüberstellung Joy Buolamwini, eine junge afroamerikanische MIT Media Lab-Forscherin, hat herausgefunden, dass die meisten Gesichtserkennungssoftware in Bezug auf dunkelhäutige Gesichter und die von Frauen äußerst ungenau sind. Ihre Entwicklung vom Robotik-Geek zum Wissenschaftler zum Aktivisten, die sich mit dem Kongress über die dringende Notwendigkeit einer Regulierung in diesem Bereich des Wilden Westens befasst, gibt dem Film einen inspirierenden Durchgang. Sie erzielt nicht nur Ergebnisse, sondern komponiert auch coole Gedichte über das Codieren.

Ein Skateboard-Hipster aus der gleichen Altersgruppe in Hangzhou, China, bietet einen starken Kontrast und unterstützt mit Begeisterung die Gesichtserkennungstechnologie, selbst für etwas so Grundlegendes wie den Kauf eines Getränkeautomaten. Sie betrachtet das Sozialkreditsystem der Regierung, das von einem amerikanischen Experten auf diesem Gebiet als “algorithmisches Gehorsamstraining” bezeichnet wird, als ein wertvolles Instrument zur Verbesserung der Gesellschaft. Für diejenigen von uns, die nicht unter autoritären Regimen leben – oder nicht ganz -, ist die Vorstellung einer Regierung, die jede Bewegung überwacht und gleichzeitig Punkte für die Parteitreue vergibt oder abzieht, nicht nur an Einzelpersonen, sondern auch an ihre Freunde und Familie, eine monströse Verletzung der Privatsphäre .

Einer der Punkte, die in Kantayyas Nietstudie mit ernüchternder Effizienz hervorgehoben wurden, ist, dass wir bereits mehr als genug personenbezogene Daten abgegeben haben, um einen Überwachungsstaat zu ermöglichen, der wohl noch heimtückischer ist. Dies liegt daran, dass es sich bei unserer Version im Gegensatz zu Chinas transparenter Version um eine Stealth-Operation handelt, bei der der Zugang zu Regierungs- und Unternehmensinformationen miteinander verflochten ist. “Jeder hat einen Anteil”, sagt ein Befragter. “Jeder ist betroffen.”

Zu diesem Zeitpunkt ist es weder ein Geheimnis noch eine Überraschung, dass jeder Internetkauf, jede online bezahlte Rechnung, jede Tracking-App und jede Interaktion mit sozialen Medien seit dem Aufkommen des Smartphones in einer “Waffe der mathematischen Zerstörung” gespeichert wird. Wir alle wissen, dass die Entscheidungskompetenz von Computern das entscheidende Element menschlichen Einfühlungsvermögens ausschließt. Das Aufsaugen der hier gesammelten Schneeball-Beweise dafür, wie Daten genutzt werden können, insbesondere gegen gefährdete Minderheiten, ist wie die gruseligste Episode von Black Mirror, die Sie jemals gesehen haben. Beängstigend, weil es real ist und weil der Film, ohne auf dystopischen Alarmismus zurückzugreifen, berechtigte Fragen aufwirft, ob es für Warnungen bereits zu spät ist.

Buolamwinis Entdeckung geschah zufällig, als sie an einem Kunstprojekt namens “Aspire Mirror” arbeitete, das dazu diente, erhebende Bilder wie einen Löwen oder Serena Williams über ihr eigenes Gesicht zu legen. Aber die Computer-Vision-Software weigerte sich buchstäblich, sie zu sehen, bis sie eine weiße Maske aufsetzte.

Es ist eine leistungsstarke Metapher für Technologie, die überwiegend von weißen Männern entwickelt und daher versehentlich auf maximale Genauigkeit beim Scannen ihrer Gesichter programmiert wurde. Es erlaubt Kantayya auch, die Lücke zwischen unseren Science-Fiction-Vorstellungen von der grenzenlosen Vorstellungskraft futuristischer Technologie und der weitaus engeren Realität der künstlichen Intelligenz aufzuzeigen, die allesamt auf Mathematik hinausläuft. Was wir in der Realität als einen riesigen Technologiepool betrachten, wurde von einer kleinen und homogenen Gruppe von Menschen erzeugt.

Diese Gatekeeper haben es unbewussten Vorurteilen ermöglicht, sich in die Technologie einzuschleichen. Das inhärente Risiko dieser Gesichtserkennungssoftware wird in Gerichtsverfahren veranschaulicht, die von der britischen Polizei in Zivil durchgeführt wurden, als ein 14-jähriger Schüler der Black School beim Verlassen einer Londoner U-Bahnstation festgenommen und in eine Gasse gezogen wurde, um durchsucht und verhört zu werden und Fingerabdruck, und dann in einem erschütterten Zustand freigelassen, nachdem ihm mitgeteilt wurde, dass er falsch identifiziert wurde. Die algorithmische Justizgruppe Big Brother Watch hat sich mit einem Abgeordneten zusammengetan, um eine rechtliche Klage gegen das Innenministerium zu erheben, und sich auf die Allgemeine Datenschutzverordnung berufen, ein Bollwerk gegen den Missbrauch von Informationen gegen individuelle Rechte.

In den USA, wo sechs der neun Unternehmen mit Sitz in der Zukunft der KI ansässig sind (die anderen drei befinden sich in China), gibt es keinen solchen Schutz. Der Gesetzgeber hat im Juni dieses Jahres Gesetze zum Verbot der Verwendung von Gesichtserkennung durch den Bund eingeführt, und eine Reihe großer US-amerikanischer Städte haben die Verwendung von Kommunen bereits verboten. Ebenfalls im Juni kündigte Amazon eine einjährige Pause für den Einsatz seiner Gesichtserkennungstechnologie durch die Polizei an.

Diese Ergebnisse, die seit der Premiere des Films im Januar in Sundance erzielt wurden, zeigen die Kraft des Aktivismus. Buolamwinis Forschungen führten zuerst zu einem Artikel der New York Times , der erhebliche Auswirkungen hatte, und dann zum Kongress, der unter anderem die Aufmerksamkeit von Alexandria Ocasio-Cortez auf sich zog. Aber dieser aufkeimende Kampf um die Bürgerrechte wird weitergehen. Die Idee, invasive Technologie außerhalb der Reichweite von Schaden zu halten, scheint ein Wunschtraum zu sein. Und mit den Gesichtern von über 117 Millionen Amerikanern, die jetzt – oft ungenau – in der Datenbank gespeichert sind, sind die Auswirkungen erstaunlich.

In einer Zeit, in der militarisierte Bundesagenten eingesetzt werden, um Proteste in Portland zu beenden, und andere amerikanische Städte wahrscheinlich folgen werden, schlägt das Beispiel, wie Demonstranten in Hongkong von der chinesischen Regierung angegriffen wurden, mit einem Wallop nach Hause.

Die Herausgeber Alexandra Gilwit, Zachary Ludescher und Kantayya erstellen aus ihren Erkenntnissen eine treibende Erzählung, die reich an Fakten ist, aber immer klar und überzeugend. Neben Buolamwini tragen eine Reihe von Autoren und Wissenschaftlern auf diesem Gebiet dazu bei, ein weitreichendes Argument dafür zu entwickeln, wie künstliche Intelligenz und Datenerfassung zur Steuerung unserer Freiheiten eingesetzt werden können.

Die Auswirkungen auf Kredit-Scores, Kreditbewertungen, Zugang zur Gesundheitsversorgung, Anträge auf Refinanzierung von Hypotheken, Sozialverwaltung und Bewerbungen sind augenöffnend, insbesondere wenn Postleitzahlen, ethnische Zugehörigkeit, Familieneinkommen und polizeiliche Aufzeichnungen in diese Prozesse einfließen und so historische Ungleichheiten aufrechterhalten. Coded Bias argumentiert überzeugend, dass Big Data angesichts der in unsere Technologie eingebetteten Diskriminierung die Augen verbunden bleibt. Die Tortur eines beispielhaften Grundschullehrers in Houston mit einer hervorragenden Leistung, der aufgrund der voreingenommenen Analyse eines Mehrwertmodells entlassen wurde, ist ein schockierendes Beispiel dafür, wie solche Leistungsbewertungsalgorithmen in realen Anwendungen fehlschlagen können.

Dies ist auch nur ein Beispiel dafür, wie sich die KI entwickelt, ohne die grundlegenden westdemokratischen Ideale zu nutzen, die in das System eingebettet sind. “Es geht um mächtige Leute, die machtlose Leute punkten”, sagt die Mathematikerin Cathy O’Neil. Während KI hauptsächlich in den USA für kommerzielle Anwendungen entwickelt wird, liefert Kantayya Hinweise auf eine weniger harmlose Nutzung durch den Kampf der Bewohner eines Wohnkomplexes in Brooklyn, um zu verhindern, dass ihr Vermieter ein biometrisches Sicherheitssystem installiert, das ihr Zuhause im Grunde genommen in Rikers Island verwandeln würde .

Die Autorin Virginia Eubanks zitiert die alte Science-Fiction-Säge, dass die Zukunft bereits da ist, nur nicht gleichmäßig verteilt, wobei die Reichen zuerst die ausgefallenen Werkzeuge bekommen. Sie dreht diese Annahme jedoch um und weist darauf hin, dass KI auf die strafbarste und invasivste Weise eingesetzt wird, wobei Überwachungsinstrumente in armen sozialen Umgebungen getestet werden, in denen geringe Erwartungen hinsichtlich der Achtung der Menschenrechte bestehen. Der nächste Schritt werden die Technologien sein, die in die breitere Gemeinschaft portiert werden.

Die politischen Implikationen der Technologie, mit der Wahlen durchgeführt werden, werden nur kurz angesprochen, reichen jedoch aus, um Resonanz zu finden, insbesondere angesichts der Tatsache, dass Facebook-Experimente in diesem Bereich bereits Erfolge gezeigt haben. Wir verlassen uns jetzt nur auf Mark Zuckerbergs Wort, dass das Unternehmen sich aus diesem Kampf heraushalten wird.

Was Kantayya und eine äußerst artikulierte Gruppe weiblicher Mathematiker und Datenwissenschaftler, die für den ethischen Einsatz von Technologie verantwortlich sind, sagen, ist im Grunde genommen, dass sie sich nicht allzu wohl fühlen. Es mag harmlos erscheinen, wenn Sie Unterwäsche online kaufen und Ihr Browser plötzlich mit Werbung für Skivvies überhäuft ist, oder wenn Sie sich eine Rom-Com ansehen und Ihre Streaming-Plattform 15 lustige Liebesgeschichten für Sie aufstellt. Aber dieser sich schnell bewegende, dynamisch zusammengestellte Film, der klassische Sci-Fi-Konzepte und Bildschirmgrafiken scharf nutzt, um seine Themen wiederzugeben, soll uns daran erinnern, dass der Kampf zwischen Mensch und Maschine um die Entscheidungsfindung nur noch zunehmen wird chaotischer.

Produktionsfirma: 7th Empire Media
Regisseur-Produzent: Shalini Kantayya
Kameramann: Steve Acevedo
Musik: Katya Mihailova
Herausgeber: Alexandra Gilwit, Zachary Ludescher, Shalini Kantayya
Visuelle Effekte: Zachary Ludescher, Alexandra Gilwit
Veranstaltungsort: Provincetown Film Festival Reimagined

86 Minuten

Leave A Reply

Please enter your comment!
Please enter your name here