Schatten hier, Schatten da: Über diskriminierende Gesichtserkennung

Übersetzung eines Artikels von Lorena Fernández Álvarez (@loretahur) aus theconversation.com

Mit den Fortschritten im Bereich der künstlichen Intelligenz haben sich Gesichtserkennungssysteme immer weiter verbreitet. Viele Dienste wurden entwickelt, um Menschen in Menschenmengen zu identifizieren, ihre Emotionen zu analysieren und ihr Geschlecht, Alter, ihre Rasse und Gesichtsmerkmale zu erkennen. Sie werden bereits für eine Vielzahl von Zwecken eingesetzt: von der Einstellung oder Verbesserung von Marketingsystemen bis hin zu Sicherheits- und Überwachungsfragen.

Trotz umfangreicher Bemühungen, ihre Zuverlässigkeit zu verbessern, zeigen Studien jedoch, dass maschinelle Lernalgorithmen aufgrund von Geschlecht und Rasse diskriminieren können. Sie senken auch ihre Leistung bei Trans-Personen und sind nicht in der Lage, nicht-binäre Menschen zu klassifizieren. Darüber hinaus haben Elemente wie Make-up einen hohen Einfluss auf die Genauigkeit der Systeme.

Algorithmen des maschinellen Lernens stellen nach der Verarbeitung großer Datenmengen Muster fest. Sie sind wie Schüler in einer Schule: Sie lernen aus dem Lehrbuch (Informationen, die sie trainieren, um Inferenzregeln zu generieren) und vom Lehrer (der entscheidet, welche Themen im Test vorkommen und seinen Schülern sagt, welche Parameter wichtig sind). Ihre Einschränkung ist, dass sie an verschiedenen Stellen und auf verschiedene Weise verzerrt sein können.

Der erste Fall ist, wenn die Realität, aus der sie lernen, bereits voller Vorurteile ist. Die zweite, wenn wir ihnen nur einen Teil beibringen, der nicht repräsentativ ist, was die Algorithmen denken lässt, dass dies die einzige Realität ist. Eine weiterer Verzerrung kann in der Phase der Datenaufbereitung und Modellauswahl eingeführt werden, und zwar wenn die falschen Fragen gestellt oder die falschen Parameter berücksichtigt werden.

Equity-Indikatoren: Skalierbare Infrastruktur für faire maschinelle Lernsysteme Catherina Xu und Tulsee Doshi, Google Research Google

Beginnen wir mit der Analyse der Datenerfassung. Zwischen 1940 und 1990 verwendeten Firmen wie Kodak und Polaroid ausschließlich weiße Personen zur Kalibrierung ihrer Produkte. Dreißig Jahre später haben wir immer noch die gleichen rassistischen Vorurteile gegenüber der Technologie.

Die Gender Shades-Studie hat die Genauigkeit der Business-Klassifizierung von Systemen von Microsoft, IBM und Face ++ gemessen und festgestellt, dass dunkelhäutige Frauen häufiger falsch klassifiziert wurden als andere. Die Systeme funktionierten besser auf Männergesichtern als auf Frauengesichtern und auch bei heller als bei dunkler Haut.

In einem Update der Studie aus dem Jahr 2019 wurden die drei zuvor untersuchten kommerziellen Systeme erneut getestet und die Überprüfung um Amazon Rekognition und Kairos erweitert. IBM, Face ++ und Microsoft hatten ihre Genauigkeit verbessert. Die Plattformen Amazon und Kairos hatten jedoch Genauigkeitslücken von 31 % bzw. 22,5 % zwischen hell- und dunkelhäutigen Männern und Frauen.

Anstatt das Problem zur Kenntnis zu nehmen und zu versuchen, es zu korrigieren, startete Amazon eine ganze Kampagne, um die Forschung und insbesondere die Figur einer seiner Manager, Joy Buolamwini, zu diskreditieren.

Gendered Innovations 2

Dies ist ein Beispiel für intersektionelle Voreingenommenheit, bei der verschiedene Arten von Diskriminierung die negativen Auswirkungen für eine Person oder Gruppe verstärken. Intersektionalität beschreibt gekreuzte Formen von Unterdrückung und Ungleichheit, die sich aus strukturellen Vor- und Nachteilen ergeben, die sich aus der Zugehörigkeit zu mehreren sich überschneidenden sozialen Kategorien wie Geschlecht, Sex, Ethnizität, Alter, sozioökonomisches Niveau, sexuelle Orientierung, geografische Lage … ergeben. Mit anderen Worten: Jede Person erleidet Unterdrückung oder besitzt Privilegien aufgrund ihrer Zugehörigkeit zu mehreren sozialen Kategorien.

Verzerrungen können auch während der Datenvorbereitung und der Modellauswahl eingeführt werden, d. h. bei der Auswahl von Attributen, die der Algorithmus berücksichtigen oder ignorieren soll, wie z. B. Gesichtskosmetik oder die Entwicklung der Gesichter von Trans-Personen während der Transition.

Make-up und Trans-Menschen

Eine Studie zeigte, dass Make-up (das in den meisten Gesellschaften vor allem von Frauen verwendet wird) die Genauigkeit kommerzieller und akademischer Gesichtserkennungsmethoden stark verringert. Der Grund dafür ist, dass Kosmetika in öffentlich zugänglichen Gesichtsdatenbanken nicht als Parameter festgelegt wurden.

Ein Ansatz, um robuste Systeme zu entwickeln, ist die Abbildung und Korrelation verschiedener Bilder derselben Person mit und ohne Make-up. Diese Lösungen müssen auch die unterschiedlichen Schminkpraktiken in verschiedenen Kulturen berücksichtigen.

Eine weitere aufkommende Herausforderung sind die Gesichter von Trans-Personen, besonders in Zeiten des Übergangs. Zum Beispiel sprang der Fall einer Trans-Fahrerin von Uber in die Medien, die jeden Tag zwei Stunden lang zu einem lokalen Büro des Unternehmens fahren musste, weil die App, die die Fahrer regelmäßig auffordert, Selfies zu schicken, um ihre Identität zu verifizieren, bevor sie eine Schicht beginnt, bei ihr nicht funktionierte.

Durch die Hormontherapie wird das Gesichtsfett umverteilt und die Gesamtform und Textur des Gesichts verändert. Je nach Richtung des Übergangs (d. h. Mann zu Frau oder Frau zu Mann) betreffen die bedeutendsten Veränderungen im transformierten Gesicht Falten und Linien, Dehnungsstreifen, Verdickung oder Verdünnung der Haut sowie Texturveränderungen. Eine Hormontherapie zum Beispiel macht das Gesicht eckiger.

Liegt die Lösung darin, Verzerrungen zu korrigieren, indem man sicherstellt, dass viele Trans-Personen in KI-Trainingsdaten enthalten sind? Die Idee mag zunächst gut klingen, aber das Sammeln und Speichern von Daten von einer Gemeinschaft, die Grund hat, sich mit dieser Sammlung unwohl zu fühlen, ist keine gute Lösung. In diesem Fall kann es wichtig sein, die algorithmischen Parameter zu überprüfen. Bestehende Methoden deuten darauf hin, dass in diesen Fällen die Augenregion zuverlässiger verwendet werden kann als die Verwendung der gesamten Gesichtsregion, da diese weniger von Veränderungen betroffen ist als andere.

Eine andere Studie ergab, dass vier kommerzielle Dienste (Amazon Rekognition, Clarifai, IBM Watson Visual Recognition und Microsoft Azure) bei Trans-Personen schlecht abschnitten und nicht-binäre Geschlechter nicht klassifizieren konnten.

Anhand der von den Personen in ihren Instagram-Veröffentlichungen angegebenen Hashtags (#woman, #man, #transwoman, #transman, #agender, #genderqueer, #nonbinary) berechnete das Team die Genauigkeit der Ergebnisse der Geschlechtsklassifizierung für 2.450 Bilder. Im Durchschnitt ordneten die Systeme die weiblichen Cis (#women) mit 98,3 % Genauigkeit und die männlichen Cis (#man) mit 97,6 %. Die Genauigkeit nahm für Trans-Personen ab, mit einem Durchschnitt von 87,3 % für #transwoman und 70,5 % für #transman. Diejenigen, die sich als #agender, #genderqueer oder #nonbinary identifizierten, wurden zu 100 % falsch charakterisiert.

Gendered Innovations 2

Es ist Zeit, die Technologie zu überdenken

Angesichts all dieser ethischen Fragen haben Unternehmen wie IBM die Entwicklung von Software zur Gesichtserkennung komplett eingestellt, Amazon und Microsoft hat den Verkauf ihrer Systeme an die Polizei vorübergehend eingestellt.

In Anbetracht dessen, was mit Googles Entlassung von Timnit Gebru, einer der Ethik-Führungskräfte (und genau einem anderen der Treiber der Gender-Shades-Studie), passiert ist, ist es gefährlich, dem Fuchs die Schlüssel zum Hühnerstall zu überlassen

Wie Cathy O’Neil, eine weitere Aktivistin für eine ethische KI, zu Recht sagt: “Man kann Unternehmen nicht zutrauen, ihre eigene Arbeit zu überprüfen, vor allem, wenn das Ergebnis mit ihren finanziellen Interessen kollidieren könnte”.

Um sozial ungerechte Muster nicht zu verewigen und sogar zu verstärken, indem wir bewusst oder unbewusst menschliche Vorurteile kodifizieren, müssen wir vom “reaktiven Modus” (Flickschusterei, wenn Probleme auftauchen) zum “proaktiven Modus” übergehen und intersektionale Analysen schon bei der Konzeption von Projekten einbeziehen.

Zu diesem Zweck hat die Europäische Kommission einen Bericht veröffentlicht (Gendered Innovations 2), in dem wir fünfzehn Fallstudien und Methoden entwickelt haben, um zu zeigen, wie die Forschung dabei unterstützt werden kann, fairere und verantwortungsvollere Technologien zu entwickeln. Unser Ziel ist es, Bürger, Organisationen und die öffentliche Verwaltung für dieses Problem zu sensibilisieren und so Technologien zu schaffen, die für die gesamte Gesellschaft funktionieren und nicht nur für die mächtige Mehrheit.


Schreibe einen Kommentar

Ihre E-Mail-Adresse wird nicht öffentlich angezeigt. Verbindlich einzugebende Felder werden mit diesem Zeichen kenntlich gemacht: *

Weitere Informationen

Archiv aller Artikel