Künstliche Intelligenz auf der falschen Spur

Angeblich können Algorithmen die sexuelle Orientierung und kriminelle Neigung an Gesichtern ablesen. Doch in der Praxis entpuppen sich die Fähigkeiten oft als Täuschung.

Feminine Gesichtszüge plus wenig Gesichtshaare gleich schwul – ist es wirklich so einfach? Bild: Shutterstock

Feminine Gesichtszüge plus wenig Gesichtshaare gleich schwul – ist es wirklich so einfach? Bild: Shutterstock

Feedback

Tragen Sie mit Hinweisen zu diesem Artikel bei oder melden Sie uns Fehler.

Na klar, ein Schwuler! Man sehe sich nur das schmale Kinn, die lange Nase und die hohe Stirn an. Und lesbische Frauen erst, sie erkennt man natürlich an ihrem breiten Kinn und einer kleinen Stirnpartie. Zu diesem Ergebnis war im vergangenen Jahr ein KI-System gekommen, das Tausende Bilder von erklärtermassen homosexuellen Menschen analysiert und auf vermeintlich typische Gesichtsmerkmale abgesucht hatte.

Die Nachricht erregte enormes Aufsehen. Sollte derart die Physiognomik bestätigt sein – jene Pseudowissenschaft, die vorgibt, menschliche Eigenschaften im Gesicht ablesen zu können? Sie bildete im vergangenen Jahrhundert den Unterbau für Rassismus und Eugenik. Was war geschehen?

Forscher zieht Fehlschluss

Der Psychologe Michal Kosin­ski von der Stanford University, eigentlich ein renommierter Forscher, veröffentlichte die Studie im Herbst 2017. Gemeinsam mit Kollegen hatte er 35'000 Fotos einer Dating-Plattform samt Selbstauskunft über die sexuelle Orientierung benützt, um einen Bilderkennungs-Algorithmus zu trainieren. Die neuen Verfahren des maschinellen Lernens sind besonders gut darin, Muster in Daten zu finden.

Und die fand das System: Die Kriterien, anhand derer es den Menschen eine sexuelle Orientierung zuordnete, waren laut Kosin­ski unter anderem «feminine Gesichtszüge» in Männergesichtern (schwul), wenig Gesichtshaare (schwul), dunklere Haut (heterosexuell). 81 Prozent aller schwulen Männer habe das System korrekt erkannt, berichtete Kosinski, und 74 Prozent aller lesbischen Frauen. Der Forscher folgerte aus diesem Ergebnis, dass gewisse Gene zugleich die sexuelle Identität und das Äussere eines Menschen beeinflussen. Wie sonst könnte eine künstliche Intelligenz (KI) sexuelle Orientierung am Gesicht ablesen? Doch das war ein grober Fehlschluss.

Die Mode macht den Unterschied

Wollte man sich ein Beispiel ausdenken, das die Gefahren des maschinellen Lernens und vor allem die Missverständnisse zwischen Mensch und Maschine zeigt – man könnte kein besseres finden als diese Studie. Die neuen Mustererkennungsverfahren suchen sich nämlich selbst aus, nach welchen Kriterien sie Menschen oder Dinge klassifizieren. Manchmal sind das zufällige Korrelationen – und Menschen machen dann gerne den Fehler, dahinter Kausalitäten zu vermuten, so wie Kosinski. Andere Wissenschaftler bemängeln deshalb immer wieder, dass sie solchen Systemen nicht «in den Kopf» blicken können – dass man also nie wissen kann, welche Merkmale die KI als relevant einschätzt.

Zu den wenigen, die misstrauisch wurden angesichts des rasanten Comebacks der Physiognomik, gehört Alexander Todorov, Leiter des Social Perception Lab an der Princeton University. Im Gegensatz zu Kosinski arbeitet er nicht mit Algorithmen, sondern mit Menschen. Er untersucht, wie Stereotype und Vorurteile entstehen. «Auch Menschen sind besser darin als der Zufall, Schwule oder Lesben an ihrem Äusseren zu erkennen», sagt er. Doch das liege nicht etwa daran, dass Hormone bei Schwulen zu einer helleren Haut führten oder dass Lesben männ­lichere Gesichtszüge hätten. Das habe vor allem mit gesellschaftlichen Stereotypen zu tun.

Darauf deutet eine Studie, die Todorov gemeinsam mit Margaret Mitchell und Blaise Agüera y Arcas erstellt hat, zwei Experten für maschinelles Lernen bei Google Research. Sie befragten 8000 Freiberufler im Internet nach ihrer ­sexuellen Orientierung und ihren modischen Vorlieben. Dabei zeigte sich unter anderem, dass Hetero-­Frauen sich deutlich häufiger schminken als Lesben. Homosexuelle tragen häufiger Brillen, während Hetero-Männer Brillen eher vermeiden und auf Kontaktlinsen setzen. Das alles sind Merkmale, anhand derer eine KI Schwule und Lesben unterscheiden kann. «Aber das hat nichts mit Hormonen zu tun, wie Kosinski vermutete», erklärt Todorov – sondern mit bestimmten Moden und Lebensumständen in unterschiedlichen gesellschaftlichen Gruppen.

Das Ende der modernen Physiognomik

Eine weitere Schwachstelle sind die Selfies: Wie sich Menschen fotografieren, unterliegt ebenfalls einer Mode. Hetero-Männer fotografieren sich selbst eher von unten (sie wirken dann grösser), Hetero-Frauen eher von oben (macht angeblich schöne grosse Augen), während Schwule und Lesben Selfies häufiger einfach direkt von vorne aufnehmen. Und genau diese Perspektive verschiebt die Proportionen der Gesichtszüge in jene Richtung, die Kosinski und dessen KI als typisch schwul oder lesbisch angenommen hat: So hätten schwule Männer schmalere Kiefer, längere Nasen und grössere Stirnen, während lesbische Gesichter grössere Kiefer, kürzere Nasen, kleinere Stirnen hätten.

Das ist das Ende der modernen Physiognomik: Kosinskis System erkennt Schwule einigermassen zuverlässig an sekundären, nicht biologischen Merkmalen. Die Schlussfolgerung ist falsch, dass uns die Genetik unsere sexuelle Orientierung ins Gesicht schreibt.

Auch die Statistik von Studien wie der von Kosinski muss richtig eingeordnet werden. So sind Erkennungsraten von 80 Prozent nicht mehr so spektakulär, wenn man weiss, dass für das Experiment je ein zufällig ausgewähltes Foto aus der Gruppe Homosexueller und ein zufälliges aus der Gruppe Heterosexueller ausgesucht wurden. Die Software musste nur eines der Bilder erkennen, das andere ergab sich daraus. Würde man also den Zufall entscheiden lassen, würde dieser bereits eine Erkennungsrate von 50 Prozent ­erzielen. Da sind 80 Prozent dann schon nicht mehr so beeindruckend.

Algorithmen entscheiden nach unerwarteten Kriterien

Ähnlich verhält es sich mit einer Studie chinesischer Forscher, die behaupteten, Kriminalität im Gesicht zu erkennen. Sie hatten ihre Software mit knapp 2000 Fotos gefüttert, die Hälfte davon waren verurteilte Straftäter. Ein neuronales Netz erkannte nun die ­Kriminellen mit 89,5 Prozent Treffsicherheit. Nur stammten die Bilder der Verurteilten aus einer anderen Datenbank als jene der Unschuldigen. «Die Verurteilten trugen alle T-Shirts», sagt Todorov. «Wenn man damit eine KI füttert, erkennt sie natürlich die Kriminellen: am T-Shirt.» Aber eben nicht am Gesicht. «Ein solches System macht dich nicht schlauer, sondern dümmer.»

Während die chinesischen Forscher und Kosinski ihre Ergebnisse als Erfolg verkaufen, wollen andere Forscher die Mechanismen der Algorithmen besser verstehen und herausfinden, nach welchen Kriterien neuronale Netze Bilder ordnen. Schliesslich ist es etwa bei autonomen Autos problematisch, wenn man nicht weiss, welche Merkmale im Strassenbild die KI am Steuer für wichtig erachtet. Und da geht es manchmal um unerwartete Details.

So war ein Algorithmus, der auf die Erkennung von Pferdefotos trainiert war, sehr gut beim Sortieren. Doch dann konnten Forscher um Wojciech Samek vom Fraunhofer Heinrich-Hertz-Institut in Berlin zeigen, dass es sich gar nicht auf spezifische Pferdemerkmale stützte, sondern lediglich auf die Copyright-Angabe am Rand der Bilder. Diese Gemeinsamkeit war den Forschern nicht aufgefallen.

Verkehrsschilder sind kein Problem

Das Forscherteam hat deshalb eine Methode entwickelt, mit der sich die Entscheidungen der neuronalen Netze nachvollziehen lassen. Sie lassen dafür ein Netz zur Bilderkennung rückwärts laufen und können so sehen, an welchem Punkt eine Gruppe von Neuronen welche Entscheidung getroffen hat und welches Gewicht diese für das Endergebnis bekam. So konnten sie etwa zeigen, dass sich eine Software bei Fotos von Zügen an den Gleisen und an der Perronkante orientierte – den Zug selbst hatte das Netz nicht für besonders wichtig erachtet. Es würde also womöglich auch auf einem Bild die Existenz eines Zuges annehmen, auf dem lediglich Schienen und ein Perron zu sehen sind.

Andere Forscher arbeiten an weniger fehleranfälligen Methoden der Bilderkennung. So entwickelt Marc Tschentscher von der Universität Bochum Software für autonome Fahrzeuge, die natürlich Verkehrsschilder zweifelsfrei erkennen müssen. Für das Training seiner ­Algorithmen hat er selbst einige Merkmale vorgegeben, auf die sich das Netz vor allem stützen soll, etwa die Farbe Rot, wenn es um ein Stoppschild ging. Das führt zu sehr zuverlässigen Ergebnissen, zumal es im Schilderwald eine überschaubare Anzahl an Motiven gibt. Selbst Regentropfen auf der Scheibe, ein wechselnder Sonnenstand oder ein Scheibenwischer im Bild verwirren die Systeme hier nicht mehr. ­«Verkehrsschilder gelten in der Bilderkennung als gelöst», sagt er. Immerhin das.

(SonntagsZeitung)

Erstellt: 29.04.2018, 11:07 Uhr

Neuronale Netze lassen sich optisch täuschen

Forscher um Seyed Moosavi von der ETH Lausanne haben Verkehrsschilder nur minimal verändert, indem sie die Werte der Pixel ein klein wenig verschoben. Für das menschliche Auge sind diese Veränderungen nicht sichtbar. Doch die künstlichen Intelligenzen liessen sich von den Manipulationen verwirren und austricksen.

Das Ergebnis: Die neuronalen Netze erkannten die Verkehrszeichen überhaupt nicht mehr, während sie für Menschen unverändert aussahen. Diese sogenannten Perturbationen sind quasi optische Täuschungen für neuronale Netze: Moosavis Team entwickelte allgemeingültige Muster, die eine Vielzahl selbst ausgeklügelter Netze durcheinanderbrachten, sodass sie etwa einen Joystick für einen Chihuahua und einen Socken für einen Elefanten hielten.

Abo

SonntagsZeit. Im Digital-Abo.

Die SonntagsZeitung digital ohne Einschränkung nutzen. Für nur CHF 10.- pro Monat.
Jetzt abonnieren!

Kommentare

Die Welt in Bildern

Urmusik: Luftaufnahme eine Konzertes am 17. Alphorn-Festival in Nendaz. (22. Juli 2018)
(Bild: Laurent Gillieron) Mehr...