Zum Hauptinhalt springen

«Google hat die eigenen Werte verraten»

Laura Nolan kündigte, als sie erfuhr, dass Google für ein US-Waffenprogramm zulieferte. Heute warnt die Aktivistin vor autonomen Waffensystemen.

«Geld für autonome Waffen ist eine Verschwendung»: Ex-Google-Programmiererin Laura Nolan. Bild: Johnny Savage/Guardian
«Geld für autonome Waffen ist eine Verschwendung»: Ex-Google-Programmiererin Laura Nolan. Bild: Johnny Savage/Guardian

Frau Nolan, Sie glauben, autonome Waffen, sogenannte Killerroboter, könnten zufällig einen Krieg auslösen. Warum?

In einer diplomatischen Krise braucht es oft wenig, bis ein Konflikt zum Krieg eskaliert. Aber das ist gar nicht meine grösste Angst.

Sondern?

Es braucht meist einen langen Prozess, bis demokratisch gewählte Politiker die Bevölkerung davon überzeugen, in einen Krieg zu ziehen. Doch wenn diese künftig argumentieren können, dass nur noch autonome Maschinen miteinander kämpfen, wird dieser Prozess beschleunigt.

Keine menschlichen Opfer in einem Krieg sind doch eine gute Sache.

Wenn die Entwickler solcher Waffen mit ihren Behauptungen recht haben, sicher. Aber das bezweifle ich.

Warum?

Es gibt wenig, das unberechenbarer ist als ein Schlachtfeld. Und je unberechenbarer eine Situation ist, desto schwieriger ist es für eine Maschine, sie zu simulieren. Autonome Waffen können kaum getestet werden. Wie sie sich verhalten, wissen wir erst, wenn sie im Einsatz sind. Zudem sind autonome Waffen für sich bereits sehr komplexe Systeme. Wenn zwei autonome Waffen aufeinander losgelassen werden, entsteht ein noch komplexeres System. Das mögliche Resultat: Auch Menschen werden in die Luft gesprengt werden – nicht nur Maschinen.

Ehrenamtliche Kämpferin gegen Killerroboter

Die 39-jährige Laura Nolan lebt mit ihrer Katze in Dublin, Irland. Für die Nichtregierungsorganisation Human Rights Watch ist sie das Aushängeschild der Kampagne gegen Killer-Roboter. Den Namen ihres aktuellen Arbeitgebers, wie Google eine US-Software-Firma, möchte sie nicht nennen. Das habe, sagt Nolan, damit zu tun, dass sie dessen PR-Abteilung nicht jedes Mal belästigen wolle, wenn sie mit einem Journalisten spreche.

Die Türkei hat an der Grenze zu Syrien Killer-Drohnen im Einsatz. Sind das die ersten ihrer Art?

Auch die israelische Waffe Harpy fliegt intensiv in Aserbeidschan. Diese Drohne kann selbstständig Radar-Flugabwehrsysteme ausschalten. Die türkische Killerdrohne scheint aber einmalig. Sie ist die erste Drohne, die darauf ausgerichtet ist, Menschen ins Visier zu nehmen. Sie ist mit Gesichtserkennungssoftware ausgestattet. Man muss sich fragen, ob es moralisch vertretbar ist, eine solche Maschine auf Individuen loszulassen.

Die gezielte Ausschaltung von Terroristen durch Drohnen könnte helfen, Anschläge zu verhindern.

Unklar bleibt aber, ob die anvisierten Ziele die Möglichkeit haben, sich zu ergeben. Das ist ethisch sehr problematisch. Vor allem sind wir technologisch noch gar nicht so weit. Eine Untersuchung des National Center for Technology Innovation in den USA zeigt, dass die Gesichtserkennungssoftware noch sehr fehleranfällig ist. Auf dieser Basis Entscheidungen über Leben und Tod zu fällen, ist unverantwortlich.

Sie kündigten bei Google Ihre Stelle, als Sie realisierten, dass Sie mit Ihrer Programmierarbeit einem Waffenprogramm des US-Militärs zulieferten. Was haben Sie bei Google gemacht?

Viele Leute nutzen die Google-Suche heute dazu, um nachzuprüfen, ob ihr Computer oder Handy mit dem Internet verbunden ist. So zuverlässig ist Google heute. Für diese Verlässlichkeit habe ich mit meinem Team gesorgt.

«Zu unseren Lebzeiten werden wir niemals Systeme erleben, die an das herankommen, was wir Menschen tun.»

Wie kamen Sie in Kontakt mit Waffenprogrammen des US-Militärs?

2017 nahm mich ein Kollege an ein konspiratives Meeting mit. Es ging darum, für die US-Armee eine eigene Server-Landschaft auf die Beine zu stellen, die mit geheimen Daten umgehen kann.

Google wollte die Armee als Kunden gewinnen?

Es ging um das Projekt Maven. Die US-Armee will in der Lage sein, automatisiert in Sekundenschnelle Abermillionen von Satelliten- und Drohnenbildern auszuwerten, um Ziele zu identifizieren und Vorschläge zu erhalten, welche Ziele anvisiert werden. Google wollte die Plattform dafür bereitstellen.

Daran wollten Sie nicht mitarbeiten?

Viele verharmlosen Maven. Es handle sich «nur» um ein Überwachungsprojekt, sagen sie. Doch die Massenüberwachung steht heute am Anfang der Tötungskette im Militär. Schon die Präsenz der Überwachung hat verheerende Auswirkungen auf Gesellschaften. Nehmen wir die pakistanisch-indische Grenze. Ein Ort, der intensiv von Drohnen überwacht wird. Diverse Untersuchungen zeigen, dass alleine durch die Drohnenpräsenz grosser Schaden angerichtet wird. Das gemeinschaftliche Leben verödet. Die Menschen gehen seltener an Hochzeiten oder an Beerdigungen.

Für viele Militärs ist es essenziell, in künstlich intelligente Systeme (KI) zu investieren. Putin sagt: Wer die beste KI entwickle, werde die Welt regieren.

Das ist Quatsch.

Warum?

Viele denken, KI habe etwas mit Zauberei zu tun. Doch zu unseren Lebzeiten werden wir niemals Systeme erleben, die nur annähernd an das herankommen werden, was wir Menschen tun. Im Moment sind wir nicht einmal in der Lage, KI zu entwickeln, die intelligenter ist als ein Goldfisch.

«Die geringe Nachvollziehbarkeit von künstlicher Intelligenz bleibt ein Problem»: Laura Nolan. Foto: Johnny Savage (Guardian, eyevine)

Im Schach haben Menschen gegen Maschinen keine Chance mehr. Die Systeme können sich sogar Spiele von Grund auf selber beibringen.

Falsch. Alles, was sie tun, ist auszurechnen, welche Schachzüge zum Sieg führen. Sie haben keine Ahnung von den Regeln. Stellen Sie sich einen riesigen Entscheidungsbaum vor. Manche Äste führen zum Sieg, andere tun es nicht. So «denken» Computer. Es ist ziemlich banal.

Im Schach besteht dieser Entscheidungsbaum aus Hunderten Millionen von möglichen Zügen.

Ihre Anzahl bleibt aber endlich. Im echten Leben, etwa auf dem Schlachtfeld, ist es unmöglich, das Verhalten des Feindes zu simulieren, weil die Möglichkeiten unendlich sind. Es gibt auch keine Regeln.

Welche Rolle spielt künstliche Intelligenz denn im Krieg der Zukunft?

Viele Leute sagen, KI könnte helfen, in einer Schlacht schneller zu reagieren. Gerade wenn es um die Lufthoheit geht. Aber wann war die letzte militärisch signifikante Luftschlacht?

Sagen Sie es mir.

Im Zweiten Weltkrieg. Der Luftkrieg ist bei der Kriegsführung heute nicht mehr signifikant. Und doch investieren viele Armeen in künstlich intelligente Luftabwehrwaffen. Vielleicht sind all die Militärgeneräle einfach den Marketingkampagnen der grossen Technologiefirmen aufgesessen. Vielleicht verstehen sie nicht, wozu künstliche Intelligenz heute wirklich fähig ist.

Auch die Schweizer Armee investiert in solche Waffen. Ist das Geldverschwendung?

Ich weiss zu wenig über die militärstrategische Situation der Schweiz. Aber Geld, das heute für autonome Waffen ausgegeben wird, ist generell eine Verschwendung. Das kann ich sagen.

«Google ist erwachsen geworden. Das passiert vielen Firmen.»

Mittlerweile hat Google versprochen, nicht mehr an Militärprojekten zu partizipieren.

Es gibt Anzeichen, dass Google weiterhin mit dem Militär zusammenarbeitet. Das hat kürzlich das Online-Magazin «Intercept» in einer Recherche gezeigt. Google tut das nicht direkt. Sondern via eine Tochtergesellschaft.

Warum macht Google das?

Über Jahre hat Google mit dem Slogan «sei nicht böse» gearbeitet. Das oberste Ziel war es immer, das Wissen der Welt zu organisieren und zugänglich zu machen. Dass die Firma dann im Geheimen an einem System arbeitet, das am Ende das Ziel hat, Menschen zu töten, ist für mich ein Vertrauensbruch. Vielleicht haben nur ganz wenige Ingenieure an diesem Projekt gearbeitet. Doch sie haben Technologien dafür verwendet, die von Tausenden von Mitarbeitern seit Jahren zu einem ganz anderen Zweck entwickelt wurden. Google hat damit die eigenen und die Werte all seiner Mitarbeiter verraten.

Das ist ein harter Vorwurf.

Google ist erwachsen geworden. Das passiert vielen Firmen. Nehmen wir Hewlett-Packard (HP). Die Computerfirma schwor bei ihrer Gründung 1939, niemals Leute zum Dumping-Stundenlohn anzustellen und immer transparent auszuweisen, was sie für Lobbying ausgibt. Doch heute stellt HP wie viele andere Computerfirmen auch Leute mit befristeten Verträgen ein. Und auch Google ist heute eine stinknormale Firma geworden. Beim Börsengang im Jahr 2004 versprachen die Gründer Sergei Brin und Larry Page, das werde niemals passieren.

«Das Militär gibt die Kontrolle über den eigentlichen Entscheid an eine Maschine ab.»

Sie wollen Killerroboter verbieten. Was fordern Sie genau?

Dass Menschen beziehungsweise Soldaten genügend Informationen und Zeit haben, um eine von einer Maschine gemachte Tötungsempfehlung richtig beurteilen zu können. Die geringe Nachvollziehbarkeit von künstlicher Intelligenz bleibt ein Problem. Wenn es also um die Klassifikation von Katzenbildern geht, ist das Problem weniger wichtig. Bei Entscheidungen über Leben und Tod schon.

Wie kommt Ihre Forderung in der internationalen Gemeinschaft an?

Die US-Armee hat eine andere Vorstellung. Sie betont das menschliche Urteilsvermögen, nicht die menschliche Kontrolle. Das ist ein Unterschied. Nach dem Verständnis der US-Armee soll sie eine Drohne auf eine Todesmission schicken dürfen, ohne beim eigentlichen Entscheid, ein Ziel zu erschiessen, eingreifen zu können. Das bedeutet: Das Militär gibt die Kontrolle über den eigentlichen Entscheid an eine Maschine oder einen Algorithmus ab.

Die grossen Nationen, diejenigen, die die Waffen herstellen, sind alle gegen das Verbot.

Ausser Deutschland. Da ist es gar die Industrie, die Druck macht. Sie will Klarheit.

Sehen Sie überhaupt eine Chance, dass Nationen wie die USA, Russland, Grossbritannien oder Frankreich umschwenken?

Das Landminen-Verbot der Non-Profit-Organisation Human Rights Watch kam nicht im Rahmen der Vereinten Nationen zustande. Die USA haben es bis heute nicht unterzeichnet. Trotzdem setzen sie heute keine Landminen mehr ein. Es geht bei diesem Prozess nicht darum, dass alle Länder unterzeichnen. Wir wollen, dass eine Diskussion entsteht, ob wir solche Waffen wirklich brauchen. Und diese Diskussion ist bereits am Entstehen. In Umfragen sehen wir, dass die Bevölkerungen selbst in sehr militarisierten Gesellschaften wie den USA, Russland oder China autonomen Waffen gegenüber kritisch eingestellt sind.

Dieser Artikel wurde automatisch aus unserem alten Redaktionssystem auf unsere neue Website importiert. Falls Sie auf Darstellungsfehler stossen, bitten wir um Verständnis und einen Hinweis: community-feedback@tamedia.ch