Zum Hauptinhalt springen

Autonomes FahrenSo lassen sich auch intelligente Roboter austricksen

KI-Forscher zeigen, wie man Roboter und selbstfahrende Autos reinlegen kann. Ungewohntes Verhalten von Menschen könnte zu gefährlichen Reaktionen der Software führen.

Ein selbstfahrendes Auto der amerikanischen Handelskette Kroger Co. wird mit Lebensmitteln beladen, die es zu einer Kunden befördern wird.
Ein selbstfahrendes Auto der amerikanischen Handelskette Kroger Co. wird mit Lebensmitteln beladen, die es zu einer Kunden befördern wird.
Foto: PD

Der Passant winkt wie verrückt, zappelt mit den Beinen und sinkt auf das Trottoir nieder. Das selbstfahrende Auto auf der anderen Strassenseite legt daraufhin den Rückwärtsgang ein – so abrupt, dass der Wagen dahinter in das Heck kracht. Das ist bisher nur ein theoretisches Szenario. «Aber in Zukunft könnten solche Attacken auf selbstfahrende Autos möglich sein», sagt Adam Gleave von der University of California in Berkeley. Zusammen mit Kollegen hat der Informatiker jene Algorithmen ausgetrickst, die künftig unter anderem autonome Fahrzeuge durch Innenstädte lotsen sollen.

Um diesen Artikel vollständig lesen zu können, benötigen Sie ein Abo.