Experiment am Max-Planck-Institut Farbkleckse bringen selbstfahrende Autos durcheinander

Autonome Autos müssen Hindernisse und Gefahren zuverlässig erkennen können. Genau diese zentrale Fähigkeit störten Forscher des Max-Planck-Instituts in einem Versuch - mit einfachsten Mitteln.

Kleiner Fleck, große Wirkung: Ein simples Farbmuster kann Algorithmen selbstfahrender Autos stören
Wolfram Scheible/ MPI-IS

Kleiner Fleck, große Wirkung: Ein simples Farbmuster kann Algorithmen selbstfahrender Autos stören


Autonom fahrende Autos gelten als wichtige Technologie der Zukunft. Sie sollen die individuelle Mobilität revolutionieren, Scharen von Roboter-Fahrzeugen dürften bald durch den Verkehr wuseln. Buchbar per App, sollen für die Kunden bei Fahrten mit ihnen nur ein Bruchteil der Kosten einer Taxifahrt entstehen. Weil der größte Kostenfaktor fehlt - der menschliche Fahrer. An dieser Technologie arbeiten deshalb nicht nur klassische Autohersteller, sondern auch Technologiefirmen wie die Google-Mutter Alphabet.

Doch noch sind die Autopilot-Systeme längst nicht so robust, wie gehofft wurde. Damit die Fahrzeuge jemals zu einer Alltagstechnologie werden, müssen sie sicher im Straßenverkehr unterwegs sein und verlässlich Hindernisse sehen können. Dafür liefern Kameras permanent Daten, die das Auto dann richtig interpretieren muss. Genau diese Fähigkeit haben Forscher des Max-Planck-Instituts für Intelligente Systeme in Tübingen in einem Versuch lahmgelegt - mit einem kleinen, bunten Fleck.

Dieses Muster verwirrte die optischen Flussalgorithmen
MPI-IS

Dieses Muster verwirrte die optischen Flussalgorithmen

Die Interpretation der Kamerabilder übernehmen in fortgeschrittenen Systemen optische Flussalgorithmen. Sie basieren auf sogenannten neuronalen Netzen, eine Form der künstlichen Intelligenz, die ähnlich wie die Mechanismen des Gehirns funktioniert. Offenbar sind aber diese Algorithmen verblüffend einfach zu stören - mit einem blau-roten Muster. "Wir haben drei, vielleicht vier Stunden gebraucht, um das Muster zu erstellen", erklärt Anurag Ranjan, einer der Autoren der Studie.

Kleiner Fleck führt zu schweren Berechnungsfehlern

Selbst wenn sich das Muster im von der Kamera erfassten Bild nicht bewegt, wie zum Beispiel auf einem Verkehrszeichen, könne es den Forschern zufolge dazu führen, dass die neuronalen Netze falsch rechnen - und plötzlich gar keine Bewegung mehr erkennen. So war der Algorithmus in einem Versuch nicht in der Lage, die Bewegungen einer Versuchsperson zu erkennen, solange das Muster im Bild zu sehen war.

Verdeckte die Person dagegen das Muster, erkannte das System die Bewegungen des Probanden. Auch wenn die Kamera bei dem Laborversuch am Muster, das positioniert war wie ein Verkehrszeichen, vorbeifuhr, war dieser Effekt zu beobachten.

Der Fleck mit dem Muster muss dafür nicht einmal besonders groß sein: Den Forschern zufolge reicht eine Größe von einem Prozent des gesamten Bildausschnitts, den das System erfasst, aus, um das System anzugreifen und zu schweren Berechnungsfehlern zu verleiten. Je größer der Fleck sei, desto schlimmer werden den Forschern zufolge auch die Auswirkungen. Über diese Ergebnisse hatten die Forscher Autohersteller, die selbstfahrende Modelle entwickeln, vor der Veröffentlichung ihrer Studie informiert. Die hätten darauf nach Angaben des Max-Planck-Instituts jedoch nicht reagiert.

Trotzdem ist die Gefahr, dass aktuell verfügbare Autos betroffen sind, sehr gering, sagt Oliver Wasenmüller vom Deutschen Forschungszentrum für Künstliche Intelligenz: "Tiefe neuronale Netze werden heute noch sehr selten in der Serie verwendet, hier werden eher traditionelle Verfahren angewandt, die nicht auf diese Täuschung hereinfallen."

Menschen sehen Tempo 30, das Auto liest Tempo 100

Die optischen Flussalgorithmen gelten jedoch als wahrscheinliche Komponente künftiger selbstfahrender Autos. "Neuronale Netze sind in der Objekterkennung wichtig, also beim Sehen von Verkehrszeichen und Fußgängern", erklärt Oliver Wasenmüller. Man könne mit so einem Muster beispielsweise aus einem Schild, dass fürs menschliche Auge Tempo 30 zeigt, für das Auto ein Tempo-100-Schild machen.

"Dieses Problem lässt sich aber in den Griff kriegen", so Wasenmüller. Entweder indem man das neuronale Netz trainiert, solche Störmuster zu erkennen und auszusortieren. Oder durch Redundanz, also zusätzliche Systeme, die das gleiche Schild mit einem anderen Algorithmus prüfen und deshalb nicht auf die Täuschung hereinfallen.

ene

Mehr zum Thema


insgesamt 51 Beiträge
Alle Kommentare öffnen
Seite 1
Stäffelesrutscher 29.10.2019
1.
Dieser Patch scheint bei vielen Autofahrern schon im Gehirn eingebaut zu sein, wenn es wieder einmal heißt, sie hätten bei strahlendem Sonnenschein (aber keine tiefstehende Sonne) einen Radfahrer, mit dem sie Augenkontakt hatten, »übersehen«.
TS_Alien 29.10.2019
2.
Autonome Autos werden immer Fehler machen. Es ist ein Irrglaube, dass die Techniken der KI inklusive der Sensoren fehlerfrei arbeiten werden. Gerade dann, wenn es niemand vermutet (sonst hätten es die Entwickler verhindert), werden die Fehler zu grotesken Unfällen führen. Ich werde niemals in ein solches Auto steigen. Ungelöst sind weiterhin die Fragen, was ein autonomes Auto machen soll, wenn es die Wahl hat. Wird es das kleine Kind überfahren, das auf die Straße läuft oder wird es ausweichen und einen Unfall mit einem entgegenkommenden Radfahrer in Kauf nehmen? Oder wird es sich in den Baum am Straßenrand rammen, um das Kind und den Radfahrer zu schützen? Wer legt die Algorithmen dafür fest? Wer entscheidet über Leben oder Tod? Und wer haftet für eine falsche Entscheidung?
jrcom 30.10.2019
3.
Es gibt so viel Sinnvolles zu erforschen. Z. B. Alternativen zum Otto Motor. Schwebebahnen, superschnelle Straßenbahnen, Elektrobusse, schnelle, energiesparende Züge... Können wir mit diesen selbstfahrenden Autos nicht mal aufhören? Das gibt sowieso nur Chaos auf den Straßen. Funktioniert erst, wenn alle selbst fahrende Autos haben u d dann ist der Effekt wie der einer Straßenbahn mit eigenem Abteil. (und Abzweigmöglichkeiten) und Fußgänger sind dann natürlich immer noch ein Problem.
Jetzt_mal_ernsthaft 30.10.2019
4. Prima
Damit ist ein weiterer Schwachpunkt erkannt worden und kann nun beseitigt werden. Selbstfahrende Autos werden sich durchsetzen. Hoffentlich rechtzeitig BEVOR ich meinen Führerschein wegen zu hohen Alters abgeben werde.
scxy² 30.10.2019
5. Dieses Patch
hat mein Gehirn auch, weshalb ich schon so viele Punkte in Flensburg habe. Die künstlichen neuronalen Netze funktionieren also schon erstaunlich lebensecht. Mein Gehirn braucht das Update, wenn es für die AI verfügbar ist.
Alle Kommentare öffnen
Seite 1

© SPIEGEL ONLINE 2019
Alle Rechte vorbehalten
Vervielfältigung nur mit Genehmigung


TOP
Die Homepage wurde aktualisiert. Jetzt aufrufen.
Hinweis nicht mehr anzeigen.