Marcus glaubt, dass es im Bereich selbstfahrender Autos immer noch „Randfälle“ gibt, die noch nicht gelöst sind und nicht rund um die Uhr auf der Straße getestet werden sollten.Ein Artikel der New York Times aus dem Jahr 2016 über selbstfahrende Autos begann mit den Worten: „Die Ära selbstfahrender Autos ist angebrochen, und einige Autohersteller haben Milliarden von Dollar in Forschung und Entwicklung investiert … und in einigen Städten in den Vereinigten Staaten mit Tests begonnen.“ Sieben Jahre sind vergangen, wo ist autonomes Fahren geblieben?
Gary Marcus, emeritierter Professor für Psychologie und Neurowissenschaften an der New York University, äußerte einige Ansichten zu diesem Bereich. Er sagte, es gebe immer noch ein Problem auf diesem Gebiet, eines, das Marcus in den letzten Jahren Dutzende Male hervorgehoben habe, nämlich Randfälle, die nicht routinemäßigen Situationen, die maschinelle Lernalgorithmen oft verwirren.
Je komplexer die Situation selbstfahrender Autos ist, desto mehr unerwartete Anomalien wird es geben. Und die reale Welt ist komplex und chaotisch, und wir können nicht alle möglichen, nicht routinemäßigen Ereignisse aufzählen, die auftreten können. Bisher hat noch niemand herausgefunden, wie man ein selbstfahrendes Auto baut, das dieser Tatsache gewachsen ist.
Marcus sagte, dass er zum ersten Mal in einem Interview im Jahr 2016 die großen Herausforderungen hervorgehoben habe, die Edge Cases für das autonome Fahren mit sich bringen. „Damals hatte ich den Hype satt und habe diese Ansicht schließlich aufgegeben. Wenn ich dieses Transkript jetzt noch einmal lese, denke ich, dass es auch heute noch zutrifft.“
Der technologische Fortschritt, den wir derzeit sehen, wird größtenteils durch groß angelegte Brute-Force-Cracking-Techniken wie den Supercomputer Deep Blue und das Atari-Spielesystem vorangetrieben. Die Entwicklung dieser Technologien begeistert die Menschheit außerordentlich. Wenn es jedoch um Roboter für Häuser oder um Roboter geht, die die Straße entlangfahren, ist die Aufregung nicht so groß.
Im Allgemeinen funktionieren selbstfahrende Autos unter normalen Umständen gut, beispielsweise wenn sie an sonnigen Tagen sicher fahren. Wenn sie jedoch in komplexen Umgebungen wie Schnee und Regen eingesetzt werden, wird das fahrerlose Fahren sehr schlecht. Zuvor hatte der amerikanische Journalist und Redakteur Steven Levy einen Artikel über das autonome Fahren von Google geschrieben. In dem Artikel wurde erwähnt, dass Google im Jahr 2015 einen großen Sieg errungen hat, und dieser Sieg bestand darin, dass das System Blätter automatisch identifizieren konnte.
Die Identifizierung von Blättern ist für den Menschen zu einfach, aber für selbstfahrende Autos wäre es ein großer Fortschritt. Menschen können ihren gesunden Menschenverstand nutzen, um herauszufinden, was dieses Ding sein könnte und wie es dorthin gelangt ist, aber ein selbstfahrendes System merkt sich einfach etwas und es mangelt ihm an logischen Überlegungen, und das ist die Einschränkung, mit der selbstfahrende Autos konfrontiert sind ...
Die Menschen haben sich auf eine ausgereiftere selbstfahrende Technologie gefreut. Erst vor wenigen Tagen hat die California Public Utilities Commission den selbstfahrenden Autoherstellern Cruise und Waymo den Betrieb rund um die Uhr in San Francisco genehmigt. Diese Entscheidung verschafft den beiden Unternehmen mehr Spielraum, ihre Autos zu testen. Nachdem die Nachricht bekannt gegeben wurde, sagten viele Menschen, dass die Ära der selbstfahrenden Autos angebrochen sei, wenn auch später als erwartet.
Tatsächlich haben wir noch keine wirklich selbstfahrenden Autos, und wie Cade Metz, ein bekannter amerikanischer Journalist, vor ein paar Monaten in meinem Podcast „Humans vs. Machines“ erklärte, wird jedes selbstfahrende Fahrzeug auf öffentlichen Straßen entweder einen menschlichen Sicherheitsfahrer oder einen Menschen haben, der das Fahrzeug aus der Ferne überwacht und aus der Patsche hilft.
Jetzt tauchen neue Grenzfälle beim autonomen Fahren auf, wie etwa der Zusammenstoß eines Tesla mit einem geparkten Jet.
Marcus sagte, dass es immer neue Situationen geben wird, egal wie viele Daten diese Systeme trainieren.
Erst kürzlich verloren zehn weitere selbstfahrende Autos den Kontakt zur Missionskontrollzentrale. Ohne die Aufsicht der Leitstelle verirrten sich selbstfahrende Autos, blieben mitten auf der Straße stehen und es kam zu vielen anderen Unfällen:
Das Gebiet des autonomen Fahrens verändert sich ständig, weshalb viele Forscher, darunter auch Marcus, den Ansatz der California Public Utilities Commission nicht verstehen.
Es wäre verrückt, autonomes Fahren überall und jederzeit zu testen, ohne eine strenge, sorgfältig geprüfte Lösung für Grenzfälle. Dies gilt nicht nur für selbstfahrende Autos, sondern auch für andere Bereiche, die auf maschinellem Lernen basieren.
Grenzfälle gibt es überall, und jeder, der denkt, dass sich alles leicht beheben lässt, macht sich selbst etwas vor.
Wir müssen unser Management verschärfen, und wenn wir das nicht tun, könnte es in den kommenden Jahren zu schweren Unfällen mit selbstfahrenden Autos, automatisierten Ärzten, universellen virtuellen Assistenten, Heimrobotern und mehr kommen.
Am Ende des Artikels gab Marcus an, dass er diesen Artikel in einem Flugzeug mit Autopilot abgeschlossen habe. Während des 9-stündigen Fluges war der Autopilot die ganze Zeit in Betrieb, und in diesem Zeitraum waren auch Menschen beteiligt, was einen Human-in-the-Loop darstellte. Letztlich glaubt Marcus nicht, dass es autonome Flugzeuge geben wird, und er glaubt nicht, dass bereits irgendwelche quasi-autonomen Autos zugelassen wurden.