Autonomes Fahren Große Lücke zwischen Softwaresimulation und realen Straßentests

Ein Gastbeitrag von Thomas Götzl*

Anbieter zum Thema

Wollen die Fahrzeughersteller Level 4 und 5 des autonomen Fahrens erreichen, wären noch mehr reale Straßentests notwendig oder verbesserte Simulationen. Aktuell lassen sich maximal 32 Objekte nachbilden. Für höhere Level autonomen Fahrens sind allerdings mehr Objekte notwendig.

Autonomes Fahren: Für die Level 4 und 5 sind bessere Simulationen notwendig.
Autonomes Fahren: Für die Level 4 und 5 sind bessere Simulationen notwendig.
(Bild: (c) metamorworks - stock.adobe.com)

Die vollautonomen Fahrzeuge der nicht allzu fernen Zukunft versprechen einen enormen Zuwachs an Sicherheit und Effizienz im Verkehr. Um dieses Versprechen einzulösen, müssen die Automobil-OEMs jedoch über das heutige Niveau der Fahrzeugautonomie hinausgehen. Dabei spielen die Radarsensoren eine wesentliche Rolle. Ihr Test entscheidet über Sicherheit der Fahrerassistenzsysteme (ADAS) und autonomen Fahrsystemen. Außerdem ist es mit ausgeklügelten Testmethoden möglich, neue Methoden für das Training von Algorithmen zu entwickeln. Dafür haben herkömmliche Anwendungen bisher nicht ausgereicht.

SAE International (früher Society of Automotive Engineers) definiert sechs Level der Fahrzeugautonomie, wobei Level 0 für vollständig manuelles Fahren und Level 5 für vollständig autonomes Fahren steht. Aktuelle Fahrzeuge erreichen Level 3. Damit sind sie in der Lage, einige Entscheidungen wie Beschleunigung oder Bremsen ohne menschliches Eingreifen zu treffen. Um von Stufe 3 auf Stufe 5 zu gelangen, sind noch zahlreiche technische Entwicklungen notwendig. Dazu gehören beispielsweise das Schließen der Lücke zwischen Softwaresimulation und Straßentests sowie das Training von ADAS und autonomen Fahralgorithmen unter realen Bedingungen.

Softwaresimulation und autonomes Fahren

Bei der Entwicklung autonomer Fahrzeuge spielt die Softwaresimulation eine wichtige Rolle. Die Simulation der Umgebung durch Software kann helfen, die Fähigkeiten von ADAS und autonomen Fahrsystemen zu validieren. Die Simulation kann jedoch weder die realen Fahrbedingungen noch das Potenzial für unzureichende Sensorreaktionen vollständig nachbilden – etwas, mit dem vollständig autonome Fahrzeuge unweigerlich konfrontiert sein werden.

Die Automobilhersteller setzen auf Straßentests, um ADAS und autonome Fahrsysteme zu validieren, bevor sie auf den Markt kommen. Straßentests sind und bleiben ein wichtiger und notwendiger Bestandteil des Entwicklungsprozesses. Allerdings sind sie zeitaufwendig, kostspielig und schwer zu reproduzieren. Das ist vor allem dann schwierig, wenn es um die Kontrolle der Umweltbedingungen geht. Die Entwicklung von Fahrzeugen, die zuverlässig sind und mit 100 Prozent sicher auf städtischen und ländlichen Straßen fahren, würde mit Straßentests allein noch Jahrzehnte dauern. Damit die Entwicklung in einem realistischen Zeitrahmen erfolgen kann, werden Trainingsalgorithmen benötigt.

Trainingsdaten für autonome Fahrzeuge

Eine entscheidende Aufgabe ist es, Algorithmen für das autonome Fahren auf der Grundlage von Radarsensoren zu validieren. Die Sensoren erfassen Informationen über die Straßen- und Verkehrsbedingungen und leiten diese Informationen an Prozessoren und Algorithmen weiter. Mit den Sensordaten können die Algorithmen Entscheidungen treffen, wie das Fahrzeug in einer bestimmten Situation reagieren sollte. Stehen den autonomen Fahrzeugen keine entsprechenden Trainings bereit, dann treffen autonome Fahrzeuge Entscheidungen, welche die Sicherheit von Fahrern, Passagieren oder Fußgängern beeinträchtigen.

Genauso wie Menschen mit der Zeit und Erfahrung bessere Fahrer werden, verbessern autonome Fahrsysteme mit der Zeit und dem Training ihre Fähigkeit, mit realen Fahrbedingungen umzugehen. Und um Level 5 der Autonomie zu erreichen, werden komplexe Systeme erforderlich sein, die die Fähigkeiten der besten menschlichen Fahrer übertreffen.

Reale Straßenszenarien emulieren

Verfrühte Straßentests von unerprobten ADAS- und autonomen Fahrsystemen bergen zudem Risiken. Deshalb müssen OEMs in der Lage sein, reale Szenarien zu emulieren. Damit lassen sich nicht nur reale Sensoren validieren, sondern auch die Codes der elektronischen Steuereinheit oder die künstliche Intelligenz. Die derzeitigen Simulationen im Labor bieten keine echte Annäherung an reale Fahrszenarien. Sie haben ein begrenztes Sichtfeld und können Objekte in Entfernungen von weniger als vier Metern nicht auflösen.

Einige der Systeme verwenden mehrere Radarzielsimulatoren, die den Radarsensoren jeweils Punktziele präsentieren und die horizontale und vertikale Position durch mechanisches Bewegen der Antennen simulieren. Diese mechanische Automatisierung verlangsamt die Gesamtprüfzeit. Bei anderen Entwicklungen wird eine Wand aus Antennen mit nur wenigen Zielsimulatoren aufgebaut, sodass ein Objekt überall in der Szene erscheinen kann, aber nicht gleichzeitig. In einer statischen oder quasistatischen Umgebung ermöglicht dieser Ansatz die Prüfung mit einer Handvoll von Zielen, die sich seitlich mit einer Geschwindigkeit bewegen, die durch die Geschwindigkeit der Roboterarme begrenzt ist.

Jetzt Newsletter abonnieren

Verpassen Sie nicht unsere besten Inhalte

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung

Bis zu 512 Objekte simulieren

Aktuelle Simulatoren können maximal 32 Objekte nachbilden. Darunter sind Fahrzeuge, Infrastruktur, Fußgänger, Hindernisse und andere Objekte. Das sind weit weniger Objekte, als ein Fahrzeug auf der Straße zu einem gegebenen Zeitpunkt vorfinden kann. Das Testen von Radarsensoren anhand einer begrenzten Anzahl von Objekten vermittelt ein unvollständiges Bild von Fahrszenarien und verdeckt die Komplexität der realen Welt.

Um die Technologie des autonomen Fahrens auf Level 4 und 5 voranzutreiben, benötigen Automobil-OEMs technische Entwicklungen, die mehr Objekte schneller und in geringerer Entfernung darstellen können. Um diese Lücken zu schließen, hat Keysight beispielsweise einen proprietären skalierbaren Emulationsbildschirm entwickelt, der Hunderte von Miniatur-Zielradarsimulatoren kombiniert und bis zu 512 Objekte in einer Entfernung von nur 1,5 Metern emulieren kann. Das Ergebnis ist eine deterministische, realitätsnahe Umgebung für Labortests komplexer Szenen, die bisher nur auf der Straße getestet werden konnten.

* Thomas Götzl ist Vice President und General Manager für Automotive & Energy Solutions (AES) der Electronic Industrial Solutions Group bei Keysight sowie Geschäftsführer von Keysight Technologies in Deutschland.

(ID:48503326)