Mit einem wirklichkeitsgetreuen Abbild der Realität innerhalb einer Simulation, dem digitalen Zwilling, lassen sich hochgenaue virtuelle Testfahrten durch­führen. Anders als bei Spieleanwendungen, in denen das menschliche Auge ausgetrickst werden kann, bedarf es in der Fahrzeugentwicklung stets physikalisch korrekter Berechnungen. Die neue dSPACE Lösung für sensorrealistische Simulation bietet hierfür Visualisierung und Sensorrealismus (Kamera, Radar, Lidar) auf höchstem Niveau und ermöglicht den Test und die Validierung von Fahrfunktionen in Echtzeit oder sogar schneller.

So realistisch wie möglich: Mit einer komplett neuen Lösung von dSPACE können Anwender ab Sommer 2021 höchste Visualisierungsqualität und hochgradigen Sen­sor­realismus performant in der Entwick­lung und Absicherung ihrer Fahr­funktionen einsetzen. Dies gilt für nahezu jeden erdenklichen Anwendungsfall. Die dSPACE Lösung für sensorrealistische Simulation kann entwicklungsbegleitend über verschiedene Phasen hinweg verwendet werden, zum Beispiel beim Hardware-in-the-Loop (HIL)-Test, beim Software-in-the-Loop (SIL)-Test und auch für die parallele Validierung in der Cloud. Insbesondere eignet sich die Lösung auch für die Entwicklungen von auf künstlicher Intelligenz basierenden Funktionalitäten und Trainingsdaten, darunter das Trainieren und Testen neuronaler Netze. Die Simulationsdaten für die sensorrealistische Simulation können dabei sowohl auf stationären Rechnern als auch in der Cloud berechnet werden. Unterstützt werden Windows® und Linux, letzteres auch in „Docker“-Containern.

Rechts: Die neue Lösung ermöglicht realistische Simulationen für verschiedene Regionen, hier eine Fahrszene in Japan.

Profil: dSPACE Lösung für sensorrealistische Simulation  

  • Hochauflösende Visualisierung, inklusive realistischer Licht-
    und Wettereffekte
  • Hochqualitative von dSPACE entwickelte 3D-Assets wie Fahrzeuge, E-Scooter und Fußgänger
  • Realistische Kamera-, Lidar- und Radarmodelle
  • Linux- und Docker-Unterstützung
  • Schnittstellen zur Einbindung von Drittanbieter-Sensormodellen

Kamera-Sensormodell
mit High-Fidelity-Grafik und Lichteffekten, konfigurierbaren realistischen Linsenprofilen, Optionen zur Bildmodifikation und konfigurierbaren Farbfiltern für Sensorroh­daten.

 

Radar-Sensormodell 
mit polarimetrischer Berechnung des Radarkanals, Berück­sichtigung spiegelnder Reflexionen und diffuser Streuung, Mehrwegeausbreitung sowie adaptivem Ray Launching zur Interaktion mit jedem Objekt innerhalb des Erfassungsbereichs des Sensors. Die parametrierbaren Modelle für Radarroh­daten­generierung, Target-Listen und Objektlisten bilden den realen Sensor exakt nach.  

Lidar-Sensormodell
mit Ausgabe einer Punktwolke oder von Rohdaten, der Unter­stützung von Scanning- und Flash-basierten Sensoren sowie Ego-Motion-Effekt für rotierende Sensor-Devices.

Leistungsstarkes Innenleben

Die verwendete 3D-Rendering-Engine, die hochpräzisen dSPACE Simulationsmodelle und die realistischen 3D-Assets ermöglichen die genaue Simulation von Sensoren (Kamera, Radar, Lidar), Umgebungen, Wetterbedingungen, Helligkeitsverhältnissen (Tag, Nacht) und Materialien. Die neue Lösung stellt eine erhebliche Weiter­entwicklung dar und wird zukünftig die bisherige Software MotionDesk und Sensor Simulation mehr als nur ersetzen. Sie fasst zahlreiche Funktionali­täten in einem einzigen Produkt zusammen.

Hochgenaue Sensormodelle

Die präzise Erfassung der komplexen Fahrzeugumgebung wird zum Zweck der Absicherung mit Hilfe von Modellen unterschiedlicher Sensor­arten simuliert, wobei alle Sensoren in Echt­zeit berechnet werden. Es besteht zudem die Mög­lichkeit, Dritt­anbieter-Sensormodelle zu integrieren.

Leichte Integration in die Tool-Umgebung

Die neue dSPACE Lösung ist optimal mit vielen anderen dSPACE Werkzeugen integriert, wie den ASM-Simulationsmodellen, ModelDesk zur Parametrierung, der Simulationsplattform VEOS, der Entwicklungsumgebung für Perzeptionsalgorithmen RTMaps, der Lösung zur Szenariengenerierung und der Environment Sensor Interface (ESI) Unit. Auch die zukünftige neue Simulationsplattform SIMPHERA wird mit der Lösung für sensorrealistische Simulation kompatibel sein.

 

 

Herr Seiger, bei der neuen Lösung für sensorrealistische Simulation handelt es sich um eine komplette Neu­ent­wicklung. Wie kam es dazu?

Die Anforderungen unserer Kunden für den Bereich Sensorsimulation sind erheblich gestiegen. In der Vergan­genheit wurden gerade im ADAS/AD-­Kontext Tests und Absicherungen von Sensoren meist auf Basis von Objektlisten durchgeführt, doch dies reicht heute nicht mehr aus. Auch wenn etwa kamerabasierte Tests mit Motion­Desk und Sensor Simulation erfolgreich waren, so gibt es doch Limitierungen, und ohne sehr großen Aufwand wäre die bisherige Technologie nicht für realistische, hochauflösende Grafik verwendbar.

Wodurch macht sich die Leistungs­fähigkeit der neuen Lösung für sensorrealistische Simulation für den Anwender besonders bemerkbar?

Die Basis der neuen unterliegenden Technologie ist speziell ausgelegt auf Performance und hochauflösende Grafik. Damit ermöglichen wir sen­sor­realistische Simulation in Echtzeit. Sicherlich profitieren wir hierbei auch von der Video­spielindustrie. Während im Entertainment-Bereich jedoch auch Tricks angewendet werden, um bestimmte visuelle Effekte für das menschliche Auge zu erzielen, ist für die Steuergeräte unserer Kunden physikalische Korrektheit notwendig. Unser Ziel ist es, die notwendigen Anpassungen und Erweiterungen so performant zu berechnen, dass wir diese immer in Echtzeit bereitstellen können.

Wie stellen Sie sicher, dass die berechneten Sensordaten korrekte Ergebnisse liefern?

Durch einen iterativen Prozess verifizieren wir stetig unsere Modelle. Zu den Methoden zählen Vergleiche mit Werten aus der Literatur und auch Vergleiche mit echten aufgenommenen Sensordaten. In diesem Bereich zeigen sich die Stärken unserer Partnerschaften, wie mit den Unternehmen Hella und Velodyne, bei denen Experimente gemeinsam konzipiert, durchgeführt und ausgewertet werden. Ergebnisse fließen durch einen agilen Entwicklungsprozess in das Produkt, so dass unsere Kunden zeitnah davon profitieren.

Die neue dSPACE Lösung bringt die Entwicklung und den Test autonomer Fahrzeuge bei unseren Kunden entscheidend voran.

Über den Interviewten:

Caius Seiger

Caius Seiger

Product Manager Sensor Simulation, dSPACE GmbH

dSPACE MAGAZINE, PUBLISHED MAY 2021

Produktinformationen

  • AURELION
    AURELION

    Integrieren Sie realistische Sensordaten, um Ihre Perzeptions- und Fahrfunktionen zu testen und zu validieren – mit AURELION, der Software-Lösung für sensorrealistische Simulation.

Treiben Sie Innovationen voran. Immer am Puls der Technologieentwicklung.

Abonnieren Sie unser Expertenwissen. Lernen Sie von erfolgreichen Projektbeispielen. Bleiben Sie auf dem neuesten Stand der Simulation und Validierung. Jetzt dSPACE direct und dSPACE direct aeropace & defense abonnieren.

Formularaufruf freigeben

An dieser Stelle ist ein Eingabeformular von Click Dimensions eingebunden. Dieses ermöglicht es uns Ihr Newsletter-Abonnement zu verarbeiten. Aktuell ist das Formular ausgeblendet aufgrund Ihrer Privatsphäre-Einstellung für unsere Website.

Externes Eingabeformular

Mit dem Aktivieren des Eingabeformulars erklären Sie sich damit einverstanden, dass personenbezogene Daten an Click Dimensions innerhalb der EU, in den USA, Kanada oder Australien übermittelt werden. Mehr dazu in unserer Datenschutzbestimmung.