Mit einem wirklichkeitsgetreuen Abbild der Realität innerhalb einer Simulation, dem digitalen Zwilling, lassen sich hochgenaue virtuelle Testfahrten durchführen. Anders als bei Spieleanwendungen, in denen das menschliche Auge ausgetrickst werden kann, bedarf es in der Fahrzeugentwicklung stets physikalisch korrekter Berechnungen. Die neue dSPACE Lösung für sensorrealistische Simulation bietet hierfür Visualisierung und Sensorrealismus (Kamera, Radar, Lidar) auf höchstem Niveau und ermöglicht den Test und die Validierung von Fahrfunktionen in Echtzeit oder sogar schneller.
So realistisch wie möglich: Mit einer komplett neuen Lösung von dSPACE können Anwender ab Sommer 2021 höchste Visualisierungsqualität und hochgradigen Sensorrealismus performant in der Entwicklung und Absicherung ihrer Fahrfunktionen einsetzen. Dies gilt für nahezu jeden erdenklichen Anwendungsfall. Die dSPACE Lösung für sensorrealistische Simulation kann entwicklungsbegleitend über verschiedene Phasen hinweg verwendet werden, zum Beispiel beim Hardware-in-the-Loop (HIL)-Test, beim Software-in-the-Loop (SIL)-Test und auch für die parallele Validierung in der Cloud. Insbesondere eignet sich die Lösung auch für die Entwicklungen von auf künstlicher Intelligenz basierenden Funktionalitäten und Trainingsdaten, darunter das Trainieren und Testen neuronaler Netze. Die Simulationsdaten für die sensorrealistische Simulation können dabei sowohl auf stationären Rechnern als auch in der Cloud berechnet werden. Unterstützt werden Windows® und Linux, letzteres auch in „Docker“-Containern.
Profil: dSPACE Lösung für sensorrealistische Simulation
- Hochauflösende Visualisierung, inklusive realistischer Licht-
und Wettereffekte - Hochqualitative von dSPACE entwickelte 3D-Assets wie Fahrzeuge, E-Scooter und Fußgänger
- Realistische Kamera-, Lidar- und Radarmodelle
- Linux- und Docker-Unterstützung
- Schnittstellen zur Einbindung von Drittanbieter-Sensormodellen
Kamera-Sensormodell
mit High-Fidelity-Grafik und Lichteffekten, konfigurierbaren realistischen Linsenprofilen, Optionen zur Bildmodifikation und konfigurierbaren Farbfiltern für Sensorrohdaten.
Radar-Sensormodell
mit polarimetrischer Berechnung des Radarkanals, Berücksichtigung spiegelnder Reflexionen und diffuser Streuung, Mehrwegeausbreitung sowie adaptivem Ray Launching zur Interaktion mit jedem Objekt innerhalb des Erfassungsbereichs des Sensors. Die parametrierbaren Modelle für Radarrohdatengenerierung, Target-Listen und Objektlisten bilden den realen Sensor exakt nach.
Lidar-Sensormodell
mit Ausgabe einer Punktwolke oder von Rohdaten, der Unterstützung von Scanning- und Flash-basierten Sensoren sowie Ego-Motion-Effekt für rotierende Sensor-Devices.
Leistungsstarkes Innenleben
Die verwendete 3D-Rendering-Engine, die hochpräzisen dSPACE Simulationsmodelle und die realistischen 3D-Assets ermöglichen die genaue Simulation von Sensoren (Kamera, Radar, Lidar), Umgebungen, Wetterbedingungen, Helligkeitsverhältnissen (Tag, Nacht) und Materialien. Die neue Lösung stellt eine erhebliche Weiterentwicklung dar und wird zukünftig die bisherige Software MotionDesk und Sensor Simulation mehr als nur ersetzen. Sie fasst zahlreiche Funktionalitäten in einem einzigen Produkt zusammen.
Hochgenaue Sensormodelle
Die präzise Erfassung der komplexen Fahrzeugumgebung wird zum Zweck der Absicherung mit Hilfe von Modellen unterschiedlicher Sensorarten simuliert, wobei alle Sensoren in Echtzeit berechnet werden. Es besteht zudem die Möglichkeit, Drittanbieter-Sensormodelle zu integrieren.
Leichte Integration in die Tool-Umgebung
Die neue dSPACE Lösung ist optimal mit vielen anderen dSPACE Werkzeugen integriert, wie den ASM-Simulationsmodellen, ModelDesk zur Parametrierung, der Simulationsplattform VEOS, der Entwicklungsumgebung für Perzeptionsalgorithmen RTMaps, der Lösung zur Szenariengenerierung und der Environment Sensor Interface (ESI) Unit. Auch die zukünftige neue Simulationsplattform SIMPHERA wird mit der Lösung für sensorrealistische Simulation kompatibel sein.
Herr Seiger, bei der neuen Lösung für sensorrealistische Simulation handelt es sich um eine komplette Neuentwicklung. Wie kam es dazu?
Die Anforderungen unserer Kunden für den Bereich Sensorsimulation sind erheblich gestiegen. In der Vergangenheit wurden gerade im ADAS/AD-Kontext Tests und Absicherungen von Sensoren meist auf Basis von Objektlisten durchgeführt, doch dies reicht heute nicht mehr aus. Auch wenn etwa kamerabasierte Tests mit MotionDesk und Sensor Simulation erfolgreich waren, so gibt es doch Limitierungen, und ohne sehr großen Aufwand wäre die bisherige Technologie nicht für realistische, hochauflösende Grafik verwendbar.
Wodurch macht sich die Leistungsfähigkeit der neuen Lösung für sensorrealistische Simulation für den Anwender besonders bemerkbar?
Die Basis der neuen unterliegenden Technologie ist speziell ausgelegt auf Performance und hochauflösende Grafik. Damit ermöglichen wir sensorrealistische Simulation in Echtzeit. Sicherlich profitieren wir hierbei auch von der Videospielindustrie. Während im Entertainment-Bereich jedoch auch Tricks angewendet werden, um bestimmte visuelle Effekte für das menschliche Auge zu erzielen, ist für die Steuergeräte unserer Kunden physikalische Korrektheit notwendig. Unser Ziel ist es, die notwendigen Anpassungen und Erweiterungen so performant zu berechnen, dass wir diese immer in Echtzeit bereitstellen können.
Wie stellen Sie sicher, dass die berechneten Sensordaten korrekte Ergebnisse liefern?
Durch einen iterativen Prozess verifizieren wir stetig unsere Modelle. Zu den Methoden zählen Vergleiche mit Werten aus der Literatur und auch Vergleiche mit echten aufgenommenen Sensordaten. In diesem Bereich zeigen sich die Stärken unserer Partnerschaften, wie mit den Unternehmen Hella und Velodyne, bei denen Experimente gemeinsam konzipiert, durchgeführt und ausgewertet werden. Ergebnisse fließen durch einen agilen Entwicklungsprozess in das Produkt, so dass unsere Kunden zeitnah davon profitieren.