For a better experience on dSPACE.com, enable JavaScript in your browser. Thank you!

Schon heute arbeitet dSPACE mit Kunden aus aller Welt daran, die Vision vom autonomen Fahren wahr werden zu lassen. Dafür bieten wir aus einer Hand eine innovative, skalierbare Toolkette für Entwicklung und Absicherung. So werden Visionen schneller wahr.

End-to-End Development and Test Environment

To help you put the idea of autonomous driving on the road, dSPACE offers comprehensive solutions and services for the data-driven development and validation. This ensures seamless, efficient data processing at all development stages, from data logging to release or sign-off tests.

  • Data logging: robust in-vehicle data logging system with outstanding performance to record sensor raw data and vehicle bus data
  • Data enrichment: automated data anonymization and data annotation (ground truth) with best-in-class quality
  • Scenario generation: automated generation of simulation scenarios from sensor raw data or object lists
  • Sensor-realistic simulations: highly realistic, physics-based simulation of camera, lidar, and radar sensors
  • Data replay: time-synchronous replay of sensor raw data and vehicle bus data with exceptionally high streaming bandwidth
  • Scenario-based testing: validating perception, fusion and planning algorithms for autonomous driving by automatically performing and evaluating millions of tests
  • Data and test management: central management of simulation and test data (including variant handling and workflow management)
  • Simulation platform: end-to-end solution for SIL, HIL, and large scale simulation in the cloud
  • Release testing: planning the validation and verification strategy according to ISO 26262 and ISO/PAS 21448 (SOTIF) to achieve homologation using optimized processes

Die Wirkkette des autonomen Fahrens besteht im Allgemeinen aus unterschiedlichen Verarbeitungsstufen. Vorab müssen die Rohdaten des Sensors vorverarbeitet werden (Perzeption). Ziel dabei ist, Eigenschaften, statische und dynamische Objekte sowie Freiflächen in der Fahrzeugumgebung auf Basis einzelner Bilder oder von Reflexionspunkten zu erkennen. Anschließend werden die Ergebnisse zusammengeführt und zu einem konsistenten Umgebungsmodell zusammengefasst (Datenfusion). Dafür ist die Zeitsynchronisierung und -korrelation der Sensordaten entscheidend. Zudem ist es notwendig, den genauen Standort und die Fahrspurposition des Fahrzeugs anhand einer hochauflösenden Karte zu kennen (Lokalisierung).

Basierend auf dem Umgebungsmodell, werden die Situation um das Fahrzeug herum analysiert, potentielle Fahrtrajektorien geplant, die Entscheidung für das jeweilige Manöver getroffen und die Längs- und Quersteuerung ausgeführt.

Eine detaillierte und umfassende Simulation der realen Welt ist die Basis für eine erfolgreiche Absicherung. Sowohl der Einsatz geeigneter Sensormodelle als auch die Integration realer Sensoren mit der Testumgebung spielen eine entscheidende Rolle. Sensormodelle gibt es sowohl in technologieunabhängigen Varianten, die Objektlisten direkt aus den Informationen generieren, die das Umgebungsmodell liefert, als auch in phänomenologischer oder physikalischer Form. Diese Modelle werden üblicherweise auf leistungsstarken GPUs gerechnet und speisen die Rohdaten in die angeschlossenen realen Sensoren wie Kamera und Radar ein. Es gibt unterschiedliche Integrationsoptionen für die Sensoren, je nach Art der Daten und der zu stimulierenden Schicht. Diese Optionen können bis zur direkten Stimulation des Sensor-Front-ends reichen, entweder over-the-air (zum Beispiel mit Radar) oder über HF-Kabel mit GNSS (Globales Navigationssatellitensystem) oder V2X (Vehicle-to-X)-Signale. Die realen Sensoren in der Testumgebung sind oftmals unverzichtbar, da die Signalvorverarbeitung, die Sensordatenfusion und das Erstellen des Umgebungsmodells im Sensorsteuergerät großen Einfluss auf die Wirkkette haben.

Data-Driven Software Development for Autonomous Vehicles

Artificial-intelligence-assisted one-stop-solution for data-driven development of autonomous vehicles (AV), from data recording and enrichment to generation1) of real-world-based scenarios for large scale simulation.

Rapid Prototyping

Entwickeln von Perzeptions-, Fusions- und Anwendungsalgorithmen mit dSPACE Prototyping-Systemen und RTMaps

MIL/SIL-Simulation

Testen von Funktionen für automatisiertes Fahren mit Hilfe von Model (MIL)- oder Software-in-the-Loop (SIL)-Simulation auf Standard-PCs oder PC-Clustern

HIL-Simulation

Testen von Systemen für automatisiertes Fahren und vollständigen Wirkketten im Labor

Werkzeugüberblick

Durchdachte Werkzeugkette mit Werkzeugen, die in allen Entwicklungsschritten reibungslos zusammenarbeiten

Videos

Eine Auswahl an dSPACE Videos zu Fahrerassistenzsystemen und autonomem Fahren

dSPACE Process Consulting

dSPACE Process Consulting unterstützt Sie mit Beratungsprojekten bei der Definition von Prozessen und deren Optimierung in allen Phasen der Steuergeräteentwicklung, unabhängig davon, ob dSPACE Werkzeuge eingesetzt werden.

1) Planned for end of 2019

  • Autonomous Driving: Data-Driven Development and Validation Produktinformationen, PDF, Englisch, 1947 KB