For a better experience on dSPACE.com, enable JavaScript in your browser. Thank you!

dSPACE travaille, d’ores et déjà, avec des acteurs automobiles du monde entier pour que la conduite autonome passe du stade de la vision à la réalité. Nous proposons, à partir d’une seule et même source, une chaine d’outils innovante et évolutive pour le développement et la validation. C’est ainsi qu’une vision devient réelle encore plus vite.

End-to-End Development and Test Environment

To help you put the idea of autonomous driving on the road, dSPACE offers comprehensive solutions and services for the data-driven development and validation. This ensures seamless, efficient data processing at all development stages, from data logging to release or sign-off tests.

  • Data logging: robust in-vehicle data logging system with outstanding performance to record sensor raw data and vehicle bus data
  • Data enrichment: automated data anonymization and data annotation (ground truth) with best-in-class quality
  • Scenario generation: automated generation of simulation scenarios from sensor raw data or object lists
  • Sensor-realistic simulations: highly realistic, physics-based simulation of camera, lidar, and radar sensors
  • Data replay: time-synchronous replay of sensor raw data and vehicle bus data with exceptionally high streaming bandwidth
  • Scenario-based testing: validating perception, fusion and planning algorithms for autonomous driving by automatically performing and evaluating millions of tests
  • Data and test management: central management of simulation and test data (including variant handling and workflow management)
  • Simulation platform: end-to-end solution for SIL, HIL, and large scale simulation in the cloud
  • Release testing: planning the validation and verification strategy according to ISO 26262 and ISO/PAS 21448 (SOTIF) to achieve homologation using optimized processes

La chaîne de traitement des capteurs pour la la conduite autonome est généralement constituée de différentes étapes. Tout d’abord, les données brutes du capteur doivent être prétraitées (perception). L’objectif est de détecter les caractéristiques et les objets statiques ou dynamiques ainsi que les espaces libres dans l’environnement du véhicule à partir d’images simples ou de points de réflexion. Pendant l’étape suivante, les résultats sont fusionnés et rassemblés sous forme d’un modèle d’environnement cohérent (fusion de données). Pour ce faire, la synchronisation temporelle et la corrélation des données du capteur sont importantes. De plus, il est nécessaire de connaître la position exacte et la trajectoire du véhicule à partir d’une carte haute définition (localisation).

À partir du modèle d’environnement, la situation autour du véhicule est analysée, les trajectoires de conduite possibles sont planifiées, la décision pour une certaine manœuvre est prise et le contrôle longitudinal et latéral est effectué.

Une simulation complète et détaillée de l’environnement réel est à la base d’une validation réussie. L’utilisation de modèles de capteur adaptés et l’intégration des capteurs réels à l’environnement de test jouent un rôle important. Le panel de modèles de capteur s’étend de variantes indépendantes de différentes technologies qui génèrent des listes d’objets directement depuis les informations fournies par le modèle environnemental, à des modèles phénoménologiques ou physiques qui sont typiquement calculés sur un GPU à haute performance et qui alimentent les capteurs réels connectés, comme une caméra ou un radar, en données brutes. Il existe différentes options d’intégration pour les capteurs selon le type de données et la couche à stimuler. Ces options peuvent aller jusqu’à la stimulation directe du capteur frontal soit par radiofréquences comme un radar soit par un câble HF avec système GNSS (Global Navigation Satellite System) ou par des signaux V2X (Vehicle-to-X). Il est souvent indispensable d’utiliser les capteurs réels dans l’environnement de test vu que le prétraitement des signaux, la fusion des données capteur et la création du modèle d’environnement dans l’unité de commande du capteur ont un très fort impact sur la chaîne de traitement.

Data-Driven Software Development for Autonomous Vehicles

Artificial-intelligence-assisted one-stop-solution for data-driven development of autonomous vehicles (AV), from data recording and enrichment to generation1) of real-world-based scenarios for large scale simulation.

Prototypage rapide

Développement des algorithmes de perception, de fusion et d’application avec les systèmes de prototypage dSPACE et RTMaps

Simulation MIL/SIL

Tests des fonctions de conduite automatisée par la simulation Model- (MIL) ou Software-In-the-Loop (SIL) sur des PCs standards ou des clusters informatiques

Simulation HIL

Tests des systèmes de conduite automatisée et de chaînes de traitement complètes en laboratoire

Vue d’ensemble des outils

Une chaîne d’outils bien coordonnée avec des outils qui interagissent en souplesse tout au long des différentes étapes du développement

Vidéos

Une sélection des vidéos dSPACE sur les systèmes d’aide à la conduite avancés (ADAS) et sur la conduite autonome

Service dSPACE de conseil en processus

Le Service dSPACE de conseil en processus propose des projets de conseils afin de vous assister lors de la définition de vos processus et de leur optimisation tout au long des phases du développement de votre calculateur, que vous utilisiez les outils dSPACE ou non.

1) Planned for end of 2019