For a better experience on dSPACE.com, enable JavaScript in your browser. Thank you!

dSPACE travaille, d’ores et déjà, avec des acteurs automobiles du monde entier pour que la conduite autonome passe du stade de la vision à la réalité. Nous proposons, à partir d’une seule et même source, une chaine d’outils innovante et évolutive pour le développement et la validation. C’est ainsi qu’une vision devient réelle encore plus vite.

Le sujet de la conduite hautement automatisée est au centre des activités de développement de nombreux constructeurs automobiles. Les exigences telles que la vue redondante à 360°C avec de nombreux capteurs hétérogènes, le positionnement haute-précision ou la connectivité automobile sont également des défis que relèvent les fournisseurs d’outils.

La réponse de dSPACE à ces défis est une chaîne d’outils complète pour la conduite autonome provenant d’une seule et même source. Des solutions de prototypage rapide uniques sur des plates-formes haute-performance et un environnement logiciel sur mesure permettent le développement complet d’applications multicapteurs à bord du véhicule ; des algorithmes de perception et de fusion jusqu’aux commandes temps réel. L’augmentation considérable des efforts de test ne peut être adressé qu’en anticipant les essais grâce à la simulation Software-In-the-Loop (SIL). Les clusters informatiques (PC clusters) permettent un haut débit de tests grâce à la mise en parallèle des nœuds informatiques et des simulations tout en maximisant l’évolutivité. Pour les tests de release, la simulation Hardware-In-the-Loop (HIL) reste indispensable. L’un des plus grands défis dans ce contexte est d’intégrer des capteurs environnementaux réels tels qu’une caméra, un radar ou un lidar, et la fusion du capteur. dSPACE propose une palette complète d’options d’intégration allant de la simple simulation du restbus et de l’alimentation en données brutes à la stimulation par radiofréquence (over-the-air).

La chaîne de traitement des capteurs pour la la conduite autonome est généralement constituée de différentes étapes. Tout d’abord, les données brutes du capteur doivent être prétraitées (perception). L’objectif est de détecter les caractéristiques et les objets statiques ou dynamiques ainsi que les espaces libres dans l’environnement du véhicule à partir d’images simples ou de points de réflexion. Pendant l’étape suivante, les résultats sont fusionnés et rassemblés sous forme d’un modèle d’environnement cohérent (fusion de données). Pour ce faire, la synchronisation temporelle et la corrélation des données du capteur sont importantes. De plus, il est nécessaire de connaître la position exacte et la trajectoire du véhicule à partir d’une carte haute définition (localisation).

À partir du modèle d’environnement, la situation autour du véhicule est analysée, les trajectoires de conduite possibles sont planifiées, la décision pour une certaine manœuvre est prise et le contrôle longitudinal et latéral est effectué.

Une simulation complète et détaillée de l’environnement réel est à la base d’une validation réussie. L’utilisation de modèles de capteur adaptés et l’intégration des capteurs réels à l’environnement de test jouent un rôle important. Le panel de modèles de capteur s’étend de variantes indépendantes de différentes technologies qui génèrent des listes d’objets directement depuis les informations fournies par le modèle environnemental, à des modèles phénoménologiques ou physiques qui sont typiquement calculés sur un GPU à haute performance et qui alimentent les capteurs réels connectés, comme une caméra ou un radar, en données brutes. Il existe différentes options d’intégration pour les capteurs selon le type de données et la couche à stimuler. Ces options peuvent aller jusqu’à la stimulation directe du capteur frontal soit par radiofréquences comme un radar soit par un câble HF avec système GNSS (Global Navigation Satellite System) ou par des signaux V2X (Vehicle-to-X). Il est souvent indispensable d’utiliser les capteurs réels dans l’environnement de test vu que le prétraitement des signaux, la fusion des données capteur et la création du modèle d’environnement dans l’unité de commande du capteur ont un très fort impact sur la chaîne de traitement.

Prototypage rapide

Développement des algorithmes de perception, de fusion et d’application avec les systèmes de prototypage dSPACE et RTMaps

Simulation MIL/SIL

Tests des fonctions de conduite automatisée par la simulation Model- (MIL) ou Software-In-the-Loop (SIL) sur des PCs standards ou des clusters informatiques

Simulation HIL

Tests des systèmes de conduite automatisée et de chaînes de traitement complètes en laboratoire

Tests de conduite réels

Enregistrement de données corrélées dans le temps depuis les capteurs d’environnement et les bus automobile pendant les tests de conduite réels

Vue d’ensemble des outils

Une chaîne d’outils bien coordonnée avec des outils qui interagissent en souplesse tout au long des différentes étapes du développement

Vidéos

Une sélection des vidéos dSPACE sur les systèmes d’aide à la conduite avancés (ADAS) et sur la conduite autonome

Service dSPACE de conseil en processus

Le Service dSPACE de conseil en processus propose des projets de conseils afin de vous assister lors de la définition de vos processus et de leur optimisation tout au long des phases du développement de votre calculateur, que vous utilisiez les outils dSPACE ou non.