各種の認知アルゴリズムや運転機能の妥当性を確認するセンサリアリスティックシミュレーション向けのdSPACEソリューションであるAURELIONの新しいバージョン22.1では、仮想テストドライブのシミュレーションとビジュアル表示の詳細度が大幅に向上しました。これは、新たに強化された光と気象の効果、トラック/トレーラモデルの拡張サポート、およびに米国の交通標識への対応によって表現されています。新しいAURELIONでは、ピクセルレベルでのアノテーションが可能なセマンティックセグメンテーション機能を備えた自動運転のための人工知能(AI)のテストとトレーニングにも対応するようになりました。
AURELION 22.1では、光や大気、雨や霧のシミュレーションおよびビジュアル表示におけるリアル感が大幅に向上しています。
降雪にも対応できます。シミュレーション時に降雪をオンに切り替えると、雪がさまざまな材料と相互作用します。
AURELIONでは、モデルのサポート拡張により、部分的または高度に自動化されたトレーラ付きトラック(北米のトラックを含む)を仮想テストドライブで検証できます。新しい機能には以下が含まれます。
AURELIONに画像を取り込んでセマンティックセグメンテーションを行うと、画像の各領域に対してピクセルレベルでアノテーションが行われます。特に自動運転向け人工知能のテストやトレーニングでは、この情報を利用することで、セマンティッククラスのオブジェクトに対するパターンやテクスチャの所属関係をニューラルネットワークに学習させることができます。その後、そのようなネットワークを画像生成、ドメイン適応、車線検出、または運転可能エリア検出といった多様な事例に適用します。
To display the depth image, the respective distances to the objects per pixel were encoded as grayscale.
人間はさまざまな深さや距離を認識して理解できますが、カメラセンサでは2次元空間における色情報のみに基づいてコンピュータへの出力を行います。カメラセンサの環境の認識力を向上させるには、深度画像を計算して画像の各ピクセルにそれぞれの距離を割り当てることが必要です。深度画像の計算には、さまざまな手法が存在します。AURELIONを使用したシミュレーションでは、深度情報がグラウンドトゥルースとして提供されます。
カメラセンサには、オプティカルフローというもう1つの出力モードがあります。これはピクセルレベルで動きを検出することができるため、たとえば他の道路利用者の動きを検出または予測することが可能です。AURELIONは、深度画像とオプティカルフローをいずれもグラウンドトゥルース情報として提供します。この情報は新しいアルゴリズムのテストや妥当性確認に最適であるだけでなく、認知アルゴリズムの入力としても利用できます。
AURELION 22.1では、米国道路標識のオブジェクトが増え、シミュレーションで使用できるようになっています。
運転機能の開発には、HIL(Hardware-in-the-Loop)テスト、SIL(Software-in-the-Loop)テスト、クラウド上の並列検証など、AURELIONのセンサリアリスティックシミュレーションをご活用ください。
最新の技術開発動向をつかんで、イノベーションを加速。
メールマガジンの購読希望・変更/配信停止手続き