Holger Krumm、MotionDesk/リリースマネージメント担当プロダクトマネージャ、dSPACE GmbH
自動運転車両が一般道路を走行するうえで、オンボードセンサは極めて重要です。しかし、実際の路上には反射面、ホワイトアウト条件、霧、雨、交通渋滞、オブジェクト(すなわち歩行者、駐車車両、建物、標識)など、多くの障害物があります。これらの日常的な障害物によって大気の乱れが発生すると、センサの誤読や標的の認識ミスが引き起こされる可能性があります。
LiDARシステムでは、レーザーパルスを放射して、オブジェクトから反射した光を計測します。
このような計算ミスを回避するためには、テストを詳細に行うことが重要になります。しかし、膨大な量のテスト環境を用意して実車によるテストドライブを行い、考えられるすべての運転シナリオを評価するのは不可能です。これに対するソリューションは、仮想運転シナリオを作成してラボで現実的なセンサシミュレーションを安全に実施することです。
これは、ラボで道路交通を仮想的に再現し、カメラ、レーダー、LiDAR、超音波、地図、V2Xといった各種のセンサによって認知や記録を行うことを表します。テストドライブでは多岐に及ぶ実際の交通状況を考慮しますが、これは何百万キロメートルにも及びます。そのため、センサの機能の妥当性確認は実際の路上では行えず、ラボで行うことになります。
現実的な既製のシミュレーションモデル(dSPACE Automotive Simulation Models – ASMなど)や仮想テストプラットフォームを使用すると、環境センサ(カメラ、レーダー、LiDARなど)、テスト車両、トラフィック、道路、運転操作、周辺環境を含むテストシナリオ全体が仮想的に再現されるため、自動運転機能の妥当性確認を容易に行うことができます。
自動運転車両に搭載された環境センサの検証や妥当性確認を行う場合の最も効率的な方法は、現実的なセンサシミュレーションです。ここでは基本的に、実際のセンサではなく、同じ信号を発信するセンサモデルを使用します。
センサモデルでは、幾何学的アプローチを使用して、検出されるすべてのオブジェクトの最も近い点に対する距離、速度、加速度、水平角、および垂直角を計算します。ソフトウェアモデルでは、センサ(カメラ、レーダー、LiDARなど)から生データを生成し、実際の車両が環境を認識するのと同じ方法で環境(トラフィックオブジェクト、天候、照明条件など)をスティミュレートします。
目的の結果が達成されたかどうかを確認するには、ワークフロー全体の妥当性を確認します。しかし、これらのプロセスの多くは、現実的なセンサシミュレーションを仮想環境内で行えば完了することができます。
センサ信号の処理段階を示したグラフィック図
センサシミュレーションのプロセスには、次の段階が含まれます(上の図を参照)。
検知 – 1つ以上のオブジェクトを表す信号を送信することにより、センサ(カメラ、レーダー、LiDARなど)をスティミュレートします。実際のオブジェクトの検出と同様に、センサを通じて仮想ターゲットが検出され、距離、角度位置、範囲、速度などの重要なリアルタイム情報の取得が開始されます。
認知 – センサでの画像処理または信号処理により、オブジェクトの存在を認識します。
データ融合 – 各種センサから収集した生データが電子制御ユニット(ECU)の中央演算処理装置に供給されると、妥当性確認プロセスが開始されます。この段階では、情報がリアルタイムに結合および処理(センサ融合)され、静止オブジェクトおよびムービングオブジェクト両方のターゲットリスト(またはポイントクラウド)が作成されます。
適用 - オブジェクトリストが認知アルゴリズムによって実行され、オブジェクトの分類、状況分析、軌道計画、および意思決定が行われます。その結果に基づいて、ECUが実行すべき自動運転車両の操作を決定します。
作動 – ECUは適切なアクチュエータに出力信号を送信して、必要な動作を実行します。
テストプロセスで収集されたセンサデータは、時間相関性のある(すなわちタイムスタンプ付け、タグ付け、同期化した)状態で記録および格納し、妥当性確認を行えるようにする必要があります。後でラボで再生することもこれにより可能になります。
現実的なセンサシミュレーションを用いると、あらかじめ決められたスケジュールに基づき、再現可能な形式でテストを実行することによって、センサシステムの開発および妥当性確認を効果的にサポートすることができます。
このシミュレーションでは、理想的なグラウンドトゥルースモデルから実際のモデルに至るまで、さまざまなセンサモデルを使用して自動センサシステムの妥当性を確認することが可能です。
自動センサシステム(すなわち決定アルゴリズム、モーションコントロールアルゴリズム)に求められる極めて複雑な要件に対応するには、より詳細かつ現実的なモデルが必要です。センサモデルの現実度が高まるほど、より良い成果を達成できます。
センサモデルは、複雑度に応じて3つの一般的なタイプに分類されます。
理想的なグラウンドトゥルース/確率論的センサモデルは、テクノロジ非依存型のモデルです。これらは主に、オブジェクトリストベースの挿入(すなわち、3Dセンサおよび2Dセンサを使用した信号機、道路標識、道路オブジェクト、車線、フェンス、歩行者などの検出)に使用されます。これらのモデルでは、オブジェクトが設定範囲内で検出可能かどうかを確認します。
センサシミュレーションの試験では、このようなセンサモデルによって理想的なデータ(実機から得られた真実の情報)が提供されます。このデータは、イベントの確率(確率論的な効果)に最適に重ね合わせることができます。たとえば、重ね合わせを使用してレーダーの典型的な計測ノイズをシミュレートすることができます。シミュレーションでは、分類されたオブジェクト(車両、歩行者、自転車、交通標識など)のリストがその座標とモーションデータ(距離、相対速度、相対加速度、相対方位角および仰角)とともに返されます。
通常、理想的なグラウンドトゥルース/確率論的センサモデルの妥当性確認は、リアルタイムよりも高速なSIL(Software-in-the-Loop)シミュレーションや、リアルタイムのHIL(Hardware-in-the-Loop)シミュレーションで行います。また、これらのセンサモデルをクラスタシステムに展開すれば、大量のテストを完了することもできます。
dSPACEツールチェーンにおいて、これらのセンサはAutomotive Simulation Model(ASM)ツールスイートの一部(ASM Ground Truthセンサモデルなど)として組み込まれており、車両、トラフィック、およびその他の関連する環境モデルと組み合わせてCPUで計算処理されます。これらのモデルの設定は容易であり、常に同期した形でシミュレーションを実行することができます。
現象的/物理的センサモデルは、物理ベースのモデルです。これらのモデルは、センサの計測原理(すなわち、カメラ取り込み、レーダー波伝播)に基づいており、かすみ、グレア効果、降水などの現象をシミュレートする場合に使用します。ここでは、生データストリーム、3Dポイントクラウド、またはターゲットリストを生成することができます。
ただし、物理的な影響も考慮されるため、複雑度ははるかに高くなります。計算処理は主に画像演算処理装置(GPU)で行われます。これらのモデルの妥当性確認は、通常SILまたはHILテストセットアップで行います。
dSPACEツールチェーンにおいては、MotionDeskで現象的/物理的センサモデルをビジュアル表示し、dSPACE Sensor Simulation PCで計算処理を行います。dSPACE Sensor Simulation PCは高性能GPUカードを搭載しており、あらかじめ決められたスケジュールに基づいて高度に現実的なリアルタイムセンサシミュレーションを容易に実行することができます。
実際/無線センサモデルも物理ベースのモデルです。これらのモデルは、実際の物理信号と実際のセンサECUを使用したテストで実際のセンサの挙動を分析する場合に使用します。
ここでは、レーダーテストシステム(すなわちdSPACE Automotive Radar Test Systems – DARTS)でセンサ全体を無線でスティミュレートすることにより、妥当性確認を行います。これは、オブジェクトを検出するシナリオに最適です。他の車載コンポーネント(フロントバンパー、シャシなど)を組み込む必要がある場合には、レーダーテストベンチ全体で妥当性確認を行うことも可能です。
現実的なセンサシミュレーションを成功させるには、信号のやり取りや車載ネットワーク通信を行うためのCAN、CAN FD、FlexRay、LIN、Ethernetといったバスシステムを用意する必要があります。各種の通信チャンネルの機能を適切に確保するためには、単純な通信テストやレストバスシミュレーションから複雑な統合テストに至るまで、さまざまなバスシミュレーションテストを実施する必要があります。
また、シミュレーションテストの際に挿入データを受信できるよう、インターフェースを使用してテスト対象デバイスにセンサモデルを接続する必要があります。高性能FPGAを使用すると、生のセンサデータ、ターゲットリスト、またはオブジェクトリストをセンサECUに同期した形で供給することができます。dSPACEの環境センサインターフェース(ESI)ユニットは、この目的で設計されました。ESIユニットは、生のセンサデータを受信し、個々のセンサに従って分離してから、個々のセンサのフロントエンドの後のデジタルインターフェースに時間相関性を持つデータを挿入します。
自動運転の開発に役立つその他のインターフェースには、FMI、XIL-API、OpenDrive、OpenCRG、OpenScenario、Open Sensor Interfaceなどがあります。これらのインターフェースを使用すると、事故データベースから貴重なデータを取り入れたり、協調シミュレーション向けのトラフィックシミュレーションツールを統合したりすることができます。
3Dの写真のようにリアルな画質
カメラボックスはこれまで、カメラベースのシステムをテストする際に幅広く使用されてきましたが、この手法にはハードウェアのセットアップとセンサへのスティミュラス信号の入力の面で制約がありました。
しかし、無線のスティミュラス信号入力を使用してカメラの画像処理ユニットに生の画像データを直接供給する方法を用いると、この制約を回避することができます。この手法では、カメラセンサが画像データストリームを取得すると、アニメーション化された風景がモニタ上に表示され、オブジェクトの最も近い点までの範囲やセンサ出力(距離、相対速度、垂直および水平角度など)、センサタイミング(サイクル、初期オフセット、出力遅延時間など)を検出することができます。
カメラベースのセンサの妥当性確認では、各種のレンズタイプや魚眼、口径食、色収差などの歪み効果を考慮する必要があり、複数の画像センサを使用した場合や、センサの特性(単色表現、ベイヤーパターン、HDR、ピクセルエラー、画像ノイズなど)をテストシナリオに含める必要もあります。
今後発売される次世代型センサシミュレーション製品には、3Dリモデリング、物理ベースのレンダリング、レイトレーシング、動的照明などのテクノロジが導入され、極めて現実的なビジュアル表示が可能になります。次世代の製品では、さまざまな地形、環境照明(かすみ、影など)、レンズのフレア、グレア効果、動的材料(雨、雪、霧など)といった詳細が3Dの写真のようにリアルな画質で実現されるため、さらに現実的なセンサシミュレーションが可能です。
LiDARやレーダーなど、物理ベースのセンサの要件に対応するには、計測原理が有効です。一般的にレイトレーシングテクノロジは、オブジェクトを検出するために使用される技術であり、LiDAR信号の反射光やレーダー信号の電磁波の経路を追跡することで検出を行います。
この技術は、3Dシーンに光線を送り、その反射を取得することにより、多重伝播などの物理的効果をモデリングに組み込む技術です。これにより、センサのスティミュラス信号の入力やエミュレーションに不可欠なレーダー波や近赤外線レーザー光の伝播を物理的にも正確にシミュレートすることができます。
値(反射点、角度、距離、範囲、ドップラー速度、散漫散乱、多重伝播など)が収集されると、それらの計算や処理を通じて車両のオブジェクトからの距離が算出され、周辺環境が(ポイントクラウドなどの形式で)再現されます。収集されたデータに基づいて、(LiDARセンサの場合)距離や反射光の強度、または(レーダーセンサの場合)エコー信号の周波数に関する情報が含まれたターゲットリストが生成されます。これにより、現実的なセンサシミュレーションが可能になり、センサ経路の挙動を再現することでセンサモデルの妥当性を確認できるようになります。
現実的なセンサシミュレーションでは、開発プロセスのあらゆる段階で高精度のセンサシミュレーションを行えるツールチェーンが必要になります。このようなツールチェーンを構築するうえでは、次のような重要な項目を検討する必要があります。
最新の技術開発動向をつかんで、イノベーションを加速。
メールマガジンの購読希望・変更/配信停止手続き