当社のシミュレーション・ソフトウエアCarMakerとNVIDIAのハードウェア・プラットフォームとの連携で、バーチャル・テスト・ドライビングでのディープラーニングを使った学習が可能です。NVIDIAのハードウェア・プラットフォームでは、学習とニューラルネットワークの演算による高速学習や、従来のシングルコアをベースにしたCPUと対比したアプリケーションのディープラーニングを行うGPU(グラフィックス・プロセッシング・ユニット)が用いられています。そして、ニューラルネットワークに基づくアルゴリズムは、短い間でも他の道路利用者や交通標識がどのように見えるかをリアルタイムに認識し、より複雑な交通状況でもより安全な自動走行へと導くことができます。CarMakerでは、NVIDIAのプラットフォームとの連携で、バーチャル・テスト・ドライビングでニューラルネットワークを学習させます。また、ディープラーニングによるセンサ融合アルゴリズムの仮想環境での開発とテストを可能にし、先進運転支援システム(ADAS)や自動運転機能のバーチャル検証が現実のものとなります。
NVIDIAのグラフィックプロセッサは、非常に高い演算能力を持っているため、複雑なセンサデータのシミュレーションに適用できます。データは最大12台のカメラだけでなく、ライダやレーダ、超音波センサによって収集され、統合並び分析を経て、実時間で完全な360度の環境の表現を作ります。オブジェクトの認識および分類においては、ディープニューラルネットワーク(DNN)が融合されたセンサデータからの高精度な走行軌跡算出することで、それぞれの条件に合う正確で安全な自動運転を可能にさせます。
CarMakerと連携すると、先進運転支援システムや自動運転機能のバーチャル・テスト・ドライビング環境での試験を早期の開発段階で行うことができます。今まで、道路マーカ、歩行者、建物、駐車車両などを含んだ実走行の動画は統一感のない見え方をしており、曇/霧/雨や昼/夜などの天候状況がニューラルネットワークの学習元データとして利用されていました。CarMakerと繋ぐことで、あらゆるシナリオの再現性のあるデータは、ニューラルネットワーク用にバーチャルで生成することができます。「NVIDIAのプラットフォームを使用する当社のお客様は、バーチャル・テスト・ドライビングでディープラーニングのセンサ融合のアルゴリズムをテストすることができており、時間とコストを削減しています。」(Björn Fath, Business Development Manager Real-Time Simulation Systems, IPG Automotive)
さらに、当社のビデオ・インターフェイス・ボックスと組み合わせることで、カメラ制御ユニットがに必要なカメラの電気信号を直接入力させることによって、カメラ制御ユニットの閉ループ試験が可能になります。カメラを用いた先進運転支援システム検証のHIL(Hardware-in-the-loop)試験では、モニター上での画像生成とカメラで撮影されたイメージの同期の欠如で画像処理データのフレーム間のずれ等が生じる可能性があります。同時に、液晶パネルによっては、コントラストが暗すぎたり弱かったりするため、カメラの入力信号として適さない場合があります。これらの問題は、ビデオ・インターフェイス・ボックスを使用し、標準のカメラ制御装置に直接画像を供給することによって回避することができます。GMSL(ギガビットマルチメディアシリアルリンク)を介して、直接NVIDIA DRIVE PX2にシミュレーション環境の画像を供給することも可能です。閉ループであるHIL (Hardware-in-the-loop) のアプローチを利用して、ビデオ・インターフェイス・ボックスは、バーチャル・テスト・ドライビングを最大に利用し、センサ融合のような場合においても、再現された環境センサを含む他の制御装置と合わせたカメラベースの機能を解析することができます。
CarMakerとNVIDIAの高性能なハードウェア技術を合わせることで、自律/自動運転の開発での課題に大きく役立ちます。「仮想環境での新機能の早期テストは、製品の品質と高い安全性を維持するための鍵となります」(Björn Fath)