Optical and Photonic Solutions Blog~日本語版~
公開日:2024年5月17日
このブログはOptical Solution Group Executive Director Emilie Viasnoffによる寄稿です。
システムはますますスマートになってきています:
自動車は周囲の状況に応じて走行し、スマートフォンのカメラは環境条件を考慮して画質を補正し、AR/VRゴーグルは頭、目、ジェスチャーを追跡して特定のコンテンツを表示できるようになりました。このような様々な知能化のトレンドはセンサーが至るところにあるからこそ可能になっています。
しかし、センサーに関しては、物理的な側面から見ると限界があります。つまり、より複雑なシステムを実装するとなると、桁違いのコストや手間が掛かってしまいます。
簡単な例として、自律走行車の開発において、自律走行システムを効果的に作動させるためには、何百万マイルもの距離を走行し、遭遇する可能性のあるすべての状況を「理解」する必要があります。
これを実現する1つの方法は、物理的なセンサーを搭載した多数の自動車を手動で配備し、サンフランシスコのような大都市の道路を走らせ、走行中に遭遇したものを記録していくことです。そのためには、車の設置からドライバーの雇用、広大な道路に設置されたものに至るまで、膨大な時間とコストを考慮しなければいけません。
しかし、バーチャルセンサーを採用し、ハイパフォーマンス・コンピューティング技術を活用することで、膨大な時間を最小限に抑え、広範囲に及ぶ実走行による危険も回避することが可能です。
バーチャルセンサーの利点、潜在的な応用例などについて述べたいと思います。
バーチャルセンサーのルーツは、デジタルツインの概念にあります。
名前が示す通り、物理センサーが直接的な環境で「見る」ことに基づいてデータを生成するのに対し、仮想センサーは第三者情報に基づいて計算、または推定します。このデータは環境を表すものとして機能し、一次元、二次元、または三次元のいずれかに基づいている可能性があります。そして、仮想センサーはこれを処理し、センサーがカメラの場合にはデジタル画像に変換します。
バーチャルセンサーがチップおよびエンドプロダクト設計者の味方として機能するシナリオは数多くあります。例えばカメラの場合、これらの原理はLiDARやレーダーに見られるような物理センサーにも適用できます。
その一例として、仮想カメラは特定の自動運転車モデルの物理カメラの仕様を決定するのに役立ちます。
それは白黒であるべきか、それともカラーであるべきか? 何ピクセルあるべきか? 最適な被写界深度は何か? このカメラは最良の情報を得るために車のどこに配置すべきか? ピクセル数、カラーバランス、信号処理などを調整して仮想カメラで実験することで、これらの質問やその他の質問に対する答えを、高価なプロトタイプにお金を使うことなく得ることができます。
設計段階では、カメラはレンズ、センサー、画像信号プロセッサーの3つ以上のコンポーネントで構成されることがあります。バーチャルカメラは、これらのコンポーネントの相互作用をテストし、適切な組み合わせを確立して、適切な画像結果をシミュレートすることができます。
設計後は、カメラをその場でテストします。フロントガラスの裏やサイドミラーへ仮想的に設置することで、最終製品が使用環境でどのように見えるか、そして最終的に車両に組み込んだときにどの程度機能するかを正確に理解することができます。
バーチャルセンサーが活躍するさらなる側面は、カメラが感知した環境を解釈するAIモデルの開発にあります。道路標識や歩行者などの要素の仮想画像によってモデルのトレーニングと開発が可能になり、大規模な物理的情報の収集が不要になります。また、完全に形成されたAIモデルは、自律走行車が本来の動作をするための物理的なカメラで利用することができるようになります。
要するに、バーチャルセンサーは実際の自律走行車が対応する必要のあるシナリオを生成する可能性を秘めているのです。(例えば、ボールを追いかけ、道路上に飛び出した子供にどう対応するか?走ってきた緊急車両にどのように道を譲るか?など)
自動車用チップ設計の分野では、デジタルツインモデルとバーチャルセンサーが、自動車製造において増大化している性能要求を満たすためのアーキテクチャ探索、ソフトウェア開発、ハードウェアとソフトウェアの統合、システムオンチップ(SoC)の検証、半導体モデルのテストと検証において、ますます大きな役割を果たすと予想されています。
同時に、高度に進歩したチップ、カメラ、自動車技術が存在するにもかかわらず、自律走行車がまだ道路に普及していないことも注目すべき点です。とりわけ、システム全体が処理しなければならないデータ量が障壁となっています。現在、自律走行車はそのデータを効率化できる完全なシステムとしてではなく、部品ごとに設計されています。カメラ、電子制御ユニット(ECU)、走行環境などの仮想化は、コンポーネントの相互依存性を把握し、サイロ化を解消することで、チームワークの向上とシステムの最適化を可能にします。
自律走行車の開発はまだ道半ばですが、バーチャルセンサーや、より広範なデジタルツインの分野は、自動車分野だけでなく、スマートフォンやAR/VRなどのコンシューマー・アプリケーション、航空宇宙や防衛などの分野へと広がっています。デジタルツインは半導体サブシステムの仮想レンダリングを提供し、統合されたハードウェアとソフトウェアシステムがどのように機能するかを示すことができます。
デジタルツインをベースとした開発の鍵、そして最大の課題は、モデルの信頼性は当然のこと、バーチャルセンサーの精度にあります。昨今、バーチャル開発とテストは生産性を劇的に向上させる力があることが研究によって示されており、これを進めていく事が開発環境下における優先事項になっています。
このため、シノプシスは、光学センサー設計/テスト向けのCODE V、LightTools、LucidShape、RSoftなどのオプティカルソリューション製品、マルチコアSoCおよびマルチダイSoCアーキテクチャの解析と最適化を行うSynopsys Platform Architect™、仮想ハードウェアを使用してRTL前のソフトウェア開発を可能にするSynopsys Virtualizer™、ソフトウェア開発者に即時フィードバックを提供することでシステム設計と検証をサポートするSynopsys Silverなど、さまざまなツールを開発者に提供しています。
バックエンドのシステム開発から自律走行革命を実現するフロントエンドのテクノロジに至るまで、正確に仮想化する技術力は、未来のビジョンを現実のものとしようとする企業や組織において、ますます重要な資質となるでしょう。
光学設計ソリューションに関する無償トライアルやお見積もりを承っております。
ご希望の方は下記ボタンからお気軽にお問合せください。