イスラエルのネゲヴ・ベン=グリオン大学(BGU)と富士通の研究チームは、一部の自動運転 / 先進運転支援システム搭載車が停止中の緊急車両に衝突する事故は、システムが「デジタルてんかん発作」を起こすのが原因かもしれないとする研究結果を報告しました。

研究者らは、自動運転 / 先進運転支援システム(ADAS)搭載車の一部が、救急車や消防車のフラッシュ警告灯が視界に入った際に、その方向にある物体をはっきりと認識できなくなる現象が起こると述べ、テレビ画面の明滅で引き起こされる光感受性てんかんになぞらえて「デジタルてんかん発作」と呼んでいます。

自動運転システムやADASの多くは周囲や前方にある障害物を検出するために電波の反射を利用するレーダーや、レーザー光の反射で立体的にオブジェクト検出が行えるLiDARといったリモートセンシング技術を組み合わせています。一方で、カメラを使ったコンピューターイメージングが主体となる自動運転システムを開発している企業もあります。この場合は、車両各部に取り付けたカメラを用いて、人間の目と同じように視覚的に捉えた周囲の状況をAIで処理し、周囲状況を把握します。

研究者らは実験で、いくつかの道路環境において、緊急車両が警告灯を点滅した状態で停車した状態にし、その前でカメラベースのAIシステムがどのように車両を認識するかを確認しました。そしてその結果、警告灯が点滅を繰り返すとAIの物体認識精度が著しく変化することがわかったと述べています。わかりやすく言えば、自動運転 / ADASに搭載されるコンピューターが、警告灯の激しい光の点滅のために、緊急車両が本当に車なのかどうか確信できない「デジタルてんかん発作」状態に陥いるということです。

自動運転 / ADASが目の前にあるものを正しく認識できないのが危険な状況であることは間違いありません。そのまま走行すれば、「自動運転システムを使う車両が目前の緊急車両に衝突する」可能性があります。さらに研究者らはこの現象を悪用して「故意に事故を引き起こす者が表れる可能性」もあるとしました。

これはコンピューターイメージングを主体とする自動運転 / ADASにとっては大きな弱点です。ただ、研究者らはこの実験が自動車メーカーの自動運転 / ADASシステムではなく、Amazonで入手可能な、車に後付けする市販システムのカメラと、オープンソースの物体検出ソフトウェアを使っての実験である点に注意が必要だと述べました。つまり、実際に自動車メーカーが開発・販売しているシステムとは基本的な設計や性能が異なったり、メーカーの製品には追加の安全対策が施されている可能性があるということです。



今回の研究は、テスラのAutopilot使用車両が2008年から2021年の間に16件もの停止中緊急車両との衝突事故を起こしたことをきっかけに行われました。そのため、事故が緊急車両に備えられた警告灯に関連している可能性が高いことは最初からわかっていたと研究者は述べています。また、研究者らは今回の研究で発見した警告灯の影響と、テスラ車が緊急車両に衝突する事故に関係があるかはわからないとも述べています。

米国道路交通安全局(NHTSA)が行った、一連のテスラ車による緊急車両との衝突事故調査の結果は、最終的にテスラによるAutopilotの全面的なリコールに繋がりましたが、AutopilotのようなADASを使用している際の、ドライバーの周囲確認が不十分だったことも原因のひとつとされています。




鄭重声明:本文の著作権は原作者に帰属します。記事の転載は情報の伝達のみを目的としており、投資の助言を構成するものではありません。もし侵害行為があれば、すぐにご連絡ください。修正または削除いたします。ありがとうございます。