NICOLAS ASFOURI via Getty Images
NICOLAS ASFOURI via Getty Images

米道路交通安全局(NHTSA)が、テスラの運転支援システムAutopilotについて新たな調査を開始しました。これは2018年以降、Autopilotを使用中のテスラ車が停車している緊急車両と衝突する事故が11件発生しており、17人のけが人とさらに1人の死者を出しているため。

NHTSAの欠陥調査部門(ODI)は調査文書で「ほとんどの事故は日没後に発生しており、いずれも事故発生現場では緊急車両の回転灯や発煙筒、電光矢印板、ロードコーンなどで後方への障害物を知らせる措置を講じていたにもかかわらず、Autopilotを使用中のテスラ車がそこへ衝突していたと述べています。

ODIの調査は2014年から2021年までに販売されたAutopilot搭載のModel S / X / 3 / Y、台数にして約76.5万台のEVが対象になります。また問題となる事故は、2018年1月22日から2021年7月10日までの間に9つの州で発生しています。

Autopilotの安全性は以前から疑問視されているところがありました。米国家運輸安全委員会(NTSB)は、2018年に発生したフロリダでの死亡事故で部分的にAutopilotが原因になっていたことを発見しています。また、今年はじめにヒューストンで発生したテスラ車の事故では地元警察は死者がいないと発表していましたが、事故時にテスラ車のアダプティブ・クルーズコントロール機能がオンになっており、衝突直前に30mph(約48km/h)に加速していたことが確認されています。

テスラはAutopilotという誇大広告的な名称はともかく、それを使用している際はドライバーによる「積極的な周囲監視が必要であり自動運転ではない」と警告しています。

NHTSAは調査によってAutopilot使用中のドライバーの運転への関与状態を確認することに関しては「特定のテスラ車による事故の原因をより深く理解できる」と述べ、事故要因の詳細などについても引き続き調査する予定だとしています。

また、現在市販されているすべての自動車は、ドライバー自身が常に操縦できる状態である必要があり、完全な自動運転を実現するものはないことを強調。特定の先進的なドライバーアシストは、ドライバーが衝突を回避するのを手助けしたり、発衝時にその深刻度を軽減したりすることはできるものの、自動車に搭載されているすべての技術や機器と同様、ドライバーはそれらを正しく扱う責任を持たなければならないと述べています。

テスラに批判的なアナリストのゴードン・ジョンソン氏は「テスラのドライバーがAutopilotのリスクを受け入れる」だけでは足りないと述べ、テスラ車の外にいる人、つまり自分が「Autopilotのモルモット」になることに同意していない人たちにも特定の危険性をもたらす可能性を指摘しています。

月曜日に顧客へ記したメモで、この問題はAutopilotユーザーだけではなく、その機能を使用している車で怪我をさせられる可能性のあるテスラ車以外のドライバーにも当てはまると述べています。

今年初め、NTSBはNHTSAに対し、テスラを引き合いに出して自動運転により厳格な規制を行うよう求めていました。NTSBは「テスラは最近、完全な自動運転機能を持つとするレベル2の自動運転システムのベータ版をリリースし、これを公道でテストしているが、監視や報告の義務は限定されている」と述べています。

Source:NHTSA(PDF)

via:Bloomberg