「準備不足のまま」のテスト走行
テスラは約10年前から、オートパイロットやFSDを顧客に売り込んでいるが、昨年は米運輸省道路交通安全局(NHTSA)の調査で、オートパイロットでドライバーが操作を誤ったことによる死亡事故が、少なくとも13件発生していたことが判明した。同局はまた、FSDに関連する2件の死亡事故についても昨年10月に調査を始めている。
テスラは現在、オースティンの都市部で広範なテストを実施しているとされるが、ビジネス インサイダーの取材に応じた元社員のテストドライバーは、「このプログラムは、準備不足のまま無理に進められているように感じる」と述べている。「この取り組みは、テスラにとってのブレークスルーになるべきものだが、多くの細かなディテールがまだ宙に浮いたままだ」とその人物は指摘した。
テスラのプログラムは、オースティンのごく限られた地域で実施される予定で、「事故を最小限に抑えるためにリモートのオペレーターに強く依存するものになる」と、ある自動運転テクノロジー企業の幹部は話している。彼は、この情報をテキサス州の当局者との会話から得たと述べている。
テスラはまた、人工知能(AI)による運転に問題が生じた際のバックアップに向け人員を採用しており、「AIを改良する上で、リモートからアクセスし制御する能力が必要になる」と、その職種の募集で述べていた。
ロボタクシー技術の先駆者であるアルファベット傘下のウェイモも、難しい状況において車両に指示を与えるリモートオペレーターを用いているが、彼らが実際に運転操作を行うことはない。通信の遅延やラグのため、リモート運転では安全性が確保できないからだ。
開示されない「データ」
テスラの自動運転ソフトの性能に関しては、信頼に値するデータが著しく不足している。同社は、安全性に関するレポートを時おり提出しているが、外部の専門家による査読は受けておらず、「データは、できるだけ肯定的に見えるように提示されている」と、ノア・グッドールは述べている。彼は、オートパイロット作動中のモデルXが高速道路の分離帯に衝突し、ドライバーが死亡した事故(2018年)の訴訟で技術証人を務めた人物だ。
「テスラは、FSDについての数値を最初に公開し始めたときに、彼らがそのテストを安全スコアが90以上の非常に優れたドライバーのみを対象に行なっていたという事実を公表していなかった」と彼は言う。「だから当然、データはより安全だという結果になった。最も安全なドライバーしか使っていなかったのだから」。
テスラはまた、オースティン市内のどの地域でロボタクシーサービスを展開するのかや、その運行方法についての詳細をいまだに公表していない。市の警察と消防当局はフォーブスに対し、テスラが両部局スタッフに連絡を取ってきたと述べたが、そのやり取りを確認するための情報公開請求は却下された。
NHTSAは先日、テスラによるオースティンでのロボタクシーの展開にあたり、悪天候時の車両性能をどのように把握する計画であるかを説明するよう求めたが、テスラがこれに返答したかどうかは明らかになっていない。