テスラ、他の車と「無理をして」衝突、自動運転試験の衝突事故でドライバーが主張

公開日

この記事をシェアする

同社の運転支援技術のベータテストに参加していたテスラのドライバーは、今月初めに自分の車が別の車線に「無理に進入」して事故を引き起こしたと主張した。

米国のテスラ運転手が、今月初めに自分の車の「完全自動運転」システムが事故を引き起こしたと主張し、交通安全当局による調査が始まった。

米国道路交通安全局(NHTSA)に提出された告訴状によると、この機能のベータテストに参加していた運転手は、テスラ・モデルYが間違った車線に逸脱し、他の車両に衝突されたと述べた。

「車が間違った車線に進入し、私の車線の隣の車線で別の運転手にはねられた」と運転手は書いている。

運転手の苦情によると、テスラ車は対向車線への曲がりの途中で相手車両に警告したという。

しかし、ドライバーが衝突を避けるためにハンドルを切ろうとしたとき、テスラは「誤った車線に無理に進入し、関係者全員を危険にさらす危険な運転を行った」と彼らは述べた。

ベータテスト

NHTSAの広報担当者はAP通信に対し、NHTSAは11月3日に起きた衝突事故を認識しており、事故の詳細を知るためにテスラと連絡を取っていると語った。

テスラは報道部門を解散したが、コメントの要請には応じなかった。

同社は9月にFSD運転支援システムの新しいベータ版の展開を開始し、当初は同社のアプリのボタンを介して「安全性スコア」の高いテスラ所有者にソフトウェアを提供した。

先月、テスラがソフトウェアに安全性の問題を検出したため、FSD 10.3 のリリースをロールバックしなければならなかったとき、ベータテストでは問題が発生しました。

テスラのイーロン・マスク最高経営責任者(CEO)は当時、「10.3の内部QAで信号での一部の左折での後退が発見された。修正作業中、おそらく明日リリースされる」とツイートした。

この動きに批判的な人々は、訓練を受けていないドライバーに自動運転ソフトウェアのベータ版を提供することは、ドライバーや他の道路利用者を危険にさらす欠陥がソフトウェアに含まれている可能性があるため危険だと主張している。

ベータ テストは、完全な商用リリースの準備が整う前にユーザーによって行われるソフトウェアのフィールド テストです。

テスラは、米国で同社の車と緊急サービス車両が巻き込まれる一連の事故を受け、すでにNHTSAの調査を受けている。

アクセシビリティのショートカットに移動

あなたも気に入るかもしれません