公開日•更新されました
この記事をシェアする
英国の法律委員会は、自動運転車についてはユーザーではなく自動車メーカーが責任を負うべきだと勧告する報告書を発表した。
英国の法的監視団体は、自動運転車のユーザーは交通安全に関して法的責任を負うべきではないと提案した。
彼らはドライバーではなく「使用者」として分類されるべきであり、危険運転、制限速度超過、赤信号無視などの違反行為に対する責任は免除されるだろう。代わりに、このような場合には自動車メーカーが責任を負うことになります。
ただし、責任を負うユーザーには、保険の加入、荷物の確認、または子供たちのシートベルト着用の確認などの責任が依然としてあります。
新しいガイドラインはイングランド・ウェールズ法委員会とスコットランド法委員会によって提案されており、水曜日に発表された報告書で概要が示されている。
「英国における自動運転車の開発は、旅行に革命をもたらし、日常の移動をより安全、より簡単、より環境に優しいものにする可能性を秘めています」とトゥルーディ・ハリソン運輸次官は述べた。
「しかし、国民の信頼を築くためには、安全性と説明責任に基づいて適切な規制を確実に導入する必要があります。
「そのため、同省はこの独立報告書に資金を提供しており、勧告を十分に検討し、適切に対応することを楽しみにしている。」
スコットランドの法務長官デービッド・バルトス氏は、新法は「技術革新と発展を促進しながら、安全性と説明責任」を確保すると述べた。
自動運転と運転支援の定義に関する混乱
同委員会はまた、自動運転車と運転支援車を明確に区別すべきだと述べた。
同報告書は、「運転支援と自動運転の区別は極めて重要である。しかし現在、多くのドライバーがその境界線がどこにあるのか混乱している。これは危険な可能性がある」と報告書の概要に記している。
同委員会はさらに、「技術が自動運転に十分ではないにもかかわらず、マーケティングによって運転中に道路を監視する必要がないという誤解を招く印象をドライバーに与えれば、この問題はさらに悪化する」と続けた。
批判の焦点となっている電気自動車メーカーのテスラは、「完全な自動運転機能」(現在数百人のテスラユーザーによってテストされている高度な運転支援システムのベータ版)を販売していると述べているが、人間の監視は常に必要とされます。
最近のテスラ論争
テスラは最近、いくつかの物議を醸すエピソードにも関与している。同国でオートパイロットシステムを使用している同社の車両と定置式緊急サービス車両が絡む一連の衝突事故を受け、現在、米国道路交通安全局(NHTSA)による調査を受けている。
カリフォルニア州検察当局は先週、2019年に赤信号を無視して他の車に衝突し、2人を死亡させたオートパイロット中のテスラ車の運転手に対して、自動車過失致死罪で2件の訴追も行った。
部分自動運転システムを使用していた運転手による死亡事故で米国で重罪に問われた初の人物とみられる。
オートパイロット システムはテスラ ドライバーに広く利用可能であり、現在数百人のテスラ ユーザーのみを対象にテストされている完全な自動運転ベータ システムとは異なります。
英国、スコットランド、ウェールズ政府は今後、委員会の勧告を受け入れ、それを施行するための法案を提出するかどうかを決定する予定である。