米検察、Autopilot 有効時に死亡事故を起こした Tesla 車のドライバーを過失致死罪で起訴 17
ストーリー by nagazou
過失致死 部門より
過失致死 部門より
headless 曰く、
Autopilot 有効時に死亡事故を起こした Tesla 車のドライバーを米ロサンゼルス郡検事が過失致死罪で起訴し、2 月に審理が予定されているそうだ (AP News の記事、 The Verge の記事、 Ars Technica の記事、 The Register の記事)。
2019 年 12 月に発生した事故は、高速道路を降りた Tesla 車が高速で走行を続け、赤信号を無視してホンダ シビックに衝突したというもの。この事故でシビックに乗っていた 2 人は死亡。Tesla のドライバーと乗客は命にかかわらない負傷で病院に運ばれた。検事はドライバーを昨年 10 月に起訴していたが、起訴が判明したのは先週だったという。起訴状で Autopilot の使用には触れられていないが、国家運輸安全委員会 (NHTSA) の調査により、事故当時 Autopilot が有効であったことが確認されているとのこと。
2018 年にアリゾナ州で発生した Uber の自動運転タクシーによる歩行者死亡事故ではテストドライバーが過失致死で起訴されているが、一般に提供されている先進運転支援システム使用中の事故でドライバーが重罪の刑事責任を問われるのは米国初とみられる。
Autopilot 有効時っていうけど (スコア:2)
Autopilot有効時っていうけど、AutopilotだろうがEyesightだろうが、事故って相手を傷つけた場合に責任を問われるのは当たり前じゃないの?
それともAutopilotの場合は運転手は責任を取らなくていいって書いてあるの?
Re: (スコア:0)
日本の法の話ではあるが、
2019年12月1日に施行された道路交通法改正では、一定条件下ではシステムが運転の主体となり、 [goo-net.com]
緊急時には運転者が操作を引き継ぐレベル3の自動運転で発生した事故責任については、
自動車の運転者が責任を負うことが明文化されました。...
...2019年現在、実用化されていない自動運転レベル4以降のシステムは、事故の責任はメーカーの責任とされています。
Tesla [it.srad.jp]
Re: (スコア:0)
テスラ車に荷物だけ積んでマルフォイ君のうちまで運んでねー、ってのはできないのかな、
それやってて事故ったら…さて。
Re: (スコア:0)
責任を誰が負うかに関係無く自動運転だったのかどうかは大事な要素だと思うけど?
これ自動運転を隠して報道していいと思うか?
Re: (スコア:0)
どうだろうね。
autopilot だから責任が重くなるわけでもなく、軽くなるわけでもない。
無関係な事象って扱いじゃないのかね。
責任の所在という観点からは、運転手がくせ毛だったか直毛だったかっていうぐらい関係のない話。
Re: (スコア:0)
一般論として欠陥車を売ればメーカーは責任を問われるよ
追突されると爆発する車とか、カーペットが引っかかって暴走する車とかね
テスラは自動モードで暴走・冒進したり対向車線に突撃したりするって有名だから
まあそれが認定されれば製造物責任はあるんじゃない
Re: (スコア:0)
もう一つテスラは、自動モード時に運転手が危険回避不可能状態を検出自動停車する事にリソースを割く事を、頑なに拒否している(一応は検出できるが容易に回避可能な仕様として、運転手をautopilotに任せる様誘導している)。
Re: (スコア:0)
またデマ流してる
伝え方 (スコア:0)
>Tesla 車が高速で走行を続け、赤信号を無視してホンダ シビックに
なんで、テスラの方は車名を言わないんだろうね。ニュースって外車はメーカー名だけ伝えるよね。
”高級自動車メーカーの車と事故した”もしくは”高級自動車メーカーが事故を起こした”ことを強調したいのかな?
だとしたら、相手がVWやルノーだったらどう伝えるのかな?
それと、
>2018 年にアリゾナ州で発生した...事故
”州”で言われても広すぎるので"市”も伝えればいいのにって思う。
Re: (スコア:0)
>>Tesla 車が高速で走行を続け、赤信号を無視してホンダ シビックに
>なんで、テスラの方は車名を言わないんだろうね。ニュースって外車はメーカー名だけ伝えるよね。
外車って(笑)
APnewsから見て外車てどこの国の車指すの?
>>2018 年にアリゾナ州で発生した...事故
>”州”で言われても広すぎるので"市”も伝えればいいのにって思う。
法律が州ごとだから州は要るけど、それより詳細はどうだっていいでしょ。
Re: (スコア:0)
元記事にある
> highway in his black Model S
Re: (スコア:0)
>2018 年にアリゾナ州で発生した...事故
有名だからググればいくらでも出てくるよ。
事故時に操作していたのかどうかが重要 (スコア:0)
Autopilotは完全ではないので、操作をドライバーに委ねず事故が起きたのか、それとも委ねられた後の操作がまずかったのか。技術的な観点で言えばそこが重要だよね。高速道路の分合流で機器の判断が狂って高速のまま道路外に出てしまったのだとすると、レベル2すらまだ不完全ということになる。レベル2のドライバーはいつでも運転できないとだめだから、事故原因自体はドライバーにあるんだけどね。審理待ちか。
Re: (スコア:0)
自動運転には不完全なレベル2しかないよ
レベル3は既存のレベル2のシステムを弄って動作範囲を減らしただけ
レベル4試作車は異常時即時対応が必須だから定義上では全てレベル2
このレベル制度が機能してない問題は誰がいつ解決すんのかね
まあレベル4系統の進化がない限り誰も手を付けないだろうけど
実際問題として無理がありすぎる (スコア:0)
自動車の自動運転は、元々高度に管制・管理されている航空機と違って、危機的
状況に陥ってから致命的な問題(墜落)になるまでの時間が(平均的に見て)
なさすぎるし、線路上を走るしかない列車とも違って対応可能性がありすぎる
(無理だったと結論付けづらい)。
つまり、自動車の自動運転を人間が監督するなんてのはただ普通に走らせるよりも
難しいどころか、鉄道や航空機より難しいということ。
この根本的な問題を無視して作られた実験室に嬉々として乗ってAutopilot有効に
するような奴は、事故ったら社会的に死ぬ覚悟でいろくらいのもんだと思う。
まともな神経してれば、完全自動運転にするか、追従付きクルコン・オート
ブレーキ程度にするかの2択しかないと思う。
Re: (スコア:0)
現状でも「デッドマン装置」としては使えるのだが、テスラ社はデッドマン検出を頑なに拒否している(今回の死亡事故もその例)。
https://ja.wikipedia.org/wiki/%E3%83%87%E3%83%83%E3%83%89%E3%83%9E%E3%... [wikipedia.org]
kiki (スコア:0)
文春記者
チクリ タレコミはここに↓↓
09036757078