パスワードを忘れた? アカウント作成
15546459 story
犯罪

米検察、Autopilot 有効時に死亡事故を起こした Tesla 車のドライバーを過失致死罪で起訴 17

ストーリー by nagazou
過失致死 部門より
headless 曰く、

Autopilot 有効時に死亡事故を起こした Tesla 車のドライバーを米ロサンゼルス郡検事が過失致死罪で起訴し、2 月に審理が予定されているそうだ (AP News の記事The Verge の記事Ars Technica の記事The Register の記事)。

2019 年 12 月に発生した事故は、高速道路を降りた Tesla 車が高速で走行を続け、赤信号を無視してホンダ シビックに衝突したというもの。この事故でシビックに乗っていた 2 人は死亡。Tesla のドライバーと乗客は命にかかわらない負傷で病院に運ばれた。検事はドライバーを昨年 10 月に起訴していたが、起訴が判明したのは先週だったという。起訴状で Autopilot の使用には触れられていないが、国家運輸安全委員会 (NHTSA) の調査により、事故当時 Autopilot が有効であったことが確認されているとのこと。

2018 年にアリゾナ州で発生した Uber の自動運転タクシーによる歩行者死亡事故ではテストドライバーが過失致死で起訴されているが、一般に提供されている先進運転支援システム使用中の事故でドライバーが重罪の刑事責任を問われるのは米国初とみられる。

この議論は賞味期限が切れたので、アーカイブ化されています。 新たにコメントを付けることはできません。
  • Autopilot有効時っていうけど、AutopilotだろうがEyesightだろうが、事故って相手を傷つけた場合に責任を問われるのは当たり前じゃないの?
    それともAutopilotの場合は運転手は責任を取らなくていいって書いてあるの?

    • by Anonymous Coward

      日本の法の話ではあるが、

      2019年12月1日に施行された道路交通法改正では、一定条件下ではシステムが運転の主体となり、 [goo-net.com]
      緊急時には運転者が操作を引き継ぐレベル3の自動運転で発生した事故責任については、
      自動車の運転者が責任を負う
      ことが明文化されました。...

      ...2019年現在、実用化されていない自動運転レベル4以降のシステムは、事故の責任はメーカーの責任とされています。

      Tesla [it.srad.jp]

    • by Anonymous Coward

      テスラ車に荷物だけ積んでマルフォイ君のうちまで運んでねー、ってのはできないのかな、
      それやってて事故ったら…さて。

    • by Anonymous Coward

      責任を誰が負うかに関係無く自動運転だったのかどうかは大事な要素だと思うけど?
      これ自動運転を隠して報道していいと思うか?

      • by Anonymous Coward

        どうだろうね。
        autopilot だから責任が重くなるわけでもなく、軽くなるわけでもない。
        無関係な事象って扱いじゃないのかね。
        責任の所在という観点からは、運転手がくせ毛だったか直毛だったかっていうぐらい関係のない話。

    • by Anonymous Coward

      一般論として欠陥車を売ればメーカーは責任を問われるよ
      追突されると爆発する車とか、カーペットが引っかかって暴走する車とかね

      テスラは自動モードで暴走・冒進したり対向車線に突撃したりするって有名だから
      まあそれが認定されれば製造物責任はあるんじゃない

      • by Anonymous Coward

        もう一つテスラは、自動モード時に運転手が危険回避不可能状態を検出自動停車する事にリソースを割く事を、頑なに拒否している(一応は検出できるが容易に回避可能な仕様として、運転手をautopilotに任せる様誘導している)。

  • by Anonymous Coward on 2022年01月22日 8時00分 (#4188833)

    >Tesla 車が高速で走行を続け、赤信号を無視してホンダ シビックに
    なんで、テスラの方は車名を言わないんだろうね。ニュースって外車はメーカー名だけ伝えるよね。
    ”高級自動車メーカーの車と事故した”もしくは”高級自動車メーカーが事故を起こした”ことを強調したいのかな?
    だとしたら、相手がVWやルノーだったらどう伝えるのかな?

    それと、
    >2018 年にアリゾナ州で発生した...事故
    ”州”で言われても広すぎるので"市”も伝えればいいのにって思う。

    • by Anonymous Coward

      >>Tesla 車が高速で走行を続け、赤信号を無視してホンダ シビックに
      >なんで、テスラの方は車名を言わないんだろうね。ニュースって外車はメーカー名だけ伝えるよね。

      外車って(笑)
      APnewsから見て外車てどこの国の車指すの?

      >>2018 年にアリゾナ州で発生した...事故
      >”州”で言われても広すぎるので"市”も伝えればいいのにって思う。

      法律が州ごとだから州は要るけど、それより詳細はどうだっていいでしょ。

    • by Anonymous Coward

      元記事にある
      > highway in his black Model S

    • by Anonymous Coward

      >2018 年にアリゾナ州で発生した...事故

      有名だからググればいくらでも出てくるよ。

  • by Anonymous Coward on 2022年01月22日 14時45分 (#4188985)

    Autopilotは完全ではないので、操作をドライバーに委ねず事故が起きたのか、それとも委ねられた後の操作がまずかったのか。技術的な観点で言えばそこが重要だよね。高速道路の分合流で機器の判断が狂って高速のまま道路外に出てしまったのだとすると、レベル2すらまだ不完全ということになる。レベル2のドライバーはいつでも運転できないとだめだから、事故原因自体はドライバーにあるんだけどね。審理待ちか。

    • by Anonymous Coward

      自動運転には不完全なレベル2しかないよ
      レベル3は既存のレベル2のシステムを弄って動作範囲を減らしただけ
      レベル4試作車は異常時即時対応が必須だから定義上では全てレベル2

      このレベル制度が機能してない問題は誰がいつ解決すんのかね
      まあレベル4系統の進化がない限り誰も手を付けないだろうけど

  • by Anonymous Coward on 2022年01月23日 10時56分 (#4189242)

    自動車の自動運転は、元々高度に管制・管理されている航空機と違って、危機的
    状況に陥ってから致命的な問題(墜落)になるまでの時間が(平均的に見て)
    なさすぎるし、線路上を走るしかない列車とも違って対応可能性がありすぎる
    (無理だったと結論付けづらい)。

    つまり、自動車の自動運転を人間が監督するなんてのはただ普通に走らせるよりも
    難しいどころか、鉄道や航空機より難しいということ。

    この根本的な問題を無視して作られた実験室に嬉々として乗ってAutopilot有効に
    するような奴は、事故ったら社会的に死ぬ覚悟でいろくらいのもんだと思う。

    まともな神経してれば、完全自動運転にするか、追従付きクルコン・オート
    ブレーキ程度にするかの2択しかないと思う。

  • by Anonymous Coward on 2022年01月25日 21時20分 (#4190533)

    文春記者 
    チクリ タレコミはここに↓↓

    09036757078

typodupeerror

Stableって古いって意味だっけ? -- Debian初級

読み込み中...