パスワードを忘れた? アカウント作成
14041736 story
スラッシュバック

死亡事故が発生したUberの自動運転システム、識別された物体の種類が変わるたびに履歴が破棄されて歩行者の進行方向が予測できなかった 107

ストーリー by headless
断片 部門より
米国家運輸安全委員会(NTSB)は5日、2018年3月にアリゾナ州テンピで発生したUberの自動運転テスト車両による歩行者の死亡事故について、可能性の高い事故原因を決定する19日の委員会開催を前に調査資料を更新した(調査資料リストThe Registerの記事Mashableの記事Reutersの記事)。

2018年5月に公開された事前報告書では、Uberが開発中の自動運転システム(ADS)は衝突のおよそ6秒前に歩行者を不明な物体として検知したものの、緊急ブレーキが必要と判断したのは衝突の1.3秒前であることが判明していた。

今回公開されたADSに関する調査報告書「Vehicle Automation Report」によれば、衝突の5.6秒前から2.7秒前まで歩行者は車両または何らかの物体として交互に識別され、2.6秒前から2.5秒前まで自転車として識別されたものの、1.5秒前には再び不明な物体と識別され、再び自転車として識別されたのは1.2秒前だという。当時のADSでは識別された物体の種類が変わるたびに履歴が破棄される仕組みになっていたため、歩行者がテスト車両の進路に向かって進んできていることを直前まで認識できなかったようだ。また、ADSはテストルート上の交通標識などの情報に基づいてテスト車両を走らせているが、横断歩道以外の場所で横断する歩行者の存在が考慮されていなかったとのこと。

さらに、当時のADSでは衝突を避けるために必要な減速が7メートル毎秒毎秒を超える場合、または加加速度(ジャーク)が±5メートル毎秒毎秒毎秒を超える場合は判断から1秒間は自動ブレーキによる対応を抑制し、オペレーターに操作を任せる仕組みになっていたそうだ。そのため、ADSは衝突の1.2秒前に緊急ブレーキが必要と判断したが、1秒間は何もせず、衝突の0.2秒前になってゆるやかな減速と音声によるオペレーターへの警告を発したとのこと。オペレーターは衝突の0.02秒前にハンドルを握って手動運転に切り替えたが、ブレーキを踏んだのは衝突の0.7秒後となっている。なお、オペレーターの能力に関する報告書「Human Performance Factual」に記載されているテンペ警察の再現実験によれば、85%のドライバーが143フィート手前で歩行者を視認できるため、秒速63.8フィートで走るテスト車両は歩行者の42.6フィート手前で停止できるとの結果が出ている。

Uberではこの事故を受けてADSを修正。緊急時の対応抑制を廃止して緊急ブレーキの加加速度も最大20メートル毎秒毎秒毎秒まで増加させ、識別された物体の種類が変わっても継続的に経路を予測できるよう変更したという。また、ベース車両のVolvo XC90に搭載されている自動緊急ブレーキなどの先進運転支援システムはADSと競合するため自動運転時には無効化されていたが、ADSのレーダーの周波数を変更することで常時有効になった。これらの修正により、同様の条件ではおよそ88メートル手前(4.5秒前)で正確に歩行者を識別できるようになったとのことだ。
  • 一瞬前の俺やアンタは、ホンマに今の俺やアンタと同じなのか?? と云う哲学的な話な訳か??

    ここに返信
  • by Anonymous Coward on 2019年11月09日 12時05分 (#3713422)

    何かしらの異物を進行方向上で確認したら徐行なり停止なりするもんだと思うんだけども
    今回のケースではそれすらしなかったのかな
    人でなければぶつかってもいいだろってもんでもない気がするが

    ここに返信
    • by Anonymous Coward on 2019年11月09日 14時29分 (#3713509)

      「識別された物体の種類が変わるたびに履歴が破棄されて歩行者の進行方向が予測できなかった」って書いてあるでしょ
      進行方向に向かってきてるのかどうか判断できてなかったんだよ

    • by Anonymous Coward

      これが本質だと思う
      最初の車両または他の何かと判断した時点で継続して突撃するのはおかしい

      • 衝突5.6秒前の時点で歩行者はテスト車両が進む車線の2車線左側(現在地点には存在しない左折車線)にいたため、緊急に対応が必要な状況ではありませんでした。しかし、その後も歩行者は横断を続け、1.2秒前には同じ車線に入っています。そのため、それなりに大きい何らかの物体が進路と交差する方向に進んでいる、と判断できれば衝突は回避できただろうという話です。歩行者とテスト車両の位置関係はVehicle Automation Reportの12ページ目に掲載されています。
    • by Anonymous Coward

      「クレームが具体的かつ適切かつ対応必須じゃなければ適当にあしらって無視する」と
      欧米式お客様サポートデスクの精神にに置き換えて考えてみるとよく見る光景

    • by Anonymous Coward

      過去の位置から未来位置を予測することを考えるとどれだけ過去までさかのぼって考えるかは割と難しい問題に思える。
      まず遡る量が増えるとメモリの容量と計算時間が増える。
      さらに様々なノイズや測定誤差で過去のデータに『ハズレ』があった場合に予測結果に及ぼす影響もありえる。
      そして無関係なデータを関連ある一連のデータとみなして処理するのは正しいのかという問題もある。

      • by Anonymous Coward

        そんなん複数回違う方法で判定して「ノイズ」で一致したら捨てればいいし
        まず安全運転ができないのにこの方法だとメモリ使用量が増えるとかコスパ優先に考え始めるのはおかしい

  • by Anonymous Coward on 2019年11月09日 12時09分 (#3713423)

    履歴が破棄されるうんぬんはそこまで大きな問題じゃない

    「横断歩道以外の場所で横断する歩行者の存在が考慮されていなかった」
    という設計上の大欠陥に比べれば些事よ

    ここに返信
    • by Anonymous Coward on 2019年11月09日 12時17分 (#3713433)

      べつに歩行者でもバイクでも(或いはロボットでも象でも)、横断する物体を検知できるんなら問題ない。

      「歩行者」の部分よりは「横断する物体が検出できない」というのが問題でしょう。

      • by Anonymous Coward on 2019年11月09日 12時51分 (#3713457)

        やっぱり「まず種別判定から入る」って設計が根本原因のような…
        LIDAR積んでる意味がない

        • 流石に種別判定から入ってて、変わったら履歴破棄ってのはありえん気がしてきた
          単に移動体追跡に失敗したために何度か見失って再認識をしたときに違う種類に認識をしてた、と言う話が
          記者とかを経るうちにこんな表現になっちゃったんじゃないかな…

        • by Anonymous Coward on 2019年11月10日 12時24分 (#3713867)

          LIDARって、あなたが思うほど精度のいいものじゃないんですよ。
          少なくとも、この事故が起きた時点のLIDARは精度が良くない。
          LIDAR単体ではそれが本当に障害物なのか、アーティファクトなのか判断できない。
          だから画像認識と絡めて総合的に障害物を特定する必要があり、「まず種別判定から入る」なんて処理になる。

          LIDARは距離精度は1cm単位で正確に測れるけど、縦横方向の空間分解能が低い。
          自動運転の開発車によく搭載されてる、Velodyneの円筒形の最高精度の奴で0.1度の角度分解能。
          それでも100m先で20cm弱でしかないから、これ以下のサイズの物は認識できない。
          だから縦横方向の空間分解能が高い普通のイメージセンサーと組み合わせて、お互いの欠点を補ってます。

          もちろん日進月歩で進化してるから、これから出てくるLIDARはもっと精度高くなるでしょう。
          でも、現時点ではこんな精度だというのは知っておいたほうが良いと思う。

    • by Anonymous Coward on 2019年11月09日 13時18分 (#3713474)

      前に
      ・毎日、決められた時間は歩行者専用道路
      ・(歩行者天国の時間帯は)バイク・自転車は走行禁止
      ・それ以外の時間帯は一方通行(2輪は除く、ではない)
      という場所で、歩行者天国の時間帯に一方通行を逆走してきたUber Eatsのバイクに腕をぶつけられて怪我をしたんだけど、Uberに通報したら「交通ルールの違反の報告と、事故の報告はわけてくれ(個別に別の担当が処理する)」と言われて呆れたことが。

      この記事見てるとさもありなんだなあ、とは思う。

    • by Anonymous Coward on 2019年11月09日 12時40分 (#3713449)

      その二つは欠陥としてはほぼ同じもの

      「その場所に障害物が存在するか」「その物体はどの個体であるか」という認知が「その物体が何に見えるか」から発しているのが問題
      最初に「不明な物体」を捉えた瞬間から、物体が最後に確認された位置が全てのセンサー範囲を出るまで、再識別や行動予測はさておいて
      例えば「物体1234番、おそらく自転車」などと同じ物体としてセンサーやシステムの間で追尾を引き継ぐようになっていなければならなかった

      歩行者を横断歩道外で認知する機能が付いていたとしても、「一瞬前まで自転車があった場所に歩行者が生まれたが、どちらに動くか分からない」
      などという判断をしていては意味がなく、「物体2345番の認識が歩行者に変わった。過去の移動履歴を歩行者として計算すると、進路はこう予測される。衝突の恐れがある」と
      時間的な一貫性や履歴を勘案した判断ができなければだめ

      • これやろなぁ
        相手が何だろうがまずぶつかったらやばいわけで、
        なにか分からなけりゃ避けるしかないんだから
        種類が変わったら履歴破棄はあかんすぎるやろう
        むしろこれで結構行けたのなら分別機が優秀なんだろうか

        • by Anonymous Coward

          いちいち飛んで来た木の葉とかビニール袋に反応して急ブレーキ掛けられたらたまらんけど。

        • by Anonymous Coward

          どうだろうな。
          例えば相手が動物なら基本的には轢くことが正解であることが多いし。
          ただ、AIの操舵だと適切な運転ができそうな気もするけど、周辺環境の状況によるか

          • >相手が動物なら基本的には轢くことが正解であることが多いし。
            それはないw

            日本であってもカモシカやイノシシなんか相手に減速せずぶつかったら最悪廃車レベル。
            アメリカならもっとでかいヘラジカやバイソンもいるしクマも道路まで出てくるしで一層危険。

            --

            ψアレゲな事を真面目にやることこそアレゲだと思う。
          • う~ん。
            小動物と人間の子供(二足歩行とは限らない)を区別できるだろうか。

          • by Anonymous Coward

            「動物だから、轢くことが正しい」って判断がアリだとして
            「目の前にあるのは間違いない、動物に間違いない」って判断が前提に来るだろ
            よく分からんけど動物だったので結果オーライでは済まされない

        • by Anonymous Coward

          履歴を「破棄」っつーより「種類を起点に認識してる」って方が近いんではないかなと
          そして「物体がある→なんだろう」ではなく「人間が見える→物体がある」じゃ構文的に逆だよね

    • by Anonymous Coward

      そこはオペレータが対応することに期待してとかなんですかね
      まあオペレータがHulu見ているかもという考慮に比べれば想定してしかるべきケースですよね

    • by Anonymous Coward

      > 設計上の大欠陥
       
      人間側の大欠陥なのではないでしょうか?
       
      AI:ルールを守らない人間は排除

    • by Anonymous Coward

      大欠陥ではあるんだけど、なんとなく事情も分からないではない。
      LIDARの精度が悪い場合、何かがあるように見えてもそれが本当に障害物なのか、障害物のように見えてただの誤検出なのか分からない。
      だから画像認識とかAIを併用して、誤検出かどうか判定するのは普通の事。
      障害物検出のために、その前に画像認識が必要で、そこで「横断歩道以外の場所で横断する歩行者の存在が考慮されていなかった」というのは分かる。

      ただその後、判定不能に陥った後に、停止しなかったのは問題だと思う。
      普通はホワイトリスト方式で、判定不能を警告した後に安全側の処理をするのではないかな。
      ホワイトリスト方式だとまともに走行できないから、ブラックリスト方式にしたとかだと笑えない。

      • by Anonymous Coward

        物体認識するニューラルネットワークは二値の「判定不能」という出力は出さない
        「視野内(200, 200) から(300, 250)の範囲に物体あり」「自転車34%路駐33%その他20%の可能性、なお自信15%」のように出してくる
        それを「その他75%以上なら判定不能とする」「自信75%未満は異常とする」と後段で処理することは可能だが
        それをいくら云々しても「システムが視野内に物体なしと判断した」という風にやりくりすることは難しい

        今回のような事故事例があれば「視野内に障害物あり、なしの2クラス分類をするプログラム」を追加したり
        あるいは「視野内の運転可能エリアを塗りつぶして返すプログラム」を追加したりといった方法で対処することはできる

        • by Anonymous Coward

          >それを「その他75%以上なら判定不能とする」「自信75%未満は異常とする」と後段で処理することは可能だが

          いやいや、ほとんどすべてのDNNのシステムでそういう設計でしょう?
          80%とかある程度の確度をもって判定できなかった場合は判定不能と処理するよ。
          DNN単体で完結しているような実用システムは存在しないでしょう。

    • by Anonymous Coward

      いや大問題だと思うよ……
      ノイズで一瞬識別が乱れる度にイチから状況再認識とか馬鹿じゃねーのか。
      センシング環境をガチガチに整えてるファクトリオートメーション用の画像認識でだってノイズくらい想定するだろと。
      そこいらの野外で多種多様な認識を行うのに履歴破棄とか正気とは思えない。

      正常系以外を著しく軽視してるって意味では同根なんだろうが、にしても無茶苦茶。
      Uberクオリティとはいえここまで突き抜けてるとは………

typodupeerror

アレゲは一日にしてならず -- アレゲ研究家

読み込み中...