Uberの自律走行タクシーによる歩行者の死亡事故はソフトウェアが歩行者を無視したのが原因との報道 43
ストーリー by hylom
「センサーが検知」はどのレベルだったのか 部門より
「センサーが検知」はどのレベルだったのか 部門より
headless曰く、
3月にアリゾナ州で発生したUberの自律走行タクシーによる歩行者の死亡事故について、ソフトウェアのチューニングが原因だったとThe Informationが報じている(The Verge、Ars Technica、SlashGear)。
自律走行車ではセンサーにより周囲の物体を検知し、回避が必要かどうかの判断を行う。たとえば、道路上で風に舞うコンビニの袋や、通常は動き出すことのない道路脇に置かれたゴミ箱などの物体は回避不要な物体にあたる。そもそも存在しない物体をセンサーが誤検知することもあるという。
Uberのソフトウェアには誤検知や回避不要な物体を無視する機能が備わっており、回避が必要かどうかの判断レベルを調整できるようになっている。The Informationの情報提供者2名によれば、センサーは歩行者を検知していたものの、ソフトウェアが反応不要と判断していたのだという。誤検知と判断されていた可能性もあるようだ。
センサーが検出した物体をより多く回避するよう調整すれば安全性は高まるが、ブレーキングや方向転換が頻発して乗り心地は悪くなる。一方、より多く無視するよう調整すれば乗り心地はよくなるものの、衝突事故の可能性が高まる。ソフトウェアを後者寄りにチューニングし過ぎたことで、歩行者に反応できなかったとUberの経営陣は考えているとのことだ。
プリミティブなセンシング (スコア:2)
センサーなんだから、閾値とか誤検出率とかいう問題は必ず発生する。しかし、この場合はセンシングのレベルが低すぎる。自動運転に要求されるのは、もっとインテリジェントで、対象をディープに把握する能力だと思う。道路の周りで起きていることを、かなり深いレベルで観察、解釈する必要があるはず。
Re: (スコア:0)
Uberの技術力は日本勢やテスラより少し上程度で、ゴミ袋とゴミ袋を持った人間を区別できるような高度なものは作れない
Re: (スコア:0)
その区別ができない程度で公道走らせるって時点で頭おかしい
Re: (スコア:0)
Uberが頭おかしいのは今に始まったことじゃないし、人智を超えた囲碁を指すよりゴミ袋と人間を区別する方が難しいことが理解できないなら首突っ込もうとしても無駄
Re: (スコア:0)
以後よりゴミ袋と人間を区別する方が難しいかどうかなんて問題じゃない
公道を走るのに必須な「人間や障害物等の識別」ができていないのに公道を走らせるのがおかしい
Re: (スコア:0)
そもそも「ゴミ袋」なら避けなくて良い、って判断したならそれもダメダメなんだがな。
ゴミ袋の中身が常に柔らかい物とは限らないからな。
Re: (スコア:0)
残念ながらWeb界隈では対案や数的根拠や実力行使のない反対意見は黙殺して良いというのが常識なので、死者発生ごとに倍の法人税率引き上げでもしなければWeb屋が自動運転を止めることはない
Re: (スコア:0)
前に現在のAIなんて所詮昆虫の脳みそ程度の能力しかないだろって書いたことがあるんですが、この事件はまさしくそこらへんに問題がありましたね。
囲碁や将棋で人間を凌駕出来るのも、きわめて限定された事象しか起こらない世界に加えて、人間より桁違いの先読み処理能力があってのことです。
人間を単なるパターンではなく抽象的に認識できるようにならなければ、今後もこのような事故が起こるんじゃないかと思っています。
Re: (スコア:0)
モラベックのパラドックス [google.co.jp]な。給料が安い仕事の方が、知能が低くてもできる操作の方が、判断よりも認知の方が機械にも簡単だろうという思い込み。一番原始的で、技術水準の差が数百万年に及ぶ認知が一番難しいんだよな。
Re: (スコア:0)
もうB型デバイスでいいじゃんよー
Re: (スコア:0)
S型では駄目ですか?
いいかえると (スコア:1)
「ボーッと、風景を眺めてたので気付かなかった。」
#と、ロボーットが申しております。
##「自、動、運、転、車!」「うるさい。おまえななロボットカーで十分だ」
これも実験 (スコア:0)
自動運転車が人を殺したらどうするべきかというのも、
テストケースとして含めておく必要があると思います
Re: (スコア:0)
なかなか怖いことを言いますね。つまりUberは生体実験をしたわけですね。アリゾナ州市民が被験体ですか。
Re: (スコア:0)
20xx年
あの頃はまだ誰も気がついていなかったんですよ、あれが後のスカイネットの最初の殺人だってね。
Re: (スコア:0)
自動運転スクーター「歩道がすいているではないか…」
Re: (スコア:0)
きっとホンダ製だな。 [honda.co.jp]
パンを食べた枚数なんて覚えてません。
Re: (スコア:0)
その意味では、今回の場合オペレータのわき見運転であって彼が裁きを受けることになるだろうから、あんまりテストにならないな。
より多く回避するよう調整すれば安全性は高まる (スコア:0)
ユーザが設定可能にすればそれでOK
・がんがん行こうぜ
・命大事に
・電池を節約
Re: (スコア:0)
このタクシー車両のユーザーってだれ?
存在しない物体 (スコア:0)
人間の五感では認識できない存在。自動運転カーの鋭敏なセンサーにだけ反応する存在。
という可能性はないだろうか(ない
Re: (スコア:0)
幽霊の存在が立証されるかも!
地縛霊がいると、そこでだけ必ず停止とか。
地縛霊無視機能を付けたら付けたで、死んでないのに幽霊よりも霊的な人や、幽霊なのに閾値より生きてるような霊もでてきたり?
Re: (スコア:0)
逆に人間には見えて自動運転カーには見えなさそうw
Re:存在しない物体 (スコア:1)
自動ドアとか、自動水栓に無視されやすい体質の私としては、まったく笑えないですな
Re: (スコア:0)
ヒント:シックスセンス
Re: (スコア:0)
マジレスすると、こういうものですね。
Adversarial Example [github.io]
人間に感知できないノイズを画像に重畳することで、深層学習に誤認させるという手法。
通学路によくある、子供が飛び出そうとしている看板のような効果を
自動運転車に与えて一時停止させるとか、でてくるかも。
Re: (スコア:0)
オレのこと呼んだ?
#存在感ないけど自動ドアは一応反応する
誤検知 (スコア:0)
運転補助の場合、誤検知が多いと運転者がシステムを切ってしまうので曖昧な場合は問題なしと判断する場合が多いのですが、
人が介入しない前提ならば、曖昧な場合でも危険アリと判断する方がいいように思います。
その辺の話が各国自動車技術会の自動運転ワークグループで出てないというのは考え難いのですが、
今回のはワークグループの指針通りなのか、そんな指針ないのか、指針を無視したのか、そもそも参加してないのか、どれなんでしょう。
Re: (スコア:0)
NHTSAとSAEのレベル定義を一笑に付したWaymoが世界最高峰の自動運転業界で、しかも法執行機関を小さめのライバル企業としか思ってないUberに対して、完全に蚊帳の外の自動車メーカーのWGが提言なんかできるわけないと思うんだけど
Re: (スコア:0)
公道で試験しているのですから、担当行政機関から認可を得ていると思うのですが、
その認可を得るのに、
俺が世界一だから他の連中の連中が決めた基準なんて必要ない。俺様の書いた書類だけ読んどけ。
で通るとも思えないのですけど。
Re: (スコア:0)
その担当行政機関が書いた書類が「機械さんは、疲れてきたら、やすむようにしましょう」みたいなデタラメで、ITの方から散々ネタにされたから、もう当分は書けないんじゃないかな。
Re: (スコア:0)
>曖昧な場合でも危険アリと判断する方がいいように思います。
んなことして、何もないところで急ブレーキかけたり、突然車線変更して幅寄せしてくる
車なんぞ、危険過ぎて公道を走らせられんぞ。
これは画像処理や制御プログラムの完成度が低すぎるという問題であって、
よく分からんものを危険ありと判断すれば解決するような単純な問題じゃないだろう。
Re: (スコア:0)
前提として記事中の"誤検知と判断されていた可能性もあるようだ。"とあるのを受けての書き込みです。
そういう場合の判定のしきい値は運転補助よりも安全方向に振った方がいいように思うけど、そういう方針は決まってないの?と言うことを意図しています。
どんなにセンサーと処理系が進歩しようと、検出してから挙動を決めるまでの時間内には判定できない事象は発生すると考えるべきで、その場合の話です。
いきなり変な挙動起こすのは誤判定の問題ではなく、あなたの言う通り完成度が低いという問題で、それは私の意図している事柄ではありません。
Re: (スコア:0)
真っ平らな灰色の道路という名の板にピンポン球が置かれていて、正面の物体の分類名を答えよ、と聞かれるのを「検知」と呼ぶなら、とりあえずその「検知」に頼ったシステムとしては「検知の信頼度が低い。ブレーキ」という判断ができる。
台風が近づく荒海に灰色のブイが浮いていて、どこからどこに写っているのが何ですか、と聞かれるのが「検知」の実態に近いから、元ACは無理だと言っている。
機械にとって人間は (スコア:0)
ノイズや不確定要素を生み出すジャマな存在なだけだからな
Re: (スコア:0)
それを言うなら世界そのものがノイズ原だぞ
事故は起こるさ (スコア:0)
歩行者を轢くなんてのはまあ大抵は歩行者を無視してるわけなのですが…
人間の場合は「その時、その人のあやまち」として完結していくのに対し
自動走行車は「統一され、意図された処理」として実行されたとも考えられるので、
おなじ惨事に対しておなじように許容できるものなのかどうか、
トロッコ問題のような倫理学的な難しさはありますね。
たとえば白と灰色のストライプ模様の服にまつわる犠牲者が出たとして、
「障害物としての差分をセンサーで認識できなかった」のと
「道路の一部として一律にフィルタリングしていた」のでは
受け手の感想にいくらか異なりが生じるかと思います。
人間の運転では曖昧にされてきた所までむしろ倫理的に追及されるでしょう。
人権がデスレース2000並に低い現代 (スコア:0)
UBERの人権を無視する判断が許されないよ
UBERの方針は
『実験室でスムーズさの自律制御を調整するのはコストがかかるので、人とモノの判別は人力調整を公道で人体実験しながら行います』
『実際の人間使って判断したほうが早いし確実ですよ』
『大丈夫ですよ裁判費用が発生しても人体実験するほうがコスト的に有利ですから』
だったわけでしょ
クルマの乗り心地>無関係の歩行者の人命
って、こんなん見習いがフグ捌く技術の確認にその辺の人使って殺したのと同じでしょ
人間なめんなって話です
Re: (スコア:0)
要するに
実験室で調整したものを公道試験もせずにロールアウトしろってこと?
そっちのほうがびっくりだ
クルマの乗り心地>無関係の歩行者の人命
乗り心地の問題だけじゃなくて、虫とかレジ袋よけてたら近くの車に衝突してしまうってこと
障害物何でもよければいいってもんじゃないのよ。どこかに閾値が必要。
その閾値調整は実験室のCGシミュレータでやれるものじゃないです。
その閾値調整中にドライバーがよそ見するのは論外ですけどね。
Re: (スコア:0)
↑コメに返信:じゃあ人の命はかるくていいの?いつの時代も最重要なはずでしょ?
UBERは、公道検証の前に、高速道路を含む巨大な町レベルの実物実験施設を造ってそこで死ぬほど検証を十分に重ねることは出来たしやってて当たり前でしょ。そしたらソフトのサジ加減が難しいよって低レベルなのに、いきなり市民で試しちゃいますとかって飛躍した判断になりっこないから。
本来何があっても絶対に事故が起きないって、ムネ張って言えてから公道実験でしょうよ。
Re: (スコア:0)
日本式ではそれが正しい。
でも、米国式開発手法はちがうんよ。
ある程度固めたら実戦投入して、結果をもとに調整する。
根本から違うのでべき論で話してもしょうがない。
Re: (スコア:0)
テストドライバーが搭乗してたんだから普通の自動車並みの安全レベルは確保できたはずなんだよ。
それでも「絶対事故を起こすな」っていうのなら、永遠に公道を走らせられないしそもそも自動車は一台も道を走ることができない。
巨大な実物実験施設を作っても、結局、人を轢かないためには実物の人間で検証するしかないんですよ。
人の命は最重要ですよ(それでも、カネに換算できないとは思わないですが)。将来の死亡事故率を下げるためには、ある程度のリスクを払って人間より優れた自動運転か運転支援の開発を進めるしかないんじゃないですかね。
あくまでも今回の事故の原因は「ドライバーのよそ見」。検出できなかった云々は自動運転システムへの技術的考察でしかなく、事故に至った直接的原因ではない。
誤検知とは一体どういう状態を指すのか (スコア:0)
この記事でもまだ大衆には「カメラで正面に何があるかは見えているんだから、物体が見えたら止まればいいだろう」程度の認識しかないようだから、実際の自動運転向けマシンビジョンの「検知」だの「認識」だのはどういうものか動画で示しておこう。
SegNet: Road Scene Segmentation [youtu.be]
Full-Resolution Residual Networks (FRRNs) for Semantic Image Segmentation in Street Scenes [youtube.com]
4K Mask RCNN COCO Object detection and segmentation #2 [youtube.com]
「ものが見えたら止まればいい」などという意見はこの意味論的分割の試みを遥かに通り越して、アルゴリズムで道路に何が描かれていようが道路がどう照らされていようが道と障害物が明確に間違いなく区別できているという前提に立っている。そして「ゴミ袋の中身をどう想像すべきか」などと天上遥か先に進んでしまう。そういう明後日方向の意見は人間どころか動物ですらできるのだから簡単に決まっているという思い込みから生まれている。だが実際には、株で何兆円も稼ぐとか、老人と子供のどちらを轢くか後腐れなく決める方法を考えるようなものとは全く異なり、簡単なことではない。