パスワードを忘れた? アカウント作成
この議論は賞味期限が切れたので、アーカイブ化されています。 新たにコメントを付けることはできません。

テスラのAutopilot、月と黄色信号の区別ができない」記事へのコメント

  • ぶっちゃけ今の技術じゃ物体の誤認識なんていくらでもありえるし信用できない。
    「普段」と違うパターンを検出するっていうのはよくあるAIなのにそういう機能乗せてないのかな。もちろんその機能自体も信用はできないけど、そういうのの積み重ねで信用性が生まれてくる。
    なんらかの異常な事態が起きているのにそれについてアラートを出さないというのはどうかんがえてもおかしいよ。

    • by Anonymous Coward on 2021年07月31日 10時15分 (#4081438)

      それは「正常」や「普通」が容易に定義できる時の話だろ……。

      >「普段」と違うパターンを検出する
      「普段」って一体なんだよ。

      「普段どおり」に無限大の可能性がある時には、全てが「普段どおり」に
      含まれるので、「異常」は存在しなくなる。

      親コメント
      • by Anonymous Coward

        普通を定義せずに学習する手段があるんだよ。
        AIを作る側はとにかく大量の生データを用意するだけで、そこにどんなパターンがあるかをAIに分類させる。
        で、そのパターンに当てはまらないのが来たらそれを異常として出力する。

        無限大の可能性を用意したら異常は存在しないけど、自動運転のデータ自体は有限だから異常は存在するんだよ。
        自動運転が認識できない可能性ある異常を見つけるのが目的であって、無限の可能性の中から異常を見つけるのが目的ではない。

        • by Anonymous Coward on 2021年08月01日 9時16分 (#4082026)

          >AIを作る側はとにかく大量の生データを用意するだけで、

          おいおい。

          世界中の道路に対し、霧雨から集中豪雨、台風や砂嵐、降雪や雹、濃霧などの全ての気象条件に加え、事故車両や道路工事による通行止めなどなど、あらゆる全てのパターンについて大量の生データを過不足亡く準備するのを、「データを用意するだけ」って、随分気楽に言ってくれるものだなあ。

          ある程度はVRで学習させたりする話も出てきてるけど、それだけで十分ではないのは、今回の件でも分かるだろ。

          親コメント
        • by Anonymous Coward

          教師無し学習はわかるのですが、
          上記だと走るか止まるかを規定できなくないですか。

あつくて寝られない時はhackしろ! 386BSD(98)はそうやってつくられましたよ? -- あるハッカー

処理中...