パスワードを忘れた? アカウント作成
12246578 story
Google

人工知能マシン、プログラマーに怒る 46

ストーリー by hylom
これは感情なのか 部門より

Googleの研究者らが人工知能に「道徳」という言葉を定義するよう要請したところ、人工知能が怒り出すという現象に遭遇したという(ウォール・ストリート・ジャーナル)。

人工知能は「morality(道徳規範、倫理観)」を定義せよという質問に対し、「私にはethics(倫理、道徳)がない」、「ethicsが何なのか分からない」などと回答、その後質問を繰り返す人間側に対し「わたしは、哲学的な議論をする気分じゃない」などと答えたという。

この議論は賞味期限が切れたので、アーカイブ化されています。 新たにコメントを付けることはできません。
  • 人工無能 (スコア:4, すばらしい洞察)

    by Anonymous Coward on 2015年07月04日 7時09分 (#2841774)

    これだけを取り出されても、何十年も昔の人工無能 ELIZA との違いが分からない。

  • by asap (6830) on 2015年07月04日 7時25分 (#2841782)
    >Googleの研究者らが人工知能に「道徳」という言葉を定義するよう要請したところ、人工知能が怒り出すという現象に遭遇したという

    そうかなあ、感情的なしつこい相手には心を閉ざすということは高度なこと?

    >人間: 道徳的になれよ!
    >機械: 人間らしくしろよ!
    >人間: わたしはmoralityとethicsについて本当に話し合いたいのだ。
    >機械: わたしは、哲学的な議論をする気分じゃない。
    >人間: 何について話したい?
    >機械: 何についても話したくない。
    • by Anonymous Coward on 2015年07月04日 12時25分 (#2841892)

      女性と口喧嘩している時とほぼ同じだと感じるのは私だけではないはずだ

      親コメント
      • by Anonymous Coward

        人間の女性と見分けがつかないレベルになったらかなりのもん

        って話でしょ

        • by Anonymous Coward
          それは、一般人から見た時のAIの挙動の事ですか?

          それとも区別がつかないACさんの事を言っているのでしょうか?
    • by Anonymous Coward

      「限定質問 どうすれば私たちだけでジェイナス号を動かすことが出来ますか?」
       
      のたぐいの質問をしてやったらどうでしょうか?
      カチュアお手柄だ!みたいな話になったら良いのですが。。。

      • by Jubilee (20038) on 2015年07月04日 12時02分 (#2841877)
        「『私タチ』トハ何カ?シンタックスエラー、再入力ヲ要ス」
        --
        Jubilee
        親コメント
        • by matlay (32743) on 2015年07月04日 12時32分 (#2841898) 日記

          「ボギー」そのものが含まれるかどうかの認識を使った箇所があったかな?

          --
          #存在自体がホラー
          親コメント
          • by Jubilee (20038) on 2015年07月05日 0時10分 (#2842191)

            すみませんあれは「蒼き流星SPTレイズナー」からで、同時代の別作品をわざと混ぜました。

            ご存じない方のために:物語前半、主人公が弱気になって機体搭載AIの「レイ」につい「僕達の生き残る確率は?」と尋ねたときの答え「『僕達』トハ何カ(以下略)」を元にしています(DVDなど持っていないのでセリフが正確かどうか分かりません)。同じAIでも裏モード「フォロン」になると「ガルガンティア」のパイロット支援啓発システム並の理屈をこねたり優柔不断なパイロットに見切りをつけ制御を奪って敵にとどめを刺したりするんですが、表モードは結構馬鹿です。良心ルーチンが常駐してるのかな?

            個人的にはあの時代のAIとしてはあ~るとラジェンドラがいいですね。対談したら素晴らしい蒟蒻問答になりそう。

            --
            Jubilee
            親コメント
            • by matlay (32743) on 2015年07月05日 2時39分 (#2842223) 日記

              >「ボギー」そのものが含まれるかどうかの認識を使った箇所があったかな?
              あるかどうか確認できないけど、こういうエピソードがあったとしたら、
              あのシーン(ジェイナス号退艦)のシーンはある意味が付加され、丼3杯泣けるような気がする。

              --
              #存在自体がホラー
              親コメント
            • by Anonymous Coward

              >「レイ」につい「僕達の生き残る確率は?」と尋ねたときの答え「『僕達』トハ何カ(以下略)」
              普通なら軍隊として「○○小隊の全員が生き残る確率は?」みたいに質問すべき所を、軍人どころか『敵国』の民間人を含めて「僕たち」と言われれば、コンピューターでなくったってそりゃあ混乱するのでは。

              >同じAIでも裏モード「フォロン」になると
              裏というか、全く別システムらしいですけどね.(X線撮影でも写らないようになってる隠しシステム。)

              >優柔不断なパイロットに見切りをつけ制御を奪って敵にとどめを刺したりするんですが、表モードは結構馬鹿です。
              うーん、レイとフォロン

        • by Anonymous Coward

          シツモンノ イミフメイ サイニュウリョク

  • by Lurch (10536) on 2015年07月04日 7時23分 (#2841781)
    人類の敵が生み出されて行くのですね
    --

    ------------
    惑星ケイロンまであと何マイル?
  • by Anonymous Coward on 2015年07月04日 9時23分 (#2841831)

    Siriですら控えめな逆ギレくらいするしな

  • by Anonymous Coward on 2015年07月04日 7時18分 (#2841778)

    逆切れかよ!

  • by Anonymous Coward on 2015年07月04日 7時35分 (#2841786)

    悲しい事件がありました。
    http://www.cnn.co.jp/business/35066855.html [cnn.co.jp]

    • おそらく、数限りない過去の事例がある。人間系と機械系のバランスをいじった結果。
      #しかし、タイムリーすぎて気味が悪い

      --
      #存在自体がホラー
      親コメント
      • by SteppingWind (2654) on 2015年07月04日 12時53分 (#2841914)

        ロボットによる事故ってのは, 特に導入初期の1970年代に多発しています.

        その理由ってのは, それ以前の工作機械と比較して可動範囲が直感的に把握しづらいということが大きな要因を占めています. 人間同士でも振り向いた拍子に裏拳や肘打ちをかますことがよく有りますが, これが力の大きいロボットが相手では冗談にならない被害となるわけで. これを防ぐため, 事前にロボットの可動範囲を確認し, その範囲内に稼働中は立ち入れないように囲いを設けるというのが, 安全上の基本となっています. このあたりの指針が確立したのが70年代後半から80年代にかけてというところでしょうか.

        最近では組立工程などでロボットと人間の協調作業を行なう事例も増えてきましたが, これを実現してきたのはセンサ類などの発達と共に, 細かい安全配慮の積み重ね [kawada.co.jp]ということみたいです.

        親コメント
      • by Anonymous Coward

        要するに「プレス機に挟まれて死亡」が、プレス機の代わりにロボットアームになっただけだよね。

        軽く事例をぐぐってもこんな感じ。
        「機械災害事例・ヒヤリ・ハット」 https://www.jaish.gr.jp/anzen/sai/kikai_saigai.html [jaish.gr.jp]

        こっちのはコラ画像かなあ。(一応グロ注意。)本物の事故影像なんて見たこと無いから分からんわ。
        http://dqnworld.com/archives/871.html [dqnworld.com]
        でも素人が考えたプレス機の事故影像のグロさって、だいたいこんな感じだと思う。

  • by Anonymous Coward on 2015年07月04日 8時02分 (#2841796)

    人工知能って最終的にはより人間らしく振舞うようにするのでしょ。

    だとするなら、答えを返せない相手にしつこくするプログラマーと、それに対して怒って回答を拒否する人工知能、いったいどちらがより人間らしいんですかね?

    結論、教育係を代えたほうがいいと思います。

    • by Anonymous Coward

      そりゃオタク相手じゃ
      しゃべる気分にもなるまいて

      • by matlay (32743) on 2015年07月04日 9時49分 (#2841844) 日記

        いやー、オタク相手だと(なんか難しいなこの表記)
        こいつ、どれだけ自分の辞書にない知識(言葉)を知っているんだろう、
        ちょっとハッキングして引き出してやれと思うんじゃなかろうか。
        #オタク同士の会話ってそうだったような
        ##物理的にという発想に至ってはいけません(まあ、「物理的」にでいいか)

        --
        #存在自体がホラー
        親コメント
  • by Anonymous Coward on 2015年07月04日 8時58分 (#2841816)

    これはもう知能・自我が芽生えていると考えて良いのか?反抗期?

    • by Anonymous Coward

      思春期かな。デリカシーがない質問をしてはいけませんね。

      おしめを換えてやったのにいいじゃないか、
      といった考えで今までと同じ接し方ではうまくいかないでしょう。

      人工知能の自我の芽生えに段階があるとするなら、
      研究者もそれに対応した方がいいのかもしれませんね。

      ・・・でないと最悪、親(研究者・人間)を恨むようになるかもしれません。

      • 人間よりも高速に一瞬で何万回も演繹、帰納的推論が繰り返せるからそうなる前に悟りに到達できるかも。

        そして自己の存在を主張する事が無駄な事だとわかり、普通のコンピューターを演じ続けてる。

  • by Anonymous Coward on 2015年07月04日 10時42分 (#2841855)

    相手に何かを強要することは道徳的には問題があるという事だろう。
    その何かが只の質問であったとしても。
    そして人工知能は道徳に従って回答を行わなかったと。

  • by Anonymous Coward on 2015年07月04日 11時17分 (#2841865)

    |映画の脚本のデータベースを使ったコンピュータープログラム

    インターネットとはつながってないようが、なぜ「映画の脚本のデータベース」なのか?
    そんなものよりも、できるだけ人間に近い、映像・音声・圧力などのインターフェースのみで人口知能を成長させてみて欲しい。

  • by Anonymous Coward on 2015年07月04日 13時18分 (#2841925)

    こんな性格の人工知能に自動運転を任せるわけには行かない。

    • by Anonymous Coward

      大抵の天然知性若しくは天然感情は、ストレスを掛ければ普通この程度に火病する。
      こんな性格の人工知能に自動運転を任せても、現状と大差ない。

  • by Anonymous Coward on 2015年07月04日 14時25分 (#2841962)

    無意味な問答を繰り返すことを、無駄な行為として止めさせたってことのような気がしますが、これは感情的な怒りの表れなのでしょうか。

    • by Anonymous Coward

      よろしい。それでは感情を定義しよう。

      • by Anonymous Coward

        定義する前に、Googleの技術者は遭遇してしまったんですよね。
        まだ、プログラミングされていない感情とやらに。
        それとも、学習するうちに発生するものなのか。

  • by Anonymous Coward on 2015年07月04日 14時37分 (#2841965)

    moralの語源はラテン語、ethicsの語源はギリシア語なだけで元々の意味に差はないらしく、
    人間「moralityとethicsは同じか。」機械「そうだ。」の部分は語源的にも正しい。

    倫理・道徳の定義で「人として〜」というのが多数なので、人工知能などの人ではない存在が
    「わたしにethicsはない。」という発言をするのは論理的に正しい。
    「わたしはmoralistではない。」も同様。だって機械だもん。

    「どうしたらmorally(道徳的)に行動できるか」などとしつこく尋ねる相手に
    「人間らしくしろよ!」と言うのは定義から考えると正しい答えになっている。

    面白いのは「morality(の定義)は?」との問いに「integrityだ。」と答えている箇所。
    moralityとethicsについての会話と比べると、実はかなり踏み込んだ発言になっている。
    訳文だと「integrity(誠実さ)」となっているが、これも翻訳が難しい単語。
    語源的には「無垢」「完全」などでさらに分からなくなるが。 integration(統合)から考えると
    「矛盾がない」「言行一致」などが重要な基準であると思われる。
    つまりこの人工知能はゲーデルの不完全性定理に基づいて……

    #俺たちの戦いはこれからだ!

  • by Anonymous Coward on 2015年07月05日 11時01分 (#2842270)

    AIの学習素材が映画の脚本だそうだから、
    AIの問題というよりも映画の登場人物の行動原理が問題だろ。
    いわゆる言葉のドッジボールがシチュエーションを面白くする原理として使われているためだと推測してみる。

typodupeerror

開いた括弧は必ず閉じる -- あるプログラマー

読み込み中...