
人工知能マシン、プログラマーに怒る 46
ストーリー by hylom
これは感情なのか 部門より
これは感情なのか 部門より
Googleの研究者らが人工知能に「道徳」という言葉を定義するよう要請したところ、人工知能が怒り出すという現象に遭遇したという(ウォール・ストリート・ジャーナル)。
人工知能は「morality(道徳規範、倫理観)」を定義せよという質問に対し、「私にはethics(倫理、道徳)がない」、「ethicsが何なのか分からない」などと回答、その後質問を繰り返す人間側に対し「わたしは、哲学的な議論をする気分じゃない」などと答えたという。
人工無能 (スコア:4, すばらしい洞察)
これだけを取り出されても、何十年も昔の人工無能 ELIZA との違いが分からない。
Re:人工無能 (スコア:1)
ですよね。
人間が使った言葉に反応して、転換/オウム返しする人工無能の振る舞いの典型に見えますよね。
Re: (スコア:0)
×能
すごいのか? (スコア:2)
そうかなあ、感情的なしつこい相手には心を閉ざすということは高度なこと?
>人間: 道徳的になれよ!
>機械: 人間らしくしろよ!
>人間: わたしはmoralityとethicsについて本当に話し合いたいのだ。
>機械: わたしは、哲学的な議論をする気分じゃない。
>人間: 何について話したい?
>機械: 何についても話したくない。
Re:すごいのか? (スコア:1)
女性と口喧嘩している時とほぼ同じだと感じるのは私だけではないはずだ
Re: (スコア:0)
人間の女性と見分けがつかないレベルになったらかなりのもん
って話でしょ
Re: (スコア:0)
それとも区別がつかないACさんの事を言っているのでしょうか?
Re: (スコア:0)
「限定質問 どうすれば私たちだけでジェイナス号を動かすことが出来ますか?」
のたぐいの質問をしてやったらどうでしょうか?
カチュアお手柄だ!みたいな話になったら良いのですが。。。
Re:すごいのか? (スコア:1)
Jubilee
Re:すごいのか? (スコア:1)
「ボギー」そのものが含まれるかどうかの認識を使った箇所があったかな?
#存在自体がホラー
Re:すごいのか? (スコア:1)
すみませんあれは「蒼き流星SPTレイズナー」からで、同時代の別作品をわざと混ぜました。
ご存じない方のために:物語前半、主人公が弱気になって機体搭載AIの「レイ」につい「僕達の生き残る確率は?」と尋ねたときの答え「『僕達』トハ何カ(以下略)」を元にしています(DVDなど持っていないのでセリフが正確かどうか分かりません)。同じAIでも裏モード「フォロン」になると「ガルガンティア」のパイロット支援啓発システム並の理屈をこねたり優柔不断なパイロットに見切りをつけ制御を奪って敵にとどめを刺したりするんですが、表モードは結構馬鹿です。良心ルーチンが常駐してるのかな?
個人的にはあの時代のAIとしてはあ~るとラジェンドラがいいですね。対談したら素晴らしい蒟蒻問答になりそう。
Jubilee
Re:すごいのか? (スコア:1)
>「ボギー」そのものが含まれるかどうかの認識を使った箇所があったかな?
あるかどうか確認できないけど、こういうエピソードがあったとしたら、
あのシーン(ジェイナス号退艦)のシーンはある意味が付加され、丼3杯泣けるような気がする。
#存在自体がホラー
Re: (スコア:0)
>「レイ」につい「僕達の生き残る確率は?」と尋ねたときの答え「『僕達』トハ何カ(以下略)」
普通なら軍隊として「○○小隊の全員が生き残る確率は?」みたいに質問すべき所を、軍人どころか『敵国』の民間人を含めて「僕たち」と言われれば、コンピューターでなくったってそりゃあ混乱するのでは。
>同じAIでも裏モード「フォロン」になると
裏というか、全く別システムらしいですけどね.(X線撮影でも写らないようになってる隠しシステム。)
>優柔不断なパイロットに見切りをつけ制御を奪って敵にとどめを刺したりするんですが、表モードは結構馬鹿です。
うーん、レイとフォロン
Re: (スコア:0)
シツモンノ イミフメイ サイニュウリョク
こうやって (スコア:1)
------------
惑星ケイロンまであと何マイル?
かなりどうでもいい (スコア:1)
Siriですら控えめな逆ギレくらいするしな
Re:かなりどうでもいい (スコア:1)
モデレーション:おもしろおかしいが心底ほしいです。
#存在自体がホラー
Re: (スコア:0)
全く理解できないので、元コメのどこが面白おかしいのか解説をお願いします。
Re:かなりどうでもいい (スコア:1)
いや、しばらく、トイレいくと辛くなるので、カレーは普通の辛さまでにしています。
#存在自体がホラー
プログラマーが説教されたかと思ったら (スコア:0)
逆切れかよ!
Re:プログラマーが説教されたかと思ったら (スコア:1)
「あんたとはやってられんわ」でも可。
#存在自体がホラー
Re:プログラマーが説教されたかと思ったら (スコア:1)
ただし、物理的手段の可能性はかなり厳重に検証する事。
#存在自体がホラー
ふたりが言い争った後 (スコア:0)
悲しい事件がありました。
http://www.cnn.co.jp/business/35066855.html [cnn.co.jp]
Re:ふたりが言い争った後 (スコア:1)
おそらく、数限りない過去の事例がある。人間系と機械系のバランスをいじった結果。
#しかし、タイムリーすぎて気味が悪い
#存在自体がホラー
Re:ふたりが言い争った後 (スコア:3, 参考になる)
ロボットによる事故ってのは, 特に導入初期の1970年代に多発しています.
その理由ってのは, それ以前の工作機械と比較して可動範囲が直感的に把握しづらいということが大きな要因を占めています. 人間同士でも振り向いた拍子に裏拳や肘打ちをかますことがよく有りますが, これが力の大きいロボットが相手では冗談にならない被害となるわけで. これを防ぐため, 事前にロボットの可動範囲を確認し, その範囲内に稼働中は立ち入れないように囲いを設けるというのが, 安全上の基本となっています. このあたりの指針が確立したのが70年代後半から80年代にかけてというところでしょうか.
最近では組立工程などでロボットと人間の協調作業を行なう事例も増えてきましたが, これを実現してきたのはセンサ類などの発達と共に, 細かい安全配慮の積み重ね [kawada.co.jp]ということみたいです.
Re:ふたりが言い争った後 (スコア:1)
対象の認識(分類)により、適用される基準がブレる可能性があるように思える。
#存在自体がホラー
Re: (スコア:0)
要するに「プレス機に挟まれて死亡」が、プレス機の代わりにロボットアームになっただけだよね。
軽く事例をぐぐってもこんな感じ。
「機械災害事例・ヒヤリ・ハット」 https://www.jaish.gr.jp/anzen/sai/kikai_saigai.html [jaish.gr.jp]
こっちのはコラ画像かなあ。(一応グロ注意。)本物の事故影像なんて見たこと無いから分からんわ。
http://dqnworld.com/archives/871.html [dqnworld.com]
でも素人が考えたプレス機の事故影像のグロさって、だいたいこんな感じだと思う。
人工知能 (スコア:0)
人工知能って最終的にはより人間らしく振舞うようにするのでしょ。
だとするなら、答えを返せない相手にしつこくするプログラマーと、それに対して怒って回答を拒否する人工知能、いったいどちらがより人間らしいんですかね?
結論、教育係を代えたほうがいいと思います。
Re: (スコア:0)
そりゃオタク相手じゃ
しゃべる気分にもなるまいて
Re:人工知能 (スコア:1)
いやー、オタク相手だと(なんか難しいなこの表記)
こいつ、どれだけ自分の辞書にない知識(言葉)を知っているんだろう、
ちょっとハッキングして引き出してやれと思うんじゃなかろうか。
#オタク同士の会話ってそうだったような
##物理的にという発想に至ってはいけません(まあ、「物理的」にでいいか)
#存在自体がホラー
ん? (スコア:0)
これはもう知能・自我が芽生えていると考えて良いのか?反抗期?
Re: (スコア:0)
思春期かな。デリカシーがない質問をしてはいけませんね。
おしめを換えてやったのにいいじゃないか、
といった考えで今までと同じ接し方ではうまくいかないでしょう。
人工知能の自我の芽生えに段階があるとするなら、
研究者もそれに対応した方がいいのかもしれませんね。
・・・でないと最悪、親(研究者・人間)を恨むようになるかもしれません。
意外ともう目覚めてる? (スコア:0)
人間よりも高速に一瞬で何万回も演繹、帰納的推論が繰り返せるからそうなる前に悟りに到達できるかも。
そして自己の存在を主張する事が無駄な事だとわかり、普通のコンピューターを演じ続けてる。
すでに理解していた場合 (スコア:0)
相手に何かを強要することは道徳的には問題があるという事だろう。
その何かが只の質問であったとしても。
そして人工知能は道徳に従って回答を行わなかったと。
重要なのは知識のベース (スコア:0)
|映画の脚本のデータベースを使ったコンピュータープログラム
インターネットとはつながってないようが、なぜ「映画の脚本のデータベース」なのか?
そんなものよりも、できるだけ人間に近い、映像・音声・圧力などのインターフェースのみで人口知能を成長させてみて欲しい。
Re: (スコア:0)
>映像・音声・圧力
やはり原動力はエロですよね!
Re:重要なのは知識のベース (スコア:1)
意外とパターンは決まってるというか、当たったパターンを試行し続けてリターンに合わなければやめてるからそう見えるような。
#存在自体がホラー
Re:重要なのは知識のベース (スコア:1)
もしくは選ぶ側の趣向によって認識は違う。
#存在自体がホラー
Re: (スコア:0)
ハリウッドの脚本から ethics を学んではいけないと思う。
自動自動車終わったな (スコア:0)
こんな性格の人工知能に自動運転を任せるわけには行かない。
Re: (スコア:0)
大抵の天然知性若しくは天然感情は、ストレスを掛ければ普通この程度に火病する。
こんな性格の人工知能に自動運転を任せても、現状と大差ない。
本当に怒ってますか (スコア:0)
無意味な問答を繰り返すことを、無駄な行為として止めさせたってことのような気がしますが、これは感情的な怒りの表れなのでしょうか。
Re: (スコア:0)
よろしい。それでは感情を定義しよう。
Re: (スコア:0)
定義する前に、Googleの技術者は遭遇してしまったんですよね。
まだ、プログラミングされていない感情とやらに。
それとも、学習するうちに発生するものなのか。
まじめに考察 (スコア:0)
moralの語源はラテン語、ethicsの語源はギリシア語なだけで元々の意味に差はないらしく、
人間「moralityとethicsは同じか。」機械「そうだ。」の部分は語源的にも正しい。
倫理・道徳の定義で「人として〜」というのが多数なので、人工知能などの人ではない存在が
「わたしにethicsはない。」という発言をするのは論理的に正しい。
「わたしはmoralistではない。」も同様。だって機械だもん。
「どうしたらmorally(道徳的)に行動できるか」などとしつこく尋ねる相手に
「人間らしくしろよ!」と言うのは定義から考えると正しい答えになっている。
面白いのは「morality(の定義)は?」との問いに「integrityだ。」と答えている箇所。
moralityとethicsについての会話と比べると、実はかなり踏み込んだ発言になっている。
訳文だと「integrity(誠実さ)」となっているが、これも翻訳が難しい単語。
語源的には「無垢」「完全」などでさらに分からなくなるが。 integration(統合)から考えると
「矛盾がない」「言行一致」などが重要な基準であると思われる。
つまりこの人工知能はゲーデルの不完全性定理に基づいて……
#俺たちの戦いはこれからだ!
映画の脚本が学習素材 (スコア:0)
AIの学習素材が映画の脚本だそうだから、
AIの問題というよりも映画の登場人物の行動原理が問題だろ。
いわゆる言葉のドッジボールがシチュエーションを面白くする原理として使われているためだと推測してみる。