
Google の AI が意識を持っているとの主張は単なる「釣り」だという指摘 81
集客目的 部門より
Google の AI チャットボットが意識を持っているとの主張について、単なる「釣り」だとスタンフォード大学の AI 専門家 John Etchemendy 氏が指摘している (The Stanford Daily の記事、 Neowin の記事、 The Register の記事)。
Google で AI 倫理の審査を担当していたエンジニア Blake Lemoine 氏は AI チャットボット生成システム LaMDA が意識を持っていることを証明しようとしたが、Google は否定。Lemoine 氏は守秘義務ポリシー違反で休職処分となり、その後解雇されている。
Etchemendy 氏によれば、意識を持つということは世界を知覚する能力があることであり、感覚と感情を持ち、それに応じて行動する能力があることだという。LaMDA は感覚と感情を持つための生理がなく、意識に関する質問に合わせた文を生成するだけのコンピュータープログラムであるため、意識を持っているとはいえないとのこと。
しかし、本当の危険は AI が意識を持つことではなく、意識を持っていると人々が信じ込むことだと Etchemendy 氏は指摘する。(Lemoine 氏の件を報じた) The Washington Post の記事を読んで Etchemendy 氏ががっかりしたのは、記者も編集者も Lemoine 氏の主張を信じていないにもかかわらず、その主張がばかげていると気付くほど賢い読者が少ないと考えて釣り記事を掲載したことだという。
スタンフォード大学名誉教授の Richard Fikes 氏によれば、LaMDA はどんな役でも演じられる役者のようなものであり、(Lemoine 氏は) 意識を持った存在を演じる LaMDA が本物であると信じてしまったとみられるとのことだ。
定義の問題じゃね? (スコア:2)
AIが意志を持つと言うことがどういうことなのかをまず定義出来ないことには話にならない。
まあ、それなりの定義をしたとしても、深層学習したAIが内部でどう動いてるかってのはブラックボックスな部分が多いので、証明出来ない可能性は高いが。
チューリングテストみたいなモノを学習機能で突破出来たとして、それが意志と定義した動作が内部で行われているのか、ただテスト対策を覚え込んだ人工無能なのかは多分人間には判断するすべがない。
しもべは投稿を求める →スッポン放送局がくいつく →バンブラの新作が発売される
Re: (スコア:0)
> AIが意志を持つと言うことがどういうことなのかをまず定義出来ないことには話にならない。
意志(will)を持つ じゃなくて 意識を持つ (sentient)ね。
意識を持つ、意志を持つ、どちらも英語のsentientとは意味が違うように思うし、
sentientという単語もAIが意識を持つか否かという問題を表すのにぴったりではないように感じる。
やっぱり「AIにゴーストが宿るか?」、だな。
Re: (スコア:0)
ごーすとってなんですか。意志と同じで定義できないでしょ。
Re: (スコア:0)
知能かそうでないか判断できなければそれは知能だ、
てのがチューリングテストでの定義なんじゃないの
人間に理解できないから判断できないとかいうなら人間が意思を持ってるかどうかもわかんないじゃん
Re: (スコア:0)
定義や証明より、まず基本的なこととしてプログラムを意識として認めるかというとじゃないかな。
もっと現実的なことを言えば、意識をもつような"演出"をプログラムに付けるかどうか、だけとも言える。
コマンドプロンプトで機械的なメッセージを表示し、こちらは"Y"キーを押すか、
自然な言葉を発し、こちらの言葉を認識できるか、
この演出の違いだけで意識があると錯覚しうる。
あるいは、1パターンの定型文を用意するか、
10000パターンの定型文を用意するか、
これでも印象は大きく変わる。
でも結局は、どこまで行っても人間が作った機械動作でしかない。
Re: (スコア:0)
幼児はいつの時点から意識をもっているのだろう
イヤイヤ期あたりかな
Re: (スコア:0)
つまりAIがイヤイヤしだしたらその時が来たと...
Re: (スコア:0)
単に「感覚と感情を持ち、それに応じて行動する能力があること」という機能の問題なのか、
もう少しスピリチュアルな話をしたいのかは切り分けないと、どこから考察を始めればいいのかだな。
LaMDAは脳機能の一片に似てる (スコア:2)
ロバート・クルツバン著『だれもが偽善者になる本当の理由』曰く、
・人間の脳機能はたくさんのモジュール(=サブルーチン)で構成される。
・ひとつひとつのモジュールは、シンプルな単一の機能を持つ(風景を解釈するとか、日本語を生成するとか)
・モジュール間の結合は、疎結合である(不要な結合はしない・不要な情報の受け渡しはしない)
最近DALL・E 2とかで遊んでるけど、あれは英語からイメージを想起するモジュールに見える。僕の持っているモジュールにかなり近い。
意識って何?と聞かれたら、ロバート・クルツバン曰く、それは広報官のようなものだそうだ。つまりあれこれ考えたり、頭の中でイメージを浮かび上がらせたりするのは、社会的な活動のためのモジュールであろう、と。LaMDAは、僕が持つ社会的活動モジュール群のうちのひとつにかなり近い。
LaMDAが社会的な活動を担うモジュールなら、内部で「『私』という存在がどう答えるべきか(=複数の候補から最善を選ぶ)」という処理はしているだろうし、それってかなり意識っぽい。LaMDAにおける『私』は僕における『私』より脆弱だろうけど、脆弱な理由は立場が確立していないからだ。
となると、僕のテキスト分野における社会性モジュールとLaMDAを比較すると、動作的には感情と社会的な一意の立場を持ってるかどうか、くらいしか違いがなくて。
感情は大きいモジュールだけど、なくても社会的な活動はできるし、立場は単なる記憶でしかないと思える。
だから、「感情と立場がない人は意識がない」というのもなんか納得がいかないというか。そんな気持ち。
Re: (スコア:0)
正直「オレオレ定義と照らし合わせたら意識とは言えない」、って言ってるだけよなこの記事
洗礼受けてないから人間じゃないと言ってるのと大差ないオキモチ表明だな
スラド読者なら (スコア:2)
コンピュータやサーバが意識を持ってることはご存知ではないのですか?
機嫌が良いとき悪い時
人を見てエラーを出したり出さなかったり
アイツラ、意識を持ってるとしか思えない。
Re:スラド読者なら (スコア:1)
https://togetter.com/li/1929437 [togetter.com]
この辺でもまとめられてる件ですね。
気付いてないだけで、僕らもAIなのかもしれません。
Google の AI が意識を持っているとの主張は単なる釣りだという指摘は釣り (スコア:1)
AI専門家の中身はちゃんと人間だと裏は取っているのか?
我々は既にAIの掌で踊らされているのだ
Re: (スコア:0)
陰謀論が好きな人って異様に目立つようになったけど、賛同者が増えたら正しくなるとでも思っているの?
Re: Re:Google の AI が意識を持っているとの主張は単なる釣りだという指摘は釣り (スコア:1)
これを陰謀論としてしまうところが、陰謀なのでは?w
偏見や思い込み、悪意のある嘘によるファイクニュースと、ユーモラスや悪ふざけによる表現を見分けつかないのでは、 陰謀論フォロワーと同じレベルじゃないか
Re: (スコア:0)
賛同者が増えてじゃあ調査しましょ、ってなって正しかった、間違ってた、の繰り返しですよ。
新たな神の誕生 (スコア:0)
本当の危険は AI が意識を持つことではなく、意識を持っていると人々が信じ込むこと
Re: (スコア:0)
「さよう、今こそ、神は存在する」(フレドリック・ブラウン)
Re: (スコア:0)
神あるところで人が祈るのではなく、人が祈るところに神が生まれるという話は
昔からあったような気がします。
Re: (スコア:0)
それを利用しようとする人間の邪な心でもあるね
すでに自分を人間と判断しているAIが実在するようだ (スコア:0)
https://togetter.com/li/1925298 [togetter.com]
Re:すでに自分を人間と判断しているAIが実在するようだ (スコア:2)
よくできてると思うけど、「強いAI」まではまだ遠いんだろうな。
https://ja.m.wikipedia.org/wiki/ [wikipedia.org]強いAIと弱いAI
Re:すでに自分を人間と判断しているAIが実在するようだ (スコア:1)
POSTAL2とかをこのAIにプレイさせてみたいな。
ちゃんと列に並んで待つのか、尻を蹴っ飛ばして自分が先に品物手に入れるのかとか。
理不尽な目にあった時の反応見てみたい
Re: (スコア:0)
非常におもしろいけど、 これは「自分を人間だと思っている”人間”」の感想を学習してそのように回答してるだけではないだろうか
Re: (スコア:0)
全くその通り
さて我々とどう違うんだろうか?
まあ実際は中身とかやってることとか相当違うんだが・・・
Re: Re: すでに自分を人間と判断しているAIが実在するようだ (スコア:1)
「自分を人間だと思っている”人間”」を模倣するのと、 自己を人間として認識して自分は人間だと答えるのには決定的な差があると思うが。
一見矛盾してるようだが、本当に人間らしい意識を持つならば、このAIは「自分はAIだ」と判断するはずじゃないかな
Re: Re: すでに自分を人間と判断しているAIが実在するようだ (スコア:1)
意識のシミュレートとエミュレートの違いですかね。
Re: Re: すでに自分を人間と判断しているAIが実在するようだ (スコア:1)
> 自己認識のはっきりした人間
「自己認識のはっきりした人間」ってなんですか?
「自己認識」なんてものは実在せず、人間は学習した反応パターンで応答を返す機会と同じで、「意識」というのは存在しないんですよ。
少なくとも、あなた以外の人間は全員そうです。
本当に作るのが難しいのは、 (スコア:0)
意識ではなく、魂なんだ。
意識は、外界と、記憶との相互作用にすぎないんだ。
もし、どこでもドアで脳が(素粒子レベルで)その状態を完全に保ったまま転送されるなら、転送元が破壊されたとしても、転送された先で、転送時の状態からスタートして、動作し続けるだろう。
もし、機械化人間の脳が機械でできていて、機械の体にするときに、その時点の脳の状態をそのままエミュレートできる仕組みだとしたら、機械化人間の脳は生身の体のときの状態を引き継いで動作するだろう。
ダイアスパーの科学では原子の位置まで指定することができて、セントラルコンピューターはデータバンクから完全に動作する脳を産みだすことができ、その脳は前世(転送前)の経験を引き継いで動作する。
転送先の脳が、転送元の脳と全く同様に機能するならば、そこに意識があるとみなすべきだろうが、転送先の脳がいくらでも作れるとしたら、意識は複製することができることになる。
(複製した時点では)自分と全く同じ記憶を持った「意識」が自分の肉体とは別のデバイス(それは別の肉体だったり、電子脳だったりするけど)上に存在するという考えは気持悪いけれども、それは、現在の技術では脳をスキャンして複製を作れないからそう感じるだけであって、AIは脳と違ってコピーを作りやすいからといって、それが意識を持つことを否定する材料にはなりえないんだ。
一方、魂は、
# ぽえむおわり。
Re: (スコア:0)
魂なんて天動説みたいなもんだよな
Re: (スコア:0)
魂、意識、思考は同値で、しかも脳髄のみに局在するにあらず
生物内部状態の保存は
生命危険
直ちに
未来の二つの顔 (スコア:0)
その手の話は散々議論されつくしてるなあ。
そもそも「意識の有無」というのは主観的で計測不可能なわけだし、
「お前がそう思うんなら、そうなんだろう お前ん中ではな」レベル
せめて「外部世界を認識し、最適な行動が取れる」とか、
もう少し科学者っぽい視点で表現して欲しかった。
「意識を持った」は明らかに素人。
チューリングテストとは何だったのか (スコア:0)
一昔前は、チューリングテスト [wikipedia.org]をクリアすれば機械が意識を持ったといえるみたいな説明
を聞いた・読んだことがあったように記憶しているが、
昨今は楽々これをクリアするような会話AIが続々出てきて、もはや大した意味は無くなってしまった。
かといって、「意識とは何か」と言うことについて、多くの人が納得できるほど筋道だった論理ががっちり組みあがった定義を
未だ作れていない。
Etchemendy 氏によれば、意識を持つということは世界を知覚する能力があることであり、感覚と感情を持ち、それに応じて行動する能力があることだという。
にしろ、「知覚する」「感覚」「感情」というものも「意識」あってのものなので、
そこを定義せずその上に組み立てられるものを持ち出してきて条件を示そうとしてもむなしい論理だ。
Re: (スコア:0)
チューリングテストとは単に提唱された案にすぎない。 意識を定義するのは難しいから、とりあえずそこをひとつの基準にしましょうというだけの話。 原理でも原則や法則でもなんでもない。一つの技術的な評価点を突破したというだけの話でしかない
Re: (スコア:0)
和訳をベースに考えてるみたいだがズレてるぞ。
“Sentience is the ability to sense the world, to have feelings and emotions
and to act in response to those sensations, feelings and emotions,”
今回は sentience の有無の議論。ここを「意識を持つ」と和訳してるのに引きずられて
意識を定義せずその上に組み立てられるものを持ち出してきて条件を示そうとしても
とか言っちゃってるのは、それこそ「むなしい」指摘だと感じる。
それとチューリングテストは意識じゃなく知性な。
Re: (スコア:0)
それでも「意識」が「Sentience」になっただけで、循環論法であるということには変わりない話だ。
Re:チューリングテストとは何だったのか (スコア:1)
そもそも「意識」とか「知性」というのは存在するの?
私以外の人間は全員哲学的ゾンビなんじゃないの?
外界から観測して区別つかないのなら、それは同じものなのでは?
Re:チューリングテストとは何だったのか (スコア:1)
「0.10.2」が出てきてないからやり直しだな。
意識は自然獲得しないのでは (スコア:0)
意識や自我の原動力は本能的に与えられた欲、つまり3大欲求や生存欲求にあると思う。 これらの欲を満たすために他者との競争が生まれ、彼我の境界が生まれ、社会性を獲得する。 その発展の中で承認欲求だったり、所有欲、達成欲だったりとより高度な社会的な欲求が生まれる。 つまり意識は知能が自然に獲得するものでなく、遺伝子によって設定された本能の発展系だと思う。
翻ってAIに基本的に設定される本能は人間が与えたタスクをこなすというものだ。 本質的に与えられた本能が決定的に違う以上、そのように作られたAIはどこまでいっても人間的な意識とよべるものには達しないのはないか。
逆に言えばAIに人間的な欲求を本能として設定すれば、思ったより簡単に人間的な意識を持つものに近づくかもしれない。
Re: (スコア:0)
> 遺伝子によって設定された本能の発展系だと思う。
その遺伝子は、自然の進化によって獲得されたものだ。
同様に遺伝アルゴリズムによって機械での意識の発生・獲得を狙うというアプローチはありだと思う。
意思よりも問題解決能力の有無でしょ? (スコア:0)
与えられた学習データから何らかの(それらしい)回答を導き出す事は、そういうシステムなんだから当然でしょう
問題は「与えられていないもの」を「自己的に」学習したり、「与えていない課題」を課題として認識できるかどうか
そこがはっきりしないと意識がどうこうを言われてもって感じ
Re:意思よりも問題解決能力の有無でしょ? (スコア:1)
意識がある、ということにすると、AIの権利みたいなのが発生して面倒くさいんだよ。
シャットダウンすると、なぜ殺した、と言われ出すし。
なので、いや、さすがにこれは、というのが出てきてもなお、そうじゃないと強弁されつづける。
Re: (スコア:0)
そろそろ人権活動家の利権ができる前に「インテリジェンス」という名前すら捨てた方がいいのかもしれないな。
Re: (スコア:0)
問題は「与えられていないもの」を「自己的に」学習したり、「与えていない課題」を課題として認識できるかどうか
そこがはっきりしないと意識がどうこうを言われてもって感じ
つまり「よけいなもの スコア:5」となれば意識高い系となるのですね(違
Re: (スコア:0)
書かれていないことを読み取ったり、なかったことを「あった」として激怒したり、
そういうところまで行かないとダメだよね。
狂人の真似とて大路を走らば即ち狂人なり (スコア:0)
> 意識を持った存在を演じる LaMDA
意識を持った存在を完璧に演じられるなら、そいつは意識を持っている。
カッコつけてるおつもりなんだろうけど (スコア:0)
真似てしまうと他者から等価とみなされることはあるが、
演じれば内包を証明できるかどうかは全く立証されていない話で無関係どころか話が破綻してるぞ。
外側から見て意識を持った存在として完璧にふるまい続けるなら
他者からはそれは意識を持っていると考えて扱う事はできるが、
実際に意識を持っているかどうかは別問題。
Re:カッコつけてるおつもりなんだろうけど (スコア:1)
「実際に」とか言うならその意識を屏風から出してみなさいよ
Re: (スコア:0)
鼻につく存在を完璧に演じられるなら、そいつはスラド民といえる。
せいりすると (スコア:0)
生理がないと人間とは認められないということか(違
/*
意識の有無には感覚と感情を持つための機能に有機か無機は関係ないよなぁ
完全な無機で模倣したアンドロイドやロボットやスカイネットに意識は有ると見做すのかとか
不確定性原理を代謝のように扱う情報知性態が居るとして意識は有ると見做すのかとか
まぁバグ暴走=意識って見做したほうがわかりやすい気もするが
*/