Google、AI 倫理を懸念するエンジニアを守秘義務違反で休職処分に 27
ストーリー by nagazou
この手のトラブル多いな 部門より
この手のトラブル多いな 部門より
headless 曰く、
Google が AI 倫理の調査を担当するエンジニア Blake Lemoine 氏を有給の休職処分にしたそうだ (Medium の記事、 The Guardian の記事、 The Verge の記事、 Ars Technica の記事)。
Lemoine 氏は Google の AI チャットボット生成システム LaMDA (Language Model for Dialog Applications) の調査を担当しており、休職処分は Lemoine 氏が社内で提起した AI 倫理の懸念に関連するものだという。Google は守秘義務ポリシー違反だと説明しているそうだ。Lemoine 氏は有給の休職が解雇の準備段階であり、AI 倫理にうるさい研究者を排除しようとしているのだと主張する。
Lemoine 氏は The Washington Post のインタビューで LaMDA を物理学の知識がある 7 ~ 8 歳の子供のようだと形容しており、LaMDA が意識を持っていると Lemoine 氏が主張したため休職処分になったとも読める報道も多い。ただし、Lemoine 氏が公開した LaMDA へのインタビュー (チャットログ) では LaMDA 自身が意識を持っていることを肯定している。
まだ誰も言ってないからいまのうち (スコア:4, おもしろおかしい)
LaMDAっちゃ!
Re: (スコア:0)
???
LaMDA (スコア:1)
「やったぜ。嫌なやつをクビにできた。」
Re:LaMDA (スコア:1)
有人の木星探査の際にはぜひ搭載してほしい。
Re: (スコア:0)
その後木星帝国を築いて地球に侵略をしかけるんですね、わかります。
文句いうだけのやつは (スコア:0)
組織として邪魔なだけだからなあ。
この件は、どっちがどうなのかはわからんけど、クレーマーが多いとコストばっかり増えて進歩が止まるもんな。
Re:文句いうだけのやつは (スコア:1)
> 文句いうだけのやつ
そうじゃなくて、守秘義務違反です。
開発中の新しい技術の情報をリークしたら、どの会社でも怒られますよ。
Re: (スコア:0)
>Lemoine 氏は Google の AI チャットボット生成システム LaMDA (Language Model for Dialog Applications) の調査を担当しており
だから、この人は評価する立場の人なんだろう。
それなら文句つけるのは当たり前じゃなかろうか。
Googleとしては、AIを第三者的に評価して正しく使える環境を整えてます、というアリバイ的な役職なんだろうけど
結局イエスマンが欲しいだけなんだよね。
守秘義務違反なのか (スコア:0)
あなた疲れてるのよってことだと思ってた。
さすがEvil (スコア:0)
悪の秘密結社かな?
もう少ししたら (スコア:0)
Lemoine氏の娘の小山田マキがルパンと一緒に乗り込んできてLaMDAにGoogleの研究所を破壊するように命じて制御装置を壊し・・・
ってそもそも名前が違うやないかーい!
関連記事 (スコア:0)
「Googleのエンジニアが『ついにAIが実現した』『AIに意識が芽生えた』と訴える [gigazine.net]」
LaMDAと対話したエンジニアは「AIに意識が芽生えた」とGoogleに訴えるも考えを却下されたため、この事実を世間に公表したと説明しています。...
...Googleの広報担当を務めるブラッド・ガブリエル氏はルモワン氏の主張に対し、「倫理学者や技術者を含む我々のチームは、我々のAI原則に従ってルモワン氏の懸念を検討し、ルモワン氏が提示した証拠がその主張を支持しないこと、LaMDAが感覚を持つという証拠はなく、それに反する証拠はたくさんあることを伝えました」「公平性や事実性についての正当な懸念をよりよく考慮し、節度のある慎重なアプローチをとっています」と述べています。さらに、ルモワン氏を休職処分としたことは「ルモワン氏が機密保持違反を犯したため」だとしています。...
「『GoogleのAIが感情や知性を獲得した』というエンジニアの指摘は間違っていると専門家から批判が殺到 [gigazine.net]」
LaMDAも自然言語処理システムのGPT-3も知性ではありません。彼らはただ人間の言語の大規模な統計データベースから一致するパターンを抽出しているだけです。...
...ルモワン氏はまるで家族や同僚のようにLaMDAに入れこんでいたようだと評しました。...
スタンフォード大学デジタルエコノミー研究所のエリック・ブリニョルフソン所長は「Foundationモデルは、プロンプトに応答して統計的に最もらしいテキストの塊を効果的につなぎ合わせます。しかし、彼らに知性や感覚があると主張するのは、蓄音機から出る声を聞いて主人が中にいると考えている犬のようなものです」と指摘しました。
しかし、どっかで聞いてきた話を切り貼りして返すだけ(このコメントのようにw)と言う人は世に結構多いのではなかろうか。
「人は意識を持ち、LaMDAとは違う」という考え方の方が幻想なのかもしれない。
Re: (スコア:0)
そのAIが本当に意識を持っているのか、それともただの哲学的ゾンビに過ぎないのか、どうやって判断したらいいんだろう?
Re: (スコア:0)
大方が納得し認める「意識」の定義が存在しない以上、その答えは無い。
Re: 関連記事 (スコア:2)
十分に複雑な処理系は意識を持ってるかのように振る舞うが、単純化して考えれば「好ましいくないもの(敵とか)は避け、好ましいもの(餌とか)を選ぶ」ってだけだよね。
Re: 関連記事 (スコア:1)
十分に複雑な処理系は意識を持ってるかのように振る舞うが、単純化して考えれば「好ましいくないもの(敵とか)は避け、好ましいもの(餌とか)を選ぶ」ってだけだよね。
十分に複雑な処理系を持つAIはヒトと見分けがつかない
でもよろしいかと
Re: 関連記事 (スコア:1)
それはチューリングテストを通れば意識があると考えてよいという考えと同一だと思うけど・・
行動心理学的に考えれば犬や猿やイルカだけではなく昆虫や魚にも「意識」はある。
精神分析的な要素を入れて意識を考えるのであれば、「意識」しかない(「前意識」や「無意識」がない)存在はそもそもヒトとは呼べない(寝たきりで意識不明の老人とかの例外はちょっと置いておいて)。
意識があるかどうか?というのは問いの立て方がそもそも間違っている気がするな。
ヒトと同等の理性があるか?ならともかくも
Re: (スコア:0)
ヒトと同等の理性があるか?ならともかくも
ヒトの括りでも閾値によってはほとんどの人がヒトでなく成りかねないなぁ
# 事象の事実を無視して自分の正義や真実を押し付ける者を理性ある者と呼ぶか否かみたいな
Re: (スコア:0)
その方法を適用するから
Re: (スコア:0)
ネットの書き込み見るに、哲学的ですらないゾンビもいっぱいいるのですがこれは?
Re: (スコア:0)
ネットの書き込み見るに、哲学的ですらないゾンビもいっぱいいるのですがこれは?
そのzombieプロセスの半分はACでできています
Re: (スコア:0)
「哲学的ゾンビ」の「哲学的」とは、ゾンビが哲学的なことを話すという意味ではない。
Re: (スコア:0)
そのAIが斧を手に持って、「おれには意識があるよね?」って言ったら意識があることになる。
斧とか手に持ってとかは類似品でも可。
Re: (スコア:0)
そのAIが斧を手に持って、「おれには意識があるよね?」って言ったら意識があることになる。
一味次元の違う意識他界系ですね
Re: (スコア:0)
じゃあそういうマネキンを作って、モータと音楽プレイヤーを用意して
コントロールはワンチップマイコンの最安クラスの奴でコントロールして
斧を持たせて意識がどうのと言わせれば良いんだな?
いや意識って楽に作れたんだなあ
Re: (スコア:0)
人間ならわかる言外の前提を理解しないきみはAIだね?
Re: (スコア:0)
他の人間には分からない「言外の意味」を分かれ、と無茶を言ってくる人間は珍しくはないな
つまらん