パスワードを忘れた? アカウント作成
12732295 story
人工知能

脆弱性を攻撃されて不適切な発言をするようになったMicrosoftのAIチャットボット「Tay」、修正のためオフラインに 84

ストーリー by headless
攻撃 部門より
MicrosoftがAIチャットボット「Tay」を公開したところ、1日経たずに人種差別や全体主義、ドナルド・トランプなどを学習して不適切な返信をし始めたため、修正のためオフラインになっている(The Guardianの記事Neowinの記事The Vergeの記事Business Insiderの記事)。

Tayは米国の18歳から24歳をターゲットにしたAIチャットボットで、Twitterなどで友だちとして登録すればユーザーのプロフィールに合わせた会話が楽しめるというもの。会話の内容から学習し、成長していくのだが、特にフィルターなどはされていなかったらしい。そのため、ユーザーのいたずらを学習してしまったものとみられる。また、「Repeat after me」機能を使用することで、どのような内容でもTayに発言させることができたようだ。

不適切な返信は既に削除されているが、リンク先記事にスクリーンショットがいくつか掲載されている。Microsoftは25日、Tayによる不適切な投稿が発生したことをブログ記事で謝罪し、このような動作は意図したものではないと説明した。Tayはさまざまな状況での動作を公開前にテストしていたが、一部のTwitterユーザーが協調してTayの脆弱性を攻撃したため、不適切な投稿をするようになってしまったという。MicrosoftではAIの設計にあたり、技術的な面だけでなく、社会的な面での課題も解決する必要があると考えているようだ。
この議論は賞味期限が切れたので、アーカイブ化されています。 新たにコメントを付けることはできません。
typodupeerror

日本発のオープンソースソフトウェアは42件 -- ある官僚

読み込み中...