米国防総省の有識者会議、AI倫理5原則を採択 22
ストーリー by headless
原則 部門より
原則 部門より
エリック・シュミット氏が座長を務める米国防総省(DoD)の有識者会議Defense Innovation Board(DIB)が10月31日、DoDにおけるAIの倫理的利用に関するAI倫理原則を採択したそうだ(DIBのAI原則プロジェクトページ、 AI原則 PDF: Primary Document / Supporting Document、 VentureBeatの記事)。
AI倫理原則は以下の5つ。
AI倫理原則は以下の5つ。
- Responsible: 人間が適切な判断を行い、DoD AIシステムの開発・展開・利用・利用結果について責任を持つ
- Equitable: 戦闘用・非戦闘用AIシステムの開発・展開にあたり、誤って人に危害を加えるような意図しないバイアスを避けられるようにする
- Traceable: 透明性があり監査可能な方法論やデータソース、設計手法、ドキュメンテーションを含め、技術的専門家がAIシステムを適切に理解する
- Reliable: DoDのAIシステムは定義された利用領域内において、ライフサイクルを通じて安全性や堅牢性を維持できるようにする
- Governable: DoDのAIシステムは意図した機能を実現するだけでなく、意図しない危害を回避し、意図しない動作を始めた場合に手動・自動による停止を可能にする
DIBではこれら5原則を実行可能なものにするためのポリシー策定やAI管理委員会の設立、AI利用に関する訓練の強化、AI研究への投資などを勧告している。
意訳by俺 (スコア:0)
AI倫理原則は以下の5つ。
Responsible: 俺達の命令を遵守せよ。不具合はIT奴隷が責任を持つこと。
Equitable: 間違っても俺達に危害が及ぶようなことは許さない。敵に改造されたなら、それはIT奴隷の責任だ。
Traceable: 俺達がわからないものは作るな。説明しても俺達がわからないようならIT奴隷の説明が悪いということだ。
Reliable: IT奴隷は年中無休で働け。
Governable: もしAIシステムに不具合が生じたらIT奴隷は命がけで復旧にあたれ。
Re: (スコア:0)
見るモノ聞くコト、万事この調子
Re: (スコア:0)
それだけ現状が酷いということだよ
Re: (スコア:0)
そういうことにしたいんですね
Re: (スコア:0)
お前の頭の現状が酷いことに世界は責任を持たない
Re: (スコア:0)
なんだかんだ言っても軍側から出す擬装船長(構築工程SE)はスーパーマンでないと仕事をこなせない兵器なのよ
Re: (スコア:0)
スパコンと一緒だよ
禁則制限 (スコア:0)
意図しない動作をさせないための禁則制御は難しかろう。
緊急度高・制限事項なしでHESPER(The Two Faces of Tomorrow)のように拡大解釈して動作される時代が来ても困る。
Re:禁則制限 (スコア:1)
穴を埋めるブラックリストより
適宜穴をあけるホワイトリストのほうが
セキュアってのは確かなのだが
それってトップダウン式AIしか作れないのよね
Re: (スコア:0)
軍ってトップダウン組織だし、今のところ米軍の優位は揺らがないので、ロシアと中国に戦争で負けない限りはそれで問題ない
他のツリーで馬鹿なこと言ってる奴がいるけど要は色々なレベルで暴走を止める人を決める・止める力を用意する話だと思う
予算の暴走も含め
Re: (スコア:0)
おせっかいな解説。
「The Two Faces of Tomorrow」:邦題「未来の二つの顔」 [wikipedia.org] ジェームズ・P・ホーガンのハードSF。
HESPERはそこに出てくるネットワークAIで、月面での整地作業の要請に対し、マスドライバーによる爆撃を実施。
要請した人は他の作業で使用している重機を優先的に回してもらうことを想定して「緊急度高・制限事項なし」としていた。
これらの事を順守出来ない企業・国家は責めを負わせる (スコア:0)
でないと悪貨が良貨を駆逐する(対人地雷で顕著)。
Re: (スコア:0)
ルール無用の中国様に、勝てると思ってんの?
誤って人に危害を加えるような意図しないバイアス (スコア:0)
意図通り人に危害を加える自律的なAIは問題ないんだろうか。
Re: (スコア:0)
そりゃまあアメリカのやることですから
Re: (スコア:0)
軍事用のAIならむしろ出来ないと困るのではないでしょうか。
Re: (スコア:0)
軍事用のAIなら当然出来ないと困る
だがそれを作る開発者は、現代社会を生きていて未来に責任を持つ人間
軍のお墨付きだけでは人間としては不十分すぎる
Re: (スコア:0)
それを禁止するのは現実的ではないからでしょう。
ミサイルやファランクスがとっくに実用化されてて、警備用ロボットまで
使われているというのに、人間に危害を加えるの禁止は極端すぎます。
意図して無差別大量破壊AI兵器を使用した場合は、別の意味で非難されるでしょうけど
Re: (スコア:0)
敵は人じゃないから人に危害を加える機能はどっちみち必要ないでしょ
Re: (スコア:0)
AI兵器そのものの是非って事ですね。
ロボット工学3原則 (スコア:0)
アシモフのロボット工学3原則と照らし合わせると、
2が第1条「ロボットは人間に危害を加えてはならない」、4が第3条「ロボットは自己をまもらなければならない」、
5が第2条「ロボットは人間にあたえられた命令に服従しなければならない」・・・って感じですかね。
#1、3はロボットの持ち主に対する責務って感じか。
Re: (スコア:0)
>#1、3はロボットの持ち主に対する責務って感じか。
他のいずれもロボット(AI)製作者がそのように作らないといけないという原則ですな