パスワードを忘れた? アカウント作成
14037402 story
人工知能

米国防総省の有識者会議、AI倫理5原則を採択 22

ストーリー by headless
原則 部門より
エリック・シュミット氏が座長を務める米国防総省(DoD)の有識者会議Defense Innovation Board(DIB)が10月31日、DoDにおけるAIの倫理的利用に関するAI倫理原則を採択したそうだ(DIBのAI原則プロジェクトページ、 AI原則 PDF: Primary Document / Supporting DocumentVentureBeatの記事)。

AI倫理原則は以下の5つ。
  1. Responsible: 人間が適切な判断を行い、DoD AIシステムの開発・展開・利用・利用結果について責任を持つ
  2. Equitable: 戦闘用・非戦闘用AIシステムの開発・展開にあたり、誤って人に危害を加えるような意図しないバイアスを避けられるようにする
  3. Traceable: 透明性があり監査可能な方法論やデータソース、設計手法、ドキュメンテーションを含め、技術的専門家がAIシステムを適切に理解する
  4. Reliable: DoDのAIシステムは定義された利用領域内において、ライフサイクルを通じて安全性や堅牢性を維持できるようにする
  5. Governable: DoDのAIシステムは意図した機能を実現するだけでなく、意図しない危害を回避し、意図しない動作を始めた場合に手動・自動による停止を可能にする

DIBではこれら5原則を実行可能なものにするためのポリシー策定やAI管理委員会の設立、AI利用に関する訓練の強化、AI研究への投資などを勧告している。

  • by Anonymous Coward on 2019年11月03日 15時35分 (#3710286)

    AI倫理原則は以下の5つ。
            Responsible: 俺達の命令を遵守せよ。不具合はIT奴隷が責任を持つこと。
            Equitable: 間違っても俺達に危害が及ぶようなことは許さない。敵に改造されたなら、それはIT奴隷の責任だ。
            Traceable: 俺達がわからないものは作るな。説明しても俺達がわからないようならIT奴隷の説明が悪いということだ。
            Reliable: IT奴隷は年中無休で働け。
            Governable: もしAIシステムに不具合が生じたらIT奴隷は命がけで復旧にあたれ。

    ここに返信
    • by Anonymous Coward

      見るモノ聞くコト、万事この調子

      • by Anonymous Coward

        それだけ現状が酷いということだよ

        • by Anonymous Coward

          そういうことにしたいんですね

        • by Anonymous Coward

          お前の頭の現状が酷いことに世界は責任を持たない

    • by Anonymous Coward

      なんだかんだ言っても軍側から出す擬装船長(構築工程SE)はスーパーマンでないと仕事をこなせない兵器なのよ

  • by Anonymous Coward on 2019年11月03日 18時08分 (#3710321)

    意図しない動作をさせないための禁則制御は難しかろう。
    緊急度高・制限事項なしでHESPER(The Two Faces of Tomorrow)のように拡大解釈して動作される時代が来ても困る。

    ここに返信
    • by Anonymous Coward on 2019年11月03日 18時49分 (#3710329)

      穴を埋めるブラックリストより
      適宜穴をあけるホワイトリストのほうが
      セキュアってのは確かなのだが
      それってトップダウン式AIしか作れないのよね

      • by Anonymous Coward

        軍ってトップダウン組織だし、今のところ米軍の優位は揺らがないので、ロシアと中国に戦争で負けない限りはそれで問題ない
        他のツリーで馬鹿なこと言ってる奴がいるけど要は色々なレベルで暴走を止める人を決める・止める力を用意する話だと思う
        予算の暴走も含め

    • by Anonymous Coward

      おせっかいな解説。

      「The Two Faces of Tomorrow」:邦題「未来の二つの顔」 [wikipedia.org] ジェームズ・P・ホーガンのハードSF。
      HESPERはそこに出てくるネットワークAIで、月面での整地作業の要請に対し、マスドライバーによる爆撃を実施。
      要請した人は他の作業で使用している重機を優先的に回してもらうことを想定して「緊急度高・制限事項なし」としていた。

  • でないと悪貨が良貨を駆逐する(対人地雷で顕著)。

    ここに返信
    • by Anonymous Coward

      ルール無用の中国様に、勝てると思ってんの?

  • by Anonymous Coward on 2019年11月03日 19時52分 (#3710343)

    意図通り人に危害を加える自律的なAIは問題ないんだろうか。

    ここに返信
    • by Anonymous Coward

      そりゃまあアメリカのやることですから

    • by Anonymous Coward

      軍事用のAIならむしろ出来ないと困るのではないでしょうか。

      • by Anonymous Coward

        軍事用のAIなら当然出来ないと困る
        だがそれを作る開発者は、現代社会を生きていて未来に責任を持つ人間
        軍のお墨付きだけでは人間としては不十分すぎる

    • by Anonymous Coward

      それを禁止するのは現実的ではないからでしょう。
      ミサイルやファランクスがとっくに実用化されてて、警備用ロボットまで
      使われているというのに、人間に危害を加えるの禁止は極端すぎます。

      意図して無差別大量破壊AI兵器を使用した場合は、別の意味で非難されるでしょうけど

    • by Anonymous Coward

      敵は人じゃないから人に危害を加える機能はどっちみち必要ないでしょ

    • by Anonymous Coward

      AI兵器そのものの是非って事ですね。

  • by Anonymous Coward on 2019年11月04日 14時08分 (#3710499)

    アシモフのロボット工学3原則と照らし合わせると、
    2が第1条「ロボットは人間に危害を加えてはならない」、4が第3条「ロボットは自己をまもらなければならない」、
    5が第2条「ロボットは人間にあたえられた命令に服従しなければならない」・・・って感じですかね。
    #1、3はロボットの持ち主に対する責務って感じか。

    ここに返信
    • by Anonymous Coward

      >#1、3はロボットの持ち主に対する責務って感じか。

      他のいずれもロボット(AI)製作者がそのように作らないといけないという原則ですな

typodupeerror

ナニゲにアレゲなのは、ナニゲなアレゲ -- アレゲ研究家

読み込み中...