人権侵害関連裁判の判例から判決を予想できる人工知能が開発される 37
ストーリー by hylom
日本語だと対応が難しかったりするのだろうか 部門より
日本語だと対応が難しかったりするのだろうか 部門より
英University College Londonなどの研究者らが、人工知能を使って裁判の結果を予測するシステムを開発した。実験の結果、実際の判決と同じ結果が出た割合は79%に達したという(GIGAZINE、ITmedia)。
実験では欧州人権条約で規定されている人権のうち、「拷問・非人道的待遇または刑罰の禁止」「公正公開の審理と裁判を受ける権利と無罪の推定」「プライバシーの保護」の3つの権利に絞ってこれらに関連する584件の人権侵害事件データを人工知能に学習させ、入力されたテキストに対し「違反」もしくは「違反ではない」という判断を行わせたそうだ。
ただ、似たような事例で司法判断が片方は違反、もう片方は違反ではない、という異なった判決を出したようなケースでは、人工知能は間違った判断を下すケースが多かったという。まだ「ニュアンスの理解」という点には難しいところがあるようだ。
常に新しい状況 (スコア:3)
こういう研究、大量の判例について交差検証して79%という値を出していることが多いけど、
このシステムで当てられる判例は、専門家が見るとかなり明らかにあてられる(100%近く)場合が多い。
すなわち、ニュースにならない「こなす」裁判は8割くらいの確率でAIに置き換えられると
考えていい。
一方、ニュースになるような微妙な判断や、新しい状況などではガクッと正解率(F値)が落ちるのが常。
で、これから行う裁判が、微妙なものや新しい状況を含んでいるかは、審理してみないとわからない。
日本語化については、裁判用語は特許と同じく固定化された厳密な意味を持つ用語で、
多様な表現はかえって嫌われるから、英語と同じくらいの性能は出る。
Re:常に新しい状況 (スコア:1)
問題はそのAIに処理させたほうがいいのか、それとも人間が処理すべきなのか
事前にどうやって判別するかなんじゃない?
今回の研究は答えがわかってるから正答率も判明できたけど、今のままだと実用化
した時にAIが出した答えが妥当かどうか最終的に人間が判断しなきゃならないよね。
従来よりも工数がかからないってんでAIをプリプロセッサみたいに使うってのもアリ
だろうけど…
Re:常に新しい状況 (スコア:1)
# 正答かどうか確率(自信度?)を出せばいいんじゃね?
Re:常に新しい状況 (スコア:1)
例えば、0.1%の確率で人間が出す結果と異なっている可能性がある判決ですと言われて
それを受け入れる被告や原告だったらいいんですけどね… _(:3」∠)_
別の言い方をすれば、正答率99.9%の占いで決めますって言われて納得できるかどうか。
# 微妙だなあww
Re:常に新しい状況 (スコア:1)
Re: (スコア:0)
判決には政権の意向も加味しないといけないしね
Re: (スコア:0)
「被告の受け入れている天下りの数」とか「被告から自民党への献金の額」とかそういうのをパラメータとして入力していいなら
個別の案件についての政権の意向までは入力されなくても「正しく空気を読んで判断」できるようになる気がします。
Re: (スコア:0)
民主集中制(笑)
Re:常に新しい状況 (スコア:1)
判決に行くまでには争点の整理やら事実認定やらが必要なわけでして、実際の訴訟ではそのあたりに時間がかかります。法令や過去の判例に照らした法的判断のあたりで時間がかかる事件というのはまれです。そのまれな事件で、データベースを使っていろいろリサーチしてまとめる作業をAIがやってくれるならそれはそれで裁判官は楽になりますが、まあ、その程度です。
Re: (スコア:0)
日本語化については裁判用語は比較的用語が固定化されていてパースしやすいってのはあるでしょうけど
共通の枠組みで複数の国の判例がある欧州と違って日本では政治的に(侵害がない方向に)ねじ曲げられやすいので
ご都合主義が多すぎてルールをAIが学習できないんじゃないかという気がします。
当事者の政治的背景までパラメータとして入力していいとなった途端に露骨に精度が上がる、みたいな。
Re: (スコア:0)
同じ内容を入力するテキストの書き方によって結果が変わらないことを確認しないと
入力するひとが結果をコントロールできるぞ
元々法律ってのはロジカルに決着つけられるよう設計されてるはず (スコア:1)
第三者が公平に判断するためのルールが則ち法律なわけで、法律がプログラムで、判決は実行ログみたいなものと考えることもできるかと。
残念ながら世の中にあふれる問題はたいていアナログでずっと同じ挙動と言うわけにはいきませんが、比較的はっきりした事例ならAIに初期判断を任せるのはありなのではないかと思う。
その場合、判例学習とは別に、アップデートされ続ける法律の解釈もできる必要がありそうですが。
しもべは投稿を求める →スッポン放送局がくいつく →バンブラの新作が発売される
Re:元々法律ってのはロジカルに決着つけられるよう設計されてるはず (スコア:1)
顔写真を入力に加えるとなぜか精度上がったりして
Re: (スコア:0)
裁判官はますぃーんみたいなもんだしね。
メディアが切り取った事件の一面だけで、不当だ、裁判官は頭おかしいと騒がれるような裁判でも、
大概は判決の全文読めば、まーそうなるわな、と納得することが多い。
Re: (スコア:0)
裁判官なんて出世欲の塊みたいな人が多くて、機械どころじゃないね。
出世のためなら不当判決上等の世界だ。
Re: (スコア:0)
法律や証拠物を論理的に処理して判決を出す仕組みかと思ったら、天気予報と同じで過去のデータから似たような結果を予想するだけらしい。
日本における裁判では、ときおり法律を無視した判決が出されることも珍しくないけど、そういう判例データを取り込んじゃうとまともに機能できないね。
人によって閾値が大きくかわる事案 (スコア:0)
たとえば自分は豚肉を投げつけられても「うへぇ、服が汚れた」で済むけど、敬虔なムスリムなら自殺しかねない案件になる。
他にも江戸時代にあった「踏み絵」のように、特定の宗教の人にだけ精神的ダメージを負わせる方法はいくらでもある。
物理的に殴る蹴るの拷問ならともかく、精神的な苦痛を与える行為に関しては、個人の信仰や思想信条がかなり影響しそうだけど、そういうのを正しく判定できるんだろうか?
信仰に付随するタブーや、それによる精神的ダメージを正確にデータベース化するのって、困難というか事実上無理じゃないかなって思うんだけど。
もっとも脆弱(ダメージが大きい)ケースにあわせてると、何かちょっとやっただけ即座にクロ判定を出すAIにしかならないだろうし。
# 熱々のおでんは拷問ですか?
Re:人によって閾値が大きくかわる事案 (スコア:1)
そういやぁAlphaGoって囲碁のルールを教えられてないんだよね。
ただひたすらプロ棋士の棋譜をひたすら読み込んでプロのように
打つよう学習し、途中からは自ら対戦相手にしてさらに学習を繰り返したと。
つまりなぜこう打つかは分からないが、こう打てば良い結果になる、ということだけ
分かってるわけで、こういう判決に関するAIも細かな内容はどうでもよく(えーwww
良い判決と言われるものを大量に読み込むことによって
その判決がなぜそうなるかはAIである俺は知らない。でもこれが大量の判例から言って
これが正しい判決なんだ!って胸を張って言えるっ!!(ドヤ
…あー、うーん、ものすごいクソシステムになる予感がー(ひい
Re: (スコア:0)
神「そういうクソシステムでも何十億とはびこることができるんすよ。当人たちはただの経験の蓄積を理性だの本質だのと錯覚してるみたいですけどね」
Re: (スコア:0)
囲碁のルールなんて、コウの禁止と自死する石くらいしかないけどな。
強い手を打てれば、自然と嫌でも獲得できるレベル。
Re:人によって閾値が大きくかわる事案 (スコア:1)
別にそのルールが簡単か複雑かなんてどうでもいいんですよ。
問題はそういうルールとまったく関係なく答えを導いて*しまう*ことで
ゲームのように結果が明確な場合はともかく判決のようにどれが正解か人によって
判断が異なるようなものをディープラーニングなAIに放り込むのってどうなん?
てことなんだ。
人以外に人を裁くことができるのかという課題もあるけど、人が教えた機械だからOKとか
そういうのなんかねぇ _(:3」∠)_
Re: (スコア:0)
AIから見れば「豚肉を禁忌とする信仰が存在する」という事実さえ入力されれば、イスラム教の詳細についての情報を知っている必要はないんじゃないかな。
イスラム教に限らず、鶏肉を禁忌とするナントカ教でも、魚肉を禁忌とするカントカ教でも、公正な判断をするなら同じ結論になるはずなんだし。
Re: (スコア:0)
禁忌つっても個人差が大きすぎる
自分の職場にトルコから来たイスラム教徒いたけど、「他人に振る舞われたモノなら豚肉喰ってもOK、だからトンカツ食いに行くときは奢ってね、かわりに何か奢るから」なんて言ってたし、仕事仲間と一緒に実際にトンカツ食いに行ったりしてるよ
そういうレベルで緩いイスラム教徒もいるし、本当に「豚肉を調理した器具に触っただけでアウト」ってレベルのイスラム教徒もいる
当然、その差によって禁忌を犯された時に受けるダメージが違うから、それが拷問になるかは適切な判断なんてできない
日本人はよく「明確な宗教がない」と言われるけ
Re: (スコア:0)
日本人は仏教か神道どちらかって前提のようだけど、俺は一つだけ選ぶならキリスト教だな
別に神社も寺院も行くしモスクだって抵抗はないが。ただ仏教は宗派によっては嫌いだな。曹洞宗がいい
Re: (スコア:0)
人がロジックによって正しく判断出来るなら、コンピュータだって同じロジックで判断できるだろう
人が自分の判断の正しさをロジックで示せないなら、コンピューターの誤まりをロジックで示せないだろう
しかしコンピューターは責任をとらないから、ロジックで示せない問題については、
両論併記して決めないという態度を取れる
人は決めないといけない。正しい答えだろうとそうでなかろうと。
的中率99%超 (スコア:0)
常に「有罪」を出力する。(ただし日本に限る)
Re:的中率99%超 (スコア:1)
といっても、人権侵害裁判なので、日本って警察・検察自体が人権侵害組織みたいなものだから。
人権なんか守ってたら日本の治安は守れないのかもね。
政府の方針への反対運動家たち相手に人権なんか守ってられるか。
Re: (スコア:0)
政府の方針に反対するだけなら自由であるべきだが、役人相手に罵声を吐いたり暴力を振るったり、あるいは不法占拠・道交法違反のような手段に出るやつをどこまで守るべきか、というのは確かに。
実際にやってることは こんなこと [youtube.com]だったりするようだけど、
Re: (スコア:0)
1つの思考実験としてだけど、検察官や刑事裁判の裁判官のコスト等を完全に省いて、警察が逮捕した瞬間に有罪として処理してしまった場合、どれくらいコストが軽減できるんだろう
それによって税金を軽減できたら、場合によっては裁判なんかやらないほうが社会的な負担としては少ないのではないだろうか(おい
# もちろん法治国家としての前提がぶっ壊れるとかそういう問題はあるけど
Re: (スコア:0)
「疑われた」という罪で有罪。
Re: (スコア:0)
それは自称被害者=女性、被疑者=男性の場合ですね
加害者=女性なら、加害者=男性と比較して懲役3割引または無罪
Re: (スコア:0)
#例えが極めて不適当
Re: (スコア:0)
とりあえず池に投げ込んで浮かんで来なければ無罪
浮かんで来たら有罪なので改めて処刑。
#沈んだまま池から脱出するのばOK
Re: (スコア:0)
石をぶつける。
罪が無ければ神のご加護で当たらない。
Re: (スコア:0)
美しい国では刑事訴訟は99%有罪ですが人権侵害訴訟は99%無罪ですよ?
判決の一部を使って判決の結論を予想している。 (スコア:0)
この「人権侵害事件データ」ってのは、判決を出す際に裁判所がまとめた「当事者の主張の要約」なんですね。
「当事者の主張の要約」は裁判の結果がでるまで入手できないので、このAI自体は判決の予測には全く使えません。
そもそも、どちらを勝たせるかによって、裁判所による「当事者の主張の要約」も変わってくる(人権侵害を認める事件では事実に関する記述が長くなる、使われる形容詞が異なる、など)と思われるので、このAIは裁判所が勝訴側・敗訴側の主張をまとめるときに出る癖を学習しているだけかもしれませんし。
ところでこのAIの名前はTayと言いまして (スコア:0)
怖いどころの騒ぎじゃねーぞ