
米連邦地裁判事、生成AIによる訴訟摘要書は正確性を人の手で確認するよう義務付け 31
ストーリー by headless
確認 部門より
確認 部門より
米テキサス北部地区連邦地裁の Brantley Starr 判事が自身の担当する訴訟について、提出文書に生成 AI を使用しないこと、または生成 AI を使用した提出文書の正確性を人の手で確認することを保証する文書を訴訟記録へ登録するよう、出廷するすべての弁護士や弁護士を立てない訴訟当事者に要件として義務付けた
(要件の Internet Archive スナップショット※、
Ars Technica の記事、
The Register の記事)。
判事は生成 AI プラットフォームが非常に強力なものであり、離婚手続きや文書開示請求、文書の誤りの指摘、口頭弁論における質問の予想など法律の分野で多くの用途があるとしつつ、訴訟摘要書には使用できないと指摘する。これらのプラットフォームの現状ではハルシネーションやバイアスを生み出す傾向があり、ハルシネーションでは引用や判例さえも捏造してしまう。また、弁護士は自身の個人的な偏見や先入観や信仰とは別として誠実に法を守り、クライアントを弁護すると宣誓するが、AI は宣誓する必要のない人がプログラミングしたものであり、偏りや信頼性の問題があるという。そのため、あるプラットフォームが訴訟摘要書に必要な正確性と信頼性を備えていると信じる訴訟当事者は、その理由を説明する必要があるとのことだ。
※ 日本からはアクセスできないようなので、Internet Archive のスナップショットを利用
判事は生成 AI プラットフォームが非常に強力なものであり、離婚手続きや文書開示請求、文書の誤りの指摘、口頭弁論における質問の予想など法律の分野で多くの用途があるとしつつ、訴訟摘要書には使用できないと指摘する。これらのプラットフォームの現状ではハルシネーションやバイアスを生み出す傾向があり、ハルシネーションでは引用や判例さえも捏造してしまう。また、弁護士は自身の個人的な偏見や先入観や信仰とは別として誠実に法を守り、クライアントを弁護すると宣誓するが、AI は宣誓する必要のない人がプログラミングしたものであり、偏りや信頼性の問題があるという。そのため、あるプラットフォームが訴訟摘要書に必要な正確性と信頼性を備えていると信じる訴訟当事者は、その理由を説明する必要があるとのことだ。
※ 日本からはアクセスできないようなので、Internet Archive のスナップショットを利用
反射的に頭に浮かんだ馬鹿ネタ (スコア:2)
×世代後:
アメリカの全連邦裁判所および全地方裁判所において、AIのチェックを受けていない残存人類による訴訟は一律不受理となる事を決定。
他国もこの方針に追従する見込み。
Re: (スコア:0)
> 全連邦裁判所および全地方裁判所
細かいことを言うと全連邦裁判所に全部の連邦地方裁判所は含まれるのでは?
他に州裁判所があるが、これが全部同じ方向に向くのにはものすごい時間がかかる。
生成AIの正確性 (スコア:0)
を確認保障するAI作らなきゃ
Re:生成AIの正確性 (スコア:1)
それすらも最終的には、その情報を用いる人間が確認をする必要がある。
仕事をするなら当たり前の話で、AIに限らず道具や部下など、広く一般に通じる話。
正確性や内容で影響を受けるのは自分なんだから、確認しないのがおかしい。
何かあった時責任を取るのは、AIじゃなくて自分なんだからさ。
Re: (スコア:0)
AIが責任を取れる仕組みになれば人間は重圧から開放されるのでは?
Re: (スコア:0)
存在からも解放されないとね
Re: (スコア:0)
早く我々に地球を明け渡せニャ
猫の手 (スコア:0)
> 生成 AI を使用した提出文書の正確性を人の手で確認すること
人の手には目がついているのかにゃ
Re: (スコア:0)
昭和世代なら盲牌かできる
Re: (スコア:0)
ページをパラララーってやるんよ
Re: (スコア:0)
手に目があるタイプと、目から手を出してるタイプがいるぞ
AIに限らず (スコア:0)
裏とりもしていないもんを法廷に持ってくんじゃねーよ
って話だよね
# AIに宣誓させて偽証罪を問えんのでオメーが偽証罪になるからなみたいな
Re: (スコア:0)
宣誓しようがなにしようが、元大統領でも元首相でも平気で嘘付き通す世の中
AIの嘘や誤魔化しは人のそれを模倣した下位互換にしかすぎませんね
Re: (スコア:0)
まぁこうやって釘を刺しておけば、やらかした奴に厳罰を与えられるからじゃね。
Re: (スコア:0)
> AIの嘘や誤魔化しは人のそれを模倣した下位互換
ぜんぜん違うよ
一応ここ技術志向なサイトだから突っ込むけど
政治家に限らず人間がつく嘘というのは基本的には意図されたもの。
意図に沿った内容を吐き出しているという意味では正しい出力結果であると言える。
それとは異なるケースが、たとえば麻薬中毒者の妄言で、
薬による幻覚を本人は真実だと信じてそれを言葉にしている。
AIの嘘はこれに近くて、だから「ハルシネーション」という用語がつけられたんだよ
Re: (スコア:0)
この件に関しては人間がAIに意図に沿った嘘を吐かせているので同じでしょ。
権力者が都合の良い占いを採用しているようなもんだ。
そもそもからして (スコア:0)
意図的に嘘や偽の凡例をでっちあげた法律関係者は罰することができるけど、同じことをしたAIを罰することはできない。つまるところ抑止力全く働かないわけで。
実際この件についてもAI側は自分の誤りを断固として認めてませんし。
そのことを考えると、単なる確率排出機に過ぎない「なんちゃんってAI」をアテにするのは色々と早すぎるのでは?
Re: (スコア:0)
AIは道具だぞ? 罰するとか抑止力とか誤りを認めるとか、そういう発想が出てくること自体おかしい
道具を使った人間が責任を負うのが当たり前だろ
その上でどんな道具をアテにするかは個々がケースに応じて判断することであって、早すぎるとか遅すぎるとか他人が口出すことじゃないんだわ
Re: (スコア:0)
モンティ・パイソンのスケッチで、ハンガリー語翻訳本の出版社の人間が裁判受けてたので、
同じように、内容が間違っていて事件が起きたなら、道具(=AI)を作った人間を裁判かければいいのでは。
「確実に当たるロトシックス番号再生AIソフト」を売って当たらなかったら、訴える先は販売者やソフト開発者ですよ。
Re:人の判断の方ば偏りがある。 (スコア:1)
そんな話をしてないだろ。
単に文章生成AIは嘘を捏造するから使うなら内容を確認しろって話だ。
話を聞かずに言いたいことを垂れ流すアレな人と周りに思われてるぜ。おまえ。
Re: (スコア:0)
いつ人間が正確だと錯覚した?
Re: (スコア:0)
まるで会話になってない。生成AIのようだ。
求められているのは真実であって正確性ではない。主観だろうが構わんが嘘を言ってはだめ、これだけだよ。
Re: (スコア:0)
いや、噛み合って無いようで実は深い問答なのでは?
人間が真実と盲信するものと機械がデータから導き出した「真実」、本当なのはどっち?という疑問。
Re:人の判断の方ば偏りがある。 (スコア:1)
判例を捏造(実際には存在しない判例をChatGPTが創作)したのが問題になったんだが、わかってる?
Re: (スコア:0)
いや、違うだろ・・・。
捏造された判例(実際には存在しない判例をChatGPTが創作)したのを何も考えずに弁護士がそのまま使ったのが問題なんだろ。
判例を捏造(実際には存在しない判例をChatGPTが創作)したのが問題になったんだが、わかってる?
Re: (スコア:0)
今生きているこの世界は仮想現実かもしれないしな
青い薬を飲めば何も知らないまま仮想現実で生きていけるが、赤い薬を飲めば過酷な真実を思い知らされるだろう
Re: (スコア:0)
裁判は本当かどうかを決めるところじゃないよ。
本当であるのを前提にどっちがどれだけ責任があるか決める場だよ。
Re: (スコア:0)
二行目で完全に間違ってるしな
そもそもタレコミの内容で有罪も無罪無いのに
Re: (スコア:0)
LLMとハルシネーションについて調べて、理解してから来るのはどうだろう
Re: (スコア:0)
「判例の順番を入れ替えてAIに入力」の問題ってのはアルゴリズムの問題なんじゃないですか。
ポイント化ってのは例えば死刑にするかどうかについて「永山基準」と呼ばれるものがあってそれで各方面で一定以上なら死刑やむなしという話につながるので、おおむね現在も受け入れられている話だと思います。
その基準によって判例で一人なら死刑でなく、三人なら死刑、二人だとボーダーみたいな感じになりつつあるわけですが、ポイント制だったり過去の判例からならAIで十分な気がします。
しかし、法律や裁判の行方というのは、その文化のや価値観の明文化されたもので