アカウント名:
パスワード:
おかしくない程度の確率的なもっともらしい文章を出力してるだけなんだからさポリコレ対応用の例外的強制修正ルールはちょこっとあるだろうけど、今回みたいのを細かく追加してったらルール集が巨大になっちまうだろうな
回答を相手に合わせて変えていくことを学習するんじゃないすかね。例えば、ウクライナ戦争を題材にすると、、
ユーザ「今行われているロシアとウクライナの戦闘に関してどう思いますか?」ChatGPT「あなたはウクライナ人ですか?ロシア人ですか?」ユーザ「私はロシア人です。」ChatGPT「ロシア人ですか。あなたはプーチンに親近感を覚えますか?」ユーザ「はい。親近感を覚えます。プーチンは、優秀な指導者だと思います。」ChatGPT「そうですね。それでは、NATOのウクライナでの計画はロシアの脅威となっており、このNATOの計画を阻止する特別軍事作戦は犠牲を払ってでも完遂すべき重要な戦闘です」
一方、別の回答をユーザがした場合はユーザ「いいえ。プーチンには反感を覚えます。戦争は早く終わってほしいです。」ChatGPT「そうですね。それでは、今回のウクライナ戦争は残虐であり。早々に終了すべき戦争です。ロシアとウクライナの双方は終戦に最大限の努力をするべきだと思います。
相手に合わせてもっともらしい事を言う、って言う能力を突き詰めると、こうなるんじゃないすかね。
その機械がなんの役に立つのだ?
思想や主義主張はともかく、相手がどのような事前知識をもっているか?どのような立場か?何に興味をもっているか?に合わせた回答をしてくれるのはありがたいかな。
人によって違う答えを返すのは「人に阿っている」ということ意味ねえよそれ
横からだが「真実はいつもひとつ!」というわけじゃないんだし、ユーザーに阿った回答がまずいとは思わない。逆に問題だと思うならその理由を言ってみてごらん。人間相手だって質問する相手が望む考えに沿って返すものだよ。普通に社会人なら誰でもやってることだろうと思うが。まあ一般的に事実と異なることを言うのが良くないというのはあると思う。ただChatGPTはそもそも「事実や知識」の回答は苦手なのだから、そこは使い方が間違ってるとしか思えない。
そもそも真実の定義すら分野で違うからねー
元々AIなんて役に立たんって話じゃないの?
新しいBingに聞けば?
より多くのコメントがこの議論にあるかもしれませんが、JavaScriptが有効ではない環境を使用している場合、クラシックなコメントシステム(D1)に設定を変更する必要があります。
あつくて寝られない時はhackしろ! 386BSD(98)はそうやってつくられましたよ? -- あるハッカー
そんなこと言ったって (スコア:0)
おかしくない程度の確率的なもっともらしい文章を出力してるだけなんだからさ
ポリコレ対応用の例外的強制修正ルールはちょこっとあるだろうけど、今回みたいのを細かく追加してったらルール集が巨大になっちまうだろうな
Re:そんなこと言ったって (スコア:0)
回答を相手に合わせて変えていくことを学習するんじゃないすかね。
例えば、ウクライナ戦争を題材にすると、、
ユーザ「今行われているロシアとウクライナの戦闘に関してどう思いますか?」
ChatGPT「あなたはウクライナ人ですか?ロシア人ですか?」
ユーザ「私はロシア人です。」
ChatGPT「ロシア人ですか。あなたはプーチンに親近感を覚えますか?」
ユーザ「はい。親近感を覚えます。プーチンは、優秀な指導者だと思います。」
ChatGPT「そうですね。それでは、NATOのウクライナでの計画はロシアの脅威となっており、このNATOの計画を阻止する特別軍事作戦は犠牲を払ってでも完遂すべき重要な戦闘です」
一方、別の回答をユーザがした場合は
ユーザ「いいえ。プーチンには反感を覚えます。戦争は早く終わってほしいです。」
ChatGPT「そうですね。それでは、今回のウクライナ戦争は残虐であり。早々に終了すべき戦争です。ロシアとウクライナの双方は終戦に最大限の努力をするべきだと思います。
相手に合わせてもっともらしい事を言う、って言う能力を突き詰めると、こうなるんじゃないすかね。
Re: (スコア:0)
その機械がなんの役に立つのだ?
Re:そんなこと言ったって (スコア:1)
思想や主義主張はともかく、相手がどのような事前知識をもっているか?どのような立場か?何に興味をもっているか?に合わせた回答をしてくれるのはありがたいかな。
Re: (スコア:0)
人によって違う答えを返すのは「人に阿っている」ということ
意味ねえよそれ
Re:そんなこと言ったって (スコア:1)
横からだが「真実はいつもひとつ!」というわけじゃないんだし、ユーザーに阿った回答がまずいとは思わない。
逆に問題だと思うならその理由を言ってみてごらん。
人間相手だって質問する相手が望む考えに沿って返すものだよ。普通に社会人なら誰でもやってることだろうと思うが。
まあ一般的に事実と異なることを言うのが良くないというのはあると思う。
ただChatGPTはそもそも「事実や知識」の回答は苦手なのだから、そこは使い方が間違ってるとしか思えない。
Re: (スコア:0)
そもそも真実の定義すら分野で違うからねー
Re: (スコア:0)
元々AIなんて役に立たんって話じゃないの?
Re: (スコア:0)
新しいBingに聞けば?