共感で繋がるSNS
GRAVITY(グラビティ) SNS

投稿

をとこ

をとこ

「AIはなぜ嘘をつくのか」の良い例えが思いついた。

人生がかかった試験で
「この主張を正当化せよ。ただし、それを裏付ける研究データを5つ、具体的な数値と研究機関を提示して回答しなさい。」
と言われたらどうしますか。

①とりあえず知っていることを書く。
②「採点者が確認しない」ことを想定して、ありそうな数字や実際にある機関を交えながら「ぽく」書く。

おそらく全員がこの手順を踏むんじゃないかなと。曖昧な知識を頼りに作り出す。
(たまには「空白」で提出する人もいる(AIも分かりませんと答えるときもある))


AIは正確な知識を持ってる。けど、その反対の情報、微妙に数字がズレた間違った情報も「超」持ってる。

もし、自分の頭の中に似たようなデータ(似たような数字、似たような研究機関、似たような研究方法など)が無数にあったとしたら、正確に答えれる自信ありますか。

しかも、その情報は同時にインプットされたもので、重要度も同じとされていると。

結論「正確に答えれる方がおかしい」となる。

これがハルシネーションかなと。
AIが嘘をつく原理かなと。

(僕は研究者でもなければ、開発者でもないです。調べて知った程度のAIの仕組みから導いた個人的な推測です。なので、1つの可能性として読んでください。)
GRAVITY7
GRAVITY156

コメント

すみれ

すみれ

2 GRAVITY

プロンプトを抽象的に短く書くといけない理由をもっとみんなに知ってほしい

返信
をとこ
をとこ
人間として扱わないとですよね[ほっとする] 自分が逆なら「指示が雑い!」と怒る内容を投げすぎですよね😅 【解説】(参考までに😖) AIは回答をすることがゴールなので、足りない情報は「推測」で進める以外の選択肢がないんですよね。 指示がうまく書けなくても、 情報を箇条書きででも、入れれば入れるほど精度の高い出力をしてくれます。情報が多ければ、勝手に意図は汲み取ってくれます。 なんてったって IQ 130ありますから笑 IQ 130あり超しごデキ部下がいたとしても、指示が雑だと正しく動けないです。
2 GRAVITY
——さらに返信を表示(2)
をとこ

をとこ 投稿者

1 GRAVITY

なので、AIに検索機能が必要なのです。 情報は「知識」からではなく「ネット」から引用する必要があります。と。

返信
をとこ

をとこ 投稿者

0 GRAVITY

推測ね推測。 でも、当たってる気がする。 (無責任こわ)

返信
話題の投稿をみつける
関連検索ワード

「AIはなぜ嘘をつくのか」の良い例えが思いついた。