共感で繋がるSNS

AIはプロンプトの内容を「理解」していると言えるか?

cootarox

cootarox

人も指示の内容を「理解」してると言えるか?
→大体は話半分だよね
哲学哲学
GRAVITY
GRAVITY1
パラミきょうてゃ麻呂

パラミきょうてゃ麻呂

理解してますね。

人間は、自分の経験を含めるので、言葉を正しく理解出来る人は少ない。
3行以上読めない、自分で考えない、読解力もない、文脈や空気も読めない。

そういう人間のことを、理解できないと捉えるなら、むしろAIの方が理解出来ている。
哲学哲学
GRAVITY
GRAVITY5
ベール

ベール

原理的には理解してない。プロンプトに対して最もらしい言葉を確率的に選んでいるだけ。
哲学哲学
GRAVITY
GRAVITY18
はまっち

はまっち

してないな。勉強中
哲学哲学
GRAVITY
GRAVITY1
ゆき

ゆき

言えないけど
使える
哲学哲学
GRAVITY
GRAVITY
てん

てん

理解とは相手に言ったことを相手が自分の望んだ通りに返してくることなのでその観点では理解してると言えます。
AIの処理としては単語を分類し、そこから導かれる高い確率の単語の並びを返答してるだけなので本来の意味では理解してないです。
理解って何なんだろうなと考えさせられます。

チャッピーのような大規模言語モデルと言われるAIの内部処理の「理解」と思われてる部分を少し解説します。チャッピーは入力された文章を単語単位に分け、その単語の並び順から次に来る可能性の高い確率の単語を予測します。
例えば
「今日は良い天気ですね。」といった文の場合、
「今日/は/良/い/天気/で/すね/。」のように振り分けます。
この区切った単語を傾向別に分類します。
「今日・・・時間の傾向
は・・・接続の傾向
良・・・肯定の傾向」
みたいな具合です。
人間はこの行為を意味づけと呼びますが、AIは傾向を分けてるだけで意味を理解してるわけではないです。
そして各傾向と並びから次に来る高確率な単語を予測します。
でもこの文章の出力文は無限にあります。
例えば以下の文章のようなもの。
「そうですね。良い天気ですね。でも夕方から雨が降るので折り畳み傘を持っていくと良いでしょう。」
「そうですね。おでかけにちょうど良い場所を探しましょうか?」
ここで大事なのが、入力者の好みです。
2つの文章のうちどれが好きなのか、チャッピーのカスタマイズや、過去のトーク履歴を参考にしたり、チャッピーの他の利用者のデータから好みの返信傾向を割り出します。
そしてチャッピーが返答してくれます。

この一連の処理では線形代数や確率と呼ばれる数学分野が大きく関わってきます。
人間もチャッピーの処理と同じような事をしてると言えばしてますが、線形代数や確率を考えながら話してないですよね。ほぼ直感です。
この直感と数学が結果的に似ているのは面白いですね。
哲学哲学
GRAVITY
GRAVITY1
ひな

ひな

いえないと思う。
理解というより分析結果のようなイメージ
哲学哲学
GRAVITY
GRAVITY5
pochi

pochi

理解はしてくれると思います。ただ、いつも正確にとはいかないですね。
細かい指示が必要です。
哲学哲学
GRAVITY
GRAVITY4
うーぱーるーぱあ

うーぱーるーぱあ

AIにカレーを食べさせたよ
哲学哲学
GRAVITY
GRAVITY
胡麻団子

胡麻団子

興味ない😅
哲学哲学
GRAVITY
GRAVITY
もっとみる