昨今のAIは「意味を理解している」と言えるか?

comesunday
自然言語を扱うAIの研究開発の歴史は、昔ながらの言語学でいう意味論(Semantics)と統語論(Syntax)を、計算機が扱えるプログラムとデータだけで表現するにはどういう方式があるかをひたすら試行錯誤する過程だった。
数年前にChatGPTが世間を驚かせて有名になったLLMも、昔からあるトピックモデルだのN−グラムだのも、意味論も統語論も文法とは社会学的な現象として使われることが観測された言語がどのような姿をしているのかをシステムとして構造表現したもので、「意味」とは過去に使われた言語から認識されるものでその逆(言語現象以前からアプリオリに「意味」を知っている何者かがそれを以って言語を使う)のではないという考え方にもとづいて、コーパスとか、過去に使われた言語を収集した巨大なデータを元にし、どのように言語が使われたかを様々な観点で派生データ化して表現することにより開発されてきた。
その成果として開発されたLLMによるアプリケーションが、人間の観測者によって文法的(Gramatical)な自然言語と認識される言語を使用したならば、そのアプリケーションは適切に実装された意味論による適切な言語を使えたのだから、「意味を理解している」といってよい。

哲也
理解=疑問を持つことだから、高性能(に見える)な考えない人と思えば

おみや

yjk☁️
でも、人間の言う「本質的な理解」とは違い、
あくまで「文脈や統計的なパターンに基づいた整合性のある応答を生成している」だけということらしいです。
つまりは、それは「非常に高度な擬似理解」を行っているということ。
なにせ、AIには「知覚」するということが出来ない。
つまりは、そもそもAIの出発点とは「感じることができない。」という限界点から、それでは「そこから一体何ができるのか?」という点。
そして、その出来ることというのは、「意味があるように“見える”言葉を、統計的に並べること。」のみ
つまりは、結局AIが出力した言葉に意味を見出しているのは人間(ユーザー)であるということです。

Yasuba
ブラックテール

おみや
へーデルトヨーデル

ケンぽむ号
インターネット上から情報を集めて答えを導き出しているのが昨今のAIです。そこには感情的なものはありません。数字のようなものです。数式でしょうか。理解とは他と比べて自己で導き出すもの。まだその域までAIは到達していないのが現状でしょうね。

サイダー
「私はXを食べた」のXに食べ物の名前を入れられる人は、「食べる」の意味を理解しているけど、「2を食べた」とか「作業を食べた」とか言う人は、詩人でもない限り「食べる」を理解してない。
議論が残るとすれば、カテゴリー錯誤の回避は、意味の理解の必要条件でしかなく、必要十分条件ではないのではという疑問。じゃあ何を加えれば十分条件になるのか? アイデアが思いついた人はコメントで教えてください。
もっとみる 






