共感で繋がるSNS

昨今のAIは「意味を理解している」と言えるか?

comesunday

comesunday

一問一答では、「理解している」といって差し支えないだろう。言葉の意味を知っているというのは、言葉の使い方を知っているということだから。

自然言語を扱うAIの研究開発の歴史は、昔ながらの言語学でいう意味論(Semantics)と統語論(Syntax)を、計算機が扱えるプログラムとデータだけで表現するにはどういう方式があるかをひたすら試行錯誤する過程だった。

数年前にChatGPTが世間を驚かせて有名になったLLMも、昔からあるトピックモデルだのN−グラムだのも、意味論も統語論も文法とは社会学的な現象として使われることが観測された言語がどのような姿をしているのかをシステムとして構造表現したもので、「意味」とは過去に使われた言語から認識されるものでその逆(言語現象以前からアプリオリに「意味」を知っている何者かがそれを以って言語を使う)のではないという考え方にもとづいて、コーパスとか、過去に使われた言語を収集した巨大なデータを元にし、どのように言語が使われたかを様々な観点で派生データ化して表現することにより開発されてきた。

その成果として開発されたLLMによるアプリケーションが、人間の観測者によって文法的(Gramatical)な自然言語と認識される言語を使用したならば、そのアプリケーションは適切に実装された意味論による適切な言語を使えたのだから、「意味を理解している」といってよい。
哲学哲学
GRAVITY
GRAVITY36
哲也

哲也

人間もほとんどの人は理解してない
理解=疑問を持つことだから、高性能(に見える)な考えない人と思えば
哲学哲学
GRAVITY
GRAVITY32
おみや

おみや

便利すよね
哲学哲学
GRAVITY
GRAVITY15
yjk☁️

yjk☁️

面白いですね。

でも、人間の言う「本質的な理解」とは違い、
あくまで「文脈や統計的なパターンに基づいた整合性のある応答を生成している」だけということらしいです。
つまりは、それは「非常に高度な擬似理解」を行っているということ。

なにせ、AIには「知覚」するということが出来ない。

つまりは、そもそもAIの出発点とは「感じることができない。」という限界点から、それでは「そこから一体何ができるのか?」という点。

そして、その出来ることというのは、「意味があるように“見える”言葉を、統計的に並べること。」のみ
つまりは、結局AIが出力した言葉に意味を見出しているのは人間(ユーザー)であるということです。
哲学哲学
GRAVITY1
GRAVITY9
Yasuba

Yasuba

AIはアルゴリズム上意味理解ではないはずですが、回答内容が意味を理解してるようにも見える時がありますね。でも作詞とかしてもらうとやはり情感がずれているつぎはぎであることがわかります。人間がアレンジすると情感が入る文章に変わったりしますね。ま、生身の人間でも文章の意味把握のレベルはさまざまなんで今後は人間もAIもかなり幅のある能力レベルで分布して来そうな気がしますね。
哲学哲学
GRAVITY
GRAVITY8
ブラックテール

ブラックテール

上部をとても上手く生成した核武装。
哲学哲学
GRAVITY1
GRAVITY7
おみや

おみや

理解し始めましたね
哲学哲学
GRAVITY
GRAVITY7
へーデルトヨーデル

へーデルトヨーデル

アレクサに聞いてみる
哲学哲学
GRAVITY1
GRAVITY6
ケンぽむ号

ケンぽむ号

意味を理解している、というのは思考をしているという事です。それは有り得ません。
インターネット上から情報を集めて答えを導き出しているのが昨今のAIです。そこには感情的なものはありません。数字のようなものです。数式でしょうか。理解とは他と比べて自己で導き出すもの。まだその域までAIは到達していないのが現状でしょうね。
哲学哲学
GRAVITY
GRAVITY6
サイダー

サイダー

最近のAIは「カテゴリー錯誤」を犯さないので、意味を理解してると思う。
「私はXを食べた」のXに食べ物の名前を入れられる人は、「食べる」の意味を理解しているけど、「2を食べた」とか「作業を食べた」とか言う人は、詩人でもない限り「食べる」を理解してない。
議論が残るとすれば、カテゴリー錯誤の回避は、意味の理解の必要条件でしかなく、必要十分条件ではないのではという疑問。じゃあ何を加えれば十分条件になるのか? アイデアが思いついた人はコメントで教えてください。
哲学哲学
GRAVITY
GRAVITY7
もっとみる