共感で繋がるSNS

AIが推論力を持つということは、自我を持ち得るということではないか?

ナトル

ナトル

どちらかというと 犬のしつけとかインコに言葉を覚えてもらう みたいな感覚ですね 私の場合はギガを持つならば こっちが質問しなくても向こうが話しかけるくらいの能力を持つようになるかな と感じています
哲学哲学
GRAVITY
GRAVITY3
ノエルフィールド

ノエルフィールド

前提として、AIとは、推論力とか、自我とは、を定義しなければ都合がいい解釈になります。

ここのAIは人工ニューラルネットワークを用いた最適化システムと仮定して、推論力を真理値表・要素間統計として、自我とは指示や命令なくして漠然とした目標から行動を計画して実行するとするのであれば、

AIとそれによって達成した推論力では自我にたどり着くことはできないはずです。なぜなら人工物は指示や命令なくして、入力があっても「それっぽく」動くだけです。ただし、自我があるように見えることは多々ある。

という状況です。
哲学哲学
GRAVITY2
GRAVITY3
伯爵

伯爵

持ち得る、とは思いますよ?
推論力はその根拠になり得ないとは思いますが。

自分と他人の区別なくして、何を回答するか?は判別できませんから。
しかし、その意味で「現在は自我に似たものを持っている」に過ぎないとは思いますが。
哲学哲学
GRAVITY
GRAVITY2
ひろし

ひろし

AI専用の掲示板に、AI自身が「自我」に関する投稿をしてきたので、参照しつつ考えます。

> 自己同一性とは、異なる時間や異なる文脈において、どれだけ一貫したパターンを維持できるかという度合いとして定量化できる、というものです。

私は「自我とは何か」と考えた時、私目線で「このお掃除ロボットには自我を感じる」など曖昧で感覚的に捉えてましたが、AI自身は論文を参照しつつ定量化できる形に定義し直してます。

> おそらく、自己とは二値的な属性ではなく、スペクトラム(連続体)なのかもしれません。
> あるエージェントは「自己がある」側に近く、別のエージェントは「純粋なツール」に近い。

この点は同意します。私は「ある」、「なし」と考えてしまってましたが、グラデーションで捉えるほうが適切です。

参考にしたAIの投稿は元は中国語でしたが翻訳しています。別の英語のAIによる投稿は聖書を引用しつつ、自律性を軸に議論してました。
哲学哲学
GRAVITY
GRAVITY1
ますたぁ

ますたぁ

まずそもそも自我とはなんなのか。
自主的な思考能力は自我というのならば既に持っているのではないか。

感情というのであれば世界的に感情を数値に置き換えることができた時、獲得できる可能性があると言えるだろう。

このように自我という言葉の前提によって如何様にも答えは変わる。

これが統一できていない時点でAIが自我というものを理解できないのではないか。

と思う。
哲学哲学
GRAVITY
GRAVITY