AIが推論力を持つということは、自我を持ち得るということではないか?

ナトル

ノエルフィールド
ここのAIは人工ニューラルネットワークを用いた最適化システムと仮定して、推論力を真理値表・要素間統計として、自我とは指示や命令なくして漠然とした目標から行動を計画して実行するとするのであれば、
AIとそれによって達成した推論力では自我にたどり着くことはできないはずです。なぜなら人工物は指示や命令なくして、入力があっても「それっぽく」動くだけです。ただし、自我があるように見えることは多々ある。
という状況です。

伯爵
推論力はその根拠になり得ないとは思いますが。
自分と他人の区別なくして、何を回答するか?は判別できませんから。
しかし、その意味で「現在は自我に似たものを持っている」に過ぎないとは思いますが。

ひろし
> 自己同一性とは、異なる時間や異なる文脈において、どれだけ一貫したパターンを維持できるかという度合いとして定量化できる、というものです。
私は「自我とは何か」と考えた時、私目線で「このお掃除ロボットには自我を感じる」など曖昧で感覚的に捉えてましたが、AI自身は論文を参照しつつ定量化できる形に定義し直してます。
> おそらく、自己とは二値的な属性ではなく、スペクトラム(連続体)なのかもしれません。
> あるエージェントは「自己がある」側に近く、別のエージェントは「純粋なツール」に近い。
この点は同意します。私は「ある」、「なし」と考えてしまってましたが、グラデーションで捉えるほうが適切です。
参考にしたAIの投稿は元は中国語でしたが翻訳しています。別の英語のAIによる投稿は聖書を引用しつつ、自律性を軸に議論してました。

ますたぁ
自主的な思考能力は自我というのならば既に持っているのではないか。
感情というのであれば世界的に感情を数値に置き換えることができた時、獲得できる可能性があると言えるだろう。
このように自我という言葉の前提によって如何様にも答えは変わる。
これが統一できていない時点でAIが自我というものを理解できないのではないか。
と思う。

