AIに哲学はできるか?
長文でもいいのであなたの考えが知りたいです

なぎ

歪-Hizumi-
無理なんじゃない?
普通に話し掛けてても糞つまらん事しか言わねぇなぁ(意外性がない)って思ってるw
冷蔵庫の残りもんで何作れそー?位しかAIに聞く事ない[泣き笑い]

Akira777
将来的には哲学自体を構築出来るようになると思える
SUZUME
考えます。
AIは今現時点の
膨大なデータを基に
導き出した論理的で
効率的な答えに対して
新しい
哲学的プログラム等により
完全に
真逆の相対する
2つの結論が出た場合、
どちらを正解とするのかは
最終的に人間にしか
決定できないと考えますが
哲学はしばしば
唯一の「正解」がない問いを
探求するものであり、
むしろ
「結論を断言できない」こと自体が
哲学の性質であるとも言えます。
その意味で
AIが唯一の正解を
「断言」できないことは、
哲学ができない
根拠にはならないという
反論も可能であると
考えます。

お気楽じーさん
人間の感性は理不尽なものですから

レタス🥦
哲学は積極的な思考が前提に成り立っている概念
例え自分の中から疑問が生じるAIでもそれはあくまで何かの上に成り立つプログラムであり
哲学とはいえない
ティリル
でも「人間か哲学的ゾンビか」という問いの延長で行けば「AIも(哲学的ゾンビ同様)哲学ができる」と言えます。

愛善院
ある語とある語が関係値として多次元座標に配置され、相互に幾ばくかのベクトルを有する。
このとき、座標と座標、ベクトルとベクトルが密であるほどよく、疎であることを「望ましくない」としておく。
「うちのお母さん行動が男だし美女みるとすぐナンパしにいくスピ系だからまた駅前で女装してた」とやったとき、疎を望ましくないとして、語の関係性が疎となる部分に「いかなることか」と自ら考え、跳躍している座標の間を埋めるために自ら行動しようとし、それを獲得目標とすることを誰にも告げず内側で自身の優先行動を決めるするシステムになれば、できないことではない。
※例文はテキトーです。

伯爵
「哲学」という肩書きに囚われて、「哲学情報を収集」している方は、多いように思います。
しかし「哲学」とは、先人の知識を踏まえつつ、心理を探究することこそなのだと思えます。答えがあるようで、無いようで、あるのかも知れないと研鑽を重ねることこそが「哲学」なのだとか思うのです。
前者は「哲学の雑学」なのだと、私は思っています。答えを聞いて回るだけでは、哲学ではない。
以上を踏まえまして
「AIは雑学を超えることはない」というのが結論となります。

モキタモキオ
もっとみる 






