共感で繋がるSNS

参照ビッグデータの80%が愚かであるとき、AIからの提示は賢いといえるか

pid

pid

AIの回答を賢いという段階で賢くない
哲学哲学
GRAVITY
GRAVITY10
クラマタ

クラマタ

読み取ったデータから正しい答えを出すよう学習するのがAIであって、その「愚か」なデータから正しい答えを出力できたならば、普通のAIより賢いよね
言語理解的な部分での変な文法出力をするとか、一般常識の不足とかだったらそれは本当に愚かと言えるかもだけど
哲学哲学
GRAVITY
GRAVITY1
ぬらぺっちょ

ぬらぺっちょ

参照元が愚かなんだからAIが出す最適解も愚かだよ。
AIの最適解だって現在では70〜80%程の精度だし、100%なっても愚かな参照元では自身の中の20%の賢さを抽出できない。

これはバカな人が自身の中にある真理に思考では気付け無いのと同じ。
思考でなくマグレで真理に気付くことはあるけどね。
哲学哲学
GRAVITY
GRAVITY1
つんつん

つんつん

賢いといえるか否かは人それぞれである
参照するデーターの80%が愚かであり残り20%は正論であろうAIからの掲示を、閲覧している人間がどれくらいの処理能力を有しているかに全てがある
なので答えは、賢いと断言する人もいれば、そうでないと言う人もいるだろう
結局のところ「わからん」が正解だ!
哲学哲学
GRAVITY
GRAVITY4
Yoo

Yoo

愚かと言うのは分かりませんが、ビッグデータの大半が間違っている状態で、適切な問いは出せるものでしょうか?
AIはどう使うかが求められていて、不確かな情報を整理しても価値はないと思いますけど…
哲学哲学
GRAVITY
GRAVITY1
涼

質問の内容とそれに対する編集・回答のアルゴリズム、それをどう受けとったかの一連を見ないと賢いかどうかは分からない。
質問の内容の深度に合わせて回答するタイプではあれば賢いと言える。
哲学哲学
GRAVITY
GRAVITY18
かぜ

かぜ

それは人間が愚かだという事とほぼ同義だと思う
哲学哲学
GRAVITY3
GRAVITY4
ヒサ

ヒサ

それは、必然的な事であり、
具現化するのは、
人であり、
要は、一個人の、考え方による。

また、それを、学習させるのも、
人かもしれない。
哲学哲学
GRAVITY
GRAVITY6
てつ

てつ

十分賢いを体現できるといえる。何故ならば今この現在においてビッグデータが100%愚かでないとはいえないから。いつから我々のビッグデータが愚かでないと思っていた?状態。

そして私は賢者であることより愚者を選ぶタイプの人間

画像は氷山を見て、8割沈んでいたらこの氷山はどう見えるかと思って載せてみました。(8割沈んだ画像とは言ってない)
哲学哲学
GRAVITY
GRAVITY7
混世魔王風雷坊津波

混世魔王風雷坊津波

「AIを運用して
今は愚かと判断される
ビックデータ参照元から、
賢い参照元を育てるのが吉」
かと。

賢いかどうかというより、
生態学的妥当性は高いですね。

ひとつの企業に例えれば、利益の80%は
20%のヘビーリピーターがもたらします。
では顧客の残り80%は何かというと、
「ロングテール」と呼ばれます。

ヘビーリピーターもいずれは抜けるので、
ロングテールからリピーター候補を
見出したり育てたりする事になります。

よって、冒頭のシノプシスが
わたくしセバスチャンの回答になります。
哲学哲学
GRAVITY
GRAVITY3
もっとみる