人気

ゆうや
回答数 632>>

Aldair CC


椈
Caramel
のいん
もっとみる 
関連検索ワード
新着

sc
I should update my Fantasy life i app too. free DLC is supposed to be released soon. Ahhhh so much missing data I need to make API for....

にょ
Token
Tech N9ne
Peter
Peter

マツシ
Sleep TokenのCaramelですね
次はBad OmensのSpector
一番再生回数が多かったのは
UnprocessedのSnowloverでした
セラ
鍵は「次トークン予測(next-token prediction)」による統計的連鎖モデリング。
Attention 機構により、文脈依存のトークン間相関を効率的に捕捉。
→ 「りんご → は → 赤い」の共起確率が学習されるが、
「赤さの概念」や「果実の生物学的定義」はモデル外。
すなわち、
• 記号操作(symbol manipulation) は可能
• 参照的意味(referential semantics) は欠如 (Chomsky の「形式と意味の分離」に近い) にも関わらず、表層的整合性(surface coherence) は極めて高い。 → これは「理解の錯覚(illusion of understanding)」の典型例。
なぜ可能か?
1. スケール則(scaling laws):パラメータ数 ↑ → 確率分布の近似精度 ↑
2. 事前学習コーパス:Web 規模の多様性により、ほぼ全ての「ありそうな続き」をカバー
3. 自己教師あり学習:外部ラベル不要で、言語の統計構造そのものを学習
注意すべきは:
• Hallucination は「高確率だが事実でない続き」の生成
• Prompt 依存性:同じ統計モデルでも、初期文脈で分布が大きく変化 → 出力は「条件付き確率サンプリング」の産物に過ぎない
哲学的含意:
• 「理解」とは何か? → 記号操作の精度が「理解」と等価に見える閾値は存在するか?
• 「意識」は必要条件か? → 純粋な確率機械でも「会話的知能」が成立するなら、 Strong AI 仮説 への反証にはならない?
結論:
現代 LLM の会話能力は、
「意味的理解」ではなく「トークン間統計的依存関係の高精度モデリング」 の帰結。
だがそれで十分に「知能的」に見える。
→ 「理解なき知能」 は可能か?
議論の余地は無限大。
最初の文言だけ見てここまで読んだ奴いる?

てぐり
何はともあれ徐々に解凍されてるのは良かった

イミュ
もっとみる 
