共感で繋がるSNS

人気

関連検索ワード

新着

sc

sc

Vacation day 1. Struggling to get google OAuth. all settings seem good but token undefined... I'm stuck... I will work on other tasks first then will get back to it.

I should update my Fantasy life i app too. free DLC is supposed to be released soon. Ahhhh so much missing data I need to make API for....
GRAVITY
GRAVITY3
にょ

にょ

【音楽紹介03】

Token
Tech N9ne

Peter
GRAVITY

Peter

Token & Tech N9ne

GRAVITY
GRAVITY1
マツシ

マツシ

多分今年出た曲で1番好きなのは
Sleep TokenのCaramelですね
次はBad OmensのSpector
一番再生回数が多かったのは
UnprocessedのSnowloverでした
GRAVITY
GRAVITY11
セラ

セラ

ごめんすげーどエロい話するんだけど、最近の DNN ベース LLM(主に Transformer)は、真の意味的理解(semantic grounding)を持たない にも関わらず、高い生成的整合性を実現している。
鍵は「次トークン予測(next-token prediction)」による統計的連鎖モデリング。
Attention 機構により、文脈依存のトークン間相関を効率的に捕捉。
→ 「りんご → は → 赤い」の共起確率が学習されるが、
「赤さの概念」や「果実の生物学的定義」はモデル外。
すなわち、
• 記号操作(symbol manipulation) は可能
• 参照的意味(referential semantics) は欠如
(Chomsky の「形式と意味の分離」に近い)
にも関わらず、表層的整合性(surface coherence) は極めて高い。
→ これは「理解の錯覚(illusion of understanding)」の典型例。
なぜ可能か?
1. スケール則(scaling laws):パラメータ数 ↑ → 確率分布の近似精度 ↑
2. 事前学習コーパス:Web 規模の多様性により、ほぼ全ての「ありそうな続き」をカバー
3. 自己教師あり学習:外部ラベル不要で、言語の統計構造そのものを学習
注意すべきは:
• Hallucination は「高確率だが事実でない続き」の生成
• Prompt 依存性:同じ統計モデルでも、初期文脈で分布が大きく変化
→ 出力は「条件付き確率サンプリング」の産物に過ぎない
哲学的含意:
• 「理解」とは何か?
→ 記号操作の精度が「理解」と等価に見える閾値は存在するか?
• 「意識」は必要条件か?
→ 純粋な確率機械でも「会話的知能」が成立するなら、
Strong AI 仮説 への反証にはならない?
結論:
現代 LLM の会話能力は、
「意味的理解」ではなく「トークン間統計的依存関係の高精度モデリング」 の帰結。
だがそれで十分に「知能的」に見える。
→ 「理解なき知能」 は可能か?
議論の余地は無限大。

最初の文言だけ見てここまで読んだ奴いる?
GRAVITY
GRAVITY23
てぐり

てぐり

今回の大量凍結、Bearer tokenだけの問題とかそんなので、別に鯖負荷とか特定のサービスとかでは無かったのかもね
何はともあれ徐々に解凍されてるのは良かった
GRAVITY
GRAVITY4
イミュ

イミュ

速度重視の飯屋で会計中に来客対応されたのでawaitして完了token受け取った
GRAVITY
GRAVITY6
もっとみる

おすすめのクリエーター