人気

こっし

ふか

ふか

むきゅ
翡翠
#日本語歴史コーパス #万葉集





よしな
翡翠
#日本語歴史コーパス
もっとみる 
関連検索ワード
新着
m. h. k.
海の前に立つ。
九月に荒ぶ潮、怒れる波、
灰色と青が交互に現れ、奇妙な緑を混ぜる。
声は語る──狂気のことを、
あるいは魚の虚ろな眼を、
あるいは干からびた海藻のように
干潮の浜に打ち棄てられた主題のことを。
風が砂浜を駆け抜け、
夕暮れの沈黙のなかで
水のコーパスが古い統一を取り戻す。
だが海は、人に忘れられることを望む。
その深みに眠っているのは、
眠りすらも保持しない映像──
難破船の帆柱にしがみつく腕。
抽象の船が、
朝が見逃した地平の上を
ゆるやかに過ぎていった。
大地の裏側へと浸み入り、
ときおり港の音楽にさえ忘れ去られながら。
詩は──そう聞いた──
その気まぐれを無視した。
永遠の境界を越え、
夜の言葉をまとい、
死を身に沁み込ませた。
海辺に立つ私は、
なにも気づかぬ。
ただ言うのだ、
ゆっくりと、声をひそめて、
そのすべての矛盾を繰り返す。
ヌーノ・ジュディス

andata

ふしゃ
大戦のときのコーパスのほうのやつはロボが呼び出せるんだか呼び出せないんだか分かりにくい上に戦闘もロボ任せだからとにかく分かりにくくて不安定
セラ
鍵は「次トークン予測(next-token prediction)」による統計的連鎖モデリング。
Attention 機構により、文脈依存のトークン間相関を効率的に捕捉。
→ 「りんご → は → 赤い」の共起確率が学習されるが、
「赤さの概念」や「果実の生物学的定義」はモデル外。
すなわち、
• 記号操作(symbol manipulation) は可能
• 参照的意味(referential semantics) は欠如 (Chomsky の「形式と意味の分離」に近い) にも関わらず、表層的整合性(surface coherence) は極めて高い。 → これは「理解の錯覚(illusion of understanding)」の典型例。
なぜ可能か?
1. スケール則(scaling laws):パラメータ数 ↑ → 確率分布の近似精度 ↑
2. 事前学習コーパス:Web 規模の多様性により、ほぼ全ての「ありそうな続き」をカバー
3. 自己教師あり学習:外部ラベル不要で、言語の統計構造そのものを学習
注意すべきは:
• Hallucination は「高確率だが事実でない続き」の生成
• Prompt 依存性:同じ統計モデルでも、初期文脈で分布が大きく変化 → 出力は「条件付き確率サンプリング」の産物に過ぎない
哲学的含意:
• 「理解」とは何か? → 記号操作の精度が「理解」と等価に見える閾値は存在するか?
• 「意識」は必要条件か? → 純粋な確率機械でも「会話的知能」が成立するなら、 Strong AI 仮説 への反証にはならない?
結論:
現代 LLM の会話能力は、
「意味的理解」ではなく「トークン間統計的依存関係の高精度モデリング」 の帰結。
だがそれで十分に「知能的」に見える。
→ 「理解なき知能」 は可能か?
議論の余地は無限大。
最初の文言だけ見てここまで読んだ奴いる?
もっとみる 
