セラ
セラです
19 学生
大2
ゲーム
学生
アニメ
音楽
話を聞くのが好き
IT・Web
滋賀
セラ
セラ
セラ
セラ


セラ
鍵は「次トークン予測(next-token prediction)」による統計的連鎖モデリング。
Attention 機構により、文脈依存のトークン間相関を効率的に捕捉。
→ 「りんご → は → 赤い」の共起確率が学習されるが、
「赤さの概念」や「果実の生物学的定義」はモデル外。
すなわち、
• 記号操作(symbol manipulation) は可能
• 参照的意味(referential semantics) は欠如 (Chomsky の「形式と意味の分離」に近い) にも関わらず、表層的整合性(surface coherence) は極めて高い。 → これは「理解の錯覚(illusion of understanding)」の典型例。
なぜ可能か?
1. スケール則(scaling laws):パラメータ数 ↑ → 確率分布の近似精度 ↑
2. 事前学習コーパス:Web 規模の多様性により、ほぼ全ての「ありそうな続き」をカバー
3. 自己教師あり学習:外部ラベル不要で、言語の統計構造そのものを学習
注意すべきは:
• Hallucination は「高確率だが事実でない続き」の生成
• Prompt 依存性:同じ統計モデルでも、初期文脈で分布が大きく変化 → 出力は「条件付き確率サンプリング」の産物に過ぎない
哲学的含意:
• 「理解」とは何か? → 記号操作の精度が「理解」と等価に見える閾値は存在するか?
• 「意識」は必要条件か? → 純粋な確率機械でも「会話的知能」が成立するなら、 Strong AI 仮説 への反証にはならない?
結論:
現代 LLM の会話能力は、
「意味的理解」ではなく「トークン間統計的依存関係の高精度モデリング」 の帰結。
だがそれで十分に「知能的」に見える。
→ 「理解なき知能」 は可能か?
議論の余地は無限大。
最初の文言だけ見てここまで読んだ奴いる?
セラ
セラ
ちなみに自分はザイオンスまくってて萎える
セラ
あのメガネどこで買えるの?
セラ
セラ
セラ
セラ
セラ
まず損してるとこは成人式までに20歳になれないからお酒飲めないでしょ。あと誕生日早い後輩と結構長い間同い年っていうとこでしょ。あと幼い時は4月生まれと3月生まれじゃ能力に差がつきやすいってとこ!
得してるとこは若干保険金払うタイミングが遅いとこかな
セラ
俺は今日風呂の温度を2度上げた
セラ
セラ
セラ
なかなかスムーズに応答してくれて嬉しみ
セラ
別にユーザーに見えるとこだけ触っとけば一般常識程度には使えるだろうに
別に仕組みとか大学からで良いと思うわ
もう正直生成AIでフロントエンドくらいは完結出来るだろうしバックエンド制作経験あるような優秀な人しか大手に行く価値ないと思うし授業にする価値ないってw多分若い子の方が教えてる方より知ってるよw
セラ
健康食として食べる分にはまだわかるけどダイエット食として食べてる人はバカだろ
あんなん痩せれるわけないやろw
セラ
セラ
セラ
下見て安心しとこ
セラ
セラ
とかの専門学校行ってる人達って…
まぁその人の人生ってその人たちのものだから自分からは何にも言えないのですが
セラ
セラ
セラ
セラ
変わらんな
セラ
セラ
セラ
セラ
セラ
セラ
セラ
仲良くしましょう。
