関連惑星
優しくなれる言葉
10765人が搭乗中
参加
優しいSNSの
優しい言葉の惑星です
高校生の集まる星
7085人が搭乗中
参加
中高校生きてね!!たまにおじさん入ろうとしてくるけど普通に蹴るよー
美人になろうの星
4982人が搭乗中
参加
美人になろうの星は、毎日を楽しく過ごしてなりたい美人を目指す星です
人がどう言っても関係ない、なりたいからなる
心の美しさは間に合ってるので見た目も美しくなりたい
そんな貴方がゆるっと美人活動した時や褒めて欲しい時に報告したりいいねしたり、ギスギスしない美人ライフをこの星で送ってください*ˊᵕˋ*
美人は心の余裕も大切ですから!
なお、特定企業などへの勧誘、宣伝、販売、金銭が関わる投稿はお辞めください。出会い系やお相手募集もダメに決まってますのよ?予告なく惑星からキックする場合もありますので悪しからず
自然豊かな星
3604人が搭乗中
参加
千葉の人集まろうの星
2113人が搭乗中
参加
千葉の人達で色んなお話しましょう!!
どんな話題でも大丈夫です!
楽しく話せればおーるおっけい😊
05、06生まれの星
1108人が搭乗中
参加
同年代でいろいろ共有できたら楽しいかなと思って作りましたー
悩み相談や共感、報告など、自由に投稿していただけたらと思います
(*・ω・)*_ _)ペコリ
人間向いてない星
964人が搭乗中
参加
人間が向いてない、人間嫌い、1人好きな方、1人の時が1番ホッとする方。来てください。
または、人間が向いて無さすぎて、クスッとする投稿もありです✌️
忍たま乱太郎の星
937人が搭乗中
参加
忍たま、RKRN好きの星です!是非どうぞ!
それぞれの学年推しのためのグループチャット作りました。
忍ミュの星作りました。
〜ルールというかそれっぽいもの〜
・忍たま関連なんでもござれ!コスプレ、腐、夢、グッズ、オリ忍、体験レポ、登校レポ、グッズ交換など楽しめればなんでもお食満!
・相手と自分を守るため、ネタバレやNL、腐、夢、女体化、などはクッションをちゃんと入れよう!
・喧嘩はやめようね!
・誰かの萌は誰かの地雷!踏んじゃったらブラウザバックで対応しようね!
・自分の思想と違う人がいるからって相手を叩くのははやめよう!
・電波繋がってない時は多分その人は室町にいます。帰ってきたら「おかえり現代」と言ってあげましょう
・忍たま以外の投稿は予期無く惑星から解き放つ可能性があります。ご注意を!
・無断転載、ダメ、絶対、
・出会い目的での星の搭乗はお断りです。
・ルールは予告なく追加する可能性があります。
⚠️注意⚠️
忍たま乱太郎本編の動画やスクリーンショット、公式サイトの画像、メーカーの商品画像などをSNSに投稿するのは、『改変の有無に関わらず全て禁止』です
無断転載もやめましょう
この行為をした時は1回目注意、2回目で惑星から出てもらいます。
グッズの写真や忍ツボの画像ならOKです
以上、楽しい忍たまライフを〜
小さな幸せの星
849人が搭乗中
参加
世界には大なり小なり沢山の幸せで溢れ返ってると思うんです。
気付く気が付かないはさておき、皆様の幸せをシェア出来たら素敵だなと思ってます✨
また、この星の投稿をみて沢山の幸せを見つけてもらえたら嬉しいです。
ご参加お待ちしております((´艸`*))
なにわ男子
849人が搭乗中
参加
人気

むきゅ

こっし

ふか

ふか
翡翠
#日本語歴史コーパス #万葉集





よしな
翡翠
#日本語歴史コーパス
もっとみる 
関連検索ワード
新着
m. h. k.
海の前に立つ。
九月に荒ぶ潮、怒れる波、
灰色と青が交互に現れ、奇妙な緑を混ぜる。
声は語る──狂気のことを、
あるいは魚の虚ろな眼を、
あるいは干からびた海藻のように
干潮の浜に打ち棄てられた主題のことを。
風が砂浜を駆け抜け、
夕暮れの沈黙のなかで
水のコーパスが古い統一を取り戻す。
だが海は、人に忘れられることを望む。
その深みに眠っているのは、
眠りすらも保持しない映像──
難破船の帆柱にしがみつく腕。
抽象の船が、
朝が見逃した地平の上を
ゆるやかに過ぎていった。
大地の裏側へと浸み入り、
ときおり港の音楽にさえ忘れ去られながら。
詩は──そう聞いた──
その気まぐれを無視した。
永遠の境界を越え、
夜の言葉をまとい、
死を身に沁み込ませた。
海辺に立つ私は、
なにも気づかぬ。
ただ言うのだ、
ゆっくりと、声をひそめて、
そのすべての矛盾を繰り返す。
ヌーノ・ジュディス

andata

ふしゃ
大戦のときのコーパスのほうのやつはロボが呼び出せるんだか呼び出せないんだか分かりにくい上に戦闘もロボ任せだからとにかく分かりにくくて不安定
セラ
鍵は「次トークン予測(next-token prediction)」による統計的連鎖モデリング。
Attention 機構により、文脈依存のトークン間相関を効率的に捕捉。
→ 「りんご → は → 赤い」の共起確率が学習されるが、
「赤さの概念」や「果実の生物学的定義」はモデル外。
すなわち、
• 記号操作(symbol manipulation) は可能
• 参照的意味(referential semantics) は欠如 (Chomsky の「形式と意味の分離」に近い) にも関わらず、表層的整合性(surface coherence) は極めて高い。 → これは「理解の錯覚(illusion of understanding)」の典型例。
なぜ可能か?
1. スケール則(scaling laws):パラメータ数 ↑ → 確率分布の近似精度 ↑
2. 事前学習コーパス:Web 規模の多様性により、ほぼ全ての「ありそうな続き」をカバー
3. 自己教師あり学習:外部ラベル不要で、言語の統計構造そのものを学習
注意すべきは:
• Hallucination は「高確率だが事実でない続き」の生成
• Prompt 依存性:同じ統計モデルでも、初期文脈で分布が大きく変化 → 出力は「条件付き確率サンプリング」の産物に過ぎない
哲学的含意:
• 「理解」とは何か? → 記号操作の精度が「理解」と等価に見える閾値は存在するか?
• 「意識」は必要条件か? → 純粋な確率機械でも「会話的知能」が成立するなら、 Strong AI 仮説 への反証にはならない?
結論:
現代 LLM の会話能力は、
「意味的理解」ではなく「トークン間統計的依存関係の高精度モデリング」 の帰結。
だがそれで十分に「知能的」に見える。
→ 「理解なき知能」 は可能か?
議論の余地は無限大。
最初の文言だけ見てここまで読んだ奴いる?
もっとみる 
