共感で繋がるSNS

人気

関連検索ワード

新着

名無し

名無し

汎化誤差が不良設定で不明な以上データセット側の知識もあると思ってる
GRAVITY
GRAVITY1
かの

かの

モックアップアプリを作る、チラシのデザインを考える、データセットを作る、ブログを書く、動画編集、写真を重加工
これらをあと1週間で終わらせないといけない
GRAVITY
GRAVITY2
ひろ✨

ひろ✨

生成系AI(Generative AI)とは、大規模データセットから学習した確率分布モデルを用いて、新たなデータ(テキスト、画像、音声、動画など)を生成する人工知能技術群の総称である。その中核を成すのは**生成モデル(Generative Model)**であり、これは識別モデル(Discriminative Model)と対をなす概念である。生成モデルはデータの背後にある潜在変数(latent variables)を推定し、観測データの生成過程 P(X, Z) を確率的にモデル化する点に特徴がある。

代表的な生成モデルには、確率的生成モデル(Probabilistic Generative Models) と 深層生成モデル(Deep Generative Models) がある。前者には混合ガウスモデル(GMM)や隠れマルコフモデル(HMM)などが含まれるが、近年主流となっているのは後者であり、ニューラルネットワークによる高次元分布の近似を行う。特に有名なのが、変分オートエンコーダ(VAE)、敵対的生成ネットワーク(GAN)、および**拡散モデル(Diffusion Model)**である。

VAEはエンコーダ・デコーダ構造を持ち、潜在空間における確率的表現学習を行う。GANはジェネレータとディスクリミネータの**ミニマックス最適化(minimax optimization)**によって、分布近似を競合的に洗練させる。一方、Diffusion Modelはノイズ除去過程を逐次的に学習し、高品質なサンプル生成を可能にする。この拡散モデル系は、**スコアベース生成(Score-based Generation)**とも呼ばれ、現在の画像生成(例:Stable Diffusion、DALL·E、Midjourney)や動画生成の中心技術となっている。

また、自然言語領域では、自己回帰型言語モデル(Autoregressive Language Model)が主流であり、Transformerアーキテクチャを基盤とする。GPTやLLaMAなどは、トークン列の条件付き確率 P(x_t|x_{<t}) を逐次推定し、テキストを生成する。これにより、文脈保持・推論・スタイル模倣などの高次言語生成能力が実現している。

さらに近年では、マルチモーダル統合(text-to-image, text-to-video, text-to-audioなど)が進み、生成系AIは単一モーダルの枠を超えて「統合的創発(emergent multimodality)」を示すに至った。これは巨大パラメータ空間と自己教師あり学習(self-supervised learning)による**表現学習の汎化(representation generalization)**の成果であり、人間の創造的活動の一部を模倣・拡張する段階に入っている。

要するに生成系AIとは、確率的表現学習・深層分布近似・モーダル統合によって新たなデータを創出する人工知能技術体系であり、単なる情報処理を超え、創造の自動化を実現する計算的パラダイムである。
AIの星AIの星
GRAVITY
GRAVITY4
名無し

名無し

データセット綺麗にすると少なくとも評価の信頼は上がるんだよな
GRAVITY
GRAVITY2
ノア・A

ノア・A

データセットの内容によって出力結果が変わるようなもので創作論とか言ってんの笑うわ
いかに他者の品質の良いデータを無断で大量に使うかとかが書いてあるの?
18世紀からタイムトラベルしてきたのかな?
GRAVITY
GRAVITY5
もっとみる

おすすめのクリエーター