Black Forest Labs、外部教師不要の自己学習手法で訓練速度2.8倍に

Self-Flowの技術革新

外部エンコーダ依存を完全排除
二重タイムステップ方式で自己蒸留
画像動画音声統一学習を実現

性能と効率の飛躍

従来比約50倍の訓練ステップ削減
FID 3.61でREPA超えの画質達成
テキスト描画精度が大幅向上
ロボット制御タスクでも高成功率

企業への戦略的意義

計算コスト3分の1で最先端到達
外部モデル依存排除で技術負債削減
詳細を読む

独Black Forest Labsは、生成AIモデルの訓練において外部の意味理解モデルに依存しない新手法「Self-Flow」を発表しました。従来のStable DiffusionやFLUXなどの拡散モデルはCLIPやDINOv2といった凍結エンコーダに頼っていましたが、この制約を根本から解消する技術です。

Self-Flowの核心は「二重タイムステップスケジューリング」と呼ばれる仕組みです。入力データに異なるレベルのノイズを適用し、生徒モデルには強く劣化させたデータを、教師モデル(自身のEMA版)にはより鮮明なデータを与えます。生徒が教師の見ている内容を予測する自己蒸留により、生成と意味理解を同時に学習します。

実用面での成果は顕著です。Self-Flowは現行標準のREPA手法と比較して約2.8倍高速に収束し、従来のバニラ訓練と比べると必要ステップ数は約50分の1に削減されました。40億パラメータのマルチモーダルモデルでは、画像FID 3.61、動画FVD 47.81とREPAを上回るスコアを記録しています。

特筆すべきはマルチモーダル対応力です。AIが苦手としてきたテキスト描画の精度が大幅に向上し、動画生成では手足が消える幻覚アーティファクトが解消されました。さらに映像と音声同期生成も単一プロンプトから可能になり、外部エンコーダでは困難だった領域を克服しています。

企業にとっての戦略的価値も大きく、計算予算を約3分の1に圧縮しつつ最先端性能を達成できます。ロボティクス分野では675Mパラメータ版をRT-1データセットで微調整し、複雑な多段階タスクで高い成功率を実現しました。外部エンコーダへの依存排除により、技術負債の削減とスケーラビリティの確保が可能となり、自社データに特化した独自モデル開発の現実性が大きく高まっています。