ByteDance、AI動画モデルSeedance 2.0をCapCutに搭載開始

モデルの主要機能

テキスト数語から動画生成
画像・参照動画からの編集対応
リアルな質感・動き・照明の描写
最大15秒・6アスペクト比対応

展開と安全対策

7カ国で段階的に提供開始
知的財産問題で米国展開は見送り
実在人物の顔での生成を制限
不可視透かしで生成コンテンツを識別
詳細を読む

ByteDanceは2026年3月26日、AI動画生成モデルDreamina Seedance 2.0動画編集プラットフォームCapCutに搭載し、ブラジルインドネシアなど7カ国で段階的に提供を開始すると発表しました。OpenAISoraアプリを終了する中での展開となります。

同モデルはプロンプト画像、参照動画を使って動画音声コンテンツの作成・編集・同期が可能です。参照画像がなくても数語のテキスト入力だけでシーンを自動生成でき、リアルな質感や動き、照明の再現に優れています。

料理レシピやフィットネスチュートリアル、ビジネス概要、アクション系コンテンツなど幅広いジャンルに対応します。従来のAI動画モデルが苦手としていた動きの多い映像でも高品質な出力が期待できると同社は説明しています。

展開地域が限定的な背景には、ハリウッドからの著作権侵害批判があります。映画協会がByteDanceに対し侵害行為の停止を求めたことを受け、グローバル展開を一時中断していた経緯があり、知的財産に関する対応が続いています。

安全対策として、実在の顔を含む画像動画からの生成をブロックし、無許可の知的財産利用も制限します。生成コンテンツには不可視の電子透かしが埋め込まれ、プラットフォーム外での共有時にもAI生成であることを識別可能にしています。