オープンソースで高性能な動画生成AIモデル『Mochi 1』
先月末にリリースされましたGenmoのオープンソース動画生成AIモデル「Mochi 1」。画像や動画の生成AIをブログで紹介してきましたが進化の速さに正直追いつくのが大変です。それでも、日々進化するAIを見ているとワクワクが止まらないのでとても楽しいです。
さて、今回も凄い動画生成AIがでてきました。Genmoのオープンソース動画生成AIモデル「Mochi 1」というものです。特徴は従来の動画生成AIでは再現が難しかった水や煙、髪の毛などの表現がとてもよくなっていることです。僕が「Mochi 1」で作成した動画をトップに置いてあります。見てもらうと分かりますが、髪の毛の動き自然です。Mochi 1は100億パラメータを持つ大規模モデルで、現時点で公開されている最大規模の動画生成モデルの一つです。この大規模なモデルにより、このような動画生成が可能になっています。
Mochi 1の最大の特徴は、Apache 2.0ライセンスの下でオープンソースとして公開されていることです。これにより、開発者や研究者が直接モデルにアクセスし、カスタマイズできますし、特定のニーズに合わせてモデルを修正・拡張できます。ちなみに今までにも紹介してきたRunwayやLuma Dream は独自のプラットフォーム上でのみ利用可能なクローズドモデルです。
Mochi 1は現時点では480pの解像度で動画を生成しており、RunwayやLuma Dream Machineがより高解像度の動画生成に対応しているのとは対照的です。しかし、Mochi 1は年内に720p HDの生成に対応予定であり、今後の発展も期待されます。
Mochi 1のオープンソースモデルは、その自由度の高さ、大規模なモデルサイズ、独自技術、そして研究開発の促進という点で他のモデルと比べて大きな利点を持っています。これらの特徴により、今後の発展や独自の応用がとても気になります。
多様な動画生成AIの登場により競争も激化しておりますが、簡単にクリエイティブな映像制作が可能になりつつあるのでユーザーとしてはとても期待をしています。
-
前の記事
ChatGPT Search、ついに登場! Perplexity AIとどっちが使えるの? 2024.11.01
-
次の記事
Stable Diffusion 3.5 2024.11.14