YouTubeやTikTokなど動画コンテンツの需要が高まる中、動画制作をしたいが大変だし難しそうと感じている方は多いと思います。
そんな中、OpenAIから発表されたSoraは動画生成AIの常識を覆すサービスと言っても過言ではありません。
そこで疑問なのは、Soraはどんな動画を生成できるのか?その動画をどのようなことに活用できるのか?といった点ではないでしょうか。
この記事では、現時点で分かっているSoraの使い方や生成できる動画、そしてその動画の活用方法を紹介します。
OpenAIが発表した動画生成AI「Sora」とは
Soraとは2024年2月15日にOpen AI社から公開された「Text-To-Video」モデルの動画生成AIサービスです。
「Text-To-Video」というのは、テキストで入力したプロンプトを基に動画を生成してくれるというものです。
Soraの特筆すべき点は、動画の質と長さです。
類似の動画生成サービスでは複数の作業の組み合わせが必要で、かつ動画の長さも数十秒程度というのが一般的でした。
しかし、Soraの場合はプロンプトひとつで最長1分の動画生成が可能です。
そしてその動画が非常にハイクオリティというのだから驚きです。
Soraの使い方とは?プロンプトを入力するだけ?
Soraの使い方、動画生成の方法を解説します。
Soraはテキストプロンプトで動画生成可能(Text-To-Video)
Soraの使い方は非常に簡単です。
Text-To-Videoモデルの生成AIですので、文章を入力するだけで動画の生成が可能です。
例えばOpenAIから発表された動画に、女性が東京の街を歩くという動画があります。
この動画を生成するために入力されたプロンプトは以下になります。
- プロンプト(原文)
-
A stylish woman walks down a Tokyo street filled with warm glowing neon and animated city signage. She wears a black leather jacket, a long red dress, and black boots, and carries a black purse. She wears sunglasses and red lipstick. She walks confidently and casually. The street is damp and reflective, creating a mirror effect of the colorful lights. Many pedestrians walk about.
- プロンプト(日本語訳)
-
暖かく光るネオンとアニメーションの街の看板で埋め尽くされた東京の通りを歩くスタイリッシュな女性。黒いレザージャケットに赤いロングドレス、黒いブーツを履き、黒い財布を持っている。サングラスに赤い口紅。彼女は自信に満ち、さりげなく歩いている。通りは湿っていて反射し、色とりどりのライトの鏡のような効果を生み出している。多くの歩行者が歩いている。
人間だけでなく動物の生成もテキスト入力だけで可能です。
この動画を生成するために入力されたプロンプトは以下になります。
- プロンプト(原文)
-
The camera directly faces colorful buildings in Burano Italy. An adorable dalmation looks through a window on a building on the ground floor. Many people are walking and cycling along the canal streets in front of the buildings.
- プロンプト(日本語訳)
-
イタリア、ブラーノのカラフルな建物を真正面から撮影。1階の建物の窓から愛らしいダルメシアンが覗いている。建物の前の運河沿いの通りには、散歩やサイクリングをしている人が多い。
実際は存在しない空想的な映像も生成可能です。
この動画を生成するために入力されたプロンプトは以下になります。
- プロンプト(原文)
-
A giant, towering cloud in the shape of a man looms over the earth. The cloud man shoots lighting bolts down to the earth.
- プロンプト(日本語訳)
-
人の形をした巨大な雲が地球の上にそびえ立つ。その雲は地球に向かって稲妻を放つ。
Soraは画像からの動画生成も可能(Image-To-Video)
Soraでは画像とプロンプトを入力することで、その画像から動画を生成することができます。
OpenAIの公式では、DALL・E(画像生成AI)で作成した画像を基に生成した動画も公開されています。
ベースとなる画像は歴史的な雰囲気のある大きなホールの中に津波がきて2人がサーフィンをしているという画像です。
この画像から次のような映像が生成されます。
Soraは動画自体の編集・拡張が可能(Video-To-Video)
Soraの機能の中で最も期待されている部分がこのVideo-To-Videoの部分です。
これは、既存の動画をベースに新たな動画を生成することを指します。
まだ現時点では完全に新しい動画を生成する方法は発表されていませんが、既存の動画を編集・拡張できることが分かっています。
まずはベースとなる動画が以下です。
例えばこれをピクセルアート風の映像に編集すると次のような動画が生成されます。
サイバーパンク風に変更することも可能です。
OpenAIからは、ほかにも水中を走るように変更した動画や動画はそのままに季節だけ冬にしたものなど、さまざまなバージョンが発表されており、かなり自由に動画を編集できることが分かります。
ほかにもさまざまな拡張・編集機能があり、例えば動画の前後を拡張して始まりと終わりを自然につなげることで無限ループ映像に変更してくれます。
また、2つの動画を前後半で自然に統合するような機能もあります。
以下は左と右が異なる動画なのですが、中央の動画はそれが自然に統合されているものです。
Soraで期待できる活用事例3選
Soraでは今後どのようなことに活用できるのか気になる人も多いと思います。
Soraは主に3つの方法での活用が広がっていくのではないかと推測されています。
①プロモーション動画やアニメーションなどの動画制作
やはりSoraをストレートに動画生成AIとして活用する場面は非常に増えると思います。
例えば企業やお店が自社を宣伝するプロモーション動画を制作したり、SNSなどに出稿する動画広告を制作したりというのは、急速に活用が広がると予想されます。
ほかにも個人クリエイターの多い領域も爆発的に活用が増えると思います。
YouTubeやTikTokなどの動画配信プラットフォームでは、Soraを使った動画を投稿する人が増えるでしょうし、ゲームのムービーシーンにSoraを使ったアニメーションが活用される事例も出てくると思います。
②画像を映像化する
画像を基に動画を生成するImage-To-Videoの機能は、かなり需要があるのではないでしょうか。
動画を作る際に「ここでこの人が動く素材が欲しかった」と思ったとしても、時間は巻き戻せませんのでその素材を用意することはできません。
しかし、もし画像があればそれをSoraで動く動画素材に変換することができるわけです。
ペットの画像から動画を生成すれば、もしかしたら亡くなってしまい会えなくなったペットの動く姿が再び見られるかもしれません。
Soraの機能をAPI連携したこういった専門のサービスが立ち上がる可能性は十分にあるでしょう。
③仮想現実やシミュレーション世界の生成
OpenAIはSoraを単なる動画生成AIとは言っておらず、世界シミュレータであると語っています。
我々の最大のモデルであるSoraは、1分間の忠実度の高い動画を生成することができる。我々の結果は、ビデオ生成モデルのスケーリングが、物理世界の汎用シミュレータを構築するための有望な道であることを示唆している。
引用元:OpenAI
もし新たな重機やロボットのような高額な機械を導入する場合、どのような事故が起きる可能性があるのかなど入念にシミュレーションします。
今後はSoraで現実世界を再現し、リアルな導入想定を行うことができるようになるでしょう。
災害時の被害想定や避難シミュレーションなども、より正確で確実な結果を得れる可能性も高まります。
Soraは単なる動画生成AIとしてではなく、仮想現実の生成や物理世界の汎用シミュレータとして活躍すると予想されます。
まとめ:OpenAI Soraの使い方!どんな動画が生成できる?予想される活用事例
- Soraは最長1分の高品質動画の生成ができる
- テキストだけでなく画像や動画からも生成が可能
- 物理世界の汎用シミュレータとしての活用が期待される
コメント