実写動画を編集するより、生成動画を編集する時間が急増している人、増えてます。
そんな人のお悩みが・・・
「Midjourneyで作った画像、せっかく綺麗なのに動画にすると解像度が落ちるんだよなぁ……」
「もっと“ヌルヌル動く”映像にならないの?」
そんなモヤモヤ、わかりますよ。
僕も最初まったく同じ気持ちでした。
でもね——今はAI技術のおかげで、その悩みはほぼ解決できます。
画像 → 高画質 → 動画化 → AIアップスケール → フレーム補完(60fps)
というやり方。通常のAI動画は 24fps。
それに対して“ヌルヌル動く”ゲームの映像は60fps以上。
つまりAIで二度アップスケールしてゲームの映像にしてしまうのです。
- AI画像アップスケーラーでの高画質化
- AIビデオアップスケーラーでの高画質化&フレーム補完
この流れをしっかり踏めば、驚くレベルで美しい動画が作れるんですよ。
Midjourney で作った画像を“映画品質級”動画にする方法
Midjourneyで作った画像をAIでアップスケールして高画質化。動画にした後もAIで再度アップスケールして、60fpsにフレーム補完すると、めちゃくちゃ高画質で動きの滑らかな映像になります。 pic.twitter.com/crs7Gbk9tB
— HAL2400 | AI Visual Creator (@HAL2400AI) November 20, 2025
■ ステップ1:まずはMidjourneyで“動画向きの絵”を作る
Midjourneyってすごいですよね。
Midjourney V1/V7 Image-to-Video:生成画像をそのまま最大21秒の動画に変換可能です。
モーション制御はLow/High MotionやRawモードで動きの強弱を調整することができます。またスタイル保持では元画像の筆致や雰囲気を維持しながら自然な動きを追加することができます。
でも、動画にするときに気をつけておきたいポイントがあるんです。
● 動画向きプロンプトのコツ
- 被写体を中央に置く
- 背景は少しぼかし気味にすると映像っぽくなる
- 色のトーンを合わせる(シリーズ化するときは特に)
たとえば、
「cinematic lighting」「depth of field」「soft light」「high detail」
などを入れると、あとで動かしたときに“映画っぽい雰囲気”が出やすいです。
■ ステップ2:画像をAIでアップスケールする(めちゃ大事)
Midjourneyの画像って最初から高画質っぽく見えるんですが、実は“静止画”として最適化されていて、動画にすると少し粗が目立つことがあります。
そこで使うのが AIアップスケーラー。

● おすすめのアップスケールサービス
Adobe Photoshopを使える環境にいる人なら別ツールを覚えるよりPhotoshopの中の機能「AI Upscaler機能」を使うことをお勧めします。
上のメニューから
「イメージ」→「画像解像度(Image Size)」
をクリック。
「幅」や「高さ」を、
- 2倍にしたい → 今の数値 ×2
- 4Kにしたい → 3840×2160 を手入力
など好きに設定します。
ここがAI Upscalerの心臓部分。

「再サンプル(Resample)」のプルダウンから
『ディテールを保持(拡大)』
Preserve Details (Enlarge)
を選びます。
次に、ノイズ軽減スライダーを調整します。
下にある
「ノイズ軽減(Reduce Noise)」
をお好みで調整。
あとはPhotoshopがAIで細部を作り足しながら拡大してくれます。
10~30%くらいが自然に仕上がりやすいです。

このほかには、
- 使い勝手/初心者向け:Upscale.media
- アート系・生成系画像特化:Magnific AI
- 無料・PC処理・カスタマイズ重視:Upscayl
- 商品化・マーケット用途も視野に入れるなら:Let’s Enhance
などがあります。
これらを使うと、ディテールがくっきりして、まるで“プロが撮った一眼レフ写真”みたいになります。

ちなみに、ここで妥協すると後で後悔します。動画の元となる画像の品質が低いと、どれだけ後でアップスケールしても限界があります。
■ ステップ3:画像を動画にする(モーション生成)
最近はAIが勝手に絵を動かしてくれるので、本当に楽になりました。
使用ツールは、Veo3やsora2。klingなど様々あります。
- Runway Gen-4:商用利用向け。高度なモーション制御と長尺生成に対応
- Kling 2.1:中国発。滑らかなカメラワークや物理的リアリズムに優れる
- WAN AI:シネマティックな光表現と長時間の連続シーン生成に強い
👉 これらを組み合わせると「Midjourneyの美的品質 × 他AIのリアルな動き」で映画級に近づきます
動画にするには画像をアップロードして、
「カメラを右から左へパン」「ゆっくりズームイン」「雲だけを少し動かす」
など指定するだけで、もう動画ができます。
ポイントは適度に動かすこと。こんなシーンが実際に効果的です。
- 背景に大きな建物 → カメラのパンで“映画の冒頭シーン”風に
- キャラクターのイラスト → 風で髪が揺れるだけで一気に生命感が出る
- 風景画像 → 雲が少し流れるだけで没入感が爆上がり
もうね、たったこれだけで「え!?これ何で作ったの?」って聞かれるレベル。
動画プロンプトは画像より難しい:時間的一貫性・モーションの明確性・ストーリー性が必要。動き(カメラワーク・風・表情)を明示すると、AIが自然な動画を生成しやすい。
具体例:「A cinematic shot of a warrior walking through fog, camera panning slowly from left to right, soft lighting, 4K, 60fps」
■ ステップ4:生成した動画を再度アップスケールする
ここが最大のポイント。動きをなめらかにするには、動画のコマ数を増やすのが定石です。
30fps → 60fpsにすると、AIが中間フレームを生成して、
動きをスムーズにしてくれます。
また、ソフトや専用サービスを使うと動画の解像度を1080p → 4Kにしたり、
4K → 8Kにしたりすることができます。
● ソフト、専用ツール・AIサービス
- Adobe After Effects / Premiere Pr
プラグイン「Twixtor」や「Optical Flow」を利用すると、30fps動画を60fpsに補間可能。Optical Flowは標準機能で、動きの解析を行い中間フレームを生成します。 - DaVinci Resolve
「Optical Flow」+「Motion Estimation」設定を使うと自然な補間が可能。 - Final Cut Pr
フレーム補間機能を使って倍のフレームレートに変換できます。
- Runway(Frame Interpolation)
動画をアップロードし、出力設定で60fpsを選択すると自動で補間。 - RIFE(Real-Time Intermediate Flow Estimation)
オープンソースのAI補間ツール。高品質で滑らかな結果が得られます。 - Topaz Video A
有料ですが、補間精度が非常に高く、映画やアニメでも自然に変換可能。
■ Topaz Video AI (最強で一番わかりやすい)
Topaz Video AI 7 – Flashback Japan Inc
① 動画を読み込む
ソフトを開いて、動画をドラッグ&ドロップするだけ。
② “フレーム補完(Frame Interpolation)” を選ぶ
モードの中に
「Chronos」「Chronos Fast」「Apollo」
などがあります。
初心者には Chronos Fast が失敗しにくくておすすめ。
③ フレームレートを選ぶ
- 元動画:24fps
- 出力:60fps
みたいに指定するだけ。
④ “Export” で書き出し
これだけでヌルヌル動画の出来上がり。
■ DaVinci Resolve(無料でできる)
フレームの繰り返しによって生じるカクつきを解消するため、新しいフレームを生成するリタイム処理をフレーム補完といいます。
無料版でもフレーム補完が可能。
- 動画をタイムラインに置く
- インスペクタを下にスクロールし、「リタイム&スケーリング(Retime and Scaling)」セクションをクリックします。
- リタイム処理を開いて「Optical Flow」を選びます。すると下の枠「動き設定」が操作できます。
- 「AIスピードワープ」に変更します。

Optical Flow(オプティカルフロー)を選択すると元の実際のフレーム間に新しいフレームを作成します。これにより、100%未満の速度で再生されるクリップの動きが滑らかになります。
動き推定(Motion Estimation)」の「AI Speed Warp(AIスピードワープ)」は画像内のピクセルを分析し、 最も高品質な結果をもたらしてくれます。
ただし無料版はAI補完ではなく、品質はTopazより劣ります。
でも“無料なのにすごい”ってレベルには達してます。
ここまで来ると、「あの静止画からここまで動くの!?」ってレベルで滑らかになります。
さらに優れた最新手法(2025年版)
1. Midjourney公式の動画機能
- Midjourney V1/V7 Image-to-Video:生成画像をそのまま最大21秒の動画に変換可能
- モーション制御:Low/High MotionやRawモードで動きの強弱を調整できる
- スタイル保持:元画像の筆致や雰囲気を維持しながら自然な動きを追加
👉 従来の「外部ツールで動画化」よりも一貫性が高く、Midjourney独自の美的品質を保てます。
2. 次世代動画生成AIの活用
- OpenAI Sora:テキストや画像から“ハイパーリアル”動画を生成。短尺インパクト映像に強い
- Runway Gen-4:商用利用向け。高度なモーション制御と長尺生成に対応
- Kling 2.1:中国発。滑らかなカメラワークや物理的リアリズムに優れる
- WAN AI:シネマティックな光表現と長時間の連続シーン生成に強い
👉 これらを組み合わせると「Midjourneyの美的品質 × 他AIのリアルな動き」で映画級に近づきます。
3. プロンプト設計の最適化
- 動画プロンプトは画像より難しい:時間的一貫性・モーションの明確性・ストーリー性が必要
- 具体例:「A cinematic shot of a warrior walking through fog, camera panning slowly from left to right, soft lighting, 4K, 60fps」
- Tips:動き(カメラワーク・風・表情)を明示すると、AIが自然な動画を生成しやすい
4. ワークフローの高度化
- クラウド型 vs ローカル型:クラウドは手軽、ローカルは自由度が高い
- 3レイヤー構成:生成系(Midjourney/Sora)+編集系(DaVinci/Resolve)+周辺系(字幕・ナレーション)で完成度を高める
■ ■ まとめ:AIで作る動画は“素材より整える工程が命”
Midjourneyで作った画像は確かに美しい。
でも、そのまま動画にすると“惜しい感じ”になることがある。
だからこそ、
画像アップスケール → 動画生成 → 動画アップスケール → フレーム補完
という工程が超大事なんです。
Midjourney公式の動画機能やSora/Runway/Kling/WAN AIを組み合わせ、動画プロンプト設計を工夫することで、「もうこれ実写じゃない?」ってレベルの高画質映像が作れます。










こんにちは、フルタニです。放送局で番組作りをしてました。 解決方法を書きます。