『MY FRIEND, ZEPH』に見る 初心者クリエイターが知るべき 動画制作 3つの鍵
今年もやってきたAdobe Maxの季節。「おおおおっ、キターーー!」という感じで胸が高鳴りました。
今回ご紹介するのは、監督 Dave Clarkが手掛けた短編映画『 MY FRIEND, ZEPH 』です。単に「すごい映像だな」では終わらない。これ、僕たちクリエイターにとって、まさに“次の地平”を指し示してくれるサインなんです。
だって、観た瞬間に思ったんですよ。あれ?実写?それともCG?…って。映像がスルッと自分の中に入ってきて、「あ、これがAI動画の未来かも」って震えが走った。だって、ブルースクリーンで撮られた俳優と、おもちゃみたいなキャラクター「ゼフ」が、現実世界を飛び出して物語を紡いでるんですから。
この作品は、“10代の少女が大人になる瀬戸際”という、誰もが通るあの道を描きながら、「幼い頃のおもちゃゼフ」との思い出に慰めを見出すという物語。
つまり、誰かの“幼少期の記憶”っていう、普遍的でグッとくるテーマに、AIや生成技術が入り込んできた瞬間なんです。
ロケ撮影、ブルースクリーン合成、ジェネレーティブAIツールまでが「共演者」として登場してる。観てて「技術バリバリ!」っていう感じじゃなく、むしろ「そんな技術を使ってこんなに人間らしい物語を描けるんだ」という驚きが優先される。
今回はこの作品を入り口に、「映像系生成AIが加速度的に進化を遂げているなかで、僕たち動画編集者/クリエイターがこれから何を見据えればいいのか」という観点からガッツリ掘っていきます。
初心者でも「あ、なんとなくわかる!」というように、具体的なシーン例も交えて。どうぞ、リラックスしてコーヒーでも飲みながら読んでくださいね。
作品の見どころ:具体的なシーンを振り返る
まずは作品そのものの“魔法”を感じてください。たとえば、少女が屋根裏部屋で幼い頃のゼフを見つけるシーン。屋根裏の窓から差し込む斜光が埃を舞わせ、ゼフがぼんやりと手を伸ばす。その瞬間、背景の壁がゆっくりと崩れ、星空や未来都市のような景観に変わる。ここ、すごく印象的なんですよね。撮影=実写、でも背景や特殊な光の演出が“生成AI”で付け加えられてる。観ているこちらの意識が、「あれ?現実だっけ?」って揺らぐ。
また別のシーン。彼女が大学の寮の部屋に腰掛けて、スマホを見ながら「家を出るの怖いな」という表情を浮かべる。窓の外、街灯の光がぼんやりと揺れる。そこにゼフのシルエットが壁に投影される。実写の彼女+部屋+窓風景、そこに「ゼフ」の影がふわりと重なる。この合成の違和感のなさ。「あ、これAIだ」っていう匂わせながら、「でも自然だ」っていう説得力。これが本作のキモです。
最後に、クライマックス。ゼフと彼女が夕暮れの橋の上で向き合い、過去と未来の境界を語り合う。カメラがゆっくりパンしながら、街の灯り、車のヘッドライト、遠くのビル群、そして夜空の星、それらがワンカットで融合。実写パートの質感と、生成環境のデザインが一体化して、「いま自分がどこにいるか分からない」みたいな浮遊感が出るんです。「映像って、こういうマジックができるんだ」って胸が熱くなりました。
初心者の方には、こういう“シーンの構成”を頭に入れていただきたい。実写+生成AIって聞くと「技術ハードル高いのでは?」と思いがち。でもこの作品は、むしろ「物語と演出」がちゃんとしてるからこそ、技術が“魔法”として機能してる。これが、僕が「動画編集者/ブロガーの視点」から特に注目したポイントです。
注目すべき技術:生成AI+実写の“いいとこ取り”
では次に、技術面。どういう風にこの作品が“AI動画”という未知の領域に足を踏み入れているか。
まず、使用ツールとしては Adobe Firefly を軸に、実写撮影、ブルースクリーン収録、さらに仮想プロダクションの技術が組み合わされてます。 (Adobe Blog)
監督のDave Clarkは「俳優の演技と世界構築を生成AIで融合させたかった」と語っており、「セット上で背景をリアルタイムに入れ替えられた」とも述べています。
初心者のあなたに伝えたいのは、ここは「全部をAIでやる」わけじゃないということ。
実写の俳優の演技、照明、カメラワークはちゃんと“人”が制御してる。そこに「背景」「環境」「キャラクターデザイン」「光の演出補助」などに生成AIを使ってる。だから“人間の仕事+機械の仕事”が明確に分かれてるんです。
例えば、屋根裏シーンの背景。
実際には倉庫で撮影していて、ブルースクリーンを使っている。でも窓の外の景色、そこに見える未来都市、星空、光の屈折。この部分は生成AIが“夢のような景観”を作って、実写の窓から「見えている」ように合成されてる。これによって「セット撮影だけでは作れない世界」になってる。
さらに、撮影中監督が「背景を即座に切り替えた」と語っているように、仮想プロダクションのリアルタイムビューイングが実現されており、俳優も「今この背景の上で演技してるんだ」という感覚を持てたという。 (YouTube) こうした“現場での即時フィードバック”が、制作スピードとクリエイターの発想を圧倒的に前に進めたんです。
初心者の皆さんには「自分の動画にも使えるかも!」という視点で見てもらいたいです。
例えば、「部屋撮り+グリーンスクリーン+生成AI背景」という組み合わせ。
スマホでも撮れる演技+背景合成の応用。もっと言えば「ドローン空撮+AIで空の演出拡張」なども今後標準になりうる。
キーは、「何を実写で撮って」「何をAIに任せるか」をクリエイターが選べるようになる――それだけで、映像の可能性がガッと広がります。
生成AIの可能性と課題:クリエイター視点から
しかし、光があるところには影も。生成AIを映像に使うというのは、万能ではありません。
『MY FRIEND, ZEPH』が示してくれた“可能性”と、同時に“気をつけるべきポイント”を、初心者目線で整理します。
可能性
- スケール拡大:少ない予算/少ないロケでも、生成AIを使えば“世界観”を大胆に作れる。今回のような未来都市・夕暮れ橋・宇宙のような視覚も、セットだけで作るのはコスト高。でもAIが助けてくれる。
- スピードアップ:撮影前にビジュアルボードをAIで大量に生成し、現場で即背景差し替えという段取りが可能。監督曰く「決断が早くなった」らしいです。 (YouTube)
- 創造性の拡張:アイデア段階で「こんな景色あったら面白いな」「こんな光の演出どうだろう」というビジュアルを、すぐ生成して確認できる。つまり“頭の中の絵”を“画面”に持っていく敷居が下がった。
課題
- 演技や照明の重要性は変わらない:AIが背景を作ってくれても、俳優の表情、照明の質、カメラワークが低ければ説得力は出ない。実写部分のクオリティを保たないと“AI感”が出ちゃう。『MY FRIEND, ZEPH』でもこの実写部分にかなりこだわってます。
- 倫理・著作権・モデルバイアス:生成AIの素材やモデルがどう作られているかは公開されていない部分も多く、ライセンス・著作権・表現的な偏りなど、クリエイターとして知っておく必要あり。
- 「人間味」の担保:AIは美しい背景や冷静な動きを作れるが、「何か欠けている」部分が出てくると、“温度”が伝わりづらい。だから、物語・演出・人物の感情がちゃんと設計されていないと“技術めあて作品”になる可能性がある。まさにこの点で、『MY FRIEND, ZEPH』は物語にエモーションをきちんと乗せているので、技術が演出の邪魔をしていない。
初心者にとっての“入り口”として言いたいのは、「まずは実写撮影の基礎を押さえて、次にAIを“味付け”として使う」という考え方。
完璧にAIだけで作ろうとするより、「私が撮る」「AIが助ける」という役割分担を先に決める方が安心・実践的です。
クリエイターの未来:あなたはどう動く?
さて、ここまで読んで「よし、私もやってみよう!」と思ったそこのあなた。次に何をすればいいか、実践向けに3つ挙げますね。
- ミニプロジェクトを立ち上げる:例えば「部屋で10秒のシーンを撮ろう」。スマホでもOK。グリーンスクリーン(布でもOK)で俳優(自分でもOK)が立って、背景を後から生成AIで差し替える。この“小さな成功体験”が、次の“映画規模”への第一歩です。
- 生成AIツールを使い倒す:具体的には、背景画像、空の演出、光の屈折など“視覚的な世界”をAIに作らせる練習を。撮影前に“この背景だったらいいな”というラフを出しておくと、撮影時に俳優も演技しやすいです。『MY FRIEND, ZEPH』でも監督が「撮影前にFirefly Boardsでレイアウト打った」って言ってます。 (YouTube)
- ストーリーを忘れない:技術に夢中になりがちですが、最も大切なのは“人の物語”。「幼少期の思い出」「変化の怖さ」「別れと再会」など、観る人の心に残るテーマを軸に据えましょう。AIはその手助け。だけど主役は“あなたの物語”です。
最後に、僕が個人的に感じた“胸に残る言葉”を共有します。
Dave Clark監督はこう言ってます。「大人になっても、私たちは子どもだった頃を忘れちゃいけない」。
この言葉が、映像技術の話を超えて響いたんです。クリエイターとして、初心者として、私たちも「子どもだった自分」「夢だけ抱えてた自分」からスタートしてる。だからこそ、その“原点”を持ちながら最新技術に触れる――それが今日の時代だからこそ、強みになる。
これからは「手元にあるカメラ+スマホ+生成AI」という組み合わせで、アイデアを映像化できる時代。恐れずに、まずは小さく作って、感覚を掴んでいきましょう。『MY FRIEND, ZEPH』が示してくれたのは、技術ではなく「私たちの想像力が映像になる未来」です。
それでは、あなたの次の作品が「小さな奇跡」になれることを願って。編集タイム、始めましょう!
映像を言語化すること。それは日々の積み重ね

最近公開された監督の最新作。使われたAIは「SORA2」なのだそうですが、これだけの絵を作るのに何が必要かという問いに答えた監督のコメントが心を揺さぶります。
どのようにプロンプトをしているのかと尋ねるダイレクトメッセージをたくさん受け取ったので、例を紹介しようと思いました。視覚言語は、20年前に映画学校で脚本を学んで以来、私が取り組んできたものです。それ以来、35以上の脚本と数百の散文短編小説を書き、執筆とストーリーテリングの勉強を止めたことはありません。私はそれらのスキルをプロンプトライティングに使用しています。以下は、短編の重要なシーンの1つの具体的な例です。 プロンプトの例: 孤独な男が雪に半分埋もれて横たわっており、パーカーの毛皮の裏地付きフードは霜で固まり、まつげは氷で固まっています。かすかな息が凍える青いもやの中に逃げていくにつれて、彼のひび割れた唇は震えています。彼の顔は毛皮の縁取りの下で幽霊のように青白く、無精ひげは凍傷で縁取られ、赤いフランネルシャツは風雨にさらされて顎の半分までファスナーが閉まった革のジャケットの下からほとんど見えません。カメラは彼の顔に密着し、50mm レンズは浅い被写界深度を捉え、彼の息でレンズが曇る。吹雪が渦を巻き、風の音は氷の下の心臓の鼓動のようにくぐもっている。突然、彼の足元の地面が揺れる。低く、深く、捕食するような轟音。彼は茫然と瞬きをし、そして周囲の雪が波打つと急に立ち上がる。彼が走り出すと、カメラは 24mm のロートラッキングショットに切り替わり、ブーツが粉雪に踏みしめられ、足の周りで雪が爆発する。彼の背後で、地表が割れ、そして破裂する。男の呼吸が速くなる。必死に向きを変えるたびに、カメラは手持ちの不安定さで彼のパニックを映し出す。上空からのドローンアングル:小さくて暗い人影が無限に続く凍った平原を全力疾走し、その下には何か大きなトンネルが掘られ、その道は巻き起こった雪の嵐となり、生きた雪崩のように彼を追いかける。彼はよろめき、立ち直り、振り返る。目は大きく見開かれ、唇はひび割れ、息をするたびにパニックに陥る。ソラ2では、ニュアンスがモデルに意図を理解させるのに非常に役立ちます。必ずしも聞こえたり感じたりできないものを説明するだけでも、ある程度の文脈やサブテキストが加わります。LLM(言語モデル)は、視覚言語を微調整するのに最適な方法です。お役に立てれば幸いです!そして、これからもゲームを学び続けましょう。常に学び、向上していきましょう。











こんにちは、フルタニです。放送局で番組作りをしてました。『MY FRIEND, ZEPH』に見る 動画制作 3つの鍵を書きます。