新しいアプリを触るときって、「あれ?このボタンどこ」「メニューの海で溺れそう」ってなりますよね。
そこで今日の主役は Google AI Studio の「Stream Realtime」。
これ、あなたの“今の画面”をGeminiにそのまま見せて、会話しながら操作を教わるっていう、ちょっと未来な学習法です。しかもリアルタイム。
画面を見てつまづいた時、AIに瞬間に聞く方法を解説します。
Stream Realtime と画面共有でAffinityの操作をマスターする方法
なにができるの?ざっくりイメージ
- ブラウザからAI Studioを開く
- 「Stream Realtime」を選ぶ
- **Share your screen(画面共有)**を押して、いま見ているアプリのウィンドウを選ぶ
- マイクONで話しかける or テキストで質問
- Geminiがあなたの画面を見ながら、手順や場所をその場で教えてくれる つまり“リモート家庭教師”。説明は短く、行動は速く。
準備:最初の5分でここまでやる
1)AI Studioにログイン
Googleアカウントで AI Studio にアクセス。左メニューにStream / Live系のメニューが見えたらOK。
2)「Stream Realtime」を開く
メニューからStream Realtimeを選択。画面には「Talk to Gemini / Show Gemini / Share your screen」みたいな選択肢が並びます。今回は “Share your screen”。
3)共有する画面を選ぶ
「画面全体」「ウィンドウ」「タブ」から共有範囲を選択。迷ったらウィンドウ共有にして、作業アプリだけ見せるのが安全。ポップアップ通知や個人情報が映らないように注意です。
4)音声会話を有効化(任意)
マイク権限を許可すれば、喋って相談 → 喋って返答のテンポが実現。Geminiのリアルタイム対話はLive / Multimodal Live APIに支えられていて、低遅延でサクサク話せます。
5)セッション開始
「今ここでつまずいてます」と最初に状況をひと言。Geminiが画面の文脈を掴みやすくなります。終わったら「Stop sharing」で終了。
使い方:質問の“投げ方”が9割
コツ1:“どこで”“なにをしたいか”を1文で
例)「Affinityで“色相・彩度”を開きたい。今の右側パネルでどこを押せばいい?」
目的+場所をセットで言うと、Geminiの返答がピンポイントになります。
コツ2:“今の画面”を起点に
例)「右上の歯車アイコンからプリセットを作りたい。次は?」
画面共有の強みは“いま見えてるUI”で話せること。操作の迷子が一気になくなる。
コツ3:音声+ショート発話でテンポを上げる
長ゼリフより短く区切って質問。Geminiは連続ストリームに強いので、キャッチボールが速い。
コツ4:権限と安全
共有は必要最小限に。通知OFF、作業用プロファイル、見せたくないフォルダは閉じる—この3点をルーティン化。
劇的に効く“シーン別”の使い方(具体例)
シーンA:Affinityで色を整えたい(静止画編集)
- Affinityを開いた状態でShare your screen。
- 「この写真をドラマチックに。まずコントラストと彩度、どこから触ればいい?」と質問。
- Gemini:右パネルの調整(Adjustments)→色相・彩度→スライダーで試して、と画面基準で指示。
- 「肌が派手になりすぎた。色相だけ少し戻すには?」と続けて深掘り。 “迷った瞬間”に必要なUIだけ教えてくれるので、最短ルートで結果に到達します。
シーンB:Premiere Proでテロップを動かしたい(動画編集)
- タイムラインを見せながら「このテロップを2秒でフェードインしたい」と相談。
- Geminiがエフェクトパネルの場所→ドラッグ先→キーフレームの打ち方まで順番付きで案内。
- 「思ったより強い…」→強度/速度の調整もリアルタイムで微修正。 —マニュアル検索より**“いまのタイムライン”前提**の説明が早い。
シーンC:ブログ用のヘッダー画像を作る(CMS+画像編集)
- CMSのプレビューと画像編集アプリを並べて共有。
- 「1920×600で、テキストが読みやすい配置にしたい。余白はどれくらい?」
- Geminiがキャンバス設定→フォント大小→余白→書き出しまで連続で提案。 “完成物から逆算”してくれるので、迷いが減る=執筆に集中できます。
収録・記録のすすめ(あとで“資産”になる)
- 画面録画:操作+AIの指示=そのままチュートリアル素材。
- スクショと手順ログ:ブログ記事に再構成しやすい。
- NG集も宝:つまずきポイントは読者・視聴者の“刺さる”部分。
トラブル時のミニFAQ
Q. 画面共有ボタンが見つからない
A. Stream/Live画面でShare your screenを探してください。UIは時期で名称ブレがあります(Stream/Live/Realtime表記)。
Q. 音声返答が遅い/不安定
A. マイク権限とネット回線を確認。Live API系は低遅延設計ですが、帯域が細いと厳しいです。
Q. モバイルでもできる?
A. GeminiのLive系はモバイルにも広がっています(Androidでのカメラ/スクリーン共有機能の案内あり)。PCではAI Studioが分かりやすいです。
うまくいく人のチェックリスト(短く強い習慣)
- 共有前に通知OFF/不要タブ閉じ
- 目的→場所→操作の順で質問
- 短い発話でテンポ良く
- 終了時に録画を保存、翌日の自分に優しく
- 同じ型でブログ記事化して“資産化”
まとめ
「わからない」を抱えたまま検索地獄にハマると、制作の熱がスーッと冷めます。
Stream Realtimeで“今の画面”を見せながら会話すると、人に教わる感覚で進められて、気持ちが折れない。動画編集でもブログでも、迷いの時間がゼロに近づくのは正義です。
今日のポイントは3つだけ。
- AI StudioでStream Realtime → Share your screenまで一気に。
- 目的+場所+操作の“短い球”を投げる。
- 素材は録画して資産化、次の制作へ。
“作る喜び”を止めない工夫、これからも一緒に増やしていきましょう。では、良い編集・良い執筆を!🎬✍️
参考リンク(操作イメージの裏付け)
- Google AI Studio 公式サイトとLive/Streamの概観。
- Live(Multimodal Live API)の低遅延・リアルタイム性について。
- AI StudioのShare your screen/Stream Realtime手順・UIの実例。
- 画面共有のユースケース(画像編集など)。
- モバイル側のLive/画面共有の提供状況の参考。
※UI名称や配置はアップデートで変わることがあります。画面内の**“Share your screen”“Stream/Live”**といったキーワードを目印に探してください。
ー
✨ 実際に使ってみたリアル体験レポ
はい、というわけで!実際に「Stream Realtime」を使って、僕がAffinity Photoの操作をAIに教わったときの話をしましょう。
これがね、めっちゃ面白かった。
▶ シーン1:まさかの“レイヤー地獄”から救出される
Affinityで、背景のレイヤーを削除したいのに…削除できない!
「えっ、なんで!?」「ロックかかってる?」「ダブルクリックしても反応しない…」
――そう、よくある初心者の“詰み”ポイント。
そこで思い出したのがStream Realtime。
Google AI Studioを開いて、「Share your screen」をポチ。
マイクONで、「今ここで詰まってるんですけど!」って話しかけたんです。
するとGemini(AI)が、ちょっと間をおいてからこう言った。
「画面右下のレイヤーパネルを見てください。背景レイヤーに鍵アイコンがありますね?それを右クリックして『ロック解除』を選びましょう。」
――あっ、これか!!!
マニュアルをググっても「削除は右クリックで可能」くらいしか書いてなかったけど、
“画面を見て教えてもらう”と、ほんと数秒で理解できる。
この瞬間ね、「AIと会話で作業できる時代が本当に来たな…」って、
ちょっとゾクッとしました。
▶ シーン2:AIが“空気を読む”瞬間
次は「この写真、もうちょっと温かみがほしい」って言ったら、
Geminiが「それは“色温度”を上げると良いかもしれません」と返してくれた。
で、右のツールを開いてくれた後に、
「ただし、肌が黄色くなりすぎる場合は‘色被り補正’も少し調整すると自然です」
ってアドバイスまでしてくれるんですよ。
すごくない?
「いい塩梅」まで読んでる。
しかもリアルタイムだから、僕がスライダーを動かすのに合わせて
「今のバランス、いい感じです」って声が返ってくる。
いやもう、“人間の先生”みたいでした。
▶ シーン3:動画編集アプリでも神アシスト!
今度はPremiere Proで、テロップをスライドインさせるアニメーションを作ろうとしてた時。
「キーフレームってどこに打つんだっけ?」って、毎回忘れるやつ。
そこで再びStream Realtimeを起動。
タイムラインを共有して「このテロップを2秒で右から出したいです」と言ったら、Geminiがこう返してきた。
「再生ヘッドを0秒位置に置き、テキストを画面外へ。2秒地点にヘッドを移動して、位置を中央へ戻します。これで自動的にキーフレームが2つ追加されます。」
…やってみたら、完璧に動いた。
で、僕が「ちょっと動きが速いかな」って言うと、
「では再生時間を3秒にして、緩急を付けてみましょう」
ってすぐ提案。
もう“相棒”なんですよ、完全に。
💡 ここがポイント:Stream Realtimeのスゴさを3行で
- AIが“あなたの画面”を見て理解する。
- 質問に“いまの状況”で即答してくれる。
- 操作をリアルタイムで修正できる。
つまり、マニュアルとかチュートリアル動画を探してる時間が、まるごと無くなる。
“操作中にその場で聞ける”って、本当に革命的です。
⚙️ さらに踏み込む!プロっぽく使う小技
🧭 1. スクリーン録画で「AIとの会話」を記録
AIの指示をそのままキャプチャしておくと、後で記事や動画に再利用できます。
「AIがこう言って、自分がこう操作した」って流れが、最高のチュートリアル素材になるんですよ。
僕はこれを「AIレッスン実況」としてYouTubeネタにもしてます(笑)
💬 2. 言い方のコツ
AIは“文脈”で理解するので、
「○○したい」よりも「このボタンを押すとこうなるけど、正しい?」と聞くと精度が上がります。
つまり、「方向性をAIに委ねる」より、「いまの自分をAIに見せる」ほうが良い。
🧠 3. “つまづきノート”を作る
AIに聞いた内容をテキストログにまとめておくと、自分用マニュアルが出来上がります。
これが、ブログ記事の種にもなる。
僕はこの“つまづきログ”から記事タイトルを作ることが多いです。
例:「【解決】Affinityで背景レイヤーを削除できない!→Geminiに聞いたら秒で解決した件」
SEO的にも強いし、リアルな体験談だから読まれる。
🧩 応用編:Gemini×制作の未来
これね、将来的には「リアルタイム共同編集」みたいな形にも広がると思うんですよ。
例えば、ブログの記事構成をAIに見せながら、
「ここの見出し、流れ的におかしくない?」
って相談したり、動画の編集画面を共有して、
「このBGM、尺に合ってる?」
って聞けるようになる。
実際、Gemini Live APIでは既に音声・画像・画面入力をリアルタイムで扱えるようになってます。
だから、「Stream Realtime」はその“入口”。
この感覚に慣れておくと、これからのAI制作の波にちゃんと乗れるんですよね。
🌈 まとめ:迷ってる時間を、創る時間に変えよう
AIに聞くって、まだちょっとハードル高く感じる人もいると思う。
でも実際に「画面を見せて相談」してみると、めちゃくちゃ自然なんです。
そして何より、気持ちがラクになる。
わからないことを放置せず、その場で解決できる。
それだけで、編集も執筆もスピードが上がります。
最後にひとこと!
迷ったらね、
Geminiに見せちゃおう。
それだけで、きっと“今よりちょっと”クリエイティブが楽しくなる。
AIがあなたの作業相棒になる日、もう始まってます。
というわけで!
今回のテーマは「Google AI Studio『Stream Realtime』で、アプリ操作をリアルタイムで教えてもらう方法」でした。
これ、ほんとに便利だからぜひ試してみてください。
それではまた次回。
「AIと一緒に作る時代」、楽しんでいきましょう〜!🎬✨











こんにちは、フルタニです。放送局で番組作りをしてました。 Stream Realtime と画面共有でAffinityの操作をマスターする方法