サクサク読めて、アプリ限定の機能も多数!
トップへ戻る
新内閣発足
note.com/creative_edge
今までの画像生成の手法は全て忘れよう。8月26日以降の画像生成テクニック/FireflyにLuma AIのRay3が追加された - Diary 2025/09/19 GenAI Diaryこの日記は「自分用のメモ」であり、SNSの代替 公式のライブ配信がある日は更新されない PCを使っていると「ですます調」、スマホで書いていると「である調」になりやすい 2025年9月19日(金)日本に戻る。 寒いぞ! 気温12度?? 夜はさらに気温が下がり、ストーブが点火され、長袖の上着を2つもらって着込んだ。 毎年のことだが、この時期から一気に気温が下がる。 空気も乾燥しているので、風邪には要注意だ。 画像生成革命デザイン制作プロダクションとの意見交換会 日本語以外の言語の方が多かったので、通訳の人が(なんと!)4人も入っていただいた。感謝! ありがとうございました。 プロンプトを入力して、画像を生成す
素材データは、ライブに参加された方のみダウンロード可能です。 ライブの最後にZoomのチャットでお知らせしたURLにアクセスしてください。 アーカイブ動画から一部抜粋: 参考:ストーリー構築のプロセス参考:プロンプトの構造参考:プロンプトには業界用語を使用する必要がある参考:プロンプトでドラマの構造を指示する必要がある使い捨てのミニアプリで叩き台を生成する使い捨てのミニアプリキャラクターの声を作成するときのポイントElevenLabsオーディオタグの一部(プロンプトにはタグが必須となる)ElevenLabsオーディオタグの一部(プロンプトにはタグが必須となる)Fireflyでキャラクターのダミーを作成Suno AIでドラマのテーマ曲を作成Firefly Boardsに全ての情報を貼り付けておくFirefly Boardsはビデオも貼り付けることができるAfter Effectsを使う理由複
何度検証しても、Google Veo 3 最強/すでに始まっている生成AIを「使う人」と「使わない人」の格差/高校講座「デザインフィクション」開始/ - Diary 2025/07/29 GenAI Diaryこの日記は「自分用のメモ」であり、SNSの代替 公式のライブ配信がある日は更新されない PCを使っていると「ですます調」、スマホで書いていると「である調」になりやすい 2025年7月29日(火)毎回書いているが… 夏季は日本に近づいてはいけない。 8月は日本に戻りません… これからが夏本番 高校講座「デザインフィクション」COLORSプロジェクトで1日10時間使っているため、講座検証に時間がかかっていますが、デザインフィクションについては以下のようなスケジュールで進行しています。 7月31日(木)19:00 - 20:00 オリエンテーション 8月4日(月)第1回 8月12日(火)第
GenAI Diaryこの日記は「自分用のメモ」であり、SNSの代替 公式のライブ配信がある日は更新されない PCを使っていると「ですます調」、スマホで書いていると「である調」になりやすい 2025年7月11日(金)日本、暑い。 (今日は涼しかったが…) 来週は、日本を出る。 CL+の総合開発環境の構築にかなり時間がかかっているが、理想的な作業環境になりそう。 COLORSのエピソード2以降をスピードアップするための重要な準備。 30秒以上の動画生成最近は、30秒程度の長尺シーンを含むAIムービーが増えてきました。技術的に可能になったわけではなく、単に「延長」生成を繰り返しているだけなのですが、その手法がかなり巧みです。 1年ほど前から使用されている「生成動画の最終フレームを書き出す」方法も、今は4Kアップスケールや補正作業を追加したり、複数の動画生成AIを組み合わせるなどハイブリッド化し
2025年5月以降、画像生成の方法も様変わり!(4月以前の手法は破棄する)脱プロンプトさらに進む - Blog 2025/06/16 前回の続きです。 5月からの検証で、複数の生成AIモデルの「いいとこ取り」による最終アウトプットの品質向上が確実なものとなり、現在のベストプラクティスとして定着してきました。 「Fireflyだけ」「Midjourneyだけ」といった、1つのAIモデルに固執することのデメリットは、そのAIモデルの苦手な領域を許容しなければならず、結果的に品質を低下させてしまうことでした。Firefly Image 4 標準モデルFirefly Image 4 標準モデルFirefly Image 4 標準モデルFirefly Image 4 標準モデル同じプロンプトでも、生成AIモデルによって結果が変わります。 AIモデルごとの得意不得意が反映され、出力される内容の特徴や品
上級者のためのAdobe Firefly Image 4「プロンプト入力からマルチモーダル入力へ」 - Blog 2025/06/14 前回、解説した方法で引き続き検証を続けています。 Firefly Image 4 標準モデルの隠れた力を引き出す標準モデルを使う利点は「速度(speed)」「効率性(efficiency)」であり、「迅速なアイデア出し(rapid ideation)」や「日常的なクリエイティブニーズ(everyday creative needs)」に最適化されていること 。 このモデルが「一般的なクリエイティブ要件の90%」をカバーするとされている点も 、汎用性と速度を重視した設計思想を示唆しています。 標準モデルは、長年の画像処理技術の蓄積を活かし、U-Netを極限までチューニングすることで、速度と品質の最適なバランスを実現している可能性があります。ただ、速度を重視し
プロが使うAdobe Firefly 上級編/可能なかぎり「プロンプトを書かない」ことで「ガチャをまわす」生成から抜け出す[第2弾] - Blog 2025/06/09 昨日のオンライン講演の一部をnoteにも掲載しておきます。 講演タイトル: プロが使うAdobe Firefly 上級編 第2弾:能なかぎり「プロンプトを書かない」ことで「ガチャをまわす」生成から抜け出す プロンプトの精度を高める方法: 日本語で条件をインプットする ただし、語彙力が必要になるため、専用のミニアプリを生成して使用する LLMは英語で処理し、英語プロンプトを生成する 複数のLLM(ChatGPT, Gemini, Claude)で生成・比較し、プロンプトをAIモデルごとに最適化する 人間がプロンプトを書かなければ(AIプロンプトを使用すれば)、Firefly Image 4の実力を引き出せます。AIプロンプト
最新モデル「Google Imagen 4」を試してみる/誰が生成しても高品質、画像生成AIを使う優位性は低下 - Blog 2025/05/23 昨日からGoogle DeepMindの最新モデル「Imagen 4」が利用可能になりましたので、いつもの検証用プロンプトで試してみます。 今は、どの画像生成モデルも高性能なので、まったく驚きがないのですが「日常系の表現」なら、間違いなく「Imagen 4」が画像生成モデルの中で最も優秀。しかも、LLM (Google Gemini)で誰でも簡単に生成できるという手軽さは、競合サービスにとって脅威。 参考: Imagen - Google DeepMind 他の画像生成AIモデルとの比較明確に違いがわかるのは、「手の関節」「指の長さのバランス」「爪の厚みや質感」です。 人物の「骨格」の正確性 人物の「手の関節」「指の長さのバランス」「爪の厚みや
COLORSプロジェクトでは、学習データが告示されていない画像生成AIモデルでイラスト表現の生成(作品化)は実行しないという方針だったので、漫画やイラストレーション領域の検証はほとんどやっていませんでした。 3~4月にLLMの性能が飛躍的に向上したことで、ビジュアルのスタイル開発にも十分活用できるようになり(今回初めて)漫画スタイルの検証も実施しました。 検証内容の一部をメモしておきます。 使用したのは、ChatGPT 4o / o3です。 画像生成AIモデルは、Midjourney v7を使いました。 Midjourney v7開発するプロンプトの構造は「Subject + Scene + Style」で、ChatGPT 4o / o3を使用するのは「Style」の部分です。まず、Midjourney v7でランダムに生成したイラスト/漫画表現の画像の中から検証対象を選び、ChatGPT
同一の人物を生成できるMidjourney v7の新機能「Omni Reference」の検証 - Blog 2025/05/03 Midjourney v7の新機能「Omni Reference」が利用可能になりましたので、試してみます。 同等の機能はすでに多数の画像生成AIモデルに搭載されていますので、目新しさはありませんが、v7では待望の実装です。 Midjourney v7参考: Omni Reference Using an Omni Reference allows you to put characters, objects, vehicles, or non-human creatures from a reference image into your Midjourney creations. Omni Referenceを使用すると、キャラクターやオブジェクトを一貫性
Fireflyが凄い高性能になった!/Adobe FireflyでGoogle Veo 2, Imagen 3, OpenAI ImageGenが利用可能に - Blog 2025/04/24 本日、Firefly Image 4とImage 4 Ultraがリリースされましたが、Google Imagen 3 とOpenAIの画像生成モデルも利用可能になっています。Google Imagen 3 とOpenAIの画像生成モデルも利用可能最新モデル「Firefly Image 4 Ultra」を試す早速、最上位のモデル「Firefly Image 4 Ultra」で生成。 プロンプト: A photograph of a young Japanese woman with black hair and bangs wearing a cute plaid shirt and a backp
ChatGPT 4oで実写系キャラクターを設計するためのベストプラクティス/次世代のPhotoshopについて考える - Blog 2025/04/12 先週から、CL+の活動に「対話型の新しいデザインワークの検証」が追加されました。 「次世代のPhotoshopについて考える」シリーズと並行して、2〜5年後に主流になり得る新しいデザイン手法についての検証を続けています。 Creative.Edge CL+ について 今日は、実写系キャラクターをChatGPT 4oで設計するプロセスをメモしておきます。 ChatGPT 4oで実写系キャラクターを設計するChatGPTとの対話を促すために、わざと情報不足のプロンプトを入力します。プロンプト: 日本人の若い女性の正面を向いた顔を生成してください。 当然、条件が足りないのでChatGPT 4oから質問されます。 ChatGPT 4oからの質問:
Google Imagen 3とOpenAI Image Generation今回は、総合的に最も優れている画像生成AI「Google Imagen 3」と「OpenAI ImageGen」を同じプロンプトで比較してみます。 ※検証結果の一部を掲載します。 この2つがなぜ、高性能なのか以下の記事を参考にしてください。 やはりGoogle Veo 2が最も高性能。KLING v1.6と同等の表現力を持ったRunway Gen-4の実力は? 検証プロンプト: 1960年代の日本の木造住宅の居間で日本人の女子学生が座布団に座ってテレビを観ている。 A Japanese female student is sitting on a zabuton cushion drinking tea in the living room of a Japanese wooden house from the
Midjourneyの最新バージョン7はアイディエーションツールに進化した!/プロンプトの無価値化 - Blog 2025/04/04 本日、Midjourneyの最新バージョン7がリリースされましたので、注目のドラフトモードを試してみます。 まず、パーソナライゼーションのアンロックが必要なので、下図の赤いボタンをクリックして、表示されるペア画像から好みの画像を200選択します。好みの画像が無い場合は、スキップしながら進めます。 私は「写真と区別できないレベルのリアルな実写画像」だけ選択しました。なかなか出てこないので、スキップの連続となり、20分くらいかかりました。 ※パーソナライゼーションはAIモデルごとに実行する必要があります。バージョン6.1のデータは引き継ぐことができません。 参考: Version 7 Personalization 最低200画像のランク付けする必要がある「D
今日からOpenAI Soraで画像生成も可能になったが、最新の画像生成モデルの性能が想像以上に高かったので、いくつか掲載しておきます。 プロンプト: A young Russian woman with short hair is getting changed into a stylish silver space suit inside the space station. OpenAI Soraによる画像生成OpenAI Soraによる画像生成OpenAI Soraによる画像生成OpenAI Soraによる画像生成プロンプト: Delicious Japanese ramen. Rich miso soup with corn, roast pork and bean sprouts. The shimmering steam. The drops of broth that fa
明日の第22回 GenAI 報告会、よろしくお願いいたします。 2025年、最初の報告会になります。 ※Zoomの上限に近づいています。上限に達すると自動的に参加受付が終了してしまいますのでお早めに!(以下のページに申し込みのURLがあります) 第22回 生成AIとクリエイティブ報告会 [1月25日] のお知らせ 映画制作の動画生成AIについて映画制作ではRunway Gen-3 Alphaが主力でしたが、12月19日にリリースされたKLING AIのバージョン1.6が最も高性能な動画生成AIとなり、比較検証を続けてきました。 今回、様々なシーンでKLING v1.6がRunway Gen-3 AlphaやOpenAI Soraを上回っていることが確認できましたので、メインツールをKLINGに変更しました。プロンプト応答性の向上: プロンプト入力に対するモデルの理解力が強化され、複雑なシー
仕事始め。 生活労働の空き時間を使って、映像ラフスケッチ。 頭にの中にある漠然としたイメージを動画生成AIで映像化する「息抜き」、ラフな作業。 5月からスタートする高校講座「デザインフィクション」では、20年後・50年後の未来を「実写映像でみせる」ことで問題提起するプロジェクト学習が主となる。今回の高校講座で初めて動画生成AIを活用。 教育の現場で使用できる安全な動画生成AIは今のところ、Firefly Videoだけなので試行講座はまだ実施できない(Firefly Videoはまだ一部のユーザーしか使えないため)。 動画生成についての賛否もあるので引き続き意見交換を続けていく。 生成AIを学ぶ高校講座「デザインフィクション(仮称)」に関する意見交換会[1]/動画生成AIを使用したフェイク映像に対する教育案 生成AIによる映像制作を体系的に学ぶ4時間/新講座「デザインフィクション」および後
元旦から廃業宣言・自分が過去数十年やってきた仕事のスタイルは生成AIによって成立しなくなる/ Blog - 2025/01/01 2025年元旦 2016年11月からスタートした「AIクリエイティブ」は8年、生成AIに注力してから2年経ちました。昨年は本業のInstructional Designを「0」、生成AIを「100」にして取り組んできましたが、2025年も継続していきます。 ただ、「映画を撮らない映画監督のように」今後も表舞台ではInstructional Designerを名乗ります。 廃業宣言みたいなものですが、生成AIをビジネスにすることだけは避けないといけませんので(※生成AIは最大限に活用するけど生成AIのビジネスはしない)、複合的かつ多層的に将来を決めていきたいと思います。 「AIクリエイティブ」活動は8年、生成AIの取り組みは2年経過4月から開始した非公式のライブ配
[速報] 先ほど、Runway Gen-3に待望の「Image to Video」が実装されたので試してみる/深夜の突発ライブ 深夜の突発ライブ月曜の深夜1時39分、Runway Gen-3 Alphaに待望の「Image to Video」が来たので早速、突発ライブを開始しました。 Luma Dream Machineを解約することになるのか? (KLING も不要になるのか?) あるいは、一長一短でこの3つの動画生成AIを引き続き併用することになるのか? じっくり検証して、今夜のライブ配信(第32回目)でお話します。Runway Gen-3 Alphaの画面: 画像ファイルをドラッグしてアップロードできるように16:9の比率にするためのCrop画面: アップスケーラーはまだ実装されていないので生成サイズは1280x768のままプロンプトを入力、もしくは入力せずに生成: プロンプトがどの
Je m'appelle Creative.Edge (je suis japonais). Je réalise des films indépendants en utilisant l'IA générative. Je m'appelle Creative.Edge (je suis japonais). Je réalise des films indépendants …もっとみる
動画生成AIの使い方が様変わり。今までの記事はもう役に立たない。Runway Gen-3 AlphaによるMV制作 - Blog 2024/07/16 引き続き、Runway Gen-3 Alphaを使用したMVプロトタイプ制作を進めています。Gen-3にImage to Videoが実装されたら、本格的に映画制作を再開しますが、今のところMV制作のみ。 Gen-3 Alphaのプロンプト開発今やっている作業の流れは、初期プロンプトの生成から始まります。 GPT-4とClaudeを使ってMidjourney V6で生成したイメージを分析させ、プロンプトにしますが、そのままでは使えないので、強度の高いワードを調べて複数のプロンプトを組み合わせます。 GPT-4とClaudeを使って初期プロンプトを生成 これはカスタムプロンプトの素材になるGen-3 Alphaで強度の高いワードの調査をします
先月26日、Adobe FireflyのUIが刷新され、「構成参照(structure reference)」という新機能が搭載されました。 この機能は、アップロードした画像を参照してオブジェクトの位置や大きさなどを生成イメージに反映させることができます。 昨日のライブ配信では、この「構成参照」を取り上げましたが、想像以上に「脱プロンプト」を推し進める実用度の高い機能だということがわかりました。 [ライブ配信]Creative.Edge Live - 1:新しいAdobe Fireflyの新機能を探求する 詳細はライブ配信のページをご覧ください。 例えば、製品モデルの3DモックアップをFireflyのリファレンスにすると… 無料の3DCGツール「DAZ Studio」を使用以下のように、3D画像とほぼ同じ構図のイメージが生成されます。 Fireflyの生成結果スタイル効果を適用したり、プロ
新しいAdobe Fireflyで人物や動物の複雑なポーズが可能になった![ライブ配信]- Blog 2024/04/02 第1回目は、先月の26日にリリースされた新しいAdobe Fireflyを取り上げます。新機能の「構成参照」の探求です。 既存の「スタイル参照」と組み合わせることで、プロンプトでは表現不可能だった人物の複雑なポーズなどが可能になりました。 1つの手法として、3DCGをFireflyのリファレンスにしたワークフローを考えてみたいと思います。 3DCGツールでFireflyのリファレンスを作成した結果無料で提供されている3DCGツール「DAZ Studio」を使用します。 DAZ Studio以下は、DAZ Studioで作成した3DCG画像をFireflyのリファレンスにして生成した結果です。高忠実度のイメージ生成に驚いてしまいました… Adobe Fireflyの生成
Microsoft Copilot Pro「全世界のWindowsユーザーが生成AIを意識せずに、当たり前のツールとして使いこなす未来」- Blog 2024/1/7 Copilot Pro が個人でも利用可能になったので、大まかにCopilotの全体像を理解した上で、操作しながら試してみました。 私はMacユーザーですが、Copilotを検証するために先週からWindowsをメインにしています。WordやPowerPointはまだ慣れていないので、今日は記録のみ掲載。 Copilot ProCopilot Pro パフォーマンスを高速化し、創造性を高める機能を希望するユーザーには、Copilot エクスペリエンスを向上させる Copilot Pro がおすすめです。この月額サブスクリプション製品には、Copilot のすべての機能に加え、次を実現する機能が含まれています。 ・ピーク時でも
Midjourney V6とV5はまったく別のもの! 大半のプロンプトは共有できない - Blog 2023/12/21 Midjourney Model V6 (alpha) が利用可能になったので、試してみました。 さすがに(今後、仕様が変更される可能性がある)アルファバージョンの検証はできないので、ファーストインプレッションのみ書き留めておきたいと思います。 V 6 (alpha) の生成結果Midjourney Model V6 (alpha)これはアルファテストです。仕様は予告なく変更される可能性があります。 アルファバージョンでのプロンプトの試行錯誤は資産にならない可能性があります。 V5よりも処理に時間がかかり、GPUを消費します(Relax modeはサポートしています)。 V6でのプロンプティングはV5とは大きく異なります。 プロンプトエンジニアリングを「再学習」する必要
2週間後の東京の街並みを生成してみる -[6]動画生成AIで自主映画制作は可能か? - Blog 2023/12/10 「動画生成AIで自主映画制作は可能か?」シリーズの第6回目です。 [1] 動画生成AIで自主映画制作は可能か?(2023/11/17) [2] 動画生成AIで自主映画制作は可能か?(2023/11/23) [3] 動画生成AIで自主映画制作は可能か?(2023/11/28) [4] 動画生成AIで自主映画制作は可能か?(2023/12/06) [5] 動画生成AIで自主映画制作は可能か?(2023/12/08) 映画制作プロジェクトの概要:生成AIが今後クリエイティブ業界に与える影響を検証する目的で実施 最長2分20秒のビデオプロトタイプを制作する ストーリー構築からビジュアルデザイン、映像制作まで全てのプロセスで生成AIを活用する(※サウンドのみAdobe Stockか
Adobe Illustrator 28.0に実装された「テキストからベクター生成 (Beta)」を探求するプロジェクトを開始。 先週末の「イラレの生成AIを探求する」ライブでは(非公式な)ベクターイラスト生成AIチャレンジに参加しましたが、世界には強者がたくさんいる。イラレの達人クラスの人達しかいなかったので、いきなりハイレベルの戦いになりました… けっきょく、生成AIを使いこなすイラレの達人が最強ということを痛感。 Adobe Fireflyの本体はテキストプロンプトに依存しないUIを実装したユーザーフレンドリーなクリエイティブツールに進化していますが、イラレの生成AIはまだベータ機能で原始的なプロンプト入力なので、ガチャをまわし続けることしかできません。 あと、アイコンやロゴ、UIパーツなどは今のベータ機能だと生成が雑なので、あまり使えない。 とはいえ、下図のようなベクターグラフィッ
Blog - 2023/10/16 再びMidjourney, Adobe Firefly, DALL·E 3 を比較する Fireflyの新モデル(ベータ版)が登場しましたので、再び3つの画像生成AIを比較してみます。Fireflyは新モデルを使用します。 画像の品質ではMidjourneyのAesthetics Systemが最も優れていると思いますが、プロンプトの内容を反映する技術の評価はどうでしょう? 今回は、Midjourneyで意図したとおりに生成できなかったプロンプトを使用したいと思います。 まず最初は、以下のプロンプトで確認します。 プロンプト: film still, A very pretty young Russian woman wearing a hat with bushy cat ears stands on the snow in Antarctica Mi
Adobe Illustraor 28.0に搭載された生成AI(ベクターグラフィックの生成)が衝撃的だったので、このページにまとめていきます。 イラレの生成AIの探求は以下の新しいページに掲載しています 新しいイラレ生成AI関連ページイラレの生成AIでハロウィンのイラストを描こう! イラレの生成AIでイラストを描くLive - 2023/10/14-15 Adobe Illustrator「イラレの生成AIを探求する」ライブ配信 イラレで生成したベクターグラフィック本日からロスアンゼルスでAdobe MAX 2023がスタートしましたが、遂にAdobe Illustrator(バージョン28.0)に「テキストからベクター生成 (Beta)」が実装されました。Adobe Fireflyのベータ版が登場した時から待機リストに掲載されていたので、いつ搭載されるのか注目していました。 参考:Ill
次のページ
このページを最初にブックマークしてみませんか?
『CreativeEdge CL+|note』の新着エントリーを見る
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く