
みなさま,今年もありがとうございました。
1年のしめくくりは四柱推命でもなく,新月満月でもなく,AIの話。
来年すぐに,四柱推命の記事でまたお会いできると思います。
ChatGPTを使い始めて1年が経ちました。
四柱推命の記事には,soraで生成した画像を使っています。
この1年で画像生成が各段に上がったんですが,モデルチェンジのたびに,作風が変わる・・・
ついこの間も,sora2が使えるようになった影響か?
今までのやり方が通用しなくなったので,ChatGPTと話し合って,いろいろ変えました。
ついでに,1年間の記事を見直してみると,ずいぶん変わったなーと思ったので,変遷を振り返ってみたいと思います。
- 初めての画像生成はDALL-E3
- OpenAI内製の画像生成に変わったらこんな感じ
- soraのモデルチェンジの影響?で起こったこと
- こんな感じに落ち着いた
- まとめ:AIを使うのに必要なのは,一周回って自分のコンセプトな気が
初めての画像生成はDALL-E3
1年前は,ChatGPT上で画像を生成していたと思います。
DALL-E3でした。
この頃はのんきにゆるキャラっぽいのがいいなー。
すみっコぐらし風がいいなー。
でもあくまでも「風」であって,一応オリジナルじゃないと著作権がねー。
みたいな感じで,
すみっコぐらし風だけどオリジナルでお願いみたいな感じで,ちょっとぼんやりしたゆるキャラ画像を生成してくれていました。
真ん中の画像がDALL-E3製。

DALL-E3の典型キャラってありましたよね。
3月くらいまでは,そういう感じでゆるーくやってました。
そして,プロンプト書くのも慣れてきた頃。
OpenAI内製の画像生成に変わったらこんな感じ
もはや名前も覚えていませんが,記事にしてた!
4o Image Generationっていってたそうです!
もし興味がありましたら,この記事を見ていただけると,当時の画像を貼ってますんでどんなことが起こっているかを分かっていただけると思います。
要は,すみっコぐらし風が通用しなくなって,まんますみっコぐらしやん!っていう画像が生成されるようになったのでした。
で,そこから,試行錯誤を重ねて,好みのゆるキャラ画像を作れるようになっていたんですが,
ついこの間,また,soraのモデルチェンジの影響?で,作風が・・・・・
soraのモデルチェンジの影響?で起こったこと
まず,その直前に生成された画像を見てみましょう。

雪景色でゆるキャラたちがマフラーとかしてる・・・・超超お気に入りの1枚です。
その直後にモデルチェンジ?で同じ感じで作ろうと思ったら,こんな感じになりました。

いや,違いますやん!
違うんや,それやない。
で,ChatGPTに泣きついた。
プロンプト変えてもらって,こんな感じになりました。

確かに色味は近づいた。
けどこれじゃない。
コレジャナイんだ!
ChatGPTにプロンプト変えてもらって,雪景色マフラー画像を読み込ませてみた。

そっくりですが,作り直してもらってます。
違う,丙午は夏!
マフラー巻いてる場合やないんや!
雪山も違うんや!
TAKE2.

確かに夏っぽくなった。
けど,なんでキミらはマフラー巻いたままなの?
という試行錯誤を繰り返し・・・・
こんな感じに落ち着いた
新しくなったらしきモデルに合わせて,設計を変えてもらうことにしました。
ChatGPTに。

作風は変わりました。
が,一応,一貫した作風でいけるようになったのと,自分の好みも反映できたので満足。
まとめ:AIを使うのに必要なのは,一周回って自分のコンセプトな気が
わずか1年のはずなんですが,ChatGPTというかOpenAI?の画像生成の歴史を語れるほど変わっている=進歩してるっていうのが,素直にすごいなーと思った一件でした。
正確には2件目ですが。
正直,画像生成に関しては,モデルチェンジのたびに,今まで積み上げてきたものが崩される感があり,なんだかなーと思わなくもないんですが,
乗り越えていると,吐き出されてくるものは,確かに良くなってる気がします。
それに,今回は,soraの生成時間がちょっと短くなってる気がします。
あと,ChatGPTも一旦5.1になって,そのときに,ちょっと変わってる感じなんですが,
すぐに5.2になって,一貫性が保ちやすくなったり,文章力が上がったりしています。
が,結果的には,
AIに必要なのは,
自分のコンセプト生成力と言語能力,コミュニケーション能力ではないかという気がしてきました。
どういう目的で
何を作りたいのか
それをどうやってAIに伝えるのか
という点ですね。
私はエンジニアでもクリエイターでもないので,偉そうなことはいえないのですが。
では,よい年をお迎えください。