i4U編集主幹の鷹木です。最近、iPhoneを最初に買った2007年当時のことをよく思い出すんですよね。あの頃、知り合いのテック系記者たちはみんな、いわゆるガラケーを使っていて、「iPhoneなんか、はやらないよ」と言っていたんですよね。ところが実際は……。
そんなことを思い出しながら、今回の鵜の目「鷹木」の目では、イラスト生成AIについて考えたいと思います。
そんなことを思い出しながら、今回の鵜の目「鷹木」の目では、イラスト生成AIについて考えたいと思います。
生成AIは、YouTubeのようなもの?
さまざまな可能性を見せてくれる生成AIですが、クリエイターからは、反発する声も根強く出ています。イラストレーターなどによる反発のほかに、俳優や音楽家などの団体が芸能従事者の技術や権利の保護を求める記者会見もありました。報道によると会見では、声優や芸術家、スタントマンの方なども、技術の継承の危機などを訴えたとのことです。
反発したくなるクリエイターの気持ちも分かります。既存のしくみを大きく変えてしまう可能性があるし、仕事が奪われる可能性もありますもんね。
新しいものが出てくると怖がられて否定されることはよくあります。例えばYouTube。当初はテレビ業界の人達の反発がものすごくて。私も、YouTube黎明期にテレビ業界の友人と飲んだ時、何の気なしに「将来はYouTubeが世界を席巻するかもね」と話したら、ものすごくキレられてしまって、飲み会が台無しになったことがありました……。
でも今は、テレビ業界の人たちも、YouTubeを受け入れて自分たちのビジネスにしていくことに前向きだし、ネットにつながるテレビを使ってお茶の間でYouTubeを観る人も多い。いまや地上波は、YouTubeも取り込んでいかないと番組の占有時間を保てなくなっています。
一方で、僕たち編集や出版の業界の人は、AIにあまり反発がなく、どう活用できるか考えている人が多いように思います。ネットの登場以降、ずっと荒波にもまれてきたからかもしれません。
出版は、紙からネットや電子書籍にプラットフォームが移り、ブログやTwitterなどの個人メディアと競合し、僕らはいつ仕事がなくなるか、どう生き延びるかということばかり考えてきたように思います。だから、今また新しいものが出てきても驚かないし、取り込むしかない、と考えます。
これまで、ビジネスの危機にあまりさらされてこなかった業界で働いていて、既存のビジネスに最適化してうまくいっている場合は、かえってAIに絶望感があるのかもしれませんね。
とはいえ、僕もChatGPTが出てきたとき、一度は「僕らの仕事はなくなるんじゃないか」と不安になりました。ChatGPTを使った文章だけで作るメディアの運営なんかも試したんですが、結論としては「人間が手を加えた記事ほど、面白いし、読まれる」ということでしたね。
反発したくなるクリエイターの気持ちも分かります。既存のしくみを大きく変えてしまう可能性があるし、仕事が奪われる可能性もありますもんね。
新しいものが出てくると怖がられて否定されることはよくあります。例えばYouTube。当初はテレビ業界の人達の反発がものすごくて。私も、YouTube黎明期にテレビ業界の友人と飲んだ時、何の気なしに「将来はYouTubeが世界を席巻するかもね」と話したら、ものすごくキレられてしまって、飲み会が台無しになったことがありました……。
でも今は、テレビ業界の人たちも、YouTubeを受け入れて自分たちのビジネスにしていくことに前向きだし、ネットにつながるテレビを使ってお茶の間でYouTubeを観る人も多い。いまや地上波は、YouTubeも取り込んでいかないと番組の占有時間を保てなくなっています。
一方で、僕たち編集や出版の業界の人は、AIにあまり反発がなく、どう活用できるか考えている人が多いように思います。ネットの登場以降、ずっと荒波にもまれてきたからかもしれません。
出版は、紙からネットや電子書籍にプラットフォームが移り、ブログやTwitterなどの個人メディアと競合し、僕らはいつ仕事がなくなるか、どう生き延びるかということばかり考えてきたように思います。だから、今また新しいものが出てきても驚かないし、取り込むしかない、と考えます。
これまで、ビジネスの危機にあまりさらされてこなかった業界で働いていて、既存のビジネスに最適化してうまくいっている場合は、かえってAIに絶望感があるのかもしれませんね。
とはいえ、僕もChatGPTが出てきたとき、一度は「僕らの仕事はなくなるんじゃないか」と不安になりました。ChatGPTを使った文章だけで作るメディアの運営なんかも試したんですが、結論としては「人間が手を加えた記事ほど、面白いし、読まれる」ということでしたね。
AIで市場は拡大するはず
イラストレーターの世界で考えると、インターネットやデジタル化などの技術でビジネスが拡大してきた面も大きいと思います。僕が会社員編集者をしていた2000年代前半を振り返ると、イラストレーターさんを探すのは、ものすごく大変でした。有名な人は単価がすごく高いし、手頃な価格で頼める人は、人づてに紹介してもらうしかなかった。でも今はみなさん、ネットに作品を発表されているので、Twitterやpixiv、クラウドソーシングサイト経由で探せます。依頼もしやすくなり、イラストの市場全体が拡大したと思います。
僕も、AIを使い始めてから絵をよく見るようになりました。AIが作る絵は指が6本あったり、変なのも多いから、絵そのものへの許容度が上がったり、イラストレーターがちゃんと描く絵の価値も分かったりします。
AI絵師が増えると、むしろ市場が活性化していくとも考えられます。いろんな人が描くほど、いろんな絵が出て市場は拡大する。マクロ経済が上がるほど、ミクロも引っ張り上げられる。
技術は仕事を楽にする面もありますよね。たとえば漫画を描く道具も、昔はつけペンと専用の紙でしたが、今はデジタルで、スマートフォンでも描けるようになり、デジタル漫画が発展して市場が広がりました。
生成AIを、市場の拡大や仕事が楽になる流れの中に置けると、気が楽になると思います。
僕も、AIを使い始めてから絵をよく見るようになりました。AIが作る絵は指が6本あったり、変なのも多いから、絵そのものへの許容度が上がったり、イラストレーターがちゃんと描く絵の価値も分かったりします。
AI絵師が増えると、むしろ市場が活性化していくとも考えられます。いろんな人が描くほど、いろんな絵が出て市場は拡大する。マクロ経済が上がるほど、ミクロも引っ張り上げられる。
技術は仕事を楽にする面もありますよね。たとえば漫画を描く道具も、昔はつけペンと専用の紙でしたが、今はデジタルで、スマートフォンでも描けるようになり、デジタル漫画が発展して市場が広がりました。
生成AIを、市場の拡大や仕事が楽になる流れの中に置けると、気が楽になると思います。
“その道のプロ”のほうがAIを使いこなせる
イラストAIにできないことは、たくさんあります。例えば、人の意図や思いを反映した絵は、AIには簡単には描けない。
画家のピカソは、カメラが登場したことを契機に、写実的な絵から抽象画に転向したといわれています。カメラで代替できるような客観的な描き方ではなく、自分が感じたまま、見たままを抽象的に描いたんですね。一方で、写真にもプロのカメラマンなら主観的な意図を入れることもできる。AI自体にも、主観的な文章やイラストが重要になるのではないかと思います。
例えばChatGPTで人間が読んで面白いと思う文章を作るには、求める内容や構成を“呪文”といわれる「プロンプト」で定義してやる必要があります。この定義も、現時点では機械にはできないことかもしれません。目的を熟知して初めて言語化して定義できるわけで、そこにプロとそうじゃない人の差が出るのではないか。イラストで言うと、光の表現や構図などいろんな要素を定義してやる必要があるから、描ける人ほどAIもうまく使えるんじゃないかなあと思うんですね。
冒頭で紹介した記者会見では、スタントマンがAIへの危機感を話していましたが、スタントマンなら、AI学習用に自分の演技モデルを売るといいと思うんですよね。スタントをAIで作るには、人間の動きをモーションキャプチャしたデータが必要ですから。
現状のAIでは、まだまだ人間の仕事を再現できません。静止画でも指の本数が再現できなかったりするぐらいですから。実際に使ってみると、生成AIは全然万能ではない。プロの芸能人従事者やイラストレーターなどがやっていることのほうがすごいんです。
画家のピカソは、カメラが登場したことを契機に、写実的な絵から抽象画に転向したといわれています。カメラで代替できるような客観的な描き方ではなく、自分が感じたまま、見たままを抽象的に描いたんですね。一方で、写真にもプロのカメラマンなら主観的な意図を入れることもできる。AI自体にも、主観的な文章やイラストが重要になるのではないかと思います。
例えばChatGPTで人間が読んで面白いと思う文章を作るには、求める内容や構成を“呪文”といわれる「プロンプト」で定義してやる必要があります。この定義も、現時点では機械にはできないことかもしれません。目的を熟知して初めて言語化して定義できるわけで、そこにプロとそうじゃない人の差が出るのではないか。イラストで言うと、光の表現や構図などいろんな要素を定義してやる必要があるから、描ける人ほどAIもうまく使えるんじゃないかなあと思うんですね。
冒頭で紹介した記者会見では、スタントマンがAIへの危機感を話していましたが、スタントマンなら、AI学習用に自分の演技モデルを売るといいと思うんですよね。スタントをAIで作るには、人間の動きをモーションキャプチャしたデータが必要ですから。
現状のAIでは、まだまだ人間の仕事を再現できません。静止画でも指の本数が再現できなかったりするぐらいですから。実際に使ってみると、生成AIは全然万能ではない。プロの芸能人従事者やイラストレーターなどがやっていることのほうがすごいんです。
AIへの翻訳家が必要に?
僕は文章を仕事にしているので、AIに文章を書かせるコツはなんとなく分かったけど、絵はまったく分かりませんでした。指示と発想のサポートがないとうまく使えないし、何ができるかのイメージも湧かない。
そういう観点でいうと、今後は、言語化が苦手な天才クリエイターとAIとの間に、両者をコーディネートする翻訳家みたいな職業が出てくる可能性がありますね。絵師や実演家に翻訳家がついて、彼らの作りたいものをAIで実現できるよう、AI向けに翻訳してあげる。そうすれば、クリエイターはさらに高いレベルのものを創作できるようになるかもしれません。
ただ、パソコンからスマートフォンに変わる過程でUI・UXが直感的になり、誰でもあまり考えずに使えるようになったように、AIももっと簡単に、誰でも使えるようになっていくのでしょう。翻訳家が必要になる時期も、一時かもしれません。
そういう観点でいうと、今後は、言語化が苦手な天才クリエイターとAIとの間に、両者をコーディネートする翻訳家みたいな職業が出てくる可能性がありますね。絵師や実演家に翻訳家がついて、彼らの作りたいものをAIで実現できるよう、AI向けに翻訳してあげる。そうすれば、クリエイターはさらに高いレベルのものを創作できるようになるかもしれません。
ただ、パソコンからスマートフォンに変わる過程でUI・UXが直感的になり、誰でもあまり考えずに使えるようになったように、AIももっと簡単に、誰でも使えるようになっていくのでしょう。翻訳家が必要になる時期も、一時かもしれません。
お金が循環するといい
経済的な面で考えると、AIが学習したデータの提供元に、お金が循環するシステムになるといいですよね。学習用データを提供すると、そのデータを利用した人から収益がもたらされるイメージです。Adobeの生成AI・Fireflyはそんなビジネスを目指しているのかもしれません。
AIへの反発って、究極的にはマネタイズ、つまりお金の問題と、プライドの問題なのかなと思っています。その2つが満たされれば、受け入れられるのではないか。
例えばイラストレーターならば、イラストを学習データとして提供したときに、どれぐらい稼げるかの金額感が出れば、リアルベースで議論できそうです。
ただ、機械学習から新たな作品を作るって、著作権法の想定外ですよね。著作物とは何かという話になってくる。新たな枠組みが必要だと思いますが、今からそれを作るとなると、20年後ぐらいになるんじゃないかな。
AIへの反発って、究極的にはマネタイズ、つまりお金の問題と、プライドの問題なのかなと思っています。その2つが満たされれば、受け入れられるのではないか。
例えばイラストレーターならば、イラストを学習データとして提供したときに、どれぐらい稼げるかの金額感が出れば、リアルベースで議論できそうです。
ただ、機械学習から新たな作品を作るって、著作権法の想定外ですよね。著作物とは何かという話になってくる。新たな枠組みが必要だと思いますが、今からそれを作るとなると、20年後ぐらいになるんじゃないかな。
カギは「プアな環境」か
いろいろ考えていくと、イノベーションが起きる前に“プアな環境”にいることは、実は大事なことかもしれません。もともと絵を描ける人にとっては生成AIは脅威になり得ますが、これまでは描けなかった人にとっては、自由に描ける生成AIは福音になっています。
ここでiPhoneの話に戻ります。僕は初代iPhone(iPhone 3G)を発売直後に購入したんですが、その前に使っていたのが、機能がプアなPHSだった、というのが買い換えの大きな理由でした。前機種はWindows PhoneのWILLCOM 03(W-ZERO3)だったんです。キーボード付きのスライド型端末で、Windows Phoneとしては完成形だったんですが、通信速度も端末の反応も遅くて……。だからiPhone 3Gを使い始めて、感動しました。
でも、当時いたテクノロジー系編集部で、iPhone 3Gを買ったのは私含めて3人ぐらいしかいなくて。みんなフィーチャーフォンが好きだったんですよね。当時はiPhoneより高機能な面もありましたし。なので編集部でiPhone 3Gを自慢しても、「フォーチャーフォンのほうがいいね」とみんなに言われたのを覚えています。ところが今やフィーチャーフォンはほぼ絶滅し、iPhoneが隆盛を極めています。
僕は今、プロンプトを試行錯誤してChatGPTに原稿を書かせるぐらいなら、自分の手で書いたほうが早いと思っちゃう。それは、原稿執筆や編集の能力を既に持っているからです。でもこの考え方のままだと、iPhoneが出た時に高性能なガラケーを持っていた人のように、生成AIという新技術に乗り遅れるかもしれません。僕も原稿の書き方をアンラーニングして、リスキリングしないといけないのかも(笑)。
ここでiPhoneの話に戻ります。僕は初代iPhone(iPhone 3G)を発売直後に購入したんですが、その前に使っていたのが、機能がプアなPHSだった、というのが買い換えの大きな理由でした。前機種はWindows PhoneのWILLCOM 03(W-ZERO3)だったんです。キーボード付きのスライド型端末で、Windows Phoneとしては完成形だったんですが、通信速度も端末の反応も遅くて……。だからiPhone 3Gを使い始めて、感動しました。
でも、当時いたテクノロジー系編集部で、iPhone 3Gを買ったのは私含めて3人ぐらいしかいなくて。みんなフィーチャーフォンが好きだったんですよね。当時はiPhoneより高機能な面もありましたし。なので編集部でiPhone 3Gを自慢しても、「フォーチャーフォンのほうがいいね」とみんなに言われたのを覚えています。ところが今やフィーチャーフォンはほぼ絶滅し、iPhoneが隆盛を極めています。
僕は今、プロンプトを試行錯誤してChatGPTに原稿を書かせるぐらいなら、自分の手で書いたほうが早いと思っちゃう。それは、原稿執筆や編集の能力を既に持っているからです。でもこの考え方のままだと、iPhoneが出た時に高性能なガラケーを持っていた人のように、生成AIという新技術に乗り遅れるかもしれません。僕も原稿の書き方をアンラーニングして、リスキリングしないといけないのかも(笑)。
鷹木 創
編集主幹
2002年以来、編集記者や編集長などとしてメディアビジネスに携わる。インプレス、アイティメディアと転職し、2013年にEngadget日本版の編集長に就任。 その後スマートニュースに転職。国内トップクラスの機械学習を活用したアプリ開発会社においてビジネス開発として活躍。2021年からはフリーランスとして独立、IBM、Google などのオウンドメディアをサポートしている。