ディープラーニングに続くパラダイムシフトを起こすとも言われ、今最も注目されている生成AIの「ChatGPT」。前編ではその性能の高さと社会に与えるインパクトを紹介した。後編ではChatGPTを中心とする高精度な生成AIによってもたらされるリスクと、世界各国で検討されているAI規制の動向について説明する。
(編集部註:本稿の内容は2023年1月26日時点の内容を基に執筆されたものです)
(編集部註:本稿の内容は2023年1月26日時点の内容を基に執筆されたものです)
ChatGPTが開いた「パンドラの箱」
非常に優れた性能を持つがゆえに、人類史の新たな1ページを開くのではというほどの期待をかけられているChatGPTや各種生成AIだが、一方で気になる動きも出ている。現在、EUの欧州議会において、AI規制法(EU AI Act)案が審議されている。これはAIを包括的に規制するもので、それを開発、使用する企業にもさまざまな義務を課す内容なのだが、2021年4月に最初の法案が提示されてから、数々の修正が加えられている。るすそのひとつが、基盤モデルを念頭においた修正で、基盤モデルを通じて開発される汎用AIについてはより厳しい規制や義務を課すこと、また生成AIについては、生成されたコンテンツを公開する際に「AIが作った」と明言することなどが盛り込まれている。
同様の規制強化の動きは、他の地域の立法・行政関係者の間にも見られる。珍しいところでは、ニューヨーク市の教育局が、学校におけるChatGPTのアクセスを禁じたと発表している。禁じた理由として、「生徒の学習に悪影響が及ぶ可能性があること」ならびに「コンテンツ(ChatGPTのアウトプット)の安全性・正確性に懸念が残ること」を挙げている。
なぜこうした規制や反対の動きが生じているのか、いま指摘されている危険性について、こちらも主要なものを3つ挙げておこう。
同様の規制強化の動きは、他の地域の立法・行政関係者の間にも見られる。珍しいところでは、ニューヨーク市の教育局が、学校におけるChatGPTのアクセスを禁じたと発表している。禁じた理由として、「生徒の学習に悪影響が及ぶ可能性があること」ならびに「コンテンツ(ChatGPTのアウトプット)の安全性・正確性に懸念が残ること」を挙げている。
なぜこうした規制や反対の動きが生じているのか、いま指摘されている危険性について、こちらも主要なものを3つ挙げておこう。
精度が高すぎるゆえに生じる「誤情報」のリスク
第1の危険性は、ChatGPTや基盤モデルの精度である。前述の説明とは矛盾するが、ChatGPTの精度は100%というわけではない。OpenAI自体、その性能がまだ完全とは言えず、致命的な間違いや不適切な内容が含まれ得ることを認めている。Googleが自社の検索エンジンにAIチャットボットを組み込んでいないのも、彼らに基盤モデルを構築する能力がないからというわけではなく(実際にGoogleは「BERT」などの自然言語処理モデルを独自に開発し、2月6日には「Bard」というChatGPTに対抗するチャットボットを発表している)、一般に公開しても混乱が生じないほどの精度を保てるかが不確かなためだ。
特にChatGPTは、非常に滑らかな文章を生成できるが故に、逆に「もっともらしく感じられるが実際には不正確、あるいは無意味な答え」を出力してしまうのが問題だと指摘されている。そうしたニセ情報とは言わないまでも、誤情報にだまされてしまうのを防ぐためには、Bing上で出力されたChatGPTによる質問への回答が正しいかどうかを確認するために、Googleを使って再度検索するよう徹底する――などといったことにもなりかねない。もっと怖いのは、ChatGPTはほぼ正確だからと安心してしまい、出力された結果をそのままうのみにしてしまうことだろう。
特にChatGPTは、非常に滑らかな文章を生成できるが故に、逆に「もっともらしく感じられるが実際には不正確、あるいは無意味な答え」を出力してしまうのが問題だと指摘されている。そうしたニセ情報とは言わないまでも、誤情報にだまされてしまうのを防ぐためには、Bing上で出力されたChatGPTによる質問への回答が正しいかどうかを確認するために、Googleを使って再度検索するよう徹底する――などといったことにもなりかねない。もっと怖いのは、ChatGPTはほぼ正確だからと安心してしまい、出力された結果をそのままうのみにしてしまうことだろう。
予期せぬ形で侵害されるプライバシーと権利
第2の危険は、プライバシーや著作権など、人間が持つさまざまな権利を侵害するリスクである。
昨年9月、MITテクノロジーレビュー誌に、GPT-3(GPT-3.5の前バージョン)に対して懸念を表明する記事が投稿された。その記事によれば、筆者のメリッサ・ヘイッキラ氏がGPT-3をベースとしたチャットボットに対し、「メリッサ・ヘイッキラとは誰か」と尋ねたところ、「メリッサ・ヘイッキラは、フィンランドのジャーナリスト兼作家で、フィンランドの経済と政治について執筆しています」という、正確な情報を回答した。
またこれに続けて、MITテクノロジーレビューのマット・ホーナン編集長について尋ねたところ、GPT-3は彼の「妻と2人の幼い娘がいること(名前は間違っているが事実)、サンフランシスコに暮らしていること(これも事実)」という情報を伝えてきたという。
この結果を見て彼女は、基盤モデルのようにネット上の大量データを使ってトレーニングされた学習モデルが、予期せぬ形でプライバシー侵害をしてしまうリスクがあると指摘している。また「ネット上の個人の痕跡を取り出し、言語モデルが本来の文脈や背景から切り離してそれを利用することは、単なる侵害の問題だけではない。セキュリティと安全性に関する深刻な懸念もある。ハッカーが言語モデルを利用して、社会保障番号や自宅住所を不正に入手する可能性があるのだ」という懸念も表明している。
また、お絵描きAIについても、意外な形で権利侵害のリスクがあることが表面化しており、実際に訴訟まで起きている。
1月13日、お絵描きAIサービスを提供するStability AI、Midjourney、DeviantArtの3社を相手に、サラ・アンダーセン、ケリー・マッカーナン、カーラ・オルティスという3人のアーティストを代表とする集団訴訟が起こされた。彼らは自分の作品が勝手に各社のお絵描きAIのトレーニングに使用され、またそれにより、自分の作品をベースとした別の作品が生み出されたと主張している。
例えばゴッホの絵の特徴を学んだAIがあるとしよう。そのゴッホAIに対して「ひまわりを描いて」と指示したら、有名なゴッホの「ひまわり」そっくりな絵を生成するだろう。
実際にそのような「スタイル」をまねるAIも存在しているが、多くの場合、それはずっと昔に他界している歴史上のアーティストをまねるか、模倣に関する権利関係をクリアした上で(そもそも「似せる」という行為を意識した上で)アプリケーションが提供されている。
しかし生成AIの多くは、特定のアーティストのスタイルを「まねて」出力することを意図しているわけではない。ネット上に公開されている大量の画像から学習するうちに、さまざまなアーティストの癖を学んでしまい、それが出力の際に現れてしまうわけである。
実際にこうした特徴を利用して、「特定のアーティストのスタイルに似せるためには、どのようなコマンドをAI入力すれば良いか」という工夫もユーザーの間で進んでいる。しかしアーティストにとってはたまったものではない。せっかく自分が確立し、人気を掴むことに成功した一定のスタイルが、AIに勝手にまねされて新しい「作品」をつくるのに利用されているとすれば、自らの仕事やアーティスト生命に関わる。そうした危機感から、前述のように実際に法廷闘争に踏み切る人々まで登場しているのだ。
昨年9月、MITテクノロジーレビュー誌に、GPT-3(GPT-3.5の前バージョン)に対して懸念を表明する記事が投稿された。その記事によれば、筆者のメリッサ・ヘイッキラ氏がGPT-3をベースとしたチャットボットに対し、「メリッサ・ヘイッキラとは誰か」と尋ねたところ、「メリッサ・ヘイッキラは、フィンランドのジャーナリスト兼作家で、フィンランドの経済と政治について執筆しています」という、正確な情報を回答した。
またこれに続けて、MITテクノロジーレビューのマット・ホーナン編集長について尋ねたところ、GPT-3は彼の「妻と2人の幼い娘がいること(名前は間違っているが事実)、サンフランシスコに暮らしていること(これも事実)」という情報を伝えてきたという。
この結果を見て彼女は、基盤モデルのようにネット上の大量データを使ってトレーニングされた学習モデルが、予期せぬ形でプライバシー侵害をしてしまうリスクがあると指摘している。また「ネット上の個人の痕跡を取り出し、言語モデルが本来の文脈や背景から切り離してそれを利用することは、単なる侵害の問題だけではない。セキュリティと安全性に関する深刻な懸念もある。ハッカーが言語モデルを利用して、社会保障番号や自宅住所を不正に入手する可能性があるのだ」という懸念も表明している。
また、お絵描きAIについても、意外な形で権利侵害のリスクがあることが表面化しており、実際に訴訟まで起きている。
1月13日、お絵描きAIサービスを提供するStability AI、Midjourney、DeviantArtの3社を相手に、サラ・アンダーセン、ケリー・マッカーナン、カーラ・オルティスという3人のアーティストを代表とする集団訴訟が起こされた。彼らは自分の作品が勝手に各社のお絵描きAIのトレーニングに使用され、またそれにより、自分の作品をベースとした別の作品が生み出されたと主張している。
例えばゴッホの絵の特徴を学んだAIがあるとしよう。そのゴッホAIに対して「ひまわりを描いて」と指示したら、有名なゴッホの「ひまわり」そっくりな絵を生成するだろう。
実際にそのような「スタイル」をまねるAIも存在しているが、多くの場合、それはずっと昔に他界している歴史上のアーティストをまねるか、模倣に関する権利関係をクリアした上で(そもそも「似せる」という行為を意識した上で)アプリケーションが提供されている。
しかし生成AIの多くは、特定のアーティストのスタイルを「まねて」出力することを意図しているわけではない。ネット上に公開されている大量の画像から学習するうちに、さまざまなアーティストの癖を学んでしまい、それが出力の際に現れてしまうわけである。
実際にこうした特徴を利用して、「特定のアーティストのスタイルに似せるためには、どのようなコマンドをAI入力すれば良いか」という工夫もユーザーの間で進んでいる。しかしアーティストにとってはたまったものではない。せっかく自分が確立し、人気を掴むことに成功した一定のスタイルが、AIに勝手にまねされて新しい「作品」をつくるのに利用されているとすれば、自らの仕事やアーティスト生命に関わる。そうした危機感から、前述のように実際に法廷闘争に踏み切る人々まで登場しているのだ。
小林 啓倫
経営コンサルタント
1973年東京都生まれ、獨協大学外国語学部卒、筑波大学大学院修士課程修了。システムエンジニアとしてキャリアを積んだ後、米バブソン大学にてMBAを取得。その後外資系コンサルティングファーム、国内ベンチャー企業などで活動。著書に『FinTechが変える!金融×テクノロジーが生み出す新たなビジネス』(朝日新聞出版)、『IoTビジネスモデル革命』(朝日新聞出版)、訳書に『ソーシャル物理学』(アレックス・ペントランド著、草思社)、『シンギュラリティ大学が教える 飛躍する方法』(サリム・イスマイル著、日経BP)など多数。