テロ、詐欺、プロパガンダへの悪用
第3の危険性は、ChatGPTが悪用される恐れである。この点についても、既にさまざまな可能性が指摘されている。
例えば先ほど、「誤情報」が出力される危険性を説明したが、それはあくまで意図せず不正確な文章が生成されてしまった場合のリスクだった。しかし意図的に「偽情報」をつくり、拡散させようという人物が現れたらどうだろうか。
よく知られているように、2016年の米大統領選挙では、ロシア政府が共和党のトランプ候補を当選させるために、ソーシャルメディアを利用してさまざまな偽情報を拡散させた疑いが持たれている。実際に英オックスフォード大学が、2016年9月に行われた第1回大統領候補テレビ討論会後にボットが投稿した関連ツイートを調査したところ、トランプ候補を支持するツイート数は、民主党のクリントン候補を支持するツイート数の9倍にも達していたそうである。
こうしたボットや、拡散される情報がより「それっぽく」感じられるよう、人間が書いたのと見分けがつかないほど自然な文章(しかしその中身はデタラメやプロパガンダ)をChatGPTに生成させたとしたらどうだろうか? 偽情報を見分けるのがより難しくなり、プロパガンダの危険性がさらに上昇するかもしれない。
またプロパガンダのための予算も低く抑えられるだろう。ニューヨークタイムズの報道によれば、2016年の米大統領選挙を妨害するためにロシア政府が費やした予算は、月125万ドル(約1.6億円)にも達していたそうである。しかしAIを使えば、文章を考える人員とそのコストが不要になるわけだ。つまり、そうしたプロパガンダの「低コスト化」、あるいは別の言い方をすれば「民主化」が進めば、より多くの人々がプロパガンダ活動に乗り出す恐れもある。
この件については米Forbes誌が、サイバーインテリジェンス専門家のAlex Holden氏の言葉として、興味深い指摘を紹介している。彼によれば、ロマンス詐欺(インターネット上で知り合った相手をだまし、恋人や婚約者になったかのように装って金品をだまし取る犯罪)を行う詐欺師たちが、ChatGPTの活用を始めているというのである。例えば偽のプロフィールをつくらせたり、ターゲットが反応するようなロマンチックな文章を考えさせたり、といった具合である。ネットが普及してからこの手の犯罪は珍しくなくなったが、それに参加しようとした際の心理的・コスト的ハードルが、ChatGPTの登場でより下がってしまうかもしれない。
さらに、より直接的なChatGPTの悪用方法も確認されている。それはコンピュータウイルスやランサムウェアをChatGPTに書かせるというものだ。
イスラエルのセキュリティ企業であるCheck Point Researchの発表によれば、ダークウェブ上にある犯罪者向けのフォーラムで、ChatGPTをマルウェアにどう利用するかを語り合うスレッドが立ち上げられている。そこではChatGPTを利用して、既存のマルウェアの種類を再現する実験が行われていることが語り合われていたそうだ。実際に、そこに掲載されていたさまざまなスクリプト(ChatGPTが書いたと主張されているもの)を実行してみると、マルウェアの機能の一部を再現できたそうである。
自分ではゼロから各種マルウェアのコードを書くことはできないものの、既存のパーツや既製品(ダークウェブ上では購入したらすぐに使えるランサムウェアのパッケージ、といったものが実際に販売されている)を利用して目的を果たす初心者のことを「スクリプトキディ」と呼ぶ。そしてChatGPTのような高性能AIの登場によって、そうしたスクリプトキディが危険なマルウェアを簡単に手に入れられるようになるのではとの懸念が広がっている。つまり私や、この記事を読んでいる皆さんが、明日から急にサイバー犯罪者としてデビューできるかもしれないというわけである。
ChatGPTは私たちに大きな期待を与えてくれた一方で、さまざまな災いが発生する恐れも解き放った。それはギリシャ神話において、あらゆる悪や不幸を閉じ込めておきながら、結局は開けられてしまった「パンドラの箱」の現代版と言えるだろう。既に悪用可能なAIが実現できると証明されてしまった以上、その恐れを再び封じ込めることはできない。しかし、今ChatGPTや、そのベースとなる基盤モデルに対して多くの注目が集まり、有効活用に向けた議論が活発に行われている状況は、ひとつの希望と言えるのではないだろうか。その議論を通じて、私たちが今後、AIと幸せな共同生活を送る上での原理原則が形成されることを願いたい。
例えば先ほど、「誤情報」が出力される危険性を説明したが、それはあくまで意図せず不正確な文章が生成されてしまった場合のリスクだった。しかし意図的に「偽情報」をつくり、拡散させようという人物が現れたらどうだろうか。
よく知られているように、2016年の米大統領選挙では、ロシア政府が共和党のトランプ候補を当選させるために、ソーシャルメディアを利用してさまざまな偽情報を拡散させた疑いが持たれている。実際に英オックスフォード大学が、2016年9月に行われた第1回大統領候補テレビ討論会後にボットが投稿した関連ツイートを調査したところ、トランプ候補を支持するツイート数は、民主党のクリントン候補を支持するツイート数の9倍にも達していたそうである。
こうしたボットや、拡散される情報がより「それっぽく」感じられるよう、人間が書いたのと見分けがつかないほど自然な文章(しかしその中身はデタラメやプロパガンダ)をChatGPTに生成させたとしたらどうだろうか? 偽情報を見分けるのがより難しくなり、プロパガンダの危険性がさらに上昇するかもしれない。
またプロパガンダのための予算も低く抑えられるだろう。ニューヨークタイムズの報道によれば、2016年の米大統領選挙を妨害するためにロシア政府が費やした予算は、月125万ドル(約1.6億円)にも達していたそうである。しかしAIを使えば、文章を考える人員とそのコストが不要になるわけだ。つまり、そうしたプロパガンダの「低コスト化」、あるいは別の言い方をすれば「民主化」が進めば、より多くの人々がプロパガンダ活動に乗り出す恐れもある。
この件については米Forbes誌が、サイバーインテリジェンス専門家のAlex Holden氏の言葉として、興味深い指摘を紹介している。彼によれば、ロマンス詐欺(インターネット上で知り合った相手をだまし、恋人や婚約者になったかのように装って金品をだまし取る犯罪)を行う詐欺師たちが、ChatGPTの活用を始めているというのである。例えば偽のプロフィールをつくらせたり、ターゲットが反応するようなロマンチックな文章を考えさせたり、といった具合である。ネットが普及してからこの手の犯罪は珍しくなくなったが、それに参加しようとした際の心理的・コスト的ハードルが、ChatGPTの登場でより下がってしまうかもしれない。
さらに、より直接的なChatGPTの悪用方法も確認されている。それはコンピュータウイルスやランサムウェアをChatGPTに書かせるというものだ。
イスラエルのセキュリティ企業であるCheck Point Researchの発表によれば、ダークウェブ上にある犯罪者向けのフォーラムで、ChatGPTをマルウェアにどう利用するかを語り合うスレッドが立ち上げられている。そこではChatGPTを利用して、既存のマルウェアの種類を再現する実験が行われていることが語り合われていたそうだ。実際に、そこに掲載されていたさまざまなスクリプト(ChatGPTが書いたと主張されているもの)を実行してみると、マルウェアの機能の一部を再現できたそうである。
自分ではゼロから各種マルウェアのコードを書くことはできないものの、既存のパーツや既製品(ダークウェブ上では購入したらすぐに使えるランサムウェアのパッケージ、といったものが実際に販売されている)を利用して目的を果たす初心者のことを「スクリプトキディ」と呼ぶ。そしてChatGPTのような高性能AIの登場によって、そうしたスクリプトキディが危険なマルウェアを簡単に手に入れられるようになるのではとの懸念が広がっている。つまり私や、この記事を読んでいる皆さんが、明日から急にサイバー犯罪者としてデビューできるかもしれないというわけである。
ChatGPTは私たちに大きな期待を与えてくれた一方で、さまざまな災いが発生する恐れも解き放った。それはギリシャ神話において、あらゆる悪や不幸を閉じ込めておきながら、結局は開けられてしまった「パンドラの箱」の現代版と言えるだろう。既に悪用可能なAIが実現できると証明されてしまった以上、その恐れを再び封じ込めることはできない。しかし、今ChatGPTや、そのベースとなる基盤モデルに対して多くの注目が集まり、有効活用に向けた議論が活発に行われている状況は、ひとつの希望と言えるのではないだろうか。その議論を通じて、私たちが今後、AIと幸せな共同生活を送る上での原理原則が形成されることを願いたい。
小林 啓倫
経営コンサルタント
1973年東京都生まれ、獨協大学外国語学部卒、筑波大学大学院修士課程修了。システムエンジニアとしてキャリアを積んだ後、米バブソン大学にてMBAを取得。その後外資系コンサルティングファーム、国内ベンチャー企業などで活動。著書に『FinTechが変える!金融×テクノロジーが生み出す新たなビジネス』(朝日新聞出版)、『IoTビジネスモデル革命』(朝日新聞出版)、訳書に『ソーシャル物理学』(アレックス・ペントランド著、草思社)、『シンギュラリティ大学が教える 飛躍する方法』(サリム・イスマイル著、日経BP)など多数。