EUのAI規制「AI法」
その点で注目すべきは、EU(欧州連合)の取り組みだ。EUでは現在、その名も「AI法(AI Act)」という包括的なAI規制の導入が進められており、この中で生成AIに関するルールも整備されようとしている。
AI法の原案が欧州委員会によって提案されたのが2021年4月。その後EU理事会が2022年12月に、続いて欧州議会が2023年6月に修正案を採択。現在は施行に向けた協議が進められている段階で、2024年春ごろに施行される見込みだ(実際に適用が開始されるのは2026年以降との観測)。
同法はAIアプリケーションをリスクの大きさに基づいて4つに分類する点が特徴だ。最もリスクが大きいものについては原則禁止、それ以外のものについてはリスクに応じた統制をかける(つまりリスクが大きければ大きいほど厳しく規制する)というアプローチとなっている。
これは理に適ったアプローチのように感じられるかもしれないが、たった4つの分類に多種多様なAIアプリケーションをどう落とし込むのか、という問題がある。特に「禁止AI」や、その次にリスクが大きいと評価される「ハイリスクAI」については、そこに分類されるアプリケーションは利用が大きく制限され、禁止AIについては文字通り使用が禁じられる。このため、何が禁止AIやハイリスクAIに該当するのかを巡って議論が起きている。
例えば欧州委員会が作成した原案では、禁止AIの一種として「法執行を目的とした、リアルタイムの遠隔生体識別システム」が挙げられている。
例えば監視カメラを公の場に設置し、その映像をリアルタイムでAIに解析させることで、犯罪者がいないかどうか把握するといった具合である。ただし原案では例外規定も設けられ、テロなど安全への脅威がある場合には使用が許されるとなっていた。しかし欧州議会が可決した修正案では、この例外規定が削除されている。
また欧州議会の修正案では、「法執行目的以外の感情推定」がハイリスクAIの一種に加えられている。これはマーケティングや広告、心理療法、教育などの分野において、個人の感情や心理状態を分析・推定するAIアプリケーションを指す。例えば広告を見ている消費者の顔を撮影・解析し、消費者がある広告にどのような感情的反応を示すかを把握、それに基づいて広告内容を変えるといった具合だ。こうしたアプリケーションは、個人のプライバシーや個人の感情を不適切に操作するリスクがあるとして、ハイリスクに分類された。
そして欧州議会が行ったもう1つの修正こそ、生成AIへの警戒感を背景とした、生成AIおよび基盤モデル(Foundation Model)への新たな規制だ。
基盤モデルという新しいAI専門用語が出てきたが、これは汎用的なAIモデルをお金と労力をかけて開発しておき、それを少しカスタマイズすることで、多種多様なアプリケーションに転用するというコンセプトだ。個別のAIアプリケーションの「基盤」となるモデルを開発しておく、という意味でこの名前が付けられている。現在の生成AI系アプリケーションは、この基盤モデルで開発するのが主流となっており、ChatGPTを実現しているAIモデル「GPT-4」や、Meta(旧Facebook)社が開発した「Llama2(ラマツー)」などが挙げられる。
いずれにしても欧州議会は、こうした生成モデルや基盤モデルを4分類のどれに位置づけるか苦労したようだ。結果として行われた修正では、使われ方によって「禁止」や「ハイリスク」に該当し得るという結論になった。その一方で、4分類とは別に、生成AIおよび基盤モデルに対するルールが追加された。例えば基盤モデルの提供者に対し、専門家によるモデル評価とその公表を義務付け、生成AIの提供者には、AIの学習に使用したデータに関する情報の公開や透明性の確保を求めるといった具合だ。
しかし、こうした対応で十分なのかという点を巡っては、当然ながら議論は尽きていない。AI法は生成AIがこれほど注目される前に草案がまとめられたものであるため、4分類というベースを維持した上で「追記」する程度では、根本的な対応にならないのではないかと指摘されている。実際に生成AIが使用するモデルは非常に大きなものであり、完全な透明性を実現するのは難しく、現実性や実効性に乏しいルールになってしまう恐れがある。
このようにEUのAI法は、個々のAIアプリケーションについて議論するのではなく、リスク分類に基づいて包括的にAIを規制しようという点で大胆な取り組みであり、それ故に注目を集めている。逆にだからこそ、多くの人びとを巻き込んだ議論が続いており、まだAI法が法律として効果を生むまでには時間がかかると見られている。
AI法の原案が欧州委員会によって提案されたのが2021年4月。その後EU理事会が2022年12月に、続いて欧州議会が2023年6月に修正案を採択。現在は施行に向けた協議が進められている段階で、2024年春ごろに施行される見込みだ(実際に適用が開始されるのは2026年以降との観測)。
同法はAIアプリケーションをリスクの大きさに基づいて4つに分類する点が特徴だ。最もリスクが大きいものについては原則禁止、それ以外のものについてはリスクに応じた統制をかける(つまりリスクが大きければ大きいほど厳しく規制する)というアプローチとなっている。
これは理に適ったアプローチのように感じられるかもしれないが、たった4つの分類に多種多様なAIアプリケーションをどう落とし込むのか、という問題がある。特に「禁止AI」や、その次にリスクが大きいと評価される「ハイリスクAI」については、そこに分類されるアプリケーションは利用が大きく制限され、禁止AIについては文字通り使用が禁じられる。このため、何が禁止AIやハイリスクAIに該当するのかを巡って議論が起きている。
例えば欧州委員会が作成した原案では、禁止AIの一種として「法執行を目的とした、リアルタイムの遠隔生体識別システム」が挙げられている。
例えば監視カメラを公の場に設置し、その映像をリアルタイムでAIに解析させることで、犯罪者がいないかどうか把握するといった具合である。ただし原案では例外規定も設けられ、テロなど安全への脅威がある場合には使用が許されるとなっていた。しかし欧州議会が可決した修正案では、この例外規定が削除されている。
また欧州議会の修正案では、「法執行目的以外の感情推定」がハイリスクAIの一種に加えられている。これはマーケティングや広告、心理療法、教育などの分野において、個人の感情や心理状態を分析・推定するAIアプリケーションを指す。例えば広告を見ている消費者の顔を撮影・解析し、消費者がある広告にどのような感情的反応を示すかを把握、それに基づいて広告内容を変えるといった具合だ。こうしたアプリケーションは、個人のプライバシーや個人の感情を不適切に操作するリスクがあるとして、ハイリスクに分類された。
そして欧州議会が行ったもう1つの修正こそ、生成AIへの警戒感を背景とした、生成AIおよび基盤モデル(Foundation Model)への新たな規制だ。
基盤モデルという新しいAI専門用語が出てきたが、これは汎用的なAIモデルをお金と労力をかけて開発しておき、それを少しカスタマイズすることで、多種多様なアプリケーションに転用するというコンセプトだ。個別のAIアプリケーションの「基盤」となるモデルを開発しておく、という意味でこの名前が付けられている。現在の生成AI系アプリケーションは、この基盤モデルで開発するのが主流となっており、ChatGPTを実現しているAIモデル「GPT-4」や、Meta(旧Facebook)社が開発した「Llama2(ラマツー)」などが挙げられる。
いずれにしても欧州議会は、こうした生成モデルや基盤モデルを4分類のどれに位置づけるか苦労したようだ。結果として行われた修正では、使われ方によって「禁止」や「ハイリスク」に該当し得るという結論になった。その一方で、4分類とは別に、生成AIおよび基盤モデルに対するルールが追加された。例えば基盤モデルの提供者に対し、専門家によるモデル評価とその公表を義務付け、生成AIの提供者には、AIの学習に使用したデータに関する情報の公開や透明性の確保を求めるといった具合だ。
しかし、こうした対応で十分なのかという点を巡っては、当然ながら議論は尽きていない。AI法は生成AIがこれほど注目される前に草案がまとめられたものであるため、4分類というベースを維持した上で「追記」する程度では、根本的な対応にならないのではないかと指摘されている。実際に生成AIが使用するモデルは非常に大きなものであり、完全な透明性を実現するのは難しく、現実性や実効性に乏しいルールになってしまう恐れがある。
このようにEUのAI法は、個々のAIアプリケーションについて議論するのではなく、リスク分類に基づいて包括的にAIを規制しようという点で大胆な取り組みであり、それ故に注目を集めている。逆にだからこそ、多くの人びとを巻き込んだ議論が続いており、まだAI法が法律として効果を生むまでには時間がかかると見られている。
小林 啓倫
経営コンサルタント
1973年東京都生まれ、獨協大学外国語学部卒、筑波大学大学院修士課程修了。システムエンジニアとしてキャリアを積んだ後、米バブソン大学にてMBAを取得。その後外資系コンサルティングファーム、国内ベンチャー企業などで活動。著書に『FinTechが変える!金融×テクノロジーが生み出す新たなビジネス』(朝日新聞出版)、『IoTビジネスモデル革命』(朝日新聞出版)、訳書に『ソーシャル物理学』(アレックス・ペントランド著、草思社)、『シンギュラリティ大学が教える 飛躍する方法』(サリム・イスマイル著、日経BP)など多数。