ものすごく「ありそう」だけど「正確じゃない」
そこらの中高生やダメ学生、ダメリーマン(私のようなダメライター含む)よりもよほど「それっぽい」、まとまったレポートくらい書けちゃうよと、にわかに人々の視界に入ってきて論議を巻き起こしているChatGPTの最新バージョン、GPT-4。
「ときどき嘘をつくから信じ切ってはいけない」とか「人間がAIの奴隷になってはいけない」とか、「いやいや、そういうエラーは織り込み済みで人間の良き相棒に育てるのです」とか、みんな何かしらアンテナを立てているけど、そもそもなぜそんな賢いAIがビミョーに間違うの? 人間を騙そうとしているの? アイツら悪いヤツなの?
人々の知的好奇心に応えるこのi4Uでは、既に専門家による、これ以上ないほど分かりやすい説明が存在するので、以下に引用する。
(ChatGPTの根幹技術であるTransformerとは)今まで人間が作ってきた文章を利用して、「言葉A」と関連してよく出てくる言葉は「言葉B」といった結びつきや、文節の関連付けを学習して応用するという仕組みです。
たとえば「柿食えば」という言葉は、「岩にしみ入る」とつながるより「鐘が鳴るなり」につながる文章の方が断然多い。「梨も食う」につながる例はない。といった言葉と言葉の関連付け(の重み)を学習していきます。そしてその学習を利用して、ユーザーが「柿」というキーワードを使えば、即座に“「柿食えば」→「鐘が鳴るなり法隆寺」→「と言いますが……」”といった具合に文章を作っていきます。
ですので、基本、統計的な判断なのです。人間のように真に言葉を理解しているわけではありません。ですから、正しくないことを言ってしまうわけです。次につなげる単語なり文節は出現頻度に応じて確率的に選ばれるので、確率のいたずらで間違った選択をすることがあります。
そういった背景があるため、AI研究者たちは、ChatGPTがたまに間違ったことを言うと「Transformerを使ってるとそういうこともあるよねー」とつい同情的になってしまうのですが、そうした事情を知らない人は、ちょっと失望するかもしれません。
(森川幸人『初心者でも分かる生成系AI入門:ChatGPTが開いた「AIブーム3.5」の扉(後編)』より)
言葉の次に「統計的に最もライクリー(ありそう)な言葉」を繋ぎ、その次に同じく「最もライクリーな言葉」を繋ぐことを繰り返す。その結果、「ものすごくそれらしく聞こえてみんな感心する意見」か、「なんかおかしいからみんな失望する意見」のどちらかに着地する。
だがそれもつまるところ、いわば生成の確かさが(聞く側の感覚で)成功か失敗か、という話なのだ。
米国WIRED記事は、「ChatGPT(や、並び称されるGoogle Bard)は実際には何も知らない。けれどこの言葉の次にはどの言葉が来るべきかということを判断することには長けていて、それがある程度の到達レベルに来ると本物の人間の思考や創造性のように見え始めるのだ」と、その”知性”の仕組みを指摘している。
ChatGPT and Bard don't really “know” anything, but they are very good at figuring out which word follows another, which starts to look like real thought and creativity when it gets to an advanced enough stage.
"How ChatGPT and Other LLMs Work—and Where They Could Go Next" WIRED Apr. 30, 2023
そしてその「いかにもそれっぽいけど、本気の学術的な大正論じゃなくて、不正確さや曖昧さを勢いやキャラで押し切ったりするから、そうかーって説得されちゃって面白い」なんて感じが、令和初期にモテるコメンテーターたちとの共通点なのである。
「ときどき嘘をつくから信じ切ってはいけない」とか「人間がAIの奴隷になってはいけない」とか、「いやいや、そういうエラーは織り込み済みで人間の良き相棒に育てるのです」とか、みんな何かしらアンテナを立てているけど、そもそもなぜそんな賢いAIがビミョーに間違うの? 人間を騙そうとしているの? アイツら悪いヤツなの?
人々の知的好奇心に応えるこのi4Uでは、既に専門家による、これ以上ないほど分かりやすい説明が存在するので、以下に引用する。
(ChatGPTの根幹技術であるTransformerとは)今まで人間が作ってきた文章を利用して、「言葉A」と関連してよく出てくる言葉は「言葉B」といった結びつきや、文節の関連付けを学習して応用するという仕組みです。
たとえば「柿食えば」という言葉は、「岩にしみ入る」とつながるより「鐘が鳴るなり」につながる文章の方が断然多い。「梨も食う」につながる例はない。といった言葉と言葉の関連付け(の重み)を学習していきます。そしてその学習を利用して、ユーザーが「柿」というキーワードを使えば、即座に“「柿食えば」→「鐘が鳴るなり法隆寺」→「と言いますが……」”といった具合に文章を作っていきます。
ですので、基本、統計的な判断なのです。人間のように真に言葉を理解しているわけではありません。ですから、正しくないことを言ってしまうわけです。次につなげる単語なり文節は出現頻度に応じて確率的に選ばれるので、確率のいたずらで間違った選択をすることがあります。
そういった背景があるため、AI研究者たちは、ChatGPTがたまに間違ったことを言うと「Transformerを使ってるとそういうこともあるよねー」とつい同情的になってしまうのですが、そうした事情を知らない人は、ちょっと失望するかもしれません。
(森川幸人『初心者でも分かる生成系AI入門:ChatGPTが開いた「AIブーム3.5」の扉(後編)』より)
言葉の次に「統計的に最もライクリー(ありそう)な言葉」を繋ぎ、その次に同じく「最もライクリーな言葉」を繋ぐことを繰り返す。その結果、「ものすごくそれらしく聞こえてみんな感心する意見」か、「なんかおかしいからみんな失望する意見」のどちらかに着地する。
だがそれもつまるところ、いわば生成の確かさが(聞く側の感覚で)成功か失敗か、という話なのだ。
米国WIRED記事は、「ChatGPT(や、並び称されるGoogle Bard)は実際には何も知らない。けれどこの言葉の次にはどの言葉が来るべきかということを判断することには長けていて、それがある程度の到達レベルに来ると本物の人間の思考や創造性のように見え始めるのだ」と、その”知性”の仕組みを指摘している。
ChatGPT and Bard don't really “know” anything, but they are very good at figuring out which word follows another, which starts to look like real thought and creativity when it gets to an advanced enough stage.
"How ChatGPT and Other LLMs Work—and Where They Could Go Next" WIRED Apr. 30, 2023
そしてその「いかにもそれっぽいけど、本気の学術的な大正論じゃなくて、不正確さや曖昧さを勢いやキャラで押し切ったりするから、そうかーって説得されちゃって面白い」なんて感じが、令和初期にモテるコメンテーターたちとの共通点なのである。
ギャップ話芸の異才
人類の知性史上、彼らの意見が本当の意味でオリジナルで唯一無二かというと、たぶんそうでもない。総じて、よくよく考えるとどこかで聞いたことのあるような気もする話を「ここに持ってくる?」取り合わせの妙、ときに「それは言い過ぎでしょ」と思うほどの誇張や逸脱、「安易だな〜」と苦笑することもあるほど平凡な定型。なのに妙に新しく聞こえる。面白みがある。
それは我々平凡な生身の人間が生身の脳で期待するものから絶妙にズレた回答が返ってくるからであって、そのギャップが面白いのである。つまりChatGPTが生成するテキストを見て我々が合ってるの間違ってるの、すごいだのそうでもないのとキャッキャ議論するのと同様、彼らのコメントは専門家の肩書きを持っている(はずの)彼らが繰り出す一種の「話芸」として面白がられているのである。
人々が不合理に拘泥しがちな、古典的な常識——社会的正義感や責任感——を否定したり、意図的に無視したりして放言する「新しいタイプの知性」ブランディングもまた、なお一層のスパイスとなって効果的だ。
彼らはGPT-4と同じくらいの面白いズレを、生身の人間でありながら生成することができる、そういうタイプの異才なのだ。
それは我々平凡な生身の人間が生身の脳で期待するものから絶妙にズレた回答が返ってくるからであって、そのギャップが面白いのである。つまりChatGPTが生成するテキストを見て我々が合ってるの間違ってるの、すごいだのそうでもないのとキャッキャ議論するのと同様、彼らのコメントは専門家の肩書きを持っている(はずの)彼らが繰り出す一種の「話芸」として面白がられているのである。
人々が不合理に拘泥しがちな、古典的な常識——社会的正義感や責任感——を否定したり、意図的に無視したりして放言する「新しいタイプの知性」ブランディングもまた、なお一層のスパイスとなって効果的だ。
彼らはGPT-4と同じくらいの面白いズレを、生身の人間でありながら生成することができる、そういうタイプの異才なのだ。
異才とは、異才ゆえに不気味である
彼らコメンテーターが嫌われるのは、面白いと思ってワイワイ群がっていた世間が「え?」「は?」と違和感を感じ、勝手に幻滅した瞬間である。
その違和感とは、まさに人々がChatGPTの回答に対して「なんでそんなことまで言っちゃうの?」「いやいや、おかしいからその理屈」と感じる恐怖や反感、「なんだ、間違ってるじゃん!」と感じる失望と同質な気がする。
自分と同じ人間だと思って心を寄せていたけど、この反応はなんか想像してたのと違う。この人、なんか怖い——。
ロボット開発やコンピュータグラフィックスの進化におけるエアポケットと言われる、「不気味の谷(Uncanny Valley)」がまさにこれだ。
ロボットやCGキャラクターは人間に近づくほどに好感度が上がっていく。だが、人間に「似過ぎた」ある時点で好感度が急落し、不快感や嫌悪感を呼び起こしてしまう。そしてそれを越えて人間とほぼ同じと感じられるレベルになると再び好感度が上がる、というのが不気味の谷現象である。
直立歩行する青いハリネズミのデザインで、長らく“そういうもの”として可愛がられていたSEGAのキャラクター「ソニック」は、2019年の実写版映画のCGで胴が長く、口の中に人間のように小さな歯がびっしり並んだ、より人間に近いリアルなデザインとなった。しかし世界中のファンから「気持ち悪い」とのブーイングが殺到して、デザイン変更を余儀なくされ、この件はキャラデザインの不気味の谷の好例として語り継がれている。
大衆から注目を浴びて大いに好かれたのち、突然「思っていたのと違う」と手のひらを返され嫌われる、頭のいいコメンテーターの彼ら。異才とは、異才ゆえに絶妙に「人間離れ」していて、不気味なものと映るのかもしれない。
その違和感とは、まさに人々がChatGPTの回答に対して「なんでそんなことまで言っちゃうの?」「いやいや、おかしいからその理屈」と感じる恐怖や反感、「なんだ、間違ってるじゃん!」と感じる失望と同質な気がする。
自分と同じ人間だと思って心を寄せていたけど、この反応はなんか想像してたのと違う。この人、なんか怖い——。
ロボット開発やコンピュータグラフィックスの進化におけるエアポケットと言われる、「不気味の谷(Uncanny Valley)」がまさにこれだ。
ロボットやCGキャラクターは人間に近づくほどに好感度が上がっていく。だが、人間に「似過ぎた」ある時点で好感度が急落し、不快感や嫌悪感を呼び起こしてしまう。そしてそれを越えて人間とほぼ同じと感じられるレベルになると再び好感度が上がる、というのが不気味の谷現象である。
直立歩行する青いハリネズミのデザインで、長らく“そういうもの”として可愛がられていたSEGAのキャラクター「ソニック」は、2019年の実写版映画のCGで胴が長く、口の中に人間のように小さな歯がびっしり並んだ、より人間に近いリアルなデザインとなった。しかし世界中のファンから「気持ち悪い」とのブーイングが殺到して、デザイン変更を余儀なくされ、この件はキャラデザインの不気味の谷の好例として語り継がれている。
大衆から注目を浴びて大いに好かれたのち、突然「思っていたのと違う」と手のひらを返され嫌われる、頭のいいコメンテーターの彼ら。異才とは、異才ゆえに絶妙に「人間離れ」していて、不気味なものと映るのかもしれない。
河崎 環
コラムニスト・立教大学社会学部兼任講師
1973年京都生まれ神奈川育ち。慶應義塾大学総合政策学部卒。子育て、政治経済、時事、カルチャーなど多岐に渡る分野で記事・コラム連載執筆を続ける。欧州2カ国(スイス、英国)での暮らしを経て帰国後、Webメディア、新聞雑誌、企業オウンドメディア、政府広報誌などに多数寄稿。ワイドショーなどのコメンテーターも務める。2022年よりTOKYO MX番組審議会委員。社会人女子と高校生男子の母。著書に『女子の生き様は顔に出る』(プレジデント社)など。