最近、7歳の長男がPlayStation 5の「アストロボット」にハマっています。小学校1年生なんですけどゲームは比較的好きで、最近は「ポケットモンスター バイオレット」にも熱中していたんですが、よく見るとほとんどゲームのテキストを読んでいない(笑)。文字を読むのが苦手なんですよね。
その点アストロボットはテキスト情報がほぼなくて、失敗しても何度かトライしていくうちになんとかクリアできるような絶妙な難易度も相まって、7歳児のお気に入りです。1つだけ困るのは、コントローラーに息を吹きかけてゲーム上で風を起こすシーンがあるんですが、その時にコントローラーに近づきすぎて、よだれがついちゃうこと。まあ、拭けばいいんですけどね……。
さて今回は「ボット」つながりで、Chatbotにも使われる生成AIに改めて注目したいと思います。特に、ChatGPTをはじめとした文章生成AIが話題になってから約2年が経ち、さまざまなAIが登場しています。みなさんはAI、使っていますか?
私はあまり使っていなくて……。アイデアの壁打ちをしたり、画像生成AIで遊んでみたりぐらいはやるんですが、現時点ではAIのアウトプットをそのまま仕事に使うことができないので、使いどころがあまりない気がしています。AIが出力した結果を人間がチェックしたり、修正する手間がどうしても必要になってしまうから。
その点アストロボットはテキスト情報がほぼなくて、失敗しても何度かトライしていくうちになんとかクリアできるような絶妙な難易度も相まって、7歳児のお気に入りです。1つだけ困るのは、コントローラーに息を吹きかけてゲーム上で風を起こすシーンがあるんですが、その時にコントローラーに近づきすぎて、よだれがついちゃうこと。まあ、拭けばいいんですけどね……。
さて今回は「ボット」つながりで、Chatbotにも使われる生成AIに改めて注目したいと思います。特に、ChatGPTをはじめとした文章生成AIが話題になってから約2年が経ち、さまざまなAIが登場しています。みなさんはAI、使っていますか?
私はあまり使っていなくて……。アイデアの壁打ちをしたり、画像生成AIで遊んでみたりぐらいはやるんですが、現時点ではAIのアウトプットをそのまま仕事に使うことができないので、使いどころがあまりない気がしています。AIが出力した結果を人間がチェックしたり、修正する手間がどうしても必要になってしまうから。
AIが“嘘をつく”ハルシネーションの問題
といいつつ、ライターさんに執筆をお願いするときには「AIを積極的に使って効率化してほしい」とは言っています。インタビューをAI書き起こしツールで書き起こすのは便利と聞き、やってみたら確かに「すごいな」とは思いました。でも、AIが書いたものをそのまま出してくるライターもいて、それは困るから、悩みます。
例えば、歴史上の偉人の列伝をライターさんがAIを使ってまとめてくれてくれた記事があったのですが、、その中に「偉人が執筆した書籍の翻訳版がある」と書かれていたんです。でもその本がどう探しても存在しなくて。AIが事実でないことを勝手に書いてしまう「ハルシネーション」の結果です。これは編集者にとっては怖いし、裏取りも大変です。
自分が情報が正しいかどうかを判断できない分野に関しては、ハルシネーションありきでAIを利用する必要があるでしょう
専門的で読みにくい原稿を、AIに「一般の人にも読みやすく書き直して」ってオーダーする使い方もあります。ただこれも、正確性の維持が不安。AIに任せた後で、間違いがないか人力で確認すればいいかもしれませんが、手間がかかってしまって、AIにやらせた意味が薄くなります。
例えば、歴史上の偉人の列伝をライターさんがAIを使ってまとめてくれてくれた記事があったのですが、、その中に「偉人が執筆した書籍の翻訳版がある」と書かれていたんです。でもその本がどう探しても存在しなくて。AIが事実でないことを勝手に書いてしまう「ハルシネーション」の結果です。これは編集者にとっては怖いし、裏取りも大変です。
自分が情報が正しいかどうかを判断できない分野に関しては、ハルシネーションありきでAIを利用する必要があるでしょう
専門的で読みにくい原稿を、AIに「一般の人にも読みやすく書き直して」ってオーダーする使い方もあります。ただこれも、正確性の維持が不安。AIに任せた後で、間違いがないか人力で確認すればいいかもしれませんが、手間がかかってしまって、AIにやらせた意味が薄くなります。
AIは忘れっぽい
AIにも性格があって、GoogleのGeminiは陽気でかなり適当なことを言う。一方、ChatGPTのPro版にある上位モデルは、明らかな間違いはあまりなくなってきたそうです。とはいえ、ChatGPTの上位モデルでも、オーダーした通りのことを100%やってくれるわけではないようです。
AIに仕事をさせても言う通りのことをやってくれない時は、プロンプトを変更したり追加したりしてやり直すことになりますが、手戻りになってしまいます。何度かやりとりしているうちに、最初のオーダーをAIが忘れてしまっていることもあって、「さっき言ったことをもう忘れてる!」ってびっくりします。
AIに仕事をさせても言う通りのことをやってくれない時は、プロンプトを変更したり追加したりしてやり直すことになりますが、手戻りになってしまいます。何度かやりとりしているうちに、最初のオーダーをAIが忘れてしまっていることもあって、「さっき言ったことをもう忘れてる!」ってびっくりします。
短い要約には便利
私がいま一番使っているのは、運営するウェブメディア「テクノエッジ」の記事を入力するCMS(コンテンツ・マネジメント・システム、Webコンテンツの管理ツール)に組み込まれている生成AIです。
テクノエッジの記事は、「タイトル」「リード文」「本文」という構成になっているんですが、本文からリードをAIに生成させるとすごくいい。上手にまとめるのでびっくりします。文章生成AIは、150~200文字ぐらいのアウトプットを任せるのが一番いいのかもしれません。
でも、要約がうまくできない時があって。あるハウツー記事で、1、2、3と3種類の方法があった時、その3つからうまく抜粋して要約してほしいんだけれど、1からしか要約してくれなかったりするんです。内容が混ざってしまうこともありました。本当は「Aは1です」「Bは2です」なのに、「AはBです」って混ぜてしまって意味不明になったり……。
テクノエッジの記事は、「タイトル」「リード文」「本文」という構成になっているんですが、本文からリードをAIに生成させるとすごくいい。上手にまとめるのでびっくりします。文章生成AIは、150~200文字ぐらいのアウトプットを任せるのが一番いいのかもしれません。
でも、要約がうまくできない時があって。あるハウツー記事で、1、2、3と3種類の方法があった時、その3つからうまく抜粋して要約してほしいんだけれど、1からしか要約してくれなかったりするんです。内容が混ざってしまうこともありました。本当は「Aは1です」「Bは2です」なのに、「AはBです」って混ぜてしまって意味不明になったり……。
処理量の上限が低い
長文の処理も困ります。AIによって処理できる「トークン数」の上限が決まっているからか、文章全体の処理をオーダーしても、前半しか処理してくれないことがあるのです。トークンとは、AIが処理するテキストデータの単位で、日本語だと1文字1〜3トークンぐらいといわれています。
で、「文章の後半も処理して」とオーダーして直ることもあるけれど、直らないこともあって。そういう時は分割したものを処理させて、最後に自分の手で統合するといった手間が必要になります。
また、ある会社の社史から企業分析をしようとした時、社史の要約しかしてくれなくて、企業分析をしてくれないことがありました。もちろんプロンプトにもよるんでしょうが、入力内容のうち、ボリュームが多い部分に気を取られて、処理が偏ってしまうんですかねえ。
要約や分析をオーダーしても、入力したデータの重要部分が分かっているようで分かっていなくて、記載の多い内容を上から順番に並べてくる感じがします。
「面白さ」とか、文章のトーン変更なども、できそうでできない。例えばコラムを書くときに「真面目なトーン8割、『翼の王国』(ANAの機内誌)っぽさ2割で書いてください」といったオーダーをすると、すごくポエムっぽくなってしまうそうです。「翼の王国」をポエム誌とでも思っているのでしょうか。
マンションの広告のキャッチコピーを「マンションポエム」と呼んだりしますが、そういうコピーや「村上春樹風の文章」など、一見AIが得意そうに見えるものの、実際にはあまりそれっぽくならないし、人間が考えたものと比べて、面白くないんですよね。AIは、より万人が納得する方向、平均に寄せようとするからなのかもしれません。
創作分野よりも、お役所の問い合わせ対応のような、ルールを当てはめるとなんとかなりそうな業務が向いているかなと思いきや、生成AIの正解率が低いと採用を見送るケースもあるようです。実際の運用を見ていると、基本的には機械学習というよりはルールベースの対応で、質問が来たら決まった回答を返すという1対1の対応をしているみたい。そこから外れたものだけ、生成AIを使って対応している印象があります。問い合わせのボリュームゾーンで処理を分けることで、人手のかかる対応を効率化しようとしているんでしょうね。
で、「文章の後半も処理して」とオーダーして直ることもあるけれど、直らないこともあって。そういう時は分割したものを処理させて、最後に自分の手で統合するといった手間が必要になります。
また、ある会社の社史から企業分析をしようとした時、社史の要約しかしてくれなくて、企業分析をしてくれないことがありました。もちろんプロンプトにもよるんでしょうが、入力内容のうち、ボリュームが多い部分に気を取られて、処理が偏ってしまうんですかねえ。
要約や分析をオーダーしても、入力したデータの重要部分が分かっているようで分かっていなくて、記載の多い内容を上から順番に並べてくる感じがします。
「面白さ」とか、文章のトーン変更なども、できそうでできない。例えばコラムを書くときに「真面目なトーン8割、『翼の王国』(ANAの機内誌)っぽさ2割で書いてください」といったオーダーをすると、すごくポエムっぽくなってしまうそうです。「翼の王国」をポエム誌とでも思っているのでしょうか。
マンションの広告のキャッチコピーを「マンションポエム」と呼んだりしますが、そういうコピーや「村上春樹風の文章」など、一見AIが得意そうに見えるものの、実際にはあまりそれっぽくならないし、人間が考えたものと比べて、面白くないんですよね。AIは、より万人が納得する方向、平均に寄せようとするからなのかもしれません。
創作分野よりも、お役所の問い合わせ対応のような、ルールを当てはめるとなんとかなりそうな業務が向いているかなと思いきや、生成AIの正解率が低いと採用を見送るケースもあるようです。実際の運用を見ていると、基本的には機械学習というよりはルールベースの対応で、質問が来たら決まった回答を返すという1対1の対応をしているみたい。そこから外れたものだけ、生成AIを使って対応している印象があります。問い合わせのボリュームゾーンで処理を分けることで、人手のかかる対応を効率化しようとしているんでしょうね。

鷹木 創
編集主幹
2002年以来、編集記者や編集長などとしてメディアビジネスに携わる。インプレス、アイティメディアと転職し、2013年にEngadget日本版の編集長に就任。 その後スマートニュースに転職。国内トップクラスの機械学習を活用したアプリ開発会社においてビジネス開発として活躍。2021年からはフリーランスとして独立、IBM、Google などのオウンドメディアをサポートしている。