モデルによる回答の違い
今回は8b、14b、32b、そして日本語蒸留版の14bの各モデルを切り替えて比較してみます。
ちなみにモデルを切り替える際は、チャットを一度終える必要があります。チャットを終えるには「Ctrl+d」を押すか、「/bye」と入力します。
ちなみにモデルを切り替える際は、チャットを一度終える必要があります。チャットを終えるには「Ctrl+d」を押すか、「/bye」と入力します。

その後、再度「ollama pull deepseek-r1:」で始まる、各サイズのモデルのコマンドをコピー/ペーストするか、手入力して、次に切り替えたいサイズの蒸留モデルを実行してください。
さて、今回チャットで聞く内容は「ソメイヨシノについて日本語で教えてください」というものにしました。検索機能がないタイプの生成AIに知識を質問すると答えがデタラメになる可能性が高いのですが、日本語での能力を調べるためにも、日本的なものを日本語で答えさせてみました。
8bモデルの場合
まずは比較的軽量な8bモデルで「ソメイヨシノについて日本語で教えてください」と聞いてみます。
軽量なためもあってか、M2 MacBook Proでも質問を打ち込んだ瞬間からサクサクと回答を書き始めます。
さて、今回チャットで聞く内容は「ソメイヨシノについて日本語で教えてください」というものにしました。検索機能がないタイプの生成AIに知識を質問すると答えがデタラメになる可能性が高いのですが、日本語での能力を調べるためにも、日本的なものを日本語で答えさせてみました。
8bモデルの場合
まずは比較的軽量な8bモデルで「ソメイヨシノについて日本語で教えてください」と聞いてみます。
軽量なためもあってか、M2 MacBook Proでも質問を打ち込んだ瞬間からサクサクと回答を書き始めます。

ここで回答を見ると「日本語で教えてください」と書いているのに、英語で書き始めるので、うんざりしてしまうかもしれません。しかしよく見ると、この記述は<think>から始まっています。その先には</think>という終了の印もあります。実は、この<think>〜</think>で囲まれた箇所は思考過程なのです。この思考過程の後に回答が出てきます。

というわけで、軽量な8bでも日本語で回答してくれました。サクラの品種であるソメイヨシノについて質問しているのに、「江戸時代に頭につけた帽子」とかなりとんちんかんな回答ですが、日本語ではあります。
14bモデルの場合
続いて14bモデルでも同じ質問をしてみました。
14bモデルの場合
続いて14bモデルでも同じ質問をしてみました。

14bだと8bよりもモデルのサイズが大きいため、思考過程に入るまでに私の環境で30秒くらいかかりました。全体の出力も8bに比べるとゆったりめです。とはいえ、使うことができないというほど遅いわけではありません。
ただし、日本語で回答をしてくれてはいますが、14bでもソメイヨシノを作家名と判断しています。
32bモデルの場合
今回の比較対象の中では最大の32bのモデルでも試してみます。同じ質問をしたのですが、私のM2 MacBook Proでは、書き始めるまでにものすごく時間がかかり、書き終わるまでになんと30分近くかかりました。
違いを見てみましょう。
ただし、日本語で回答をしてくれてはいますが、14bでもソメイヨシノを作家名と判断しています。
32bモデルの場合
今回の比較対象の中では最大の32bのモデルでも試してみます。同じ質問をしたのですが、私のM2 MacBook Proでは、書き始めるまでにものすごく時間がかかり、書き終わるまでになんと30分近くかかりました。
違いを見てみましょう。

今まで英語だった思考過程が中国語になりました。中国語の資料を多く学習していることを感じさせます。肝心の回答は……。

なんと回答も中国語になっていました。再度指示を出して書き直してもらう方法もあるとは思いますが、もう一度30分ほどかけることになるため、今回は断念しました。
ただ、中国語の回答をChatGPTで日本語に翻訳してもらうと、正確性はともかく、ソメイヨシノがサクラであることは理解した内容になっていました。
ただ、中国語の回答をChatGPTで日本語に翻訳してもらうと、正確性はともかく、ソメイヨシノがサクラであることは理解した内容になっていました。

日本語蒸留版14bモデルの場合
続いて「日本語蒸留版14bモデル」を使ってみます。
サイバーエージェントが作成した日本語蒸留版のOllama版を利用するには、以下のコマンドを用います。32bの日本語蒸留版を使う場合はコロン以降を「32b」にしてください。
ollama run yuma/DeepSeek-R1-Distill-Qwen-Japanese:14b
同じように「ソメイヨシノについて日本語で教えてください」と聞いてみました。
続いて「日本語蒸留版14bモデル」を使ってみます。
サイバーエージェントが作成した日本語蒸留版のOllama版を利用するには、以下のコマンドを用います。32bの日本語蒸留版を使う場合はコロン以降を「32b」にしてください。
ollama run yuma/DeepSeek-R1-Distill-Qwen-Japanese:14b
同じように「ソメイヨシノについて日本語で教えてください」と聞いてみました。

今度は、なんと思考過程から日本語です。しかも、細かい正誤はともかく、ちゃんとソメイヨシノをサクラだと認識しています。また、14bであるためか、32bの時と違って回答が終わるのに30分かかったりせず、サクサクと回答します。気になる回答は、最終的に次のようになりました。

原産地や発案者などの固有名詞が絡む部分には間違いが多いものの、サクラであることをきちんと認識し、ちゃんと日本語で回答してくれました。
モデルを比較してみて
日本語での入出力によって、M2 MacBook Proで使うという前提なら、サイバーエージェントが作成した日本語蒸留モデルの14b版が、最も実用的だと個人的には思います。日本語の適応力が高いだけではなく、日本固有の背景もある程度理解してくれます。
32b版は中国語とはいえ、ほぼ正しい回答を出しましたが、私の今回の環境では回答に30分近くかかり、実用的ではありませんでした。一方、8b版は非常に軽快なので、将来的には生成AIが普通のローカルアプリに組み込まれる日も来るのかもしれません。
32b版は中国語とはいえ、ほぼ正しい回答を出しましたが、私の今回の環境では回答に30分近くかかり、実用的ではありませんでした。一方、8b版は非常に軽快なので、将来的には生成AIが普通のローカルアプリに組み込まれる日も来るのかもしれません。
モデルの削除
DeepSeek-R1の蒸留した軽量モデルを使っているとはいえ、各モデルは数GByteのサイズがあります。ストレージを圧迫してしまうので、不要なモデルについては削除したいところです。
ところが、Ollamaのモデル格納場所へたどり着くには、少々知識が必要です。そこで、コマンドラインから不要なモデルを消す方法を紹介します。
インストール済みモデルの確認
インストール済みのモデルを確認するには、Ollama起動中に次のコマンドをターミナルで打ち込んでください。
ollama list
打ち込んで実行すると、下の画像のようにインストール済みモデルの一覧が表示されます。
ところが、Ollamaのモデル格納場所へたどり着くには、少々知識が必要です。そこで、コマンドラインから不要なモデルを消す方法を紹介します。
インストール済みモデルの確認
インストール済みのモデルを確認するには、Ollama起動中に次のコマンドをターミナルで打ち込んでください。
ollama list
打ち込んで実行すると、下の画像のようにインストール済みモデルの一覧が表示されます。

インストールしたモデルの削除
インストール済みのモデルを削除するには以下のコマンドを打ち込みます。
ollama rm (モデル名)
ここで入力する(モデル名)は、先ほど表示したリストに出てくるモデル名(NAME欄に表示されている文字列)にしてください。
deepseek-r1:8bを削除するなら以下のようなコマンドになります。
ollama rm deepseek-r1:8b
実行してみるとこのように削除されます。
インストール済みのモデルを削除するには以下のコマンドを打ち込みます。
ollama rm (モデル名)
ここで入力する(モデル名)は、先ほど表示したリストに出てくるモデル名(NAME欄に表示されている文字列)にしてください。
deepseek-r1:8bを削除するなら以下のようなコマンドになります。
ollama rm deepseek-r1:8b
実行してみるとこのように削除されます。

もう一度リストで表示してみると、確かに削除されていることがわかります。

最後に
自分のマシン、それもMacで最新の生成AIモデルが動くのは、ちょっとした感動があります。
前述したように、蒸留モデルのような小さいモデルでも十分にパフォーマンスを発揮できれば、将来的にはアプリの中に組み込まれ、例えばゲームの中のNPCが自分で考えて会話をするようになるといったことも、そう遠い未来の話ではないのかなと思います。今後のこうしたAIモデルの発展にも期待ですね。
前述したように、蒸留モデルのような小さいモデルでも十分にパフォーマンスを発揮できれば、将来的にはアプリの中に組み込まれ、例えばゲームの中のNPCが自分で考えて会話をするようになるといったことも、そう遠い未来の話ではないのかなと思います。今後のこうしたAIモデルの発展にも期待ですね。

小泉 勝志郎
株式会社テセラクト 代表取締役社長
シニアプログラミングネットワーク代表
震災復興活動の中で海藻・アカモクをモチーフにつくったキャラクター「渚の妖精ぎばさちゃん」を運営。Appleの開発者カンファレンスに「81歳のアプリ開発者」として招待された若宮正子さんへの教育をきっかけに、高齢者向けのプログラミング教育にも力を入れ、現在はコミュニティ「シニアプログラミングネットワーク」を運営する。2023年3月「第1回AIアートグランプリ」において「渚の妖精ぎばさちゃん」をテーマにした漫画で準グランプリを受賞するなど、生成AIにも造詣が深い。