「DeepSeek」は、中国のAIスタートアップが開発したAIチャットサービス。最新モデルである「DeepSeek-R1」はオープンソースとして公開され、誰もがローカル環境で実行できるようになりました。高度な推論が可能とされるOpenAIのo1モデルと同等の性能を持ちながら、開発や運用コストを大幅に抑えている点で注目されています。
特筆すべきは、これらのモデルがMITライセンスで公開されている点です。このライセンスは、商用利用を含む自由な利用が可能なオープンソースライセンス。このため、企業での実装やカスタマイズも容易です。
DeepSeek-R1では、大きなAIモデル(教師モデル)の知識や能力を、より小さく効率的なAIモデル(生徒モデル)に転送して、AIモデルを軽量・シンプルにする「蒸留技術」を用いて、DeepSeek-R1の知識をより小さなモデルに凝縮した「蒸留モデル」も公開されています。これにより、高性能かつ潤沢なVRAMを持つGPUでなくても利用できるようになっています。
DeepSeek-R1の蒸留モデルは、DeepSeek自身や他の組織によって公開されています。特にサイバーエージェントは、DeepSeek-R1の蒸留モデルに日本語で追加学習を施した軽量なLLM(大規模言語モデル)を公開。日本語対応の蒸留モデルが利用でき、日本語での応答精度が向上しています。
この蒸留モデルは、自分のマシンで完結する環境で実行でき、インターネット接続が不要となるため、データのプライバシーやセキュリティを確保しやすく、カスタマイズや最適化も自由に行えるというメリットがあります。
さまざまなサイズのモデルが用意されているDeepSeek-R1ですが、本記事では、特に個人での利用に適した8b、14b、32bモデルに焦点を当て、Macでの環境構築から実際の使用感まで、詳しく解説していきます。
特筆すべきは、これらのモデルがMITライセンスで公開されている点です。このライセンスは、商用利用を含む自由な利用が可能なオープンソースライセンス。このため、企業での実装やカスタマイズも容易です。
DeepSeek-R1では、大きなAIモデル(教師モデル)の知識や能力を、より小さく効率的なAIモデル(生徒モデル)に転送して、AIモデルを軽量・シンプルにする「蒸留技術」を用いて、DeepSeek-R1の知識をより小さなモデルに凝縮した「蒸留モデル」も公開されています。これにより、高性能かつ潤沢なVRAMを持つGPUでなくても利用できるようになっています。
DeepSeek-R1の蒸留モデルは、DeepSeek自身や他の組織によって公開されています。特にサイバーエージェントは、DeepSeek-R1の蒸留モデルに日本語で追加学習を施した軽量なLLM(大規模言語モデル)を公開。日本語対応の蒸留モデルが利用でき、日本語での応答精度が向上しています。
この蒸留モデルは、自分のマシンで完結する環境で実行でき、インターネット接続が不要となるため、データのプライバシーやセキュリティを確保しやすく、カスタマイズや最適化も自由に行えるというメリットがあります。
さまざまなサイズのモデルが用意されているDeepSeek-R1ですが、本記事では、特に個人での利用に適した8b、14b、32bモデルに焦点を当て、Macでの環境構築から実際の使用感まで、詳しく解説していきます。
Macで動作させるためのセットアップ
私はM2チップを搭載したMacBook Proを使用しています。メモリは24GB積んでいます。

ローカル環境でLLMを実行するためのAIプラットフォーム「Ollama」は、Apple製のチップ(Apple Silicon)の性能を活かして効率的にAIモデルを実行可能。MacでDeepSeek-R1を動作させる環境として適しています。またOllamaはCPUだけでなく、Apple SiliconのGPUアクセラレーションを活用して、AIモデルのパフォーマンスを向上できます。
そこでM2 MacBook Proとの組み合わせにより、DeepSeek-R1を効果的に活用できると考え、Ollamaを動作環境として選択しました。
そこでM2 MacBook Proとの組み合わせにより、DeepSeek-R1を効果的に活用できると考え、Ollamaを動作環境として選択しました。
セットアップ手順

Ollama公式サイト
Downloadボタンを押すと、OS選択画面になります。

ここではMac用のインストーラーを選択し、ダウンロードします。

ダウンロードしたzipファイルをダブルクリックで解凍すると、「Ollama(Ollama.app)」というファイルが現れます。

このファイルを開くと、下の画像のようなダイアログが出ます。

「Move to Applications」を選んでインストールを完了し、アプリケーションフォルダで「Ollama」を起動すると、次のような画面になります。

ここで「Next」を押すと、今度はコマンドライン用OllamaのInstallボタンが出てきます。

「Install」を押すと、変更を加えることを確認するダイヤログが表示されるので、Touch IDかパスワードで許可してください。
次の画面になればインストール完了です。
次の画面になればインストール完了です。

この時点で、ターミナルからもOllamaコマンドが使用可能になります。ログインすると自動的にOllamaが開くようにもなっているので、自動的に開きたくない場合は、Macの「システム設定」アプリでログイン項目から削除してください。

DeepSeekモデルを使用する
Ollamaをインストールしただけでは、まだDeepSeekは動作はしません。Ollamaからモデルを持ってくる必要があります。Ollamaで使える言語モデルは、以下のページで調べられます。
https://ollama.com/search
ページ上部の検索窓に「DeepSeek-R1」と入力すると、DeepSeek-R1の各種蒸留モデルが表示されます。
Ollamaをインストールしただけでは、まだDeepSeekは動作はしません。Ollamaからモデルを持ってくる必要があります。Ollamaで使える言語モデルは、以下のページで調べられます。
https://ollama.com/search
ページ上部の検索窓に「DeepSeek-R1」と入力すると、DeepSeek-R1の各種蒸留モデルが表示されます。

この検索結果で「7b」「8b」「14b」などと表示されているのは、それぞれの蒸留モデルで用意されているパラメータ数です。数値が小さいほど軽量で動作が速く、数値が大きくなるほど動作は重くなりますが、その代わりAIの賢さが増します。bはbillion、つまり10億を表し、8bなら80億パラメータです。
検索結果にある「deepseek-R1」をクリックしてみます。
検索結果にある「deepseek-R1」をクリックしてみます。

ここではプルダウンメニューからパラメータのサイズが選べます。まずは8bを選んでみます。

8bを選ぶと、右側の欄に表示されるコマンドが8b用のものになります。

上の画像で赤丸で囲んだコピーボタンを押すと、DeepSeek-R1を8bに蒸留したモデルをOllama上で使えるコマンドの文字列が、クリップボードにコピーされます。
コピーされたコマンドは次のような書式になっています。
# 8bモデルの場合
ollama pull deepseek-r1:8b
# 32bモデルの場合
ollama pull deepseek-r1:32b
コロンの後ろにサイズがあるので、違うサイズにする場合はここを変えればOKなのですが、指定したサイズの蒸留モデルが存在していなければ、当然エラーになり実行できません。ですから、先ほどのページで、どのサイズがあるのかを確認しましょう。
さて、コピーしたコマンドを実行するには、Macのターミナルを起動します。ターミナルアプリは、アプリケーションフォルダの「ユーティリティ」フォルダ内にあります。また、Spotlight検索に「ターミナル」と入力して表示される結果からも起動できます。
コピーされたコマンドは次のような書式になっています。
# 8bモデルの場合
ollama pull deepseek-r1:8b
# 32bモデルの場合
ollama pull deepseek-r1:32b
コロンの後ろにサイズがあるので、違うサイズにする場合はここを変えればOKなのですが、指定したサイズの蒸留モデルが存在していなければ、当然エラーになり実行できません。ですから、先ほどのページで、どのサイズがあるのかを確認しましょう。
さて、コピーしたコマンドを実行するには、Macのターミナルを起動します。ターミナルアプリは、アプリケーションフォルダの「ユーティリティ」フォルダ内にあります。また、Spotlight検索に「ターミナル」と入力して表示される結果からも起動できます。

早速先ほどコピーしたコマンドをターミナルで入力して、Enterキーを押し実行してみましょう。

「ollama run」というコマンドは、指定したモデルを実行するコマンドですが、そのモデルがまだMacにダウンロードされていない場合は、ダウンロードしてから実行してくれます。
初回はダウンロードが終わると、下の画像のようにチャットが始まります。
初回はダウンロードが終わると、下の画像のようにチャットが始まります。

それではDeepSeek-R1のモデルを、サイズ違いでいくつかダウンロードして比較してみましょう。

小泉 勝志郎
株式会社テセラクト 代表取締役社長
シニアプログラミングネットワーク代表
震災復興活動の中で海藻・アカモクをモチーフにつくったキャラクター「渚の妖精ぎばさちゃん」を運営。Appleの開発者カンファレンスに「81歳のアプリ開発者」として招待された若宮正子さんへの教育をきっかけに、高齢者向けのプログラミング教育にも力を入れ、現在はコミュニティ「シニアプログラミングネットワーク」を運営する。2023年3月「第1回AIアートグランプリ」において「渚の妖精ぎばさちゃん」をテーマにした漫画で準グランプリを受賞するなど、生成AIにも造詣が深い。