鮮烈なChatGPTの登場から2年以上経ち、高額な開発費を投入して作られた生成AIを手軽にローカルPCで動かせる時代になりました。先日、話題になった中国製のAI「DeepSeek R1」もローカルPCで動かせます。今回はLM Studioを利用して手軽にローカルPCでDeepSeekを動かしてみましょう。

  • ローカルPCで安全にDeepSeekを使うためにLM Studioを使うことができる

    ローカルPCで安全にDeepSeekを使うためにLM Studioを使うことができる

なぜローカルPCで生成AIを動かしたいのか

なぜ生成AI(大規模言語モデル/LLM)をローカルPCで動かしたいのでしょうか。既に、ChatGPT(https://chatgpt.com/)やGoogle Gemini(https://gemini.google.com/?hl=ja)など、無料でも使える生成AIが用意されています。それらは、ブラウザやスマートフォンアプリとして用意されています。そのため、単に生成AIを使いたいだけならば、それらを利用すれば良いでしょう。

  • 無料でもいろいろな生成AIが利用できる

    無料でもいろいろな生成AIが利用できる

生成AIをローカルPCで使うと良い二つの大きな理由があります。まず機密情報や個人データを気にせず利用できます。次に、カスタマイズされた多様なモデルを自由に利用できます。

機密情報や個人データも気にせず扱えること

まず、生成AIと機密情報に関してですが、生成AIを作成するのには、大量のデータが必要になります。そのため、無料で利用できる多くの生成AIは、ユーザーの入力したデータを再学習して、より良いモデルを作っています。

最近でこそ、ChatGPTの無料版にも「ユーザーの入力を学習に利用しない」という設定が追加されましたが、多くのサービスでは、ユーザーが入力した情報を次世代モデルの学習に利用します。無料だからと気軽に使っていたら、入力したデータが誰かの質問と答えとして表示されるということがあり得ます。そのため、基本的に機密情報や個人情報を、生成AIに入力してはいけません。

しかし、ローカルPCで生成AIを使う場合には、この制限を気にする必要はありません。インターネットに情報を送信することもないため、センシティブな情報を入力しても漏洩することはありません。

カスタマイズされた多様なモデルが利用できること

そして、現在、インターネット上には、さまざまなオープンなモデルが公開されています。プログラムの生成に特化したモデルや、面白い会話に特化したモデル、論理的な思考に長けたモデルなど、いろいろなモデルが公開されています。ローカルで生成AIを動かすなら、それらを目的に合わせて選んで利用できます。

  • HuggingFaceで公開されているオープンなモデルの一覧

    HuggingFaceで公開されているオープンなモデルの一覧

ローカルPCで使うには難しいのでは? - LM Studioなら簡単

しかし、ローカルPCで生成AIをインストールして使うのは難しいというイメージがあります。と言うのも、以前はインターネット上で公開されているモデルを使うには、自分でプログラムを作って自作プログラムにそれを組み込む必要があったからです。

それほど難しいプログラムではなかったのですがハードルは高めでした。しかし、今ではWindows/macOS/Linux向けのアプリが公開されているので、ローカルで生成AIを動かすハードルはずいぶん下がりました。今後、もっといろいろなアプリが登場するものと考えられますが、本稿執筆時点で有望なのが「LM Studio」です。

LM Studioをインストールしてみよう

こちら(https://lmstudio.ai/)からインストールできます。ただし、トップページに「仕事で利用して良いか?」という質問に、まずはフォームで連絡して欲しいという1文があり、将来的には有料になる可能性もあります。

  • LM Studioをインストールしよう

    LM Studioをインストールしよう

インストールは簡単で、WebサイトからWindows/Mac/Linuxを選んでインストーラーをダウンロードします。そして、インストールするだけです。

  • 親切なインストーラーが用意されている

    親切なインストーラーが用意されている

なお、LM Studioは単にオープンなAIモデルをダウンロードして実行するだけのアプリなので、会話AIとして利用するためには、AIモデルをダウンロードする必要があります。原稿執筆時点では、「DeepSeek R1 Distilled(Qwen 7B)」がデフォルトで選ばれていました。手順にしたがって、数回ボタンを押すことで、そのモデルとチャットすることができるようになります。

  • 最初のLLMとしてDeepSeek R1をダウンロード

    最初のLLMとしてDeepSeek R1をダウンロード

会話が始まったら適当に「猫の名前を考えて」などと入力して「Send」ボタンを押してみよう。すると、次のように英語で答えが返ってきます。しかも、答えも微妙な感じです。

  • 猫の名前を考えてもらったところ - 英語で返ってきた

    猫の名前を考えてもらったところ - 英語で返ってきた

日本語で良い回答を得るには?

すぐに答えを提示する前に、LM Studioでデフォルトで設定されていた「DeepSeek R1 Distilled(Qwen 7B)」の「Distilled(蒸留)」という表現に注目できます。そもそも、DeepSeek R1はとても賢く複雑な推論や問題解決に特化したモデルではあるのですが、ダウンロードサイズを抑えるために、「Distilled(蒸留)」という手法を利用して知識を圧縮しているのです。知識を圧縮することで性能が劣化してしまうのです。

また、モデル名にある「7B」という表現は、モデルのパラメータ数を表します。7Bは「7 Billion(70億)」 のパラメータを持つモデルです。一般的にパラメータ数が増えれば増えるほど表現力や性能が高くなる可能性があります。しかし、パラメータ数が増えると計算コストが増えるので、動作が遅くなります。

そのため、ここで考えられるのは、よりパラメータ数の多いモデルを選ぶか、同じパラメータ数でも日本語に強いと言われているモデルを選ぶことです。

まずは、LM Studioの右下の歯車アイコンをクリックして、Languageの設定で「日本語」を選択しましょう。日本語で操作できるようになります。

  • LM Studioは日本語化できる

    LM Studioは日本語化できる

次に、設定の「Model Search」をクリックして「deepseek Japanese」を検索してみましょう。おそらくMシリーズのmacOSと、それ以外のマシンでは結果が異なるでしょう。

筆者のM1 Macbook Proでは、MLXに対応した「DeepSeek-R1-Distill-Qwen-14B-Japanese-chat-quant」が見つかり、NVIDIAのGPUを搭載したWindowsマシンでは「cyberagent-DeepSeek-R1-Distill-Qwen-14B-Japanese-gguf」が見つかりました。

利用したいモデルを選んで、右下の「Download」ボタンをクリックしてみましょう。ダウンロードが完了すると、そのモデルを利用したチャットができます。

  • macOSで「deepseek japanese」を検索したところ

    macOSで「deepseek japanese」を検索したところ

そして、同じように猫の名前を考えてもらいました。今度は良い感じです。macOSのMシリーズに特化したMLXに対応したモデルを利用すると、かなり動作が速くなります。14B(140億)のモデルを利用する場合、2021年10月に発売されたM1 Macでも、それなりに動きました。

  • 日本語化したDeepSeek R1を使ったところ

    日本語化したDeepSeek R1を使ったところ

システムプロンプトを工夫しよう

この記事は
Members+会員の方のみ御覧いただけます

ログイン/無料会員登録

会員サービスの詳細はこちら