最近、完全プライベートで使えるローカルLLMが話題です。ローカルLLMなら、自分のPCの中だけで生成AIが使えるので社外秘のデータも安心して活用できます。今回は、ブラウザ拡張のOllama UIを利用して、手軽に使えるローカルLLMの環境を整えましょう。

  • Ollama UIを使えば手軽にローカルLLMの環境を使える

    Ollama UIを使えば手軽にローカルLLMの環境を使える

Ollama UIとは

ローカルLLMが話題になってから、ローカルでLLMを動かすことができる、いろいろなツールが登場しました。

本連載でも、既に、LM Studio( https://lmstudio.ai/ )を紹介しました。しかし、LM Studioは個人利用では無償ですが、商用利用ではライセンス購入が必要になります。また前回、Ollama( https://ollama.com/ )を紹介しましたが、コマンドラインからの操作が必要であり、ちょっと使いづらい部分もありました。そこで、オススメなのが、今回紹介する「Ollama UI」です。

「Ollama UI」は、Chromeのブラウザ拡張として実装されており、ChromeやEdgeを使っていれば、こちら( https://chromewebstore.google.com/detail/ollama-ui/cmgdpmlhgjhoadnonobjeekmfcehffco?hl=ja )から気軽にインストールできます。

ローカルLLMとチャットするという基本的な機能しかないのですが、シンプルで操作に迷うことがありません。利用したい時にブラウザからすぐに起動できるのもメリットの一つです。

  • Ollama UIを使っているところ

    Ollama UIを使っているところ

本稿では、ローカルLLMを手軽に構築する手順を紹介します。ターミナル(PowerShellまたはターミナル.app)を使ったことがある人であれば、10分もかからずローカルLLMが動く環境を構築できることでしょう。

(手順1) Ollamaをインストールしよう

Ollama UIは、ブラウザから簡単にインストールできるのがメリットですが、名前の通り「Ollama」に依存しています。そのため、最初にOllamaをインストールする必要があります。

こちら( https://ollama.com/download )から、Ollamaをインストールしましょう。ブラウザでアクセスして「Download ↓」ボタンをクリックするとインストーラーをダウンロードできます。

  • OllamaのWebサイト

    OllamaのWebサイト

Ollamaのインストーラーを使えば、手軽にOllamaをインストールできます。

(手順2) ローカルLLMのモデル「gemma3」をダウンロードしよう

ただし、Ollamaは単なるローカルLLMを実行するエンジンです。Ollamaをインストールしただけでは、何もできません。コマンドラインからローカルLLMのモデルをダウンロードしましょう。

それに先だって、タスクトレイに、Ollamaのアイコンが表示されたのを確認しましょう。アイコンが表示されているときは、Ollamaにアクセスできます。表示されていないときは、スタートメニューからOllamaを起動しましょう。

  • タスクトレイにOllamaが表示されていることを確認しよう

    タスクトレイにOllamaが表示されていることを確認しよう

Ollamaでモデルをインストールするには、OSごとに用意されているターミナルを起動してOllamaのコマンドを実行します。WindowsならPowerShell、macOSならターミナル.appを起動しましょう。Windows 11でPowerShellを起動するには、スタートメニューから起動できます。検索ボックスに「PowerShell」と入力することで起動できます。macOSではSpotlightに「ターミナル.app」と入力することで起動できます。

今回は、Googleが開発して公開している優秀なモデル「gemma3」をインストールしましょう。ターミナルで、下記のようにタイプして[Enter]キーを押すと、モデル「gemma3」のダウンロードが始まります。

ollama pull gemma3:4b

正しくダウンロードが完了すると、次の画面のように、末尾に「success(成功)」と表示されます。

  • Windowsでgemma3をダウンロードしたところ

    Windowsでgemma3をダウンロードしたところ

なお、上記4bモデルのファイルサイズは、3.3GBあるので、PCのストレージの空きサイズを確認し、インターネットの接続環境の良いときにダウンロードしましょう。

(手順3) ChromeウェブストアからOllama UIをインストールしよう

ChromeかEdgeで、こちら( https://chromewebstore.google.com/detail/ollama-ui/cmgdpmlhgjhoadnonobjeekmfcehffco?hl=ja )のChromeウェブストアにアクセスします。そして、画面右上にある「Chromeに追加」のボタンを押すとインストールできます。

  • ChromeウェブストアのOllama UIのページ

    ChromeウェブストアのOllama UIのページ

ブラウザ拡張なので、簡単に追加したり削除したりできます。

(手順4) ブラウザ拡張Ollama UIを開こう

インストールしたら、Chromeで、拡張機能の中にある「ollama-ui」を開きましょう。拡張機能はブラウザのアドレスバーの右横のボタンをクリックして、選ぶことができます。

  • ChromeからOllama UIを起動しよう

    ChromeからOllama UIを起動しよう

すると、画面のModelの部分に、先ほどターミナルでダウンロードした「gemma3:4b」が選択されているのを確認できるでしょう。もし、選択されていなければ、Modelから「gemma3:4b」を選択します。

(手順5) ローカルLLMと対話しよう

それから、画面下部にあるテキストボックスに、ローカルLLMで実行したいプロンプトや0質問などを入力します。そしてその右横にある「Send」ボタンを押すと、ローカルLLMが応答を生成して表示します。

  • gemma3を利用しているところ

    gemma3を利用しているところ

なお、プロンプトを実行して終わりではなく、チャットとなっているので、ローカルLLMと対話できます。

  • 心ゆくまでローカルLLMと対話できる

    心ゆくまでローカルLLMと対話できる

(手順6) gemma3以外のLLMを試したいとき

この記事は
Members+会員の方のみ御覧いただけます

ログイン/無料会員登録

会員サービスの詳細はこちら