最近、完全プライベートで使えるローカルLLMが話題です。ローカルLLMなら、自分のPCの中だけで生成AIが使えるので社外秘のデータも安心して活用できます。今回は、ブラウザ拡張のOllama UIを利用して、手軽に使えるローカルLLMの環境を整えましょう。
Ollama UIとは
ローカルLLMが話題になってから、ローカルでLLMを動かすことができる、いろいろなツールが登場しました。
本連載でも、既に、LM Studio( https://lmstudio.ai/ )を紹介しました。しかし、LM Studioは個人利用では無償ですが、商用利用ではライセンス購入が必要になります。また前回、Ollama( https://ollama.com/ )を紹介しましたが、コマンドラインからの操作が必要であり、ちょっと使いづらい部分もありました。そこで、オススメなのが、今回紹介する「Ollama UI」です。
「Ollama UI」は、Chromeのブラウザ拡張として実装されており、ChromeやEdgeを使っていれば、こちら( https://chromewebstore.google.com/detail/ollama-ui/cmgdpmlhgjhoadnonobjeekmfcehffco?hl=ja )から気軽にインストールできます。
ローカルLLMとチャットするという基本的な機能しかないのですが、シンプルで操作に迷うことがありません。利用したい時にブラウザからすぐに起動できるのもメリットの一つです。
本稿では、ローカルLLMを手軽に構築する手順を紹介します。ターミナル(PowerShellまたはターミナル.app)を使ったことがある人であれば、10分もかからずローカルLLMが動く環境を構築できることでしょう。
(手順1) Ollamaをインストールしよう
Ollama UIは、ブラウザから簡単にインストールできるのがメリットですが、名前の通り「Ollama」に依存しています。そのため、最初にOllamaをインストールする必要があります。
こちら( https://ollama.com/download )から、Ollamaをインストールしましょう。ブラウザでアクセスして「Download ↓」ボタンをクリックするとインストーラーをダウンロードできます。
Ollamaのインストーラーを使えば、手軽にOllamaをインストールできます。
(手順2) ローカルLLMのモデル「gemma3」をダウンロードしよう
ただし、Ollamaは単なるローカルLLMを実行するエンジンです。Ollamaをインストールしただけでは、何もできません。コマンドラインからローカルLLMのモデルをダウンロードしましょう。
それに先だって、タスクトレイに、Ollamaのアイコンが表示されたのを確認しましょう。アイコンが表示されているときは、Ollamaにアクセスできます。表示されていないときは、スタートメニューからOllamaを起動しましょう。
Ollamaでモデルをインストールするには、OSごとに用意されているターミナルを起動してOllamaのコマンドを実行します。WindowsならPowerShell、macOSならターミナル.appを起動しましょう。Windows 11でPowerShellを起動するには、スタートメニューから起動できます。検索ボックスに「PowerShell」と入力することで起動できます。macOSではSpotlightに「ターミナル.app」と入力することで起動できます。
今回は、Googleが開発して公開している優秀なモデル「gemma3」をインストールしましょう。ターミナルで、下記のようにタイプして[Enter]キーを押すと、モデル「gemma3」のダウンロードが始まります。
ollama pull gemma3:4b
正しくダウンロードが完了すると、次の画面のように、末尾に「success(成功)」と表示されます。
なお、上記4bモデルのファイルサイズは、3.3GBあるので、PCのストレージの空きサイズを確認し、インターネットの接続環境の良いときにダウンロードしましょう。
(手順3) ChromeウェブストアからOllama UIをインストールしよう
ChromeかEdgeで、こちら( https://chromewebstore.google.com/detail/ollama-ui/cmgdpmlhgjhoadnonobjeekmfcehffco?hl=ja )のChromeウェブストアにアクセスします。そして、画面右上にある「Chromeに追加」のボタンを押すとインストールできます。
ブラウザ拡張なので、簡単に追加したり削除したりできます。
(手順4) ブラウザ拡張Ollama UIを開こう
インストールしたら、Chromeで、拡張機能の中にある「ollama-ui」を開きましょう。拡張機能はブラウザのアドレスバーの右横のボタンをクリックして、選ぶことができます。
すると、画面のModelの部分に、先ほどターミナルでダウンロードした「gemma3:4b」が選択されているのを確認できるでしょう。もし、選択されていなければ、Modelから「gemma3:4b」を選択します。
(手順5) ローカルLLMと対話しよう
それから、画面下部にあるテキストボックスに、ローカルLLMで実行したいプロンプトや0質問などを入力します。そしてその右横にある「Send」ボタンを押すと、ローカルLLMが応答を生成して表示します。
なお、プロンプトを実行して終わりではなく、チャットとなっているので、ローカルLLMと対話できます。
(手順6) gemma3以外のLLMを試したいとき
ローカルLLMの魅力は、タスクに応じて、異なるLLMを選んで実行できる点にあります。Ollamaで利用できるモデルの一覧をこちら( https://ollama.com/search )から確認できます。
上記のモデル一覧から選んで、モデルのページを見ると、画面の右上に、Ollamaでモデルダウンロードのコマンドが表示されます。これを、ターミナル(PowerShellやターミナル.app)に入力して[Enter]キーを押すとモデルをインストールできます。
なお、モデルが不要になったら、ターミナルで下記のコマンドを実行します。
# モデルの一覧を表示
ollama list
# モデル名を指定してモデルを削除
ollama rm (モデル名)
例えば、「gemma3:4b」を削除するなら、下記のコマンドを実行します。
ollama rm gemma3:4b
まとめ
以上、今回は、Ollama UIを使って、ローカルLLMの実行環境を構築する方法を紹介しました。モデルの追加をしたい場合には、ターミナルを開いて、Ollamaのコマンドを入力することになるのですが、コマンド入力は苦手という人でも、コマンドを貼り付けて実行するだけです。いろいろなモデルを試してみると良いでしょう。
自由型プログラマー。くじらはんどにて、プログラミングの楽しさを伝える活動をしている。代表作に、日本語プログラミング言語「なでしこ」 、テキスト音楽「サクラ」など。2001年オンラインソフト大賞入賞、2004年度未踏ユース スーパークリエータ認定、2010年 OSS貢献者章受賞。これまで50冊以上の技術書を執筆した。直近では、「大規模言語モデルを使いこなすためのプロンプトエンジニアリングの教科書(マイナビ出版)」「Pythonでつくるデスクトップアプリ(ソシム)」「実践力を身につける Pythonの教科書 第2版」「シゴトがはかどる Python自動処理の教科書(マイナビ出版)」など。