最近、完全プライベートで使えるローカルLLMが話題です。ローカルLLMなら、自分のPCの中だけで生成AIが使えるので社外秘のデータも安心して活用できます。今回は、ブラウザ拡張のOllama UIを利用して、手軽に使えるローカルLLMの環境を整えましょう。
Ollama UIとは
ローカルLLMが話題になってから、ローカルでLLMを動かすことができる、いろいろなツールが登場しました。
本連載でも、既に、LM Studio( https://lmstudio.ai/ )を紹介しました。しかし、LM Studioは個人利用では無償ですが、商用利用ではライセンス購入が必要になります。また前回、Ollama( https://ollama.com/ )を紹介しましたが、コマンドラインからの操作が必要であり、ちょっと使いづらい部分もありました。そこで、オススメなのが、今回紹介する「Ollama UI」です。
「Ollama UI」は、Chromeのブラウザ拡張として実装されており、ChromeやEdgeを使っていれば、こちら( https://chromewebstore.google.com/detail/ollama-ui/cmgdpmlhgjhoadnonobjeekmfcehffco?hl=ja )から気軽にインストールできます。
ローカルLLMとチャットするという基本的な機能しかないのですが、シンプルで操作に迷うことがありません。利用したい時にブラウザからすぐに起動できるのもメリットの一つです。
本稿では、ローカルLLMを手軽に構築する手順を紹介します。ターミナル(PowerShellまたはターミナル.app)を使ったことがある人であれば、10分もかからずローカルLLMが動く環境を構築できることでしょう。
(手順1) Ollamaをインストールしよう
Ollama UIは、ブラウザから簡単にインストールできるのがメリットですが、名前の通り「Ollama」に依存しています。そのため、最初にOllamaをインストールする必要があります。
こちら( https://ollama.com/download )から、Ollamaをインストールしましょう。ブラウザでアクセスして「Download ↓」ボタンをクリックするとインストーラーをダウンロードできます。
Ollamaのインストーラーを使えば、手軽にOllamaをインストールできます。
(手順2) ローカルLLMのモデル「gemma3」をダウンロードしよう
ただし、Ollamaは単なるローカルLLMを実行するエンジンです。Ollamaをインストールしただけでは、何もできません。コマンドラインからローカルLLMのモデルをダウンロードしましょう。
それに先だって、タスクトレイに、Ollamaのアイコンが表示されたのを確認しましょう。アイコンが表示されているときは、Ollamaにアクセスできます。表示されていないときは、スタートメニューからOllamaを起動しましょう。
Ollamaでモデルをインストールするには、OSごとに用意されているターミナルを起動してOllamaのコマンドを実行します。WindowsならPowerShell、macOSならターミナル.appを起動しましょう。Windows 11でPowerShellを起動するには、スタートメニューから起動できます。検索ボックスに「PowerShell」と入力することで起動できます。macOSではSpotlightに「ターミナル.app」と入力することで起動できます。
今回は、Googleが開発して公開している優秀なモデル「gemma3」をインストールしましょう。ターミナルで、下記のようにタイプして[Enter]キーを押すと、モデル「gemma3」のダウンロードが始まります。
ollama pull gemma3:4b
正しくダウンロードが完了すると、次の画面のように、末尾に「success(成功)」と表示されます。
なお、上記4bモデルのファイルサイズは、3.3GBあるので、PCのストレージの空きサイズを確認し、インターネットの接続環境の良いときにダウンロードしましょう。
(手順3) ChromeウェブストアからOllama UIをインストールしよう
ChromeかEdgeで、こちら( https://chromewebstore.google.com/detail/ollama-ui/cmgdpmlhgjhoadnonobjeekmfcehffco?hl=ja )のChromeウェブストアにアクセスします。そして、画面右上にある「Chromeに追加」のボタンを押すとインストールできます。
ブラウザ拡張なので、簡単に追加したり削除したりできます。
(手順4) ブラウザ拡張Ollama UIを開こう
インストールしたら、Chromeで、拡張機能の中にある「ollama-ui」を開きましょう。拡張機能はブラウザのアドレスバーの右横のボタンをクリックして、選ぶことができます。
すると、画面のModelの部分に、先ほどターミナルでダウンロードした「gemma3:4b」が選択されているのを確認できるでしょう。もし、選択されていなければ、Modelから「gemma3:4b」を選択します。
(手順5) ローカルLLMと対話しよう
それから、画面下部にあるテキストボックスに、ローカルLLMで実行したいプロンプトや0質問などを入力します。そしてその右横にある「Send」ボタンを押すと、ローカルLLMが応答を生成して表示します。
なお、プロンプトを実行して終わりではなく、チャットとなっているので、ローカルLLMと対話できます。