リコーは12月8日、Googleが提供するオープンモデル「Gemma 3 27B2」をベースに、オンプレミス環境への導入に適したLLM(Large Language Models:大規模言語モデル)を開発したことを発表した。
今回開発したLLMは、リコー独自のモデルマージ技術を活用し、ベースモデルから性能向上を実現したという。具体的には、独自開発を含む約1万5千件のインストラクションチューニングデータで追加学習したInstructモデルから抽出したChat Vectorなど、複数のChat Vectorを開発し、「Gemma 3 27B」に対して独自技術でマージした。
同規模のパラメータ数を持つLLMとベンチマーク評価の結果を比較したところ、米OpenAIのオープンウェイトモデル「gpt-oss-20b」をはじめとするモデルと同等の性能を確認が確認された。
さらに、同モデルは、ユーザー体験を重視した非推論モデルならではの高いTTFT(Time to First Token:初期応答性)を実現。同時に高い執筆能力を兼ね備えており、ビジネス用途での活用に適しているとのことだ。
また、モデルサイズは270億パラメータとコンパクトなため、PCサーバなどで構築でき、低コストでのプライベートLLM導入を可能としている。コンパクトで高性能な特徴を生かし、省エネルギーかつ環境負荷低減にも寄与する。
LLMは利用者の要望に応じて個別での提供に対応。12月下旬からは、エフサステクノロジーズが提供するオンプレミス環境向けの対話型生成AI基盤「Private AI Platform on PRIMERGY(Very Small モデル)」に、LLMの量子化モデルと生成AI開発プラットフォーム「Dify(ディフィ)」をプリインストールし、LLM動作環境を構築したうえでリコージャパンが提供する。
LLMとDifyを活用することで、利用企業の業種や業務に合わせた生成AIアプリケーションなどをノーコードで作成できるようになる。さらに、リコージャパンが提供する「Dify支援サービス」による伴走支援も可能なため、社内にAIの専門人材がいない場合でも生成AIの業務活用を開始できるという。


