リコーは12月8日、Googleが提供するオープンモデル「Gemma 3 27B2」をベースに、オンプレミス環境への導入に適したLLM(Large Language Models:大規模言語モデル)を開発したことを発表した。

今回開発したLLMは、リコー独自のモデルマージ技術を活用し、ベースモデルから性能向上を実現したという。具体的には、独自開発を含む約1万5千件のインストラクションチューニングデータで追加学習したInstructモデルから抽出したChat Vectorなど、複数のChat Vectorを開発し、「Gemma 3 27B」に対して独自技術でマージした。

  • リコーが開発したモデルの特徴

    リコーが開発したモデルの特徴

同規模のパラメータ数を持つLLMとベンチマーク評価の結果を比較したところ、米OpenAIのオープンウェイトモデル「gpt-oss-20b」をはじめとするモデルと同等の性能を確認が確認された。

  • ベンチマークスコアの比較

    ベンチマークスコアの比較

さらに、同モデルは、ユーザー体験を重視した非推論モデルならではの高いTTFT(Time to First Token:初期応答性)を実現。同時に高い執筆能力を兼ね備えており、ビジネス用途での活用に適しているとのことだ。

また、モデルサイズは270億パラメータとコンパクトなため、PCサーバなどで構築でき、低コストでのプライベートLLM導入を可能としている。コンパクトで高性能な特徴を生かし、省エネルギーかつ環境負荷低減にも寄与する。

LLMは利用者の要望に応じて個別での提供に対応。12月下旬からは、エフサステクノロジーズが提供するオンプレミス環境向けの対話型生成AI基盤「Private AI Platform on PRIMERGY(Very Small モデル)」に、LLMの量子化モデルと生成AI開発プラットフォーム「Dify(ディフィ)」をプリインストールし、LLM動作環境を構築したうえでリコージャパンが提供する。

LLMとDifyを活用することで、利用企業の業種や業務に合わせた生成AIアプリケーションなどをノーコードで作成できるようになる。さらに、リコージャパンが提供する「Dify支援サービス」による伴走支援も可能なため、社内にAIの専門人材がいない場合でも生成AIの業務活用を開始できるという。

  • エフサステクノロジーズのハードウェアと組み合わせて提供も可能

    エフサステクノロジーズのハードウェアと組み合わせて提供も可能