楽天グループは、経済産業省やNEDO(国立研究開発法人新エネルギー・産業技術総合開発機構)が進める日本の生成AI開発力強化のためのプロジェクト「GENIAC」での採択(2025年3月からの第3期公募)を受け、「長期記憶メカニズムと対話型学習を融合した最先端の生成AI基盤モデルの研究開発」を8月より開始することを発表した。

Hugging Faceに設置してあるRakuten AI
Rakuten AI 2.0やRakuten AI 2.0 miniのような軽量LLMやSLMをApache 2.0ライセンスのオープンソースで公開し、開発を進めている同社。採択を受け、8月から研究を開始するのは、既存技術では難しかったという、"より長く複雑な日本語の文脈に合わせた処理を可能とする"LLMの開発。Rakuten AI 2.0は、複数のサブモデル(エキスパート)に分割されるMOE(Mixture of Experts)アーキテクチャ、ユーザーの嗜好に近づけるファインチューニングSimPO (Simple Preference Optimization with a Reference-Free Reward/arxiv.org)などの特徴を持つが、新たな研究では、言語モデルのメモリ機能を拡張する技術を組み込み、応答生成時にアクセス可能な情報量を飛躍的に増加させることが可能になるという。