AIモデルの開発の競争が激化しているが、楽天が12月18日、経済産業省・新エネルギー・産業技術総合開発機構(NEDO)が推進する日本の生成AIの開発力強化を目的としたプロジェクト「GENIAC(Generative AI Accelerator Challenge)」の一環として開発した新たなAIモデル「Rakuten AI 3.0」を発表した。
同社はRakuten AI 3.0 (LLM) と日本語に特化した主なモデルの比較を公開、同モデルの実力はいかに。
「Rakuten AI 3.0」の概要
「Rakuten AI 3.0」はMixture of Experts(以下、MoE)アーキテクチャ採用した日本語大規模言語モデル(LLM)で、約7,000億個のパラメータを持つ。
学習は楽天が設計した社内マルチノードGPUクラスタ上で実行された。隔離された安全なクラウド環境に展開しているため、データが外部に送信されることはないという。
また、同モデルは日本の市場と楽天のビジネスニーズに最適化された独自データを用いてファインチューニングしているため、正確な処理を行える。
他の日本語に特化した主なモデルとの比較
同社は、基盤モデルの会話能力と指導追従能力のファインチューニングを行い、モデルの能力を評価する日本語版MT-Benchを使用してモデル評価を実施。Rakuten AI 3.0 (LLM) と日本語に特化した主なモデルの比較結果は下表の通り。
同モデルは生成AI APIを統合した開発用プラットフォーム「Rakuten AIゲートウェイ」の生成AI API群に加わり、「Rakuten AI」エージェントプラットフォームを通じて、楽天のサービスに順次導入される予定。来春を目途に、オープンウェイトモデルとしての公開も計画されている。
