米Googleは6月27日(現地時間)、オープンウェイトの大規模言語モデル(LLM)の新版「Gemma 2」を開発者・研究者向けにリリースした。同社が5月にGoogle I/O 2024でGemma 2を発表した際に予告していた270億パラメータに加えて、90億パラメータサイズのモデルも利用できる。

Gemmaは、GoogleがGeminiモデルの作成に用いている技術および研究を基に構築されており、より小さなサイズで最先端のパフォーマンスを利用できる効率性を特徴としている。ノートPCやデスクトップPC、独自のクラウドインフラストラクチャなど、様々な環境において最先端のAIモデルへのアクセスを可能にする。

第1世代のGemmaは主要なベンチマークで、70億パラメータの小型モデルがLlama-2の130億パラメータモデルを上回る性能を示した。Gemma 2は第1世代よりも高性能かつ効率的な推論が可能で、安全性も大幅に向上している。

以下は、Googleが公開したGemma 2のベンチマーク結果を、Metaの「Llama 3」、イーロン・マスク氏が率いるxAIの「Grok-1」の結果と比較したものである。

Gemma 2の270億モデルが、MMLU(自然言語処理モデルの理解力と推論能力を総合的に評価するために設計されたベンチマーク)で、Grok-1の3140億パラメータのモデルを上回り、700億パラメータのLlama 3に迫る性能を発揮するなど、2倍以上の大きさのモデルに匹敵する競争力を示している。90億モデルも、80億パラメータのLlama 3や同サイズの他のオープンモデルを凌ぐ性能を持つ。

安全性については、「Responsible Generative AI Toolkit」の提供に加え、開発者・研究者の詳細な言語モデル評価を支援するLLM Comparatorをオープンソース化した。27日からコンパニオンPythonライブラリを使用してモデルとデータの比較評価を実行し、結果をアプリ内で可視化できる。さらに、Gemmaモデル向けに、テキスト透かし技術SynthIDのオープンソース化に取り組んでいる。

Gemma 2は現在、Google AI Studioにおいて、270億パラメータのモデルを簡単に試すことができる。また、KaggleやColabノートブックの無料ティアでも研究開発のための無料アクセスが可能である。モデルウェイトは、KaggleHugging Faceからダウンロードでき、Vertex AI Model Gardenにも間もなく追加される予定だ。