富士通は12月2日、メディアおよび投資家向けに、同社の研究開発の現状とテクノロジー戦略に関する説明会を開催した。本稿では、富士通研究所の所長を務める岡本青史氏が示した研究開発の事例について、デモの様子を交えながらレポートする。
【関連記事】
同日のイベントで、CTO(最高技術責任者)のVivek Mahajan(ヴィヴェック・マハジャン)氏が語ったAI戦略についてはこちら。
富士通CTOが示したテクノロジー戦略 「MONAKAによりAIの世界で一番強いCPUを狙う」
富士通が研究を進める5+3の技術領域とは?
岡本氏はまず、同社の研究戦略において軸となる5つのキーテクノロジーと、3つの新領域について紹介した。
5つのキーテクノロジーは「AI」を中心に、「データ・セキュリティ」「コンピューティング」「ネットワーク」「コンバージングテクノロジー(異なる分野の学問を組み合わせた研究開発)」の4つの技術で構成される。それぞれの技術領域を高めると同時に、各領域を組み合わせて新たな価値を創造する。
新領域は中長期のテクノロジートレンドを踏まえ、次世代の実用化が期待される「Physical AI(フィジカルAI)」「宇宙」「防衛・次世代通信」の3領域で開発を進める。
AIは「Takane」と「Kozuchi」を中心にエンタープライズ向けに提供
同社のAI研究は、エンタープライズ向けのチューニングに対応可能なLLM(Large Language Models:大規模言語モデル)「Takane」と、クラウド型でAIを提供するプラットフォーム「Kozuchi」の2つの技術が中心となる。
これらの技術を提供するターゲットは、CTOのMahajan氏も話していたように、行政、ヘルスケア、金融、製造、防衛など、高いセキュリティが求められる領域だ。
生成AIの基盤となる「Takane」
同社の生成AIの基盤となる「Takane」は、よりコンパクトなモデルへと変化を遂げた。これは従来のLLMが抱える「開発・運用コストの増加」「消費電力の増加」「エッジAIのニーズ」に対応した変化であり、独自の量子化誤差伝播法を用いた高精度量子化により1ビットの量子化を実現したほか、蒸留によりパラメータサイズを約100分の1にした。
岡本氏によると、一般的な生成AIは16ビットで量子化されているものが主流なのだという。今回、1ビットの量子化により、従来の16ビットと比較して推論速度を3倍高速化。さらに消費電力およびGPUコストを98%削減できることが示された。それでありながら、89%の精度を維持できているとのことだ。
この1ビット量子化の技術は「Takane」だけでなく他の生成AIにも応用できることから、同社は12月2日にOSS(オープンソース・ソフトウェア)として公開した。
また、蒸留によりパラメータサイズを従来の100分の1まで小さくできたことで、推論速度を11倍高速化しながら、精度が43%改善し、メモリの使用量を70%削減できた。
富士通は企業内にある機密性の高いデータ活用を促すため、ナレッジグラフ拡張RAG(Retrieval-Augmented Generation:検索拡張生成)の技術を開発している。企業が保有するデータの約90%が非構造化データであり、多くの企業が社内のデータを十分には活用できていない。こうした課題に対し、ナレッジグラフ拡張RAGは、非構造化データをナレッジグラフとして構造化することで、活用できるようにする。
同社の実証の結果、日本語PDFにおける図表入り文書の検索精度のベンチマークが他のモデルと比較して1位であったという。また、入力データをグラフと時間軸で最適化し、従来モデル(Microsoft GraphRAG)と比較して50倍の高速化を実現した。さらに、状況に応じてナレッジグラフやプロンプトを更新する自己改善が可能なモデルの開発に成功したとのことだ。
クラウド型でAI機能を提供するプラットフォーム「Kozuchi」
クラウド型でAI機能を提供するプラットフォーム「Kozuchi」は、上述の「Takane」やセキュリティ技術、マルチAIエージェント技術などに、NVIDIA neMoやNIM(NVIDIA Inference Microservices)を組み合わせて提供する。
これにより、機密性の高い業務においても、信頼性を高めながら自動化を進められるようになるという。また、富士通の次世代プロセッサ「FUJITSU-MONAKA」とNVIDIAのGPUやNVLink Fusionと連携することで、グローバル標準のセキュアなAI基盤を提供する。
「Kozuchi」の技術は、同社のAIセキュリティの強化にも貢献している。例えば、LLMの脆弱性への対処として、7700の脆弱性に対応したスキャナーとガードレール(規制)を実装している。さらに、LLMではなくRAGを標的とする情報漏えいのリスクに対しては、98%の精度のリスク対応技術を構築した。
なお、これらの技術は10月に「Fujitsu クラウドサービス Generative AI Platform」に商用搭載されている。
また、同社は高度化する生成AIを用いた偽・誤情報(デジタルフェイク)に対応するため、国際コンソーシアム「Frontria」を設立した。虚偽内容分析技術、偽画像分析技術、偽情報に特化したLLMなどを基盤として、ディープフェイクによる偽動画を検知するようなアプリを開発する。
コンソーシアムには発足時点で57の組織が参画しており、AI技術を開発するスタートアップ企業や偽情報に課題を持つ企業などをマッチングする。アカデミアやリーガル領域の企業なども参画することで、包括的にAIのリスクに対応するエコシステムを形成する。
量子技術と国産プロセッサ「FUJITSU-MONAKA」でコンピューティングを革新
富士通は量子コンピュータの領域において、理研の中村泰信氏と「理研RQC-富士通連携センター」で64量子ビットおよび256量子ビットの開発を実現してきた。3月には産総研(産業技術総合研究所)のG-QuAT(量子・AI融合技術ビジネス開発グローバル研究センター)で商用導入を開始した。
同社は現在、1024量子ビットの超伝導量子コンピュータの開発を進めている。本店であるFujitsu Technology Park(神奈川県 川崎市 中原区)の敷地内には量子棟を建設中で、「FUJITSU-MONAKA」やHPCとのハイブリッド環境を提供し、量子技術実証のテストベッドとして活用する予定だ。
量子ビットの大規模化に伴い、量子誤り訂正技術が重要となる。これに対し、同社が開発を進めるSTARアーキテクチャ(Space-Time efficient Analog Rotation quantum computing architecture:高効率位相回転ゲート式量子計算アーキテクチャ)は、従来技術と比較して計算速度を2倍以上高速化し、エラーの発生確率を6分の1まで低減することに成功した。
STARアーキテクチャは、量子コンピュータの実現に不可欠となる任意の角度の位相回転に必要な量子ビット数を低減する量子計算アーキテクチャ。
2ナノメートルの回路線幅となるプロセッサ「FUJITSU-MONAKA」は、2027年にリリースが予定されている。さらに2029年下期には、1.4ナノメートルの「FUJITSU-MONAKA-X」をリリース予定だ。「FUJITSU-MONAKA-X」は特にエッジでのAI利用を想定し、低消費電力でレスポンスタイムを短縮した推論向けのプロセッサとして開発する。
2030年下期には、「FUJITSU-MONAKA-X」の低消費電力かつ高速なレスポンスタイムの特徴を継承しながら、NPUとの組み合わせによってより高度な推論に対応可能なプロセッサもリリース予定。
「FUJITSU-MONAKA-X(Only CPU)」から幅広く提供することで、さまざまなAIワークロードに対してベストな選択肢を提案できる体制を目指すという。
テクノロジーと人文科学を融合してデジタルツインを実現
コンバージングテクノロジーは、デジタル技術の研究と人文社会系の学問など異なる領域の研究を組み合わせることで、社会課題の解決を目指す分野だ。
富士通はコンバージングテクノロジーにより、人の動きをはじめ社会の動きをデジタル空間に再現する「ソーシャルデジタルツイン」の構築を目指す。これにより、都市の交通課題や地方の交通空白問題、環境対策・EV化推進、医療費増大など、多様な社会課題の解決に貢献する。
ソーシャルデジタルツインの一例として、海をデジタルに再現する海洋デジタルツインが披露された。従来は専門家が海藻・海草が繁茂している場所(藻場)の評価をしていたのだが、ドローンで代替することで高精度かつ短時間に藻場を評価できるようになるという。
同社が愛媛県宇和島市などと実施した実証では、従来は1ヘクタール当たり2日を要していた専門家による分析作業に対し、ドローンでは1ヘクタール当たり約30分で完了したとのことだ。また、高精度にブルーカーボンを定量化できたことから、95%の認定率でJブルークレジットの認証を獲得した。
新領域を切り開く「空間World Model技術」デモを動画で紹介
フィジカルAIの分野では、ロボットと人が協働する未来の実現に向けて、ロボットが人の未来を予測して動く「空間World Model技術」を開発した。
これまで、複数のカメラで撮影した映像を統合する場合には、カメラごとの歪みの差異や各カメラで撮影できる範囲が異なるため、リアルタイムな空間内の把握は困難とされてきた。
しかし、差異の影響を受けやすい画素単位での統合ではなく、人やロボットといった物体をベースに空間カメラとロボットカメラを統合することで、視野や歪みなどの影響をおさえながら複雑に変化する実空間をリアルタイムに把握できる技術を実現した。
下の動画は「空間World Model技術」のデモの様子だ。フロアの奥には「立入禁止」の危険な区域があることを想定している。フロア内の様子は、犬型ロボットに搭載したカメラ、人型ロボットに搭載したカメラ、天井に設置したカメラで撮影している。
カメラを構えた筆者がデモ空間内に入ると、「ロボットを眺めている」「プロジェクションに見入っている」と、人間(筆者)の行動を予測している状況が映し出される。
そのまま「立入禁止」の区域に近付こうとすると、「ロボットを避けている」「制限エリアに立ち入りそう」と、人間を危険視しているような表現に変わり、犬型のロボットが筆者の足元で激しく足踏みして警戒していることを伝える。そして再び「立入禁止」から離れると、犬型ロボットの足踏みは落ち着く。
この技術は将来的に、人とロボットの協調動作や、複数のロボット間での最適な協調動作などへの応用が期待できるという。
富士通「空間World Model技術」デモ
宇宙の領域では、衛星を活用したエッジコンピューティング技術を開発中だ。2台のGPUによる冗長構成を衛星上で実現し、2台のGPUが異なる処理をした場合のみエラーを検出する仕組みとし、消費電力と処理時間を削減した。
これにより、従来技術と比較して約3分の1の消費電力でのデータ処理と、準リアルタイムといえる10分以内でのデータ送信を可能としている。これにより、衛星画像を用いた降水量推定や湾岸における輸送船の混雑予想などが高精度化できる可能性があるとのことだ。













