【著者】インテル株式会社 執行役員 技術・営業本部長 町田奈穂

先進的な企業の取り組み、知見をひろく読者の皆様に紹介するため、寄稿記事を掲載します。

オープンか、クローズドか、再び問われる選択

ChatGPTの登場から2年以上が経過し、AIを取り巻く環境が大きく様変わりする中、世界中でAIテクノロジーとインフラストラクチャーへ巨額の投資が行われてきました。そして今、DeepSeekの登場により、再び大きな衝撃が走っています。

DeepSeekが注目を集めた要因の1つは、従来よりもはるかに低コストで、大規模言語モデル(LLM)の高度な学習処理が可能であることを実証した点にあります。この事実を受け、AIインフラ企業に対する収益減が懸念され市場では株式売却が相次ぎ一時的な混乱が見られました。しかし、過去の事例からはこれとは逆の流れが起きる可能性も示されています。

AIは、これまでWi-Fiや5Gなどに代表されるような、今となっては当たり前の技術が初めて導入された時と似た流れで展開しています。初めは極めて高い期待があり、その後に懐疑的な見方で分析され、そして最終的には広く普及し日常に溶け込む過程を経て定着してきました。このことから、DeepSeekの勢いこそ、AIの導入とイノベーションを加速させ、AIインフラストラクチャーの需要をますます押し上げる契機になると考えています。その理由は次の通りです。

DeepSeekの勢いがAIインフラ市場の拡大につながる理由

第一に、DeepSeekの利用が広がった結果、多くの人々が「強力なAIは、より効率的で低コストな方法で構築できる」という認識を持つようになりました。また、「LLMの学習処理は、豊富なグラフィックス・プロセシング・ユニット(GPU)を大量に調達するためのリソースのある大手企業に限られた専門領域ではない」という事実も示されました。

企業にとってさらに重要なのは、こうしたLLMがリソース負荷の少ないITインフラや既存のITインフラでも実装できるという認識です。新しいAIソリューションの導入が必ずしも高額なコストがかかるものではないということです。

技術的にはどんなチップでもAIを実行することはできますが、コストとパフォーマンスと効率を踏まえて適材適所に最適なツールを選択することが、追加のGPUや中央演算処理装置(CPU)、フィールド・プログラマブル・ゲート・アレイ(FPGA)、AIアクセラレーターなどが必要か判断する材料となります。例えば、インテルは、DeepSeekを含めた数十万ものAIモデルに対応するため、電力、性能、効率、総保有コスト(TCO)の幅広い要件に応じて選べる製品ラインナップを提供しています。

これにより、企業は目的に応じた最適なAIインフラストラクチャーを柔軟に選択することができます。最も大事なことは、テクノロジーの利用が容易になることで競争が生まれ、コストが下がり、イノベーションが加速し、最終的には市場の拡大につながるということです。

コンピューティングの処理能力を例に見てみましょう。1950年代、万能自動コンピューター第1号機「UNIVAC I」は125~150万ドル(現在の価値に換算すると約700万ドル)という非常に高価なものでした。そのため、利用できるのは政府機関や大手企業、大学に限られていました。しかし、テクノロジーの進歩と競争が激化した点と、UNIVAC Iの成功が普及の後押しもあり、小型で安価ながらも一層パワフルなPCが登場しました。今ではノートブックPCはずいぶん手に入れやすい価格となり、プロセッサーはスマートフォンやスマートウォッチ、サーバー、さらには冷蔵庫などありとあらゆるデバイスに搭載されるようになりました。そしてAIもまた同様の進化をたどると考えられています。

オープン対クローズドの議論

DeepSeekが注目を集めているもう1つの重要な要因は、そのオープンソースのアプローチにあります。現在、大半のAIモデルがソースを非公開にしています。オープンソースの大規模言語モデル(LLM)、DeepSeekの大きな成功によって、「オープンソース・モデルがAIのアクセス性を加速している」という事実が注目されるようになりました。

オープンソースとは、誰もがソースコードをダウンロードしコピーすることで、モデルを構築できる仕組みのことです。ユーザーはAIモデルを検証できるだけではなく、リソースに限りがあるスタートアップ企業や開発者でもライセンス料金なしで最先端のAIを活用することができます。また、それをもとに独自のAIアプリケーションを構築して展開することができます。オープンソースの取り組みを通じてさらに多くの開発者がテクノロジーを活用できるようになれば、競争が活性化し、結果的により多くの素晴らしい製品が生まれ、ユーザーの選択肢が広がります。

私は、AI開発を身近なものにし、選択肢を広げるとともに、AIのイノベーションとAIインフラ需要の両方を拡大する鍵となるのはオープンソースだと確信しています。

これこそが、インテルが700を超えるオープンソースの財団や標準化団体に参画し、PyTorch、TensorFlow、Kubernetesといったオープンソース・プロジェクトに積極的に協力している理由でもあります。oneAPIやOpenVINOツールキットなどインテルが提供するオープン・ソフトウェア・ツールは、ソフトウェアの最適化によって開発中のAIモデルのパフォーマンスを大幅に向上させ、DeepSeekやMetaのLlamaのようなオープンソースのLLMを補完します。こうしたツールキットを活用することで、開発者は複数のハードウェア・アーキテクチャーを自由に選択し、イノベーションにつながる高品質なAIモデルを経済的かつ短期間で展開できるようになります。

またオープンソースは、プロジェクトに参加する世界中の開発者とのコラボレーションを促し、その結果、テクノロジーの進歩が推進されます。例えば、Kubernetesはオープンソースのシステムとして巨大な開発者コミュニティーに支持されるまでに成長し、クラウドネイティブ開発の基盤となっています。

未来は「オープン」であるべき

AIの急速な発展において、はるかに強力なコンピューティング能力を必要とする高度な推論モデルからも分かるとおり、オープンソースとクローズドソースの両システムが今後も成長し続けることは間違いありません。

しかしAIの領域を考えると、クローズドなエコシステムでは「持てる者」だけにテクノロジーが限定され、「持たざる者」には届かなくなってしまうのではないでしょうか。その結果、開発者は柔軟に方向転換できるカスタマイズ性を損ない、プロバイダーの更新や利用範囲の制限あるいはサポートに依存せざるを得ない状況に陥ってします。これにより、イノベーションが減速するだけではなく、何よりもモデルの背後にあるデータセットを検証し、AIの倫理的かつ安全な活用を確保する透明性が失われかねません。こうした状況は、機会とイノベーションを妨げるだけでなく、信頼も損なってしまいます。

オープンソース、オープン・ソフトウェア、オープン・スタンダード、オープンポリシー、オープンな競争を支えるオープン・エコシステムこそが、イノベーションを推進する公平な環境を生み出し、AIがほぼすべてのデバイスに組み込まれる世界において、社会にもビジネスにも最大の利益をもたらすのではないでしょうか。

【著者】インテル株式会社 執行役員 技術・営業本部長 町田 奈穂

2000年インテル株式会社入社、組込み向け・IOT製品、自動車関連、データーセンター向け製品群の技術営業等の要職を歴任し、現在は技術、営業部門を統括。