ChatGPTの登場を契機に、再び、注目を集めているAI。システムベンダーであるDell Technologiesは、AIに対しどのような戦略を持っているのか? 5月、米ラスベガスで同社が開催した「Dell Technologies World 2023」で、CTOのJohn Roese氏に同社のAI戦略について聞いた。
AIの時代、市場においてDellはどのような役割を果たすのでしょうか?
Roese氏: 生成AIが登場する前と後の戦略の流れから説明する。
強化学習、ディープニューラルネットワークなどの意思決定を支援する技術は、新しいものではない。これらAIにおけるDellの役割は、インフラプロバイダーであるということ。Dellはインフラが大好きな企業で、これまでの経験からAIの作業負荷は他のものとは異なることを学んだ。つまり、AIは、関与する人が少なく、高い要求に応え、他のワークロードよりも多くのデータを消費・生成する、ということだ。
そこでDellが開発したのが、AIワークロードの実行に特化したサーバー「DSS 8440」だ。CPUを2ソケット搭載し、20個のアクセラレーターをサポートするもので、これまでのサーバと比較すると奇妙に見える設計だが、大容量のトレーニング環境の運用に適している。われわれはDSS 8440を2019年に発表した。
エコシステムの役割も加わった。AIはインフラだけではなく、例えば大規模言語モデルを構築して本番環境で動かすにはインフラ、大規模言語モデル、その周辺のツール、プレゼンテーションのインタフェース、データなどが必要だ。Dell Technologies Worldでは、「Project Helix」としてNVIDIA、Dell、その他パートナー企業で構築したAI向けのソリューションを発表した。コンピュート、ストレージ、アクセラレータ、ツールチェーン、ベースのモデル、開発環境も備えており、顧客は成果を購入できる。
生成AIの登場は、AIの変化ではない。基礎技術としての生成AIは、ディープニューラルネットワークと大きくは変わらない。ただ、インタフェースが画期的だった。素晴らしいインタフェースにより、民主化を実現した。
Jeff(共同COOのJeff Clarke氏)はよく、(生成AIの登場により)”それまでは専門知識を持つ10万人だったAIユーザーが、一気に70億人(世界人口)になった”と言っているが、その通りだ。人間の言葉がプログラミング言語となり、AIに何かをさせる時代が到来した。
このような時代の変化にDellも対応する。これは革命ではなく進化。これまでのように大規模な言語モデルのためのインフラを構築するという部分は変わらない。Project Helixはここに該当し、AIを簡単に利用できるようにするという取り組みだ。
Dell社内での取り組みも進める。われわれは大規模な言語モデルを使用してきたが、今後さらに積極的に活用して、サイバー問題への対処、顧客サポート、コンテンツの生成などに役立てる。
ある意味で、世界はそれほど変化したわけではない。ただし、関心のレベルが異なる。1年前までは10人に1人しかAIに関心を持っていなかったところ、現在は10人中10人がAIについて知りたがっている。AIのパワーを活用しなければ、競争に負ける時代になったと言っても過言ではない。そして、準備ができている企業はほとんどない。どこも、これからだ。
AI時代のDellの戦略は、インフラの提供とエコシステムの構築ということでしょうか?
Roese氏: 4つの言葉で表現できる。AI-In、AI-On、AI-For、AI-Withだ。
AI-Inとは、全てのハードウェアやソフトウェアに何らかのインテリジェンスを組み込むこと。われわれは、数年前からこれを行っている。ストレージでのキャッシュの最適化、PCのバッテリー管理などだ。
AI-Onとは、AI向けのインフラの提供。「DSS 8440」がその良い例だ。
AI-Forとは、Dell社内でのインテリジェンス活用。サプライチェーン、セールス、ファイナンス、エンジニアリングなどに適用することで、自動化や効率化を進めている。常時1000程度のプロジェクトが走っている。
AI-Withとは、われわれの学びを顧客と共有するという最新の取り組みだ。約7年かけてAIについて学んだことや、サプライチェーンの最適化などでうまくいったことをドキュメント化して顧客が活用できるようにしていく。
「Project Helix」の今後の計画は? AIに特化した製品の開発予定は?
Roese氏: Project Helixについては、まずはより多くの顧客に利用できるように拡大していく。
セキュリティ面では、例えばDellのデータ保護にチャンスを感じている。企業がプロプライエタリなデータ上に大規模言語モデルを構築する際に、これを保護する必要がある。自社のデータに基づく大規模言語モデルは自社そのものであり、非常に価値がある。これを保護し、回復できるようにしておく必要性を訴求していく。
AIのリスクをどう見ていますか?
Roese氏: AIにはさまざまなリスクがある。まず、バイアス、個人情報や機密情報の漏洩などの懸念がある。そのような事態に対してできることの一つとして、Dell社内では生成AIの利用を促進しているが、そこに入力するデータには注意が必要だ。CTOとして、全社員に、Facebookの公開フォーラムに入力できないような情報は使うべきではないと伝えている。
私の最大の懸念は、AIを作成した人が何らかの理由でシステムのコントロールを奪われてしまうこと。例えば、「ChatGPT」が悪意ある人などに乗っ取られ、OpenAI自身もそれに気がついていないとする。1億人ものユーザーが常時ChatGPTとやりとりし、その回答を信じて行動する。その影響力は極めて大きい。このようなことが起こることは不可避だと考えている。
AIの動きを減速することなく、セキュリティ、透明性、コントロールを取り入れて保護していくのかが問われている。