経済産業省が2019年3月に公開した「IT人材不足に関する調査」によれば、2030年には12.4万人のAI人材が不足すると予想されています。人材不足はAIエンジニアの単価高騰を招き、プロジェクトコストに多大な影響を及ぼします。インテルでは、こうした状況の緩和に向けてAI人材を増やすために世界で実績のある独自のAI教育プログラムを日本向けにカスタムして、自治体や教育機関に提供しています。インテルの提供するAI for Citizens(全国民向け入門コンテンツ)や、AI for Future Workforce(AI開発者向け入門コース)は、日本でも千葉市や三豊市などで採用されています。また、山梨大学や香川高等専門学校などの教育機関にも利用が広がっています。さらに、インテルではAIエンジニア"レス"な開発を促進するために、インテル Getiというノーコードツールも提供しています。
2つ目の課題となる開発プロセスに対しては、テクノロジーによる支援と、実践的知見のオープン化という2つの方向で取り組んでいます。まず、テクノロジーによる支援ではMLOpsやAutoMLなどの先進技術を提供し、既存の開発サイクルの効率化に貢献していきます。具体的には、マルチクラウド対応のMLOpsプラットフォームのcnvrg.ioや、連合学習フレームワークのOpenFLに、2023年4月にオープンソース化したハイパーパラメーターチューナーのSigOptなどを提供しています。また、知見のオープン化では、インテル AI リファレンス・キットとして、アクセンチュアと協業し、彼らのAI開発の実案件から得られた構築手法をノウハウ化して提供しています。それに加えて、「Fujitsu Kozuchi」のようにパートナー企業とのコラボレーションの活性化も推進しています。
AIモデルは、2019年から2020年くらいを境としてモデルサイズの肥大化が顕著になってきました。やや結果論的ではありますが、便意的に以前のモデルを「スモール~ミディアム」サイズ、以降のモデルを「ビッグ」サイズと呼んでいます。「スモール~ミディアム」モデルに関しては、今度コモディティー化がより進み、それに伴ってコストの締め付けが現在よりも厳しくなることが考えられます。したがって、Xeonのみを使ってコスト効率よくモデルの開発と運用を実施するという発想が現在よりも多くなると予想しています。ただし、「ビッグ」モデルに対しては、その演算量の多さからGPUやASICのようなアクセラレーターを使う方が結果的にコストパフォーマンスが優れていると考えています。ビッグなAIモデルの代表格が、2020年に発表されたGPT-3をベースに開発され、2022年に登場したOpenAI社のChatGPTです。2ヶ月で1億ユーザーを達成するという驚異的な記録を打ち立てるなど、多くの注目を集めたことにより、一過性のものではなく明らかなゲームチェンジャーであると広く認知されていると思います。ChatGPTのような言語生成型のAIは、大規模言語モデル:LLM(Large Language Model)と呼ばれています。LLMは、ChatGPTの他にもGoogle BardのベースになっているPaLMやMetaのLLaMAなど次々とリリースされており、まさに群雄割拠な状態です。インテルでも、Aurora genAIという巨大なLLMの作成に米国アルゴンヌ国立研究所、および、パートナー企業と取り組んでいます。そのモデルのサイズは、1000B(1T)パラメーターになると計画されており、GPT-3やPaLMを上回る大きさになります。