日本IBMは11月25日、米国で10月6日~11日に開催したIT開発者・技術者向けの年次イベント「TechXchange 2025」で発表された内容について説明会を開催した。世界80カ国から8000人超の人々が一堂に会し、AnthropicとGroqとの提携や「IBM watsonx Orchestrate」の機能強化などについて語られた。
AIによるビジネス変革と課題
はじめに、日本IBM 技術理事 テクノロジー事業本部 ソフトウェア・テクニカルセールス事業部の菱沼章太郎氏が説明に立った。同氏は、AIをビジネス価値に転換するうえでの期待と現実について以下のように話す。
「ビジネス変革をAIで進めるには対応の自動化や業務効率化という大きな柱がある。対応の自動化は、エージェンティックなワークフローをどのように推進していくかということに加え、従来型のワークフローとエージェンティックなワークフローを融合させて、以前はできなかった業務を創出する。一方、見えてきた課題として速度・正確性・柔軟性の3要素のバランスを取ることの難しさや、エージェントの統制、LLM(大規模言語モデル)の能力不足、セキュリティ、システム連携などの課題がある」(菱沼氏)
AIエージェントの設計は正確性・柔軟性・速度の3要素のバランスが不可欠だが、現在はいずれかの要素を高めれば、他の要素が犠牲になる「トリレンマ構造(3つのトレードオフ)」が存在しているという。
一例として、コールセンターは3要素が高いレベルで求められるため、技術的なブレイクスルーが必要だという。また、経理や人事、購買などのBPO(Business Process Outsourcing)におけるAIエージェントの活用が急速に拡大しているものの、AIエージェントを適切に管理するためのアプリケーション基盤の継続的な機能拡張が必要とのことだ。
IBMが定義する「IT変革のためのAI」
IBMでは、システム開発の要件定義から設計、コーディング、テスト、運用までのライフサイクルごとにサードパーティ製も含めて製品やサービスを、「コード生成のためのAI」「テスト自動化のためのAI」「IT運用高度化のためのAI」「プロジェクトのためのAI」を体系化し、AI戦略策定とガバナンスも支援する「IT変革のためのAI」を定義している。
今回、TechXchangeでAnthropicとの提携を発表し、コード生成のためのAIに関して「Project Bob」として要件定義から結合テストの一部をカバーする取り組みをスタートした。同プロジェクトの対象言語はJavaやPythonだが、COBOLやRPGなどのレガシー言語もサポートを予定し、新規開発から現行システムのモダナイゼーションやバージョンアップの領域まで、活用が可能になる。
さらに、Project Bobの効果を最大限に引き出すための整備として、AIエージェントによる単純なツールの導入ではなく、周辺環境との連携やUIの拡充、ガバナンス、セキュリティ、プラットフォームエンジニアリング、運用などの側面から組織的・構造的な変革を支援する。
AIエージェントが主導する開発を行うAnthropicとの「Project Bob」とは
続いて、日本IBM テクノロジー事業本部 watsonx事業部 テクニカル・スペシャリストの張重陽氏がProject Bobを解説した。昨今、ソフトウェア開発はAIアシスタントから、自律実行と標準フロー化で生産性と品質が向上しているという。
同氏は「AIの利用拡大に伴い、開発主体がAIエージェント主導という観点で特徴的だ。Project BobはAIエージェント主導開発の製品であり、AIファーストな開発ツールシステム。AIがリポジトリや仕様書を理解し、パートナーとしてコードや仕様書の生成、コードレビュー最適化等を支援する。すでにIBM社内で6000人以上の開発者が利用し、平均45%以上の生産性向上を確認している」と説明した。
IBMとAnthropicの提携は、AnthropicのLLM「Claude」をIBMの企業向けソフトウェア基盤に統合(Project Bob)し、企業向けソフトウェア開発を再定義するものだ。協業でセキュアかつガバナンスを備えたスケーラブルなAI基盤を提供し、コンプライアンスとセキュリティを確保しつつイノベーションを加速するという。
企業向けAIエージェントは設計時に業務要件やルールが曖昧な状態で実装が進む、データモデル破綻のリスクが高いほか、レビューの際はセキュリティ対応、コードレビューが不十分で事後発覚で問題発生するといった課題がある。
こうした課題に対して、Project Bobはコード生成や仕様書作成、最適化を自律的に実行し、設計から実装までのリードタイムを短縮することで開発スピードの効率が向上できる。また、コードレビューまでをAIが支援し、基幹系のモダナイゼーションまでを見据え、企業向けに特化した機能で安定的な品質での開発を実現するとしている。
日本語対応や仕様書の自動生成、SPEC(仕様)駆動開発を支援し、仕様書・透明性重視で開発現場の効率化と標準化を同時に進めていくことができる。
Groqとの協業でAIエージェント性能を最大化
最後に、日本IBM テクノロジー事業本部 watsonx事業部 テクニカル・スペシャリストの長田栞氏がGroqとの協業、IBM watsonx Orchestrateの機能拡張に関して説明を行った。
同社は、watsonx Orchestrateをエンタープライズ企業のAI開発・展開を支える総合プラットフォームとして位置付けている。エージェント型AIオーケストレーションで自社開発エージェント、事前定義済みエージェント、外部ベンダーのエージェント、パッケージ製品との統合などエージェントと連携することに加え、エンタープライズシステムやオープンプロトコルとも連携し、watsonx Orchestrateを介してユーザーにWebやチャットツール、音声などを提供している。
代表的な適用業務としては、顧客や社員の問合せ対応やERP(企業資源計画)/CRM(顧客関係管理)などの周辺業務の効率化、生成AIの業務の活用などが挙げられている。長田氏は「検証が進み、期待が高いエージェント型AIではあるが、現状でROI(投資利益率)を得ているのはわずか5%という調査結果もある。2028年までにエージェント型AIは現在の1%から33%と急速な拡大が見込まれているものの、パイロット止まりになり、実際の業務に統合して効果を出すまで、たどりつけていない」と指摘。
こうした課題に対応するため、Groqとの提携に至った。同社は元Googleのエンジニアが2016年に創業し、AIアクセラレータのASICやAIワークロードにおける推論性能を向上させる関連ハードウェアを構築、主力製品はLPU(Language Processing Unit)やLLMだ。今回の提携ではwatsonx OrchestrateでGroqのLPUを利用できるようになり、AIエージェントのパフォーマンス、レイテンシを最大5倍の改善を実現するという。
長田氏はLPUについて「従来、LLMを効率よく使うためにはGPUサーバが一般的だが、LPUはLLMに特化したもの。コンパイラやプロセッサ内部のチップの接続、SRAM(Static Random Access Memory)などがLLM専用として開発あるいは設計されている。そのため、GPUよりも高速でLLMの処理を可能としている」と説く。
マルチエージェントでは、ユーザーの依頼から適切なエージェントやツールを推論して呼び出すまでのレイテンシは、エージェントやツールの増大に伴い増加することが課題になっている。Groqを活用すれば、処理の高速化を図ることが可能になり、今年8月時点のgpt-oss-120Bにおけるベンチマークでは全体の応答にかかる時間がAWS(Amazon Web Services)が11.6秒だったのに対して、Groqは5.2秒と約2分の1の数値を計測している。
次に、AIエージェント運用のためのガバナンスと、ローコード開発ツール「Langflow」のwatsonx Orchestrateへの統合が紹介された。
AIエージェント運用のためのガバナンスについてはAI&データプラットフォーム「IBM watsonx」のコンポーネントである「watsonx.governance」の一部機能を統合したほか、本番導入前評価やエンタープライズガバナンスチェック、本番運用モニタリングといった実運用に必要なAIエージェントのガバナンス機能を提供。
さらに、ローコードでAIフローを作成できるLangflowは、IBMが買収したDataStaxの開発によるオープンソースのアプリケーションとなり、LLMのワークフローをドラッグ&ドロップで構築することを可能としている。
開発者が作成したフローをwatsonx Orchestrateのエージェントのツールとして設定し、業務ユーザーがカタログからツールを選び、エージェントを開発するというコラボレーション開発ができるという。
長田氏は「今回のwatsonx Orchestrateの機能拡張により、マルチエージェントのオーケストレーションに関して、実際の業務に耐えうるパフォーマンスを実現できることに加え、幅広い開発者のペルソナに対応して効率的な開発が可能であり、企業に必要なエージェントのガバナンスを担保できる」と力を込めていた。













