今回は、2025年10月22日~11月4日に発表されたAI関連の注目すべきトピックを紹介する。AnthropicがClaudeのメモリー機能を全有料版ユーザーに拡大し、Google AI Studioがバイブコーディングに対応した。また、OpenAIはMicrosoftとの合意を得て組織再編を完了したほか、安全性重視の推論モデル「gpt-oss-safeguard」をリリース。イーロン・マスク氏が率いるxAIは、AIベースのオンライン百科事典を立ち上げ、GitHubはAIエージェントをシームレスに既存の開発作業に融合させる「Agent HQ」構想を発表した。
それぞれ詳しく見ていこう。
AnthropicがClaudeのProおよびMaxプラン向けにメモリ機能を提供開始
10月23日、AnthropicはAIチャットサービス「Claude」のメモリ機能の利用範囲を、ProおよびMaxプランを含むすべての有料版ユーザーに拡大した。メモリ機能を有効にすると、ユーザーやプロジェクトごとの設定や会話履歴などを記憶し、よりコンテキストに応じた最適な回答を生成できるようになる。これまでのように、業務の背景や状況を都度入力する必要がなくなり、使えば使うほどより自分に最適化されるというメリットがある。
Claudeのメモリ機能の大きな特徴は、プロジェクトごとにメモリを作成して管理できる点。これによって、異なるプロジェクト間で情報が混ざることを防止できる。また、会話履歴を含むすべての情報を記憶しないシークレットモードも用意されている。
Claudeのメモリ機能は9月にエンタープライズ顧客限定でリリースされたが、今回はその対象を大きく広げた格好だ。
Google AI Studioでバイブコーディング機能が利用可能に
10月23日、GoogleはAI開発環境「Google AI Studio」でバイブコーディング機能が利用可能になったことをアナウンスした。バイブコーディングは、自然言語のプロンプトを使ってAIにコードやアプリを生成・改変させていく開発手法を指す。
Google AI Studioのバイブコーディング機能では、モデルの連携方法やAPIキーの管理など、アプリケーション開発において必要となるコーディング以外の要素を開発者自身が考える必要がなくなり、プロンプトを入力するだけで数分以内に動作するAIアプリを作成できるという。
また、Googleは「アプリギャラリー」も刷新して、生成AIを使ってできることを視覚的にわかりやすく表現している。これによって開発の敷居を下げ、非エンジニアでも思いついたアイデアをすぐにアプリに変えられるようにすることが、バイブコーディング機能が目指すポイントとなる。バイブコーディング機能は、既存のGoogle AI Studioの料金プランの枠組みで、追加料金なしで利用することができる。
OpenAIが組織再編を完了、Microsoftは子会社の公益法人の株式27%保有
10月28日、OpenAIはグループの非営利部門を「OpenAI Foundation」、営利部門を「OpenAI Group PBC」と呼ばれる公益法人とする新体制を発表した。PBCは、株主への利益還元は可能だが、それと同時に社会的または環境的な使命を果たすことを目的とする点が、一般的な株式会社とは異なる。OpenAIはもともとは非営利団体として設立されたが、この組織再編によって、今後は公共性を維持しながら営利事業を拡大させる方向に本格的に舵を切る。
OpenAI Foundationは依然として非営利団体のまま残り、OpenAI Group PBCの株式の26%を保有して統制・管理を続ける。OpenAIの営利企業化に慎重な姿勢を見せていた主要パートナーのMicrosoftは、OpenAI Group PBCの株式の27%を保有することで合意した。また、MicrosoftがOpenAIのリソースに独占的にアクセスできる契約は、今回の再編によって2032年まで延長になった。
xAIがAI搭載のオンライン百科事典「Grokipedia」を立ち上げ
10月28日、イーロン・マスク氏が率いるxAIが、AIによって生成されるオンライン百科事典「Grokipedia」の立ち上げを発表した。人の手によって記事を作成・編集するのではなく、GrokをはじめとするxAIのLLMを用いて、百科事典全体をまるごと生成AIで保守するのがGrokipediaの特徴。既存のオンライン百科事典であるWikipediaとは異なり、AIが記事の更新・改善を自動的に続けることによって、常に最新かつ正確な情報を提供できるとしている。
ただし実際には、開始時点で多くの記事がWikipediaの内容をほぼそのまま転載していたほか、精度や偏向性に関する懸念も報じられている。開始時点は、英語版で約80~90万件の記事が用意されているが、英語版で700万件以上の記事を持つWikipediaと比べると、その規模もまだ限定的であり、今後の動向が注目される。
OpenAI、安全性を重視したオープンソースの推論モデル「gpt-oss-safeguard」をリリース
10月29日、OpenAIは新たなオープンソースの推論モデル「gpt-oss-safeguard」をリリースした。gpt-oss-safeguardはOpenAIが開発・公開した「gpt-oss」をベースとしたモデルであり、推論時にコンテンツポリシーを追加できる点が最大の特徴。開発者は、特定の条件の議論やアウトプットを禁止するなど、独自のポリシーを自由に設定できる。
AIコンテンツのポリシーを設定する場合、事前に定義された安全ポリシーに基いて禁止ワードや禁止トピックを検出する分類器を使用するのが一般的である。この場合、安全なコンテンツと安全でないコンテンツを見分けるためのトレーニングに多大なコストがかかるという問題があった。その点gpt-oss-safeguardでは、分類器を別途用意しなくても、その推論機能を活用してリアルタイムにポリシーを適用できるという。
モデルのサイズは120Bと20Bの2種類が用意されており、Apache 2.0ライセンスの下で公開されている。
GitHub、あらゆるAIエージェントを統合する「Agent HQ」構想を発表
10月29日、GitHubは技術カンファレンス「GitHub Universe 2025」において「Agent HQ」と呼ばれる新しい構想を発表した。この構想は、コーディングアシスタントなどのAIエージェントを単一のプラットフォームで統合し、既存の開発フローとシームレスに連動させるというもの。具体的には、GitHub上で複数ベンダー(例えば、OpenAIやAnthropic、Google、xAIなど)のAIエージェントを、GitHub上での既存の開発作業と同じワークフローの中で統合的に活用できるようにする。
GitHubでは、このAgent HQの中核となる新機能として「Mission Control」も発表している。Mission Controlでは、複数のエージェントに対してタスクを割り当て、進捗を追跡し、必要に応じて指示を調整することが可能であり、Agent HQを実現する上での司令室の役割を果たす。例えば、Web UIやVS Code、CLI、モバイルアプリを通じてエージェントの活動状況をリアルタイムで監視し、プルリクエストやコード変更、ブランチの状態などを一括で把握できるという。
Mission Controlのほかにも、GitHubはAgent HQ構想の実現に向けたさまざまな新機能を発表している。これらの機能は、既存のGitHub Copilotサブスクリプションの範囲で追加料金なしで利用可能になる見込みとなっている。


