今回は、2025年8月22日〜9月7日に発表されたAI関連の注目すべきトピックを紹介する。Googleは高性能な画像生成・編集モデルの「Gemini 2.5 Flash Image」(コードネーム「Nano Banana」)をリリースし、OpenAIはコード生成AI「Codex」の強化を発表した。ESET Researchは、AI搭載ランサムウェアが発見されたことを報告。AnthropicはClaudeの利用規約を変更し物議を醸している。DeepLは独自のAIエージェントで新しいAIビジネスに参戦した。

それぞれ詳しく見ていこう。

Googleが「Gemini 2.5 Flash Image」、通称「Nano Banana」正式リリース

8月26日、Googleは新しい画像生成モデルの「Gemini 2.5 Flash Image」を正式リリースした。「Nano Banana」というコードネームをつけられたこのモデルは、画像を一から生成するだけでなく、既存の画像の編集機能にも役立つもので、自然言語による指示だけで高精度に画像を加工することができる。

最新モデルで追加・改善された特徴的な機能としては、以下が挙げられている

  • 複数回の編集にわたって、キャラクターやオブジェクトの特徴を維持したまま背景や照明、ポーズなどを加工できる
  • 複数の写真から、異なる要素、主題、スタイルを組み合わせて独自の合成画像を作成できる
  • 自然言語の指示で、画像の特定の部分だけを指定して正確に編集できる
  • 特定のコンセプトのスタイル、テクスチャー、デザインを、別のコンセプトに適用できる
  • Geminiの知識および論理推論を活用して、複雑なシーンの生成や、画像の次のステップを予測した編集ができる

Gemini 2.5 Flash Imageは、Geminiアプリ、AI Studio、Vertex AIから無料で利用できる。Gemini APIでも画像単位の課金で有料で利用可能となっている。

  • Nano Banana: Image editing in Google Gemini gets a major upgrade

    Nano Banana: Image editing in Google Gemini gets a major upgrade

ESET Researchが初のAI搭載ランサムウェアを報告

8月26日、ESET Researchは、AIを搭載したランサムウェアをはじめて発見したことを発表した(関連記事:史上初のAI搭載型ランサムウェア登場、OpenAIの無償モデル悪用 | TECH+(テックプラス))。「PromptLock」と名付けられたこのランサムウェアは、ローカル環境でOpenAIの「gpt-oss-20b」モデルをOllama API経由で動作させ、その場でLuaスクリプトを生成し実行する。生成されるスクリプトは、ファイルシステムの調査、重要なファイルの抽出、暗号化といった攻撃を自律的に行えるという。

ただし、PromptLockが実際の攻撃に使用された形跡はなく、ESETの研究チームはこのサンプルが概念実証の段階と推測。後日、NYU(ニューヨーク大学)の研究チームが、PromptLockに類似したコードを学術的なプロトタイプとして作成したと名乗り出たことで、この推測が当たっていたことが裏付けられた。

OpenAI、コード生成AI「Codex」を機能強化し、新しいIDE拡張などを追加

8月27日、OpenAIはコード生成AI「Codex」の機能強化を発表した。今回発表した新機能には、Visual Studio CodeやCursorといったコードエディター向けのIDE拡張機能が含まれている。この拡張機能を導入することで、エディタ内でCodexとチャットしながらコードの生成や編集のほか、AIエージェントを使用して自動でファイルの編集やコマンドの実行などを行うことができる。

そのほか、Codexのクラウド環境と連携して、ローカルの作業からシームレスにクラウドにタスクを委任したり、GitHub上で自動でコードレビューを実施したりする機能も利用できるようになった。Codex CLIもアップデートしており、UIの更新や新しいコマンドの追加、エージェント機能の強化などが行われている。

  • コード生成AI「Codex」の機能強化

    コード生成AI「Codex」の機能を強化

Anthropic、Claudeの利用規約とプライバシーポリシーを変更

8月29日、AnthropicがAIアシスタント「Claude」の消費者向け利用規約とプライバシーポリシーの変更を発表した。新しい規約では、ユーザーはClaudeとのやりとりをモデルの訓練に使用していいかどうかを明確に選択することになる。この選択は設定でいつでも変更できるが、デフォルトでは利用可になっている。データ保持期間も変更され、モデル訓練に同意する場合は5年間、同意しない場合は従来通り30日間となる。

Anthropicは、この変更について「Claudeの改善、詐欺や不正使用などの有害な利用に対する保護対策の強化のため」と説明している。ただし、デフォルトで学習への利用が可能に設定されている点やデータ保持期間が5年間と極端に長い点などに対し、ユーザーから批判の声も多く挙がっている。

これらの変更は2025年9月28日に発効予定で、Claude Free、Pro、Maxプランのユーザーに適用される。既存ユーザーは、Anthropicからの通知に基づいて、2025年9月28日までに新しい規約に同意するかどうかを決定する必要がある。同意した場合には9月28日を待たずに即座に有効になるが、適用されるのは新規または再開されたチャットやコーディングセッションのみで、過去のやりとりには適用されない。

  • 既存のClaudeアプリユーザー向けのアプリ内通知 出典:Anthropic

    既存のClaudeアプリユーザー向けのアプリ内通知 出典:Anthropic

自律型AIエージェント「DeepL Agent」発表

9月3日、DeepLは、企業向けに自律型AIエージェントの「DeepL Agent」を発表した(関連記事:DeepL、企業向けの自律型AIエージェント「DeepL Agent」提供開始 | TECH+(テックプラス))。これは、自然言語で指示するだけで、財務や営業、マーケティング、カスタマーサービスといったさまざまな業務のタスクを自律的に処理できるAIエージェントである。

DeepLの強みである言語処理技術を生かしながら、言語関連だけでない汎用型エージェントとしてさまざまな業務で活用できる点が大きな特徴。現在はベータ版として一部顧客に提供されており、今後数カ月で一般提供を開始する予定だという。

  • DeepLが新しい自律型AIエージェント「DeepL Agent」を発表

    DeepLが新しい自律型AIエージェント「DeepL Agent」発表