Anthropicは3月9日(米国時間)、米国防総省が同社を国家安全保障上のサプライチェーンリスクに指定したことに対し、その撤回を求める訴訟を連邦裁判所に提起した。

OpenAIとGoogleはAnthropicを支持する

米国防総省は3月3日、Anthropicに対して正式にサプライチェーンリスク指定を通告した。同社のAIモデル「Claude」には自律型兵器や国内監視への使用を禁じる利用ポリシーが定められており、米国防総省がその撤廃を求めたがAnthropicが拒否したことが背景にある。

Anthropicは「政府が企業の保護された言論を罰するために権力を行使することは、憲法上許されない」と主張し、連邦機関による指定の執行停止を求めた。同社は国防総省とは別の根拠による指定についても、米コロンビア特別区巡回控訴裁判所に提訴した。

この指定は政府全体へのブラックリスト化につながる可能性があり、Anthropicは違憲性を訴えている。同社は提訴と同時に、政府との交渉再開や和解の可能性を排除していないと説明している。米国防総省は「米国の防衛方法を決めるのは法律であり、民間企業ではない」との立場を崩していないという。

OpenAIとGoogleの研究者・エンジニア37人は、Anthropicを支持するアミカス・ブリーフ(法廷助言書)を提出した。その1人に名を連ねるGoogle DeepMindとGoogle Researchのチーフ・サイエンティストを務めるJeff Dean氏は、今回の措置がAIリスクに関する業界の議論を萎縮させると警鐘を鳴らしている。