サンフランシスコに拠点を置くAI企業のAnthropicは、国防総省が自社を「サプライチェーンリスク」と指定したことを理由に、カリフォルニア州とワシントンD.C.の連邦控訴裁判所に提訴した。提訴の対象は、国防総省が自社のAIチャットボット「クラウド」の軍事利用を制限したことを理由にした指定だ。

国防総省の指定に対する法的挑戦

国防総省は先週、AI技術の軍事利用に関する公開された議論の結果、Anthropicを「サプライチェーンリスク」と正式に指定した。この指定により、国防契約への参加が制限され、事業運営に深刻な影響を及ぼす可能性がある。

Anthropicの提訴書では、政府の行動は前例がないとし、憲法による表現の自由の権利を侵害していると主張。また、国防総省の行動を正当化するための連邦法は存在せず、AI倫理に対する立場を理由にした不法な報復行為であるとしている。

「憲法は、政府が莫大な権力を行使して、企業の保護された表現を理由に罰するようなことは許可していない。連邦法でこの行動を正当化する規定は存在しない。Anthropicは、司法に訴えることを最終手段として、自社の権利を擁護し、行政部門の不法な報復キャンペーンを停止する必要がある。」と提訴書は述べている。

AI倫理と軍事利用

Anthropicは、自社のAI技術がアメリカ人の大規模な監視や完全自律兵器に使われることに反対していることを明確に表明している。国防長官のピート・ヘグセス氏をはじめとする関係者は、Anthropicが「すべての合法的な用途」を許可しない限り、罰則を科すと公に警告した。

Anthropicを「サプライチェーンリスク」と指定することは、これまでの慣例から大きく逸脱しており、米国企業に対してこのような権限を行使したのは初めてのケースである。この指定は、元来は外国の敵対勢力が国家のセキュリティシステムを脅かすことを防ぐために設けられたものだが、国内企業への適用は、その範囲や意図を巡る疑問を引き起こしている。

ドナルド・トランプ大統領は、連邦機関がAnthropicの技術の使用を中止するよう指示したが、国防総省には、イラン戦争などで使用されている高度に分類された軍事システムから製品を6か月かけて段階的に撤退するよう許可した。

ビジネスへの影響と収益構造

Anthropicは、財務省や国務省など他の連邦機関も提訴対象としている。関係当局が職員に自社のサービスの利用を中止するよう指示したためだ。同社は、トランプ政権の罰則は、国防関連の業務でクラウドを活用する防衛契約業者に限られていると明確にしている。

この区別はAnthropicにとって極めて重要であり、今年の予想収益140億ドルの多くは、企業や政府機関がクラウドを用いてコンピュータープログラミングなどを行うことで得られている。

最近の投資発表によると、同社の評価額は3800億ドルに達し、500以上の顧客が年間100万ドル以上を支払っている。

Anthropicは月曜日に発表した声明で、「司法審査を求めることは、AIを用いて国家の安全保障を守るという長年のコミットメントを変えるものではない。しかし、事業、顧客、パートナーを守るために必要な措置である。」と述べた。

国防総省は、訴訟についてコメントを控え、継続中の訴訟については発表しない方針を示している。法的専門家は、これらの訴訟の結果は、政府がAI技術をどのように規制するか、そして国家の安全保障と企業の権利のバランスをどう取るかという重要な先例を設定する可能性があると指摘している。

訴訟が進展する中、AnthropicとAI業界全体への影響は不透明なままだ。訴訟の結果は、将来的にAIの国家防衛利用や新興技術の規制の枠組みに影響を与える可能性がある。