米国を代表する人工知能(AI)企業のAnthropicは、カリフォルニア州の連邦裁判所で訴訟を起こし、AIモデルの使用制限を理由にした「サプライチェーンリスク」という指定を異議を唱えている。同社は、トランプ政権によるこの指定は違憲であり、報復行為であると主張している。
法的異議と憲法上の主張
Anthropicが提起した訴訟では、ホワイトハウスが同社を「サプライチェーンリスク」と指定した決定は違法であり、第一修正の権利に反するとしている。訴訟書によると、政府は保護された表現の自由をもつ企業を罰することはできず、Anthropicは司法介入を求め、これは「違法な報復キャンペーン」であるとしている。
AnthropicのCEOであるダリオ・アモディはブログ記事で、「この行動は法的に妥当ではないと考えており、裁判所に異議を唱える以外に選択肢がない」と述べた。訴訟では、この指定は正当な手続きを経ずに、AnthropicがAIを大規模監視や自律兵器システムに使用することへの公的な反対を直接的な応酬として行ったものであると主張している。
業界の反応と潜在的な影響
この動きはテクノロジー業界全体で懸念を呼んでおり、技術関連団体の連合は公開書簡で国防総省の決定を非難した。OpenAIのCEOであるサム・アルトマン氏は、政権がAnthropicの技術を「不適格」とする決定について、権限の濫用を疑っていると述べている。
しかし、法的専門家はAnthropicの訴訟が裁判所で成功する可能性を疑っている。スネル・アンド・ウィンターのパートナーであるブレット・ジョンソン氏は、WIRED紙に政府は契約の条件を設定する権限があり、Anthropicが他のAI請負業者と区別されていることを証明するのは難しいだろうと述べた。ジョンソン氏は、Anthropicが裁判所で自分だけが標的になったことを主張するのが最善策だと提案している。
Anthropicは大きな財政的リスクを抱えている。米国政府との契約で数十億ドル規模の収入を失う可能性があり、これは同社の事業にとって極めて重要な収入源である。この指定は、軍隊以外の連邦機関からもAnthropicのチャットボット「クラウド」の使用を停止する動きを招く可能性もある。
軍事作戦におけるAIの継続的な使用
国防総省の指定にもかかわらず、国防省はイランとの戦争においてAnthropicのAI技術を引き続き使用していると報道されている。この事実が明らかになり、軍事作戦において潜在的に危険な技術が使用されているという懸念が高まっている。
Anthropicのチャットボット「クラウド」をホストしているマイクロソフトは、国防総省を除くすべての連邦機関にサービスを継続的に提供すると確認した。この決定は、政権の行動が他の政府機関とAI技術との関係にも影響を与える可能性を示している。
アモディ氏が最近、従業員に対して出した謝罪文(The Information紙にリークされた)では、国防総省との国家安全保障やAI導入の共同目標を認めた。しかし、訴訟はそのメッセージと対照的であり、トランプ政権が「違法であるだけでなく、前例のない行動」を取っていると批判し、国防長官のピート・ヘグセス氏が議会を無視したことを非難している。
この訴訟は、Anthropicと政府との間の緊張関係をさらに複雑にすることになる。訴訟が進む中、Anthropicと国防総省や他の連邦機関との関係の将来は不透明である。この裁判は、AI企業が規制環境でどのように扱われるかという先例を示す可能性もある。
Anthropicの訴訟は、国家安全保障や監視においてAIの使用に関する倫理的・法的な境界が注目されている時期に提起されている。訴訟の結果は、政府が民間AI企業や広い技術業界とどのように関係を築くかに大きな影響を与える可能性がある。
Comments
No comments yet
Be the first to share your thoughts