ポイント・プレアント(西バージニア州)— 西バージニア州のJB・マクスキー検察総長は14日、マーソン郡地方裁判所でアップル社を提訴し、iCloudの厳密なプライバシー機能により、児童性的虐待画像(CSAM)の拡散を助長していると主張した。共和党所属のマクスキー氏は、アップル社がユーザーの秘密を優先し、児童の安全を脅かしていると批判。2020年の内部iMessage会話で、アップル社のエリック・フリードマン氏がiCloudを「児童ポルノを拡散する最大のプラットフォーム」と呼んだと指摘している。

この会話は、2021年にアップル社がエピック・ゲームズ社と行った訴訟の過程で明らかになった。フリードマン氏は、当時のアップル社の反詐欺担当チーフとセキュリティ責任者であるハーヴェー・シベルト氏とのやりとりで、アップル社が「システム内を完全に把握していない」と述べていた。西バージニア州の45ページに及ぶ訴状は、この発言をもとに、iCloudの端対端暗号化が法執行機関のアクセスを妨げていると主張している。

マクスキー氏は、法的な賠償金、懲罰的損害賠償、そしてアップル社がCSAM検出ツールの導入を義務付けるよう求める。マクスキー氏は声明で、「これらの画像は、子供のトラウマの永久的な記録であり、その画像が共有されたり見られたりするたびに、子供は再び被害に遭っている」と述べた。訴訟では、アップル社が児童保護活動を妨げているとして、児童失踪・虐待児童センター(NCMEC)への報告を回避していると非難している。

アップル社は2023年、NCMECに報告したCSAMの件数はわずか267件にとどまった。これは、グーグルの147万件やメタの3000万件以上と比べて極めて少ない。検察は、アップル社のスキャン範囲がiCloudメールに限られているため、端対端暗号化がされていないため、法的手続きに基づくアクセスが可能であると指摘している。iCloudに保存された写真やファイルの多くは、ユーザーが「高度なデータ保護」に登録するまではスキャンされなかった。

アップル社は、既存の安全対策を強調する声明を発表した。同社は、子供がメッセージアプリでヌード画像の送受信を許可していない。14日には、米国ユーザーが不要なコンテンツを直接アップル社に通報できる「Report to Apple(Appleに通報)」ボタンを発表した。広報担当は、この機能は訴訟以前から存在し、デバイスやアプリ上の幅広い悪影響に対処する目的だと説明している。

この対立は、数年間続いてきた暗号化に関する議論の再燃である。法執行機関は、暗号化を犯罪者を守るための盾と批判し、プライバシー団体は、監視の防止に不可欠だと称賛している。アップル社は過去にも解決策を模索した。2021年には、ファイルを暗号化せずに既知のCSAMを検出するNeuralHashというソフトウェアを提案したが、電子フロンティア財団などの活動家からの反対により、検閲の拡大という懸念から中止された。

それでもアップル社は、オプションの「高度なデータ保護」を導入した。この機能は、iCloudの大部分のデータを端対端で暗号化する。西バージニア州を含む批判者たちは、この機能により、アップル社は検出を優先するのではなく、秘密保持を優先しており、児童虐待の加害者を自由にさせていると指摘している。州は、FBIの圧力でiCloudバックアップのデフォルト暗号化が廃止されたことを挙げ、アップル社がリスクを認識しながらもプライバシーを選択したと主張している。

技術業界全体にプレッシャーが高まっている。グーグルやメタは、アップロードされたデータをNCMECのデータベースと照合してスキャンしている。アップル社は、プライバシーを理由に反対している。今や、訴訟に直面し、30日以内に応答を提出する必要がある。マクスキー氏の事務所は、この訴訟を法執行だけでなく、公共の健康問題として位置づけている。検出の失敗は、リソースを圧迫し、画像が無制限に拡散されることで被害者を再び苦しめるという。

この訴訟は、先例をつくる可能性がある。これまでに、クラウドCSAMに関する訴訟を提起した州は存在しなかった。児童安全団体はこの訴訟を歓迎しており、2023年にはルイジアナ州が同様の理由でアップル社に対して12億ドルの損害賠償を求める訴訟を提起した。スマートフォンやソーシャルメディアに有害なコンテンツが溢れる中、規制当局は大手テック企業をより厳しく注視している。アップル社は、アクティブなデバイス数が22億台と、この問題の中心に位置している。