iPhone CSAM
Shubhashish5 via Getty Images

アップルは8月初め、iCloudにアップロードされる写真の自動スキャン機能を含め、新たな児童虐待対策のしくみを次期iOS 15等に導入すると発表していました。が、この一連の新機能につき、アップルは3日(米現地時間)一般公開前に「さらに時間をかける」つまり延期するとの声明を出しました。

米9to5Macなど各メディアへの声明にて、アップルは次のように述べています。

「先月、わが社はコミュニケーションツールを使って子どもを勧誘したり搾取したりする略奪者から子どもを守り、児童性的虐待資料(CSAM)の拡散を抑制するための機能を計画していることを発表しました。お客様、利益団体、研究者などからのフィードバックに基づき、これらの極めて重要な子どもを守る機能をリリースする前に、今後数ヶ月間、意見収集と改善のためにさらに時間をかけることにしました」

新たな児童虐待対策のしくみは、今年後半の次期iOS 15やiPadOS、macOS Montereyへの更新の一環として開始される予定でした。しかし今回の声明により、本機能がいつ展開されるのかは不明となったかっこうです。またアップルはどのように「改善」するか、詳細には言及していません。

iOS 15等に導入予定だった新システムは2つあり、ひとつはメッセージアプリに関するもの。iCloudファミリー共有が設定されたアカウントにつき、子供が性的な写真を受け取ったり送ろうとすると子供に警告するとともに、親にも通知されるというものです。

もう1つは「iCloudに保存されるCSAM画像を自動検出し、当局に通報することもある」というしくみです。

このCSAM検出システムは、ユーザーのプライバシーを考慮して設計したと主張されています。クラウド上で画像をスキャンするのではなく、NCMEC(全米行方不明・被搾取児童センター)など子供の安全に関する組織から提供された既知のCSAM画像ハッシュデータベースを使い、デバイス上で照合を行う。アップルが分かるのは「画像ハッシュが既知のCSAM画像ハッシュと一致するかどうか」だけで、一致しない画像ハッシュについては何も知ることができない、と説明されていました。

しかし本システムは発表直後から、プライバシー保護団体から多くの批判を招き、電子フロンティア財団は「大規模な監視計画」だと反対声明を表明しています。アップルは「誤解されている」として説明を繰り返し、他社の技術(クラウド上のデータをスキャン)よりもプライバシーが保護されているとの趣旨を述べていましたが、ついに譲歩を余儀なくされたしだいです。

ちょうど新iPhoneに乗り換えたいAndroidユーザーが減少し、その理由としてiCloudの写真スキャンを挙げた比率がかなり高かったとのアンケート結果が発表されたばかりです。まもなく次期iPhone 13(仮)の発売を控えるタイミングで、顧客らにプライバシー保護が後退する印象を与えてはまずいという判断が働いたのかもしれません。

Source:9to5Mac