child-safety
Apple

アップルは5日(米現地時間)、iCloudやiMessageなどに児童の性的虐待(Child Sexual Abuse Material/CSAM)対策を導入すると発表しました。その中でも注目を集めているのが、iPhoneやiPad、MacでiCloudにアップロードする際にCSAMに該当する写真をスキャンして検出、当局に通報が可能になるというものです。

まず最初に発表されたのが、メッセージアプリに導入される新たなセーフティ機能です。子供が性的な写真を受け取ったり送ろうとすると、子どもや親に警告メッセージが表示されるとのことです。

具体的には、子供が性的に露骨な画像を受信すると画像はぼかされて警告が表示。その上で「写真を見る」をタップすると、ポップアップメッセージが表示され、なぜその画像がデリケートだと判断されたのか説明した上に、親にも「子供がそうした画像を見た」ことが通知されます。

また子どもが性的に露骨な画像を送信しようとした場合にも、同様の警告が表示されます。それでも写真を送信した場合は、やはり両親がメッセージを受け取れるとのことです。

そしてメッセージアプリは、デバイス上の機械学習を使って画像の添付ファイルを分析し、性的に露骨な写真かどうかを判断すると述べられています。この機能は「アップルがメッセージにアクセスできないように設計されています」として、プライバシーが守られていることも約束されています。

本機能は今年(2021年)後半に配信予定のiOS 15、iPadOS 15、およびmacOS Montereyにて、iCloudファミリー共有が設定されたアカウント向けに提供される予定です。

次に、おそらく最も注目すべき新機能が「iCloudに保存されるCSAM画像を検出できるようになる」ことです。アップルいわく、CSAMとは子どもを巻き込んだ性的に露骨な活動を描いたコンテンツのこと。これにより検出された画像は、法執行機関と緊密に連携している全米行方不明・被搾取児童センター(National Center for Missing and Exploited Children/NCMEC)に報告できるようになると述べられています。

アップルはCSAMの検出方法につき、ユーザーのプライバシーを考慮して設計されていることを繰り返し強調しています。すなわちデバイス上にある画像を分析し、NCMECが提供する既知のCSAM画像データベースと一致するものがあるかどうかを確認。その照合はすべてデバイス内で(クラウドに送信されず)行われ、しかもNCMECデータベースは「ユーザーのデバイスに安全に保存されている読み取りできないハッシュのセット」に変換しているとのことです。

この照合が行われるのはiCloudに保存される前であり、しかも「Private Set Intersection」と呼ばれる暗号技術によって行われます。そしてアップルが分かるのは「画像ハッシュが既知のCSAM画像ハッシュと一致するかどうか」だけで、一致しない画像ハッシュについては何も知ることができません。

そうしてデバイス上で一致した場合、その結果は「暗号化安全票」としてデバイス内に保存。その際には「しきい値秘密分散」と呼ばれる技術が使われ、一定のしきい値を超えた場合のみにアップルに連絡されることに。さらには人の目で審査を行うことで、誤判定は年間1兆分の1になるよう設計されていると述べられています。

また、アップルは自動検出機能がiCloudに保存される写真のみを対象としており、完全にローカルに保存されている画像は対象外とも説明しています。それに加えて、クラウド上で全ユーザーの写真を常時スキャンするのではなく、CSAM画像を保有しているユーザーのみを報告するため、プライバシーに配慮しつつオンラインでのCSAM画像拡散を抑制できるとも主張しています。

しかし米ジョン・ホプキンズ大学のマシュー・グリーン氏(暗号技術の専門家)は、CSAMデータベースの照合が「偽陽性」(誤判定)になったり、意図的にデータベースと一致するハッシュを持つ偽画像を作って迷惑をかけたい相手に送らせたり、権威主義的な政府に悪用される危険を指摘しています。

ともあれ、常日ごろユーザーのプライバシーを強調しているアップルが、個人的に撮影あるいは保有している写真や、メッセージに添付された画像の審査を行うことは、大きな方針転換には違いありません。実際に画像のスキャンが実行に移されるまでにはしばらく日にちがありそうですが、その間にさらなる議論が巻き起こることにもなりそうです。

Source:Apple

via:9to5Mac