Ethan Miller via Getty Images
Ethan Miller via Getty Images

米国の大手アダルト動画サイトPornhubに未成年を含む動画が含まれているとして波紋を呼んでいる件に関して、Pornhubは認証されたユーザー以外からの動画アップロード受付と、動画のダウンロードを禁止する利用規約変更を発表しました。

ことの発端は、ピュリツァー賞受賞ジャーナリストのニコラス・クリストフ氏による、Pornhubに未成年の動画が含まれていると主張する記事がNew York Timesに掲載されたこと。記事では他にもリベンジポルノや隠し撮りといった、合意に基づかないと思われる違法なコンテンツが収益化に利用されていると主張しています。

Pornhubの親会社であるMindGeekは、記事は「事実無根かつ無責任だ」と述べたものの、瞬く間に批判は大きくなり、米国の性的搾取に関する国立センター(NCOSE)は、Pornhubが有料アカウントのクレジット決済を受け持つマスターカードやVISAも、未成年を含む不適切な動画から利益を得ていると指摘、両社がPornhubとの取引関係を見直す検討を進めるなどといった状況に発展しました。

クリストフ氏の主張によれば、「未成年」という検索ワードで調べたところ、すべてが明らかに未成年とわかる人物を含むものではなかったものの、一部には疑わしいものもあったとのこと。また、BBCは今年2月に報道した14歳当時にレイプされた女性がそのときの模様をPornhubにアップロードされ、削除するのに非常に大変な思いをしたとの体験談を紹介しています。

一方、Pornhub側は未成年への性的虐待は「まったくもって容認しない」として違法コンテンツの洗い出しと削除のためにGoogleやマイクロソフトの技術を採用して取り組んでいると述べましたが、その違法コンテンツ削除作業にどれほどの人員を配置しているかは明らかにしませんでした。

今回、Pornhubはこれまで誰でも簡単にできた動画のアップロードを、認証済み(アップロードが自身のオリジナルであることを証明済みの)ユーザーに限定し、さらにアップロードされた動画をユーザーがダウンロードするのを禁止するよう利用規約を改定することで、問題に対する当面の対策を打ち出しました。

この変更では、動画をアップロードするユーザーは事前に身元確認を経て認証済みユーザーとして登録される必要があります。また動画のダウンロードに関しても認証済みユーザーに提供される有料ダウンロード機能以外での動画のダウンロードは不可能になります。

さらに、潜在的に違法なコンテンツの自己監査専任部隊「レッドチーム」を編成、「すでにアップロードされたコンテンツをプロアクティブにスイープし、規約違反コンテンツを許可する可能性があるモデレートプロセスのほころびを特定改善」するほか、すべてのアップロードを手動レビューする人間のモデレーターチームを拡大、また自動検出技術として、児童への性的虐待画像を検出するYouTubeのCSAI Match技術、Googkeの違法画像検出AIツールContentSafety API、既知の未成年搾取画像を発見削除するマイクロソフト作のPhotoDNA、新規アップロードされた画像や動画が過去に禁止し削除されたものに一致する可能性があるかを調べるVobileといった各種アルゴリズムを活用していくと述べています。

なお、Pornhubはこうした内部の対策だけでなく、非営利団体による外部からの規約違反警告プログラムや、2021年からの全米行方不明・被搾取児童センター(NCMEC)との提携開始、コンテンツモデレーション実績を記した透明性レポートのリリースといった対策も同時に展開していくとのことです。

Pornhubの2019年の述べ利用者数は約420億人、アップロードされた動画は683万件にのぼり、合計再生時間は169年に相当します。それらすべてを確認するとなると気が遠くなる話ですが、今回の規約変更によって、そもそも違法コンテンツのアップロードができなくなることが期待されます。

source:Pornhub

coverage:BBC