Facebookは2月11日(現地時間)、2020年第4四半期のコミュニティ規定施行レポートを発表しました。それによると、第4四半期には同社のポリシーに違反した投稿を第3四半期の約2倍近く削除したとのことです。
Facebookは従来、人がモデレーターとしていじめや嫌がらせなどのヘイトコンテンツに対応していましたが、パンデミックにより担当者が出社できず、その多くが請負業者だったため在宅での作業もできないという状態になっていました。このため、AIによる自動化の割合が増加しているのですが、このAIが賢くなり、効果的にこれらの違反コンテンツを検出できるようになったとしています。
具体的な数値としては、いじめやハラスメントを含むコンテンツは第3四半期の350万件に対して630万件に増加。同様に、Instagramでも260万件から500万件に増加しています。また、ユーザーからの報告の前に積極的にこれらのコンテンツを検出した割合は26%から49%へと増加しています。削除された悪意のある表現についても、Facebookで2210万件から2690万件、Instagramでは650万件から660万件とそれぞれ微増しています。
これらの表現、文脈によってはただの冗談の場合もあり、AIが判断するのは歴史的な課題だったとしています。Facebookではこの2020年を通してこの問題に取り組んだことで、レポートにあるような成果を挙げられたとアピールしています。なお、AI技術の進歩により、今後もさらなる改善が見込めるとのことです。
とはいえ、こうした取り組みが実を結ぶにはまだ時間がかかります。Facebookは、ワクチンが広く利用可能になるまでコンテンツをレビューする能力はCOVID-19の影響を受けると予想されるとし、自殺や自傷行為などもっとも有害なコンテンツに優先して対応していくとしています。
Source: Facebook(1), (2)