見出し画像

【WSJと学術研究者の調査で明らかに】 Instagramのアルゴリズムは、小児性愛者の活動を促進し、彼らを結びつけ、コンテンツ販売者に誘導


インスタグラム、広大な小児性愛者ネットワークに接続 - WSJ

ジェフ・ホーウィッツ

2023年6月7日午前7時5分


インスタグラム、広大な小児性愛者ネットワークに接続

Metaユニットのコミュニティ育成のためのシステムが、ユーザーを児童性愛コンテンツに誘導していた、同社は内部統制を改善中とコメント

キャサリン・ブラント

The Wall Street Journal(以下WSJ)とスタンフォード大学およびマサチューセッツ大学アマースト校の研究者の調査によると、Meta Platformsが所有する人気のソーシャルメディアサイトであるInstagramは、未成年の性的コンテンツの委託・購入に公然と専念するアカウントの広大なネットワークの接続と促進に貢献しています。

小児性愛者は長い間インターネットを利用してきたが、違法なコンテンツに興味を持つ人々を対象としたフォーラムやファイル転送サービスとは異なり、Instagramはこうした活動を単にホストしているわけではない。

Instagramのアルゴリズムは、小児性愛者の活動を促進します。Instagramは、ニッチな関心を共有する人々を結びつけることに長けた推薦システムによって、小児性愛者を結びつけ、コンテンツ販売者に誘導していることが、The WSJと学術研究者の調査で明らかになりました。

このプラットフォームでは、ほとんどの人が目にすることはありませんが、Instagramの性的なアカウントは、その興味について堂々としています。

研究者らは、Instagramでは、#pedowhore や #preteensex といった露骨なハッシュタグを検索し、この用語を使用して児童性愛の販売物を宣伝するアカウントにつなげることができることを発見しました。このようなアカウントは、子どもたち自身が運営していると主張し、"little slut for you "などの言葉を組み込んだあからさまに性的なハンドルネームを使っていることが多い。

不正なセックス素材を販売するInstagramアカウントは、一般的にそれをオープンにせず、代わりにコンテンツの「メニュー」を投稿します。特定のアカウントは、特定の行為を依頼するよう買い手を誘う。メニューの中には、子どもが自らを傷つける動画や、「未成年が動物と性行為を行うイメージ」の価格が含まれているものがあることが、スタンフォード・インターネット・オブザーバトリーの研究者によって明らかになった。適切な価格であれば、子どもたちは実際に "会う "ことができるのです。

未成年の性行為コンテンツの宣伝は、連邦法だけでなく、メタが定めたルールにも違反しています。

ジャーナル紙の質問に対し、Meta社は、その執行業務における問題を認め、提起された問題に対処するために社内に対策本部を設置したと述べた。"児童の搾取は恐ろしい犯罪である "と同社は述べ、"この行為から積極的に防御する方法を継続的に調査している "と付け加えています。

Metaは、過去2年間に27の小児性愛者ネットワークを削除し、さらに削除を計画していると述べた。Journalの問い合わせを受けて以来、同プラットフォームは、子どもを性的に表現する数千のハッシュタグをブロックし、中には数百万件の投稿があるものもあるとし、性虐待と関連することが知られている用語を検索するようユーザーに推奨するシステムを制限しています。また、小児性愛の可能性がある大人同士がつながり、互いのコンテンツと交流することをシステムが推奨しないよう、取り組んでいるという。

Stanford Internet Observatoryの代表で、2018年までMetaの最高セキュリティ責任者だったAlex Stamos氏は、明らかな虐待さえも制御下に置くには、持続的な努力が必要だろうと述べています。

"アクセスが制限された3人の学者のチームがこのような巨大なネットワークを発見できたということは、Meta社でアラームを鳴らすべきだ "と彼は述べ、同社は小児性愛者のネットワークをマッピングするために、外部の人間よりもはるかに効果的なツールを持っていると指摘した。「同社が人間の調査員に再投資することを望みます」と彼は付け加えた。



技術的、法的なハードルがあるため、メタ以外の人がネットワークの全容を正確に測定するのは難しい

児童性愛コンテンツに関する法律は非常に広範であるため、公共のプラットフォームで児童性愛コンテンツを公然と宣伝することさえも、調査することは法的に微妙なのです。

WSJは取材にあたり、ネット上の子どもの安全に関する学識経験者に相談した。スタンフォード大学のインターネット・オブザーバトリーは、同大学のサイバー・ポリシー・センターの一部門で、ソーシャル・メディアの悪用に焦点を当て、ユーザーがつながり、コンテンツを見つけるのに役立つインスタグラムの機能について、独自の定量分析を行ったものである。

また、UMassのRescue Labも、Instagram上の小児性愛者がオンライン児童搾取の大きなエコシステムにどのように適合しているかを評価するために、Journal誌に協力しました。両者とも異なる手法で、犯罪的な性的虐待を促進する大規模なコミュニティを迅速に特定することができました。

研究者が設定したテストアカウントで、ネットワーク内の1つのアカウントを閲覧すると、児童性的コンテンツの売り手と買い手とされる人物や、プラットフォーム外のコンテンツ取引サイトにリンクしているアカウントなどの「あなたにお勧め」というレコメンドがすぐに表示されました。これらの推奨されるコンテンツにほんの一握り従うだけで、テストアカウントは児童を性的に描写するコンテンツで溢れかえることになります。

Stanford Internet Observatoryは、未成年のセックスに関連するハッシュタグを使用して、「Self-generated(自作自演)」と呼ばれる児童性愛コンテンツの販売者405人を発見しました(中には、12歳の子供たちによって運営されているとされるアカウント)。ネットワークマッピングソフトウェアMaltegoで収集したデータによると、これらの販売者アカウントのうち112のアカウントには、合計で22,000人のユニークフォロワーがいました。

未成年の性的コンテンツの作成者と購入者たちは、性的な児童コンテンツに特化したより大きなエコシステムのほんの一部にすぎません。Instagramの小児性愛者コミュニティの他のアカウントは、小児性愛を助長するミームを集約したり、子どもへのアクセスについて話し合ったりしています。Instagramの児童安全対策に取り組んできたMetaの現従業員や元従業員は、主にそうしたコンテンツをフォローするために存在するアカウントの数は、数百万とは言わないまでも、数十万にのぼると推定しています。

Metaの広報担当者によると、同社はこうしたユーザーの削除を積極的に行っており、1月だけで49万件のアカウントを子どもの安全に関するポリシーに違反したとして削除している。

「Instagramは、より露骨な児童性的虐待が行われているインターネット上の場所への入り口になっている」と、ネット上の児童被害を研究し、それに対抗するフォレンジックツールを構築しているUMass Rescue Labのディレクター、Brian Levineは言う。彼は、米司法省の研究部門である国立司法研究所のインターネット児童搾取に関する2022年の報告書の著者でもあります。

13億人以上のユーザーがいると推定されるInstagramは、特に10代の若者に人気があります。スタンフォード大学の研究者たちは、他の小規模なソーシャルプラットフォームでも同様の性的搾取行為があることを発見したが、Instagramでの問題が特に深刻であることがわかったと述べている。"これらの買い手と売り手のネットワークにとって最も重要なプラットフォームはInstagramであるようだ "と、彼らは6月7日に発表予定の報告書に書いています。


Instagramは、社内統計によると、ユーザーが児童の性的搾取を目にするのは、閲覧した投稿の1万件に1件以下であるという。

児童ポルノのオンライン拡散に対抗するためのソーシャルメディアプラットフォームと法執行機関による取り組みは、児童性的虐待資料(CSAM)と呼ばれる、すでに流通していることが確認されている画像や動画の狩猟に大きく依存している。法執行機関と連携する米国の非営利団体National Center for Missing & Exploited Childrenは、こうした画像や動画のデジタル指紋のデータベースと、インターネット企業間でこうしたデータを共有するためのプラットフォームを維持しています。

インターネット企業のアルゴリズムは、自社のプラットフォームに投稿された画像のデジタル指紋をそのリストと照合し、米国連邦法で義務付けられている通り、検出した場合はセンターに報告する。

2022年、同センターはインターネット企業を中心に3,190万件の児童ポルノに関する報告を受け、2年前と比較してその数は47%増加しています。

Instagram、Facebook、WhatsAppを含むアプリ全体で30億人以上のユーザーを持つMetaは、暗号化されていない場合、この種の既知の画像を検出することができます。Metaは、同センターに提出された児童ポルノ報告書の85%を占め、その中にはInstagramからの約500万件も含まれています。

既存の児童搾取コンテンツに対するMetaの自動スクリーニング機能では、新しい画像やその販売を宣伝する取り組みを検出することはできません。こうした活動を防止・検出するには、ユーザーからの報告を確認するだけでなく、小児性愛者のネットワークを追跡・破壊する必要があると、スタンフォード大学の研究者だけでなく、現職・元職員も述べています。その目的は、そのようなユーザーが互いにつながり、コンテンツを見つけ、被害者を募ることを困難にすることです。

NCMECに寄せられる通報のごく一部を調査するためのリソースが警察当局にはないため、このような作業は不可欠であるとUMassのLevine氏は言う。つまり、プラットフォームには、コミュニティが形成され、児童性的虐待が常態化するのを防ぐという第一の責任があるのです。

Metaが他のプラットフォームよりもこうした取り組みに苦労しているのは、(もともとやる気がないこと、)執行力が弱いことと、合法的なものだけでなく違法なもののコンテンツ発見を促進する設計上の特徴があるためだとスタンフォード大学は指摘しています。

スタンフォード大学の研究チームは、Twitterで児童性的虐待の資料を販売するアカウントを128件発見しましたが、これはTwitterよりも全体的なユーザー数がはるかに多いInstagramで見つけた数の3分の1以下でした。Twitterは、Instagramほどそのようなアカウントを推奨しておらず、より迅速に削除していることがわかりました。

若者に人気のある他のプラットフォームでは、Snapchatは主にダイレクトメッセージで使用されるため、ネットワークの構築には役立ちません。また、TikTokのプラットフォームは、「この種のコンテンツが拡散するようには見えない」プラットフォームであると、スタンフォード大学の報告書は述べている。

Twitterはコメントの求めに応じなかった。TikTokとSnapchatはコメントを拒否している。(SNSは元から追及されては困るやばい性質を持っているのだろう。)

Stanford Internet Observatoryのチーフ・テクノロジストであるDavid Thiel氏は、「Instagramの問題は、コンテンツ発見機能、トピックの推奨方法、プラットフォームが検索とアカウント間のリンクにどれだけ依存しているかに起因する」と述べている。

以前Metaでセキュリティと安全性の問題に取り組んでいたThielは、"あれほど成長集約的なものが、まだ名目上安全であるためには、ガードレールを設置する必要があるが、Instagramはそうはしていない "と付け加えています。

このプラットフォームは、キーワードという基本的な技術を監督するのに苦労している。ハッシュタグは、Instagramにおけるコンテンツ発見の中心的な要素であり、ユーザーは、特定のコミュニティが関心を持つ投稿をタグ付けして見つけることができます(#fashion や #nbaといった幅広い話題から #embroidery や#spelunkingといった狭い話題まで)。


小児性愛者にも選ばれたハッシュタグがある。学術研究者は、#pedobaitや#mnsfw(「Minor not safe for work」)のバリエーションなどの検索用語が、子どもを主人公にしたセックスコンテンツの広告に特化した何千もの投稿のタグ付けに使用されており、購入者が容易に見つけられるようになっていることを発見しました。

Metaは、WSJから問い合わせを受け、このような用語を禁止する手続きを進めていると述べています。

多くの場合、Instagramは、独自のアルゴリズムが、違法な素材と関連する可能性があることを知っている用語を検索することをユーザーに許可しています。そのような場合、ユーザー向けのポップアップ画面では、「これらの検索結果には児童の性的虐待の画像が含まれている可能性があります」と警告し、そのような素材の生産と消費は児童に「極度の害」をもたらすと指摘しています。この画面では、ユーザーに対して2つの選択肢が用意されていました:"リソースを入手する "と "とにかく結果を見る "です。

WSJ紙の質問に対し、インスタグラムは、違法な画像を生成する可能性が高い用語の検索結果をユーザーが見るためのオプションを削除しました。同社は、同オプションを提供していた理由については言及を避けました。

Instagramの小児性愛者のアカウントには、彼らの図々しさと同時に、彼らの活動を公衆の目から隠すための表面的な努力とが混在していることが、研究者によって明らかになりました。UMassのLevine氏によると、ある種の絵文字は一種の暗号として機能する。例えば、地図の画像は「未成年の魅力的な人」の略語であり、「チーズピザ」の画像は「児童ポルノ」とイニシャルが同じである、という。多くの人は、自分たちを「人生の小さなものの愛好家」だと宣言している。

アカウントは自らを "seller "または "s3ller "と名乗り、その多くが好みの支払い方法を経歴に書いている。これらの出品者のアカウントは、「14章に突入」「31歳」と言った後に逆矢印の絵文字を付けて、子供の年齢を偽っていることが多い。

UMassのLevine氏によると、アカウントの中には、顔にWHOREと書かれたティーンエイジャーを表示したものなど、性売買を示唆しているものがあるという。

自作のセックス・コンテンツを販売すると主張するユーザーの中には、過去に顧客からストーカーや脅迫を受けた経験から、首から下だけの画像を提供する「フェイスレス」にしていると言う人もいる。また、顔出しで身元がバレる可能性がある画像や動画にプレミアムをつけるなど、リスクを負っている人もいます。

その中には、腕や太ももの内側に切り傷があり、過去に性的虐待を受けたとするものも少なくない。

Instagramの小児性愛者コミュニティのアカウントとちらっと接触するだけでも、プラットフォームがユーザーにそのコミュニティへの参加を勧め始めるきっかけになります。


カナダの2児の母であるSarah Adamsは、児童の性的搾取とソーシャルメディアにおける過剰な共有の危険性について議論するInstagramの視聴者グループを構築しています。そのため、アダムスのフォロワーは時々、このプラットフォームで遭遇した不穏なものを彼女に送ってきます。2月には、ある人が "近親相姦の幼児 "という言葉でブランド化されたアカウントでメッセージを送ってきたという。

1万人以上のフォロワーがいる近親相姦のミームを集めたこのアカウントにアクセスしたのは、Instagramに報告するのに必要な数秒だけで、その後は忘れようとしたとアダムスは言います。しかし、その後数日間に渡り、彼女は恐怖に陥った親たちから連絡を受け始めた。彼らがアダムスのInstagramのプロフィールを見ると、アダムスがこのアカウントと接触した結果、「近親相姦の幼児」を勧められるようになったという。

Metaの広報担当者は、「近親相姦の幼児」は同社のルールに違反しており、Instagramは執行を誤ったのだと述べた。同社は、新たに設立した子どもの安全対策本部の一環として、このような不適切な推奨に対処する予定であると述べています。

多くのソーシャルメディアプラットフォームと同様に、Instagramの推薦文の中核は行動パターンに基づいており、ユーザーの興味と特定の主題を照合しているわけではありません。このアプローチは、レコメンデーションの関連性を高めるのに効果的であり、狭い範囲の興味を共有するコミュニティに対して最も確実に機能する。

理論的には、これと同じようにInstagram上の小児性愛者のコミュニティが緊密であれば、Instagramがネットワークをマッピングして対策を講じることが容易になるはずです。ジャーナルが以前に確認した文書によると、メタは過去にも、1月6日の連邦議会・議事堂侵入後に米国で選挙委縮を促すアカウントなど、有害と判断したアカウントネットワークを抑制するためにこの種の作業を行ったことがある。

他のプラットフォームと同様、Instagramはルール違反のアカウントを検出するために、ユーザーに協力を求めているという。しかし、こうした取り組みは必ずしも効果的ではありませんでした。

子どもの安全を守る多くの人々が昨年に提出した数多くの報告書のレビューによると、子どものヌードに関するユーザーからの報告が数カ月間回答されないこともあったそうです。(つまりインスタグラムは意図的にサボタージしている。)

今年初め、ある小児性愛者の活動家が、未成年者のセックスコンテンツを販売している少女のものと主張するInstagramアカウントを発見しました。"This teen is ready for you pervs "と宣言した投稿もありました。活動家がこのアカウントを報告すると、Instagramは次のような自動メッセージで返答した:"大量の報告が寄せられているため、私たちのチームはこの投稿を確認できていません。"

同じ活動家が別の投稿を報告したところ、この投稿はスカスカの若い女の子に生々しい性的なキャプションをつけたもので、Instagramは "我々のレビューチームは、(このアカウントの)投稿が我々のコミュニティガイドラインに反していないことを確認しました "と回答しました。この回答は、ユーザーがそのコンテンツを見ないようにするためにアカウントを非表示にすることを示唆しました。

Metaの広報担当者は、Metaが報告を受け、それに対して対処しなかったことを認めました。

同社が児童性的虐待の報告をどのように扱っているかを検証した結果、ソフトウェアの不具合によってユーザーからの報告のかなりの部分が処理されず、同社のモデレーションスタッフがプラットフォームのルールを適切に履行していないことがわかったと広報担当者は述べた。

同社はその後、報告システムのバグを修正し、コンテンツモデレーターに新しいトレーニングを提供しているという。

Instagramが未成年の性的コンテンツを販売するアカウントを取り下げたとしても、それが常に消え去るとは限りません。

Instagramの社内ガイドラインでは、コミュニティ基準に違反した場合の罰則は、一般的にユーザーやデバイスではなく、アカウントに課されます。Instagramでは、ユーザーが複数のアカウントをリンクさせて運用することができるため、意味のある執行から逃れることが容易なシステムになっています。ユーザーは定期的に「バックアップ」アカウントのハンドルを経歴に記載し、Instagramがそれらを削除した場合、単純に同じフォロワーセットへの投稿を再開することができます。


Instagramのレコメンデーションシステムが、自社の安全担当者の努力を直接的に台無しにしている例もある。児童性的コンテンツを送信することで悪名高い特定の暗号化ファイル転送サービスからのリンクを取り締まることにした後、Instagramはその名前の検索をブロックした。

InstagramのAIによるハッシュタグ候補は、このメッセージを受け取らなかった。サービス名の検索結果を表示しないにもかかわらず、同プラットフォームの自動入力機能は、「boys」と「CP」を末尾に加えた名前のバリエーションを試すようユーザーに推奨しました。

同社は、WSJ紙の問い合わせに対応する中で、これらのハッシュタグを無効にしようとしました。しかし、数日のうちに、Instagramは再びサービス名の新しいバリエーションを推奨するようになり、未成年者向けの性的コンテンツとされるものを販売するアカウントにつながることもありました。

スタンフォード大学とWSJ紙が注目したアカウントの最初の掃討に続き、UMassのLevineは、Instagramに残っている未成年者向け販売アカウントのいくつかをチェックしました。以前と同様、1つでも閲覧すると、Instagramが新しいものを推奨するようになった。Instagramの提案は、プラットフォーム自身の安全管理スタッフが解体しようとしている最中のネットワークを、再構築するために役立っていたのです。

Metaの広報担当者は、このような推薦を防ぐためのシステムは現在構築中であると述べた。レヴィーンは、小児性愛的なコンテンツやアカウントを促進するInstagramのやり方は容認できないと言っています。

"非常ブレーキを引いてください "と彼は言った。"経済的利益は、これらの子供たちへの害に見合うものなのだろうか?"

読者のご意見は、ジェフ・ホーウィッツ(jeff.horwitz@wsj.com)、キャサリン・ブラント(katherine.blunt@wsj.com)宛に届きます。


以上