「それでも見る?」:スタンフォード大学の衝撃的な新報告によると、Instagramは世界で最も効率的な児童ポルノネットワークである

「それでも見る?」:スタンフォード大学の衝撃的な新報告によると、Instagramは世界で最も効率的な児童ポルノネットワークである

Instagramの反転ウォール・ストリート・ジャーナルは本日、Instagramにおける児童ポルノの蔓延に関する衝撃的な新記事を掲載した。同記事は「広大な」小児性愛者のネットワークに触れ、Instagramのアルゴリズムが児童ポルノを販売する者とそれを求める者を効率的に結びつけていると主張している。

Instagramは、ニッチな興味を共有する人々を結びつける優れた推薦システムを通じて、小児性愛者をコンテンツ販売者に誘導していることが、WSJと研究者らの調査で明らかになった。プラットフォーム上ではほとんどの人の目には触れないが、Instagram上の性的アカウントは、自らの興味を公然と表明している。研究者らは、Instagramが「#pedowhore」や「#preteensex」といった露骨なハッシュタグの検索を可能にし、それらのキーワードを用いて児童性的コンテンツ販売を宣伝するアカウントに誘導していることを発見した。

驚くべきことに、InstagramはCSAMだと認識しているコンテンツを検索者に公開しているケースが多い。ウォール・ストリート・ジャーナル紙は次のように引用している。

Instagramは多くの場合、独自のアルゴリズムによって違法コンテンツに関連する可能性があると認識されている用語をユーザーが検索できるようにしています。そのような場合、ポップアップ画面に「これらの結果には児童性的虐待の画像が含まれている可能性があります」という警告が表示され、そのようなコンテンツの制作と消費は児童に「甚大な害」をもたらすと注意書きが添えられました。画面には「リソースを取得する」と「とにかく結果を見る」という2つの選択肢が表示されていました。

これらのアカウントには、小児性愛者が画像や動画を購入したり、直接会って「会う」ことを手配したりできる、違法コンテンツの広範なメニューが掲載されています。

これはMetaの利用規約に違反しているが、スタンフォードは、この問題を調査している研究者3人からなる小規模チームがあり、Instagramのアルゴリズムによって効率的に提供された無数の児童ポルノを問題なく発見したと指摘した。

スタンフォードの報告書は次のようにコメントしている。

調査の結果、未成年者によって運営されているとされる大規模なアカウントネットワークが、ソーシャルメディア上でSG-CSAM(児童性的虐待コンテンツ)の販売を公然と宣伝していることが判明しました。Instagramこうしたネットワークの主要プラットフォームとして台頭し、買い手と売り手のつながりを促進する機能を提供しています。Instagramの人気とユーザーフレンドリーなインターフェースは、こうした活動に最適な選択肢となっています。Instagramの推奨アルゴリズムは、ユーザーの行動とコンテンツの消費を分析し、関連コンテンツやフォローすべきアカウントを提案することで、SG-CSAMを効果的に宣伝しています。

ビデオキャプチャ機器(携帯電話)の普及により、未成年者が脅迫や強制的な脅迫を受けてコンテンツを作成することがしばしば可能になっています。あるいは、単に未熟で結果を軽視しているティーンエイジャーであるというだけの理由でコンテンツを作成することも考えられます。イノセント・ライブズ・ファウンデーションの報告によると、10代の少女の5人に1人、10代の少年の10人に1人が、合意の上でヌード写真を共有した経験があります。さらに、10代の若者の39%が、その後、合意に基づかない形でこれらの画像を共有する可能性があります。

画像が利益を追求するティーンエイジャーによって作成されたものであれ、合意なく共有されたものであれ、あるいは強制されて作成されたものであれ、Instagramは主要なマーケットプレイスです。Metaは何千ものハッシュタグをブロックしましたが、それでも素材を見つけるのは容易です。これは意図的なものです。Instagramのアルゴリズムは、ユーザーを彼らの興味のあるものと結びつけます。つまり、小児性愛者がターゲットを見つけると、Instagramは同じ考えを持つ無数の個人や販売者と彼を結びつけるのです。

この問題はInstagramに限ったことではありません。スタンフォード大学の研究チームは、「TwitterはInstagramほどそのようなアカウントを推奨しておらず、はるかに迅速に削除していた」と指摘しています。

おすすめの記事