Instagramは、プラットフォーム上の未成年者を虐待や性的搾取詐欺から守る取り組みの一環として、メッセージ内のヌード画像をぼかす新しい安全機能の導入を準備している。

メタ社が発表木曜日には、ヌードを含むと検出された画像をぼかし、ユーザーの送信を阻止する新機能が、アカウントの誕生日情報で特定される10代のInstagramユーザーに対してデフォルトで有効になる。通知は大人のユーザーにも通知をオンにするよう促します。

こうした取り組みは、FacebookやInstagramなどのプラットフォームが最年少ユーザーに害を与えているという長年の批判を受けてのものである。子どもたちの精神的健康を害するそしてボディイメージに、故意に虐待する親をプラットフォーム化するそして、「子供を求める捕食動物の市場」

によると、新機能は今後数週間以内にテストされる予定です。ウォール・ストリート・ジャーナル、今後数か月以内に世界的に展開される予定です。メタ社によると、この機能はオンデバイスの機械学習を利用してインスタグラムのダイレクトメッセージングサービス経由で送信された画像にヌードが含まれているかどうかを分析しており、インスタグラムは報告されない限りこれらの画像にアクセスできないという。

A screenshot of Instagram’s incoming nudity protection feature blurring a nude image in messages.

ヌード画像を送信する場合でも受信する場合でも、保護機能が有効になっているユーザーには、注意するよう警告するメッセージが表示されます。

画像: メタ

この保護が有効になっている場合、ヌード写真を受け取った Instagram ユーザーには、返信するようプレッシャーを感じないよう伝えるメッセージと、送信者をブロックして報告するオプションが表示されます。「この機能は、DMで望まないヌードを見ないよう人々を守るだけでなく、人々を騙して見返りに自分の画像を送信させるためにヌード画像を送信する詐欺師から人々を守るためにも設計されている」とMeta氏は述べた。発表。

A snapshot of the warning message that will be shown to teen Instagram users who receive unwanted nude images in their DMs.

以下は、ヌード写真の DM を受け取った未成年者に表示される内容の例です。未成年者は、必要に応じて送信者をブロックするために簡単にアクセスできます。

画像: メタ

ヌードを DM しようとするユーザーには、機密写真を共有する危険性について警告するメッセージも表示され、受信したヌード画像を転送しようとするユーザーを思いとどまらせる別の警告メッセージも表示されます。

これは、プラットフォーム上の子どもの保護を強化するメタの最新の試みです。ツールをサポートした2023 年 2 月に未成年者の露骨な性的画像をオフラインで撮影した罪で、有害なトピックへのアクセスを制限する今年初めの自殺、自傷行為、摂食障害など。