リサ・M・ギヴン著、

child smartphone
クレジット: Pixabay/CC0 パブリック ドメイン

今日のニューサウスウェールズ州と南オーストラリア州政府のソーシャルメディアサミットでのスピーチの中で、ミシェル・ローランド連邦通信大臣が発表した。連邦政府が提案しているソーシャルメディア禁止が実際にどのように機能するかについての詳細。

政府が先月初めて禁止を発表したのは、SAが14歳未満の子どものソーシャルメディア利用を禁止すると発表した直後だった。しかし専門家らはこの考えを厳しく批判しており、今週120人以上が批判した。専門家公開書簡アンソニー・アルバニーズ首相と州・準州の首相に再考を求める。それにもかかわらず、政府は提案された禁止令を推進しているようだ。

ローランドが本日発表した詳細は、過去数週間に行われた批判の多くに意味のある形で対処したものではない。

実際、それらは実際に新たな問題を引き起こします。

ソーシャルメディア禁止の詳細は何ですか?

ローランド氏は演説の中で、政府は法を改正すると述べた。オンライン安全法「親や親ではなく、プラットフォームに責任を負わせる」」提案されているソーシャルメディア禁止を施行する。

この変更は、業界と規制当局に重要なプロセスを実装する時間を与えるために 12 か月かけて実施されます。

政府は、「害を及ぼすことなくつながりを促進するソーシャルメディアの設計においてプラットフォームを導くためのパラメーターを設定する」と述べている。これらのパラメーターは、ユーザーがフォローしているアカウントからのコンテンツフィードを優先したり、年齢に応じたバージョンのアプリを作成したりすることで潜在的な危害を制限するなど、プラットフォームの「中毒性」機能の一部に対処できる可能性があります。

政府はまた、「子供に害を及ぼすリスクが低いことを証明するソーシャルメディアサービスへのアクセスを受け入れるための免除枠組み」も検討している。

「低リスク」の問題

しかし、「危害を及ぼすリスクが低い」ことが実証されているソーシャルメディアプラットフォームへのアクセスを若者に許可することには問題が多い。

リスクを定義するのは困難です。特にソーシャルメディアに関してはそうです。

今年初めに人工知能の潜在的な害について説明したように、リスクは「スペクトル上に存在し、絶対的なものではない」。リスクは、ソーシャル メディア プラットフォーム自体を考慮したり、ソーシャル メディア プラットフォームを使用している人の年齢を知ったりするだけでは判断できません。ある人にとってリスクがあるものでも、他の人にとってはリスクではない可能性があります。

では、政府はどのソーシャルメディアプラットフォームが「危害を及ぼすリスクが低い」のかをどのように判断するのでしょうか?

何が「低リスク」なのかを判断する際に、ソーシャル メディア プラットフォームの設計に対する技術的な変更に焦点を当てるだけでは、潜在的な危害の主要領域には対処できません。このため、テクノロジー企業が提供する「リスクの低い」ソリューションに対して、親に誤った安心感を与える可能性があります。

Meta の新しい「10 代向け」Instagram アカウントは「危害を及ぼすリスクが低い」と認定され、若者も引き続き使用できると仮定してみましょう。

ティーン向けバージョンの Instagram はデフォルトで非公開に設定され、通常のアカウントよりも強力なコンテンツ制限が適用されます。また、保護者は子供がアクセスしているコンテンツのカテゴリや子供がフォローしているアカウントを確認できるようになりますが、それでも保護者の監視は必要です。

しかし、これではリスクの問題は解決されません。

ソーシャルメディアには今後も有害なコンテンツが存在するでしょう。そして若者たちは、制限のない生活ができる年齢になっても、依然としてウイルスにさらされるでしょう。、安全に取り組むために必要なサポートや指導が受けられない可能性があります。子どもたちが幼い頃にソーシャルメディアを利用するのに必要なスキルを習得していない場合、潜在的な危害に対処せず、親のサポートを受けて安全に交渉することができず、先送りされる可能性があります。

より良いアプローチ

ソーシャルメディアプラットフォーム上の有害なコンテンツは、若者に危険をもたらすだけではありません。それは大人を含むすべての人にリスクをもたらします。このため、若者にのみ「危害を及ぼすリスクが低い」ことをプラットフォームに示すよう奨励することに政府が重点を置くのは、少々見当違いに思える。

より良いアプローチは、年齢に関係なく、すべてのユーザーにとって安全です。ユーザーが有害な可能性のあるコンテンツを報告し、プラットフォームが不適切なコンテンツを削除するメカニズムをプラットフォームに確保することは、人々の安全を守るために非常に重要です。

プラットフォームはまた、いじめや嫌がらせを受けている場合など、アカウント所有者がそのような有害な行為を行っていることが判明した場合に、ユーザーがアカウントをブロックできることを保証する必要があります。

「低リスク」アカウントに対する政府の要件には、ソースで有害なコンテンツを特定して制限するためのこれらのメカニズムやその他のメカニズムが含まれることが重要です。厳しい罰則法律を遵守していないテクノロジー企業に対する対応も必要です。

また、親と子供がソーシャル メディア コンテンツを安全に操作できるように、追加のリソースを提供することもできます。

レポートが発表されましたニューサウスウェールズ州政府の調査によると、5~17歳の子どもを持つ親の91%が「若者とその親にソーシャルメディアの潜在的な害についてもっと教える必要がある」と考えていることが明らかになった。

南オーストラリア州政府はこのメッセージに留意しているようだ。今日もそれは計画を発表した学校でのソーシャルメディア教育をさらに強化するために。

ソーシャルメディアの禁止を追求するのではなく、このようなより積極的な支援を提供することは、オーストラリアの若者を保護すると同時に、彼らが有益で支援的なソーシャルメディアへのアクセスを確保するのに大いに役立つでしょう。メディアこの記事はから転載されています

会話クリエイティブ・コモンズ・ライセンスに基づいて。読んでください元の記事The Conversation

引用:オーストラリア政府の子供向けソーシャルメディア禁止により、「低リスク」プラットフォームは免除される:これは何を意味するのか?(2024年10月12日)2024 年 10 月 12 日に取得https://techxplore.com/news/2024-10-australian-social-media-kids-exempt.html より

この文書は著作権の対象です。個人的な研究や研究を目的とした公正な取引を除いて、書面による許可なく一部を複製することができます。コンテンツは情報提供のみを目的として提供されています。