dark computer
图片来源:Unsplash/CC0 公共领域

谈论人工智能而不谈论深度伪造色情内容是很困难的——这是一种有害的人工智能副产品,已被用来针对从泰勒·斯威夫特到澳大利亚女学生的所有人。

但最近的一个报告初创公司 Security Heroes 发现,在 95,820 个深假色情影片根据不同来源的分析,53% 的内容是韩国歌手和女演员——这表明这一群体受到了不成比例的攻击目标。

那么韩国的背后是什么?问题?对此我们能做些什么呢?

受害者中有青少年和未成年人

Deepfakes 是经过数字处理的照片、视频或音频文件,它们令人信服地描绘了某人所说或所做的事情,他们从未做过。在韩国青少年中,制作深度伪造品已经变得如此普遍,甚至有些人认为这是作为恶作剧。而且他们不仅仅针对名人。

在 Telegram 上,针对女性进行基于图像的性虐待的特定目的建立了群聊,其中包括中学生、高中生、教师和家庭成员。那些贴着自己照片的女人例如KakaoTalk、Instagram 和 Facebook 也经常成为攻击目标。

犯罪者使用人工智能机器人生成虚假图像,然后将其与受害者的社交媒体帐户、电话号码和 KakaoTalk 用户名一起出售和/或不加区别地传播。据一份报告称,一个 Telegram 群组吸引了约 22 万名会员卫报报道

缺乏意识

尽管基于性别的暴力造成重大损害对于韩国的受害者来说,仍然缺乏对这个问题的认识。

近几十年来,韩国经历了快速的技术发展。其在榜单中排名第一智能手机拥有量世界并被认为拥有最高的互联网连接性。许多工作,包括餐馆、制造业和公共交通领域的工作,正在迅速被机器人和人工智能取代。

但正如人权观察指出该国在性别平等和其他人权措施方面的进展未能跟上数字化进步的步伐。研究表明,技术进步实际上会加剧基于性别的暴力

自 2019 年以来,韩国针对儿童和青少年的数字性犯罪一直是一个大问题,尤其是由于“N号房”案。该案件涉及数百名年轻受害者(其中许多是未成年人)和约 26 万名参与分享剥削性和胁迫性亲密内容的参与者。

此案引发广泛愤怒,并呼吁加强保护。甚至导致《2020年性犯罪处罚特例法》中规定了更严格的条件。但尽管如此,大检察厅说只有28%2021 年,共有 17,495 名网络性犯罪者被抓获,其中 17,495 名网络性犯罪者被起诉,凸显了有效解决数字性犯罪所面临的持续挑战。

2020年,司法部提议成立数字性犯罪工作组大约60条法律条款尚未被接受。该团队在 2022 年尹锡烈总统的政府就职后不久就解散了。

在 2022 年总统竞选期间,尹说韩国“不存在结构性性别歧视”,并承诺废除性别平等和家庭部,该部是负责防止性别暴力的主要部门。这个帖子一直空缺从今年2月份开始。

技术也能解决问题吗?

但人工智能并不总是有害的——韩国也证明了这一点。2022年,首尔市政府运营的数字性犯罪支援中心开发了一个工具可以全天候自动跟踪、监控和删除 Deepfake 图像和视频。

赢得 2024 年大奖的技术联合国公共行政奖– 帮助将查找深度赝品所需的时间从平均两小时缩短至三分钟。但是,尽管此类尝试有助于减少深度造假带来的进一步伤害,但它们不太可能成为彻底的解决方案,因为对受害者的影响可能是持久的。

为了实现有意义的改变,政府需要让社交媒体平台和消息应用程序等服务提供商负责确保用户安全。

齐心协力

8月30日,韩国政府宣布计划推动立法,将韩国拥有、购买和观看深度伪造品定为犯罪。

然而,在韩国将深度造假视为一种有害的性别暴力形式之前,调查和审判可能会继续不足。解决深度造假问题需要采取多方面的方法,包括更强的法律、改革和教育

韩国当局还必须帮助提高公众对性别暴力的认识,不仅要关注支持受害者,还要制定积极的政策和教育计划,以从源头预防暴力。

本文转载自对话根据知识共享许可。阅读原创文章The Conversation

引文:人工智能正在加剧韩国的深度伪造色情危机。其背后是什么?如何解决?(2024 年 9 月 25 日)检索日期:2024 年 9 月 26 日来自 https://techxplore.com/news/2024-09-ai-fueling-deepfake-porn-crisis.html

本文档受版权保护。除了出于私人学习或研究目的的任何公平交易外,不得未经书面许可,不得复制部分内容。所提供的内容仅供参考。