dark computer
圖片來源:Unsplash/CC0 公共領域

談論人工智慧而不談論深度偽造色情內容是很困難的——這是一種有害的人工智慧副產品,已被用來針對從泰勒·斯威夫特到澳洲女學生的所有人。

但最近的一個報告新創公司 Security Heroes 發現,在 95,820 個深假色情影片根據不同來源的分析,53% 的內容是韓國歌手和女演員——這表明這一群體受到了不成比例的攻擊目標。

那麼韓國的背後是什麼呢?問題?對此我們能做些什麼呢?

受害者中有青少年和未成年人

Deepfakes 是經過數位處理的照片、影片或音訊文件,它們令人信服地描繪了某人所說或所做的事情,他們從未做過。在韓國青少年中,製作深度偽造品已經變得如此普遍,甚至有些人認為這是作為惡作劇。而且他們不僅僅是針對名人。

在 Telegram 上,針對女性進行基於圖像的性虐待的特定目的建立了群聊,其中包括中學生、高中生、教師和家庭成員。那些貼著自己照片的女人例如KakaoTalk、Instagram 和 Facebook 也經常成為攻擊目標。

犯罪者使用人工智慧機器人產生虛假圖像,然後將其與受害者的社交媒體帳戶、電話號碼和 KakaoTalk 用戶名一起出售和/或不加區別地傳播。據一份報告稱,一個 Telegram 群組吸引了約 22 萬名會員衛報報道

缺乏意識

儘管基於性別的暴力造成重大損害對於韓國的受害者來說,仍然缺乏對這個問題的認識。

近幾十年來,韓國經歷了快速的技術發展。其在榜單中排名第一智慧型手機擁有量世界並被認為擁有最高的網路連線性。許多工作,包括餐廳、製造業和公共交通領域的工作,正迅速被機器人和人工智慧取代。

但正如人權觀察指出該國在性別平等和其他人權措施方面的進展未能跟上數位化進步的步伐。研究表明,技術進步實際上會加劇基於性別的暴力

自 2019 年以來,韓國針對兒童和青少年的數位性犯罪一直是一個大問題,尤其是由於「N號房」案。該案件涉及數百名年輕受害者(其中許多是未成年人)和約 26 萬名參與分享剝削性和脅迫性親密內容的參與者。

此案引發廣泛憤怒,並呼籲加強保護。甚至導致《2020年性犯罪處罰特例法》中規定了更嚴格的條件。說只有28%2021 年,共有 17,495 名網路性犯罪者被抓獲,其中 17,495 名網路性犯罪者被起訴,凸顯了有效解決數位性犯罪所面臨的持續挑戰。

2020年,司法部提議成立數位性犯罪工作小組大約60條法律條款尚未被接受。該團隊在 2022 年尹錫烈總統的政府就職後不久就解散了。

在 2022 年總統競選期間,尹說韓國“不存在結構性性別歧視”,並承諾廢除性別平等和家庭部,該部是負責防止性別暴力的主要部門。這個帖子一直空缺從今年2月開始。

技術也能解決問題嗎?

但人工智慧並不總是有害的——韓國也證明了這一點。2022年,首爾市政府營運的數位性犯罪支援中心開發了一個工具可全天候自動追蹤、監控和刪除 Deepfake 影像和影片。

贏得 2024 年大獎的技術聯合國公共行政獎– 協助將尋找深度贗品所需的時間從平均兩小時縮短至三分鐘。但是,儘管此類嘗試有助於減少深度造假帶來的進一步傷害,但它們不太可能成為徹底的解決方案,因為對受害者的影響可能是持久的。

為了實現有意義的改變,政府需要讓社群媒體平台和訊息應用程式等服務提供者負責確保用戶安全。

齊心協力

8月30日,韓國政府宣布計劃推動立法,將韓國擁有、購買和觀看深度偽造品定為犯罪。

然而,在韓國將深度造假視為一種有害的性別暴力形式之前,調查和審判可能會繼續不足。解決深度造假問題需要多方面的方法,包括更強的法律、改革和教育

韓國當局還必須幫助提高公眾對性別暴力的認識,不僅要關注支持受害者,還要製定積極的政策和教育計劃,以從源頭預防暴力。

本文轉載自對話根據知識共享許可。閱讀原創文章The Conversation

引文:人工智慧正在加劇韓國的深度偽造色情危機。背後是什麼?(2024 年 9 月 25 日)檢索日期:2024 年 9 月 26 日取自 https://techxplore.com/news/2024-09-ai-fueling-deepfake-porn-crisis.html

本文檔受版權保護。除了出於私人學習或研究目的的任何公平交易外,不得未經書面許可,不得複製部分內容。所提供的內容僅供參考。