Artists such as Karla Ortiz in San Francisco, California, are seeking technical and legal ways to protect their styles as artificial intelligence 'learns' to copy works found online
隨著人工智慧「學會」複製網路上找到的作品,加州舊金山的卡拉·奧爾蒂斯(Karla Ortiz)等藝術家正在尋求技術和法律方法來保護他們的風格。

受到人工智慧(AI)的圍攻,人工智慧(AI)研究他們的作品,然後複製他們的風格,他們與大學研究人員合作,阻止這種模仿活動。

美國插畫家帕洛瑪·麥克萊恩 (Paloma McClain) 在得知多個人工智慧模型使用她的藝術作品進行「訓練」後,進入了防禦模式,但沒有獲得任何榮譽或補償。

「這讓我很困擾,」麥克萊恩告訴法新社。

“我相信真正有意義的技術進步是合乎道德的,能夠提升所有人的水平,而不是以犧牲他人為代價。”

這位藝術家求助於芝加哥大學研究人員創建的名為 Glaze 的免費軟體。

在訓練方式方面,Glaze 基本上超越了人工智慧模型,以人類觀眾無法察覺的方式調整像素,但這使得數位藝術品看起來與人工智慧截然不同。

Glaze 團隊的電腦科學教授 Ben Zhao 表示:“我們基本上是在提供技術工具來幫助保護人類創造者免受入侵和濫用的人工智慧模型的侵害。”

Glaze 僅用了四個月的時間就創建了,它剝離了用於顛覆臉部辨識系統的技術。

「我們以超快的速度工作,因為我們知道問題很嚴重,」趙在談到急於保護藝術家免受軟體模仿者侵害時說道。

“很多人都很痛苦。”

生成式人工智慧巨頭已同意在某些情況下使用資料進行訓練,但大多數情況下用於塑造超級智慧軟體思考方式的音訊和文字在未經明確同意的情況下已從網路上刪除。

據趙稱,自 2023 年 3 月發布以來,Glaze 的下載量已超過 160 萬次。

趙的團隊正在開發一種名為 Nightshade 的 Glaze 增強功能,它可以透過迷惑 AI 來增強防禦能力,例如讓它將狗解讀為貓。

麥克萊恩說:「我相信,如果有足夠多的藝術家使用它,並將足夠多的有毒圖像傳播到野外,茄屬植物將會產生顯著的效果。」他的意思是很容易在網路上獲得。

“根據茄屬植物的研究,它不會像人們想像的那樣吸收那麼多有毒的圖像。”

據這位芝加哥學者稱,多家想要使用 Nightshade 的公司已經與趙的團隊接觸。

「我們的目標是讓人們能夠保護他們的內容,無論是個人藝術家還是擁有大量智慧財產權的公司,」趙說。

聲音萬歲

Startup Spawning 開發了 Kudurru 軟體,可偵測從線上場所獲取大量影像的嘗試。

Spawning 聯合創始人 Jordan Meyer 表示,藝術家可以阻止存取或發送與請求內容不匹配的圖像,從而污染用於教導人工智慧什麼是什麼的資料池。

已有一千多個網站整合到 Kudurru 網路中。

Spawning 也推出了haveibeentrained.com,該網站提供一個線上工具,用於找出數位化作品是否已被輸入人工智慧模型,並允許藝術家在未來選擇退出此類使用。

隨著影像防禦的加強,密蘇裡州華盛頓大學的研究人員開發了防偽軟體來阻止人工智慧複製聲音。

AntiFake 豐富了人們說話的數位錄音,添加了人們聽不見的噪音,但這使得“合成人聲變得不可能”,博士生於志遠說。項目背後的學生。

該計劃的目的不僅僅是阻止未經授權的人工智慧訓練,還包括防止創建「深度偽造」——名人、政客、親屬或其他人的虛假配樂或視頻,展示他們所做或所說的事情。

於志遠表示,一個受歡迎的播客最近向 AntiFake 團隊尋求幫助,以阻止其作品被劫持。

研究人員表示,這款免費軟體迄今已用於錄製人們的講話,但也可以應用於歌曲。

邁耶認為:“最好的解決方案是,所有用於人工智慧的數據都必須經過同意和付費。”

“我們希望推動開發商朝這個方向發展。”

© 2023 法新社

引文:藝術家使用科技武器對抗人工智慧模仿者(2023 年,12 月 24 日)檢索日期:2023 年 12 月 24 日來自 https://techxplore.com/news/2023-12-artists-tech-weapons-ai-copycats.html

本文檔受版權保護。除了出於私人學習或研究目的的任何公平交易外,不得未經書面許可,不得複製部分內容。所提供的內容僅供參考。