New tools use AI 'fingerprints' to detect altered photos, videos
宾厄姆顿大学的一个研究团队使用流行的生成人工智能工具创建了数千张图像,然后使用信号处理技术对其进行了分析。图片来源:宾汉姆顿大学、纽约州立大学

随着人工智能网络变得更加熟练和更容易访问,数字化处理的“深度伪造”照片和视频越来越难以检测。纽约州立大学宾厄姆顿大学领导的一项新研究使用频域分析技术分解图像,并寻找可能表明它们是由人工智能生成的异常现象。

在一篇论文中发表信息科学中的颠覆性技术 VIII,博士。宾厄姆顿大学电气与计算机工程系的学生 Nihal Poredi、Deeraj Nagothu 和 Yu Chen 教授比较了真实和虚假的图像,除了图像处理的迹象(例如拉长的手指或乱码的背景文本)。参与撰写这篇论文的还有弗吉尼亚州立大学的硕士生 Monica Sudarsan 和 Enoch Solomon 教授。

该团队使用 Adob​​e Firefly、PIXLR、DALL-E 和 Google Deep Dream 等流行的生成式 AI 工具创建了数千张图像,然后使用信号处理技术对其进行分析,以便了解它们的频域特征。人工智能生成的图像和自然图像的频域特征的差异是使用机器学习模型区分它们的基础。

当使用生成对抗网络图像认证(GANIA)工具比较图像时,研究人员可以根据人工智能生成假冒图像的方式发现异常情况(称为伪影)。构建人工智能图像最常见的方法是上采样,它克隆像素以使文件大小更大,但会在频域中留下指纹。

“当你用真正的相机拍照时,你会获得来自整个世界的信息——不仅是你想拍照的人、花、动物或物体,而且还嵌入了各种环境信息。”,陈说。

“使用生成式人工智能,图像会专注于你要求它生成的内容,无论你多么详细。你无法描述,例如,空气质量如何,风如何吹,或者所有发生的小事情。背景元素。”

Nagothu 补充道:“虽然有许多新兴的人工智能模型,但这些模型的基本架构基本保持不变。这使我们能够利用其内容操作的预测性质,并利用独特且可靠的指纹来检测它。”

该研究论文还探讨了如何使用 GANIA 来识别照片的人工智能起源,从而限制通过深度伪造图像传播的错误信息。

“我们希望能够识别不同人工智能图像生成器的‘指纹’,”波雷迪说。“这将使我们能够构建平台来验证视觉内容并防止与错误信息活动相关的任何不良事件。”

与 Deepfake 一起,该团队开发了一种技术来检测基于人工智能的虚假音频视频记录。开发的名为“DeFakePro”的工具利用了称为电网频率(ENF)信号的环境指纹,该信号是由于电网中轻微的电力波动而产生的。就像微妙的背景嗡嗡声一样,该信号在录制时自然嵌入到媒体文件中。

通过分析该录音时间和地点所特有的信号,DeFakePro 工具可以验证录音是否真实或是否已被篡改。该技术对于深度伪造非常有效,并进一步探索了如何保护大规模智能监控网络免受此类基于人工智能的伪造攻击。在我们日益互联的世界中,这种方法可以有效地打击错误信息和数字欺诈。

波雷迪说:“错误信息是当今国际社会面临的最大挑战之一。”“生成式人工智能在许多领域的广泛使用导致了它的滥用。再加上我们对社交媒体的依赖,这成为了错误信息灾难的爆发点。这在对社交媒体和言论限制最少的国家尤其明显。因此,必须确保在线共享数据的完整性,特别是视听数据。”

尽管生成式人工智能模型被滥用,但它们也为推进成像技术做出了重大贡献。研究人员希望帮助公众区分虚假内容和真实内容,但跟上最新的创新可能是一个挑战。

“人工智能发展得如此之快,一旦你开发出了深度换脸检测器,下一代人工智能工具就会考虑到这些异常情况并修复它们,”陈说。“我们的工作就是尝试做一些打破常规的事情。”

更多信息:Nihal Poredi 等人,使用频域分析的基于生成对抗网络的人工智能生成图像认证,信息科学中的颠覆性技术 VIII(2024)。DOI:10.1117/12.3013240

引文:新工具使用人工智能“指纹”来检测经过修改的照片、视频(2024 年 9 月 12 日)检索日期:2024 年 9 月 12 日来自 https://techxplore.com/news/2024-09-tools-ai-fingerprints-photos-videos.html

本文档受版权保护。除了出于私人学习或研究目的的任何公平交易外,不得未经书面许可,不得复制部分内容。所提供的内容仅供参考。