Maura R. Grossman,法学博士、哲学博士,Cheriton 计算机科学学院研究教授,交叉任命于滑铁卢公共卫生科学学院,Osgoode Hall 法学院兼职教授,以及附属教员Vector人工智能研究所成员。她还是纽约州布法罗电子取证法律和咨询公司 Maura Grossman Law 的负责人。
Maura 因其在技术辅助审查 (TAR) 方面的工作而广为人知,这是一种有监督的机器学习方法,她和她的同事、切里顿计算机科学学院名誉教授 Gordon V. Cormack 开发了这种方法,以加快对高风险文件的审查诉讼和循证医学的系统评价。
最近,莫拉(Maura)将注意力转向了生成式人工智能对人类社会的影响。法制。她与退休地区法官 Paul W. Grimm、Cheriton 计算机科学学院教授 Dan Brown 和本科生研究助理 Molly Xu 共同撰写了一篇题为“GPTJudge:生成人工智能世界中的正义”概述了生成人工智能给法官和律师带来的新挑战。
以下是经过轻微编辑的问答采访记录,其中更深入地探讨了本文中讨论的问题。
什么是生成式人工智能?
生成式人工智能(或 GenAI)是人工智能的一个特定子集,它根据人类提供的提示创建新内容。提示可以是多模式的,输出也可以是多模式的。人们可以输入问题并获得文本答案,也可以创建语音剪辑、图像或视频——实际上是任何组合,具体取决于用于输入和输出的系统。
GenAI 创建的内容越来越难以与人类创建的内容区分开来。生成的文本读起来很好,照片看起来很真实,音频文件听起来很真实,视频看起来也很令人信服。
各种 GenAI 系统中最著名的可能是 ChatGPT,这是 OpenAI 于 2022 年 11 月发布的聊天机器人,基于可生成流畅文本的大型语言模型 (LLM)。ChatGPT 可以进行对话式对话,有人问它一系列问题,它会提供类似人类的回答。
人们还可以要求 ChatGPT 为他们起草一份家庭作业,使他们的简历更加简洁和专业,或者描述一个特定的工作,并要求聊天机器人根据该工作的具体要求定制他们的简历。同样,他们可以要求 ChatGPT 用 8 岁孩子可以理解的语言总结书籍章节中的要点。或者以阿姆的风格写一首关于泰勒·斯威夫特的说唱歌曲。ChatGPT 可以很好地执行任何或所有这些任务。
ChatGPT 还按照特定准则生成内容(包括复制特定的风格或语气),这就是越来越难以区分其输出与人类输出的原因之一。
这些生成式人工智能模型是如何工作的?
法学硕士使用概率和统计数据根据他们的训练数据来预测响应中最有可能的下一个单词,这些数据大部分是从互联网上抓取的内容。这些模型可能会看到成千上万个关于某个主题的句子示例,并且它们提供的输出基于最常见的书写内容。这可能是准确的、有偏见的或完全错误的,但法学硕士将寻找其培训数据中最常说的内容并进行复制。
许多基于图像的 GenAI 工具都是使用两种相互竞争的算法进行训练的,这一过程于 2017 年开发,被称为“生成对抗网络”或“GAN”。
生成网络创建内容,而歧视网络批评该内容并将其与真实内容进行比较。当生成算法从判别算法获得更多反馈时,它会变得更好。这两个网络协同工作,随着判别器的改进,生成器也随之改进。
随着 GenAI 的进步,要知道哪些输出是由 GenAI 创建的、哪些输出是由人类创建的将变得更加困难。它将模糊真实内容和生成内容之间、真理与虚假之间、事实与虚构之间的界限。这对司法系统具有深远的影响。
人工智能证据可以在法庭上被采纳吗?
让我先退一步来回答你的问题。人工智能证据面临着与大多数证据相同的挑战科学证据其原因在于其所依据的技术可能超出了法官或陪审团的知识范围,因此当事人可能不得不聘请昂贵的专家来评估和解释它。
如果警察使用雷达枪来评估驾驶员的速度,我们对该技术有足够的了解,因此对超速罚单提出争议的案件通常不需要雷达专家来解释该设备的工作原理以及它是否有效和可靠。但人工智能等新技术的情况并非如此。
假设一位人力资源专业人士使用人工智能来确定对某个职位进行面试的人,而大多数被排除在外的人似乎属于某个种族或族裔群体。如果这件事闹上法庭,人力资源专业人士的雇主可能需要请系统开发人员来解释人工智能模型是如何训练的、使用什么算法、使用什么训练数据、如何测试和验证等等,以表明该制度没有歧视性。
在这个例子中,向法庭提交的证据是真是假是毫无疑问的。问题是,人工智能是否经过充分的测试和验证,以了解其有效、可靠、公正且按预期工作?这可能是最容易处理的问题。我们试图确定人工智能是否按其应有的方式工作,这与任何其他技术或科学证据没有什么不同;我们已经拥有这方面的法律工具。
我们面临的新挑战是深度伪造、人工智能生成的不真实内容。虽然伪造或其他伪造证据的情况一直存在,但我们现在处于完全不同的水平,因为深度伪造的明显迹象(例如,手有六个手指)已不复存在,因为技术已经进步了很多。
有了怀疑是深度伪造的证据材料,各方可能需要聘请人工智能取证专家。因此,现在法院不仅要处理复杂的产品责任案件,法官或陪审团需要了解特定机器或设备的工作原理来确定责任,而且事实证据本身的真实性也会受到质疑。
假设我声称我的主管给我留下了辱骂或不适当的语音邮件消息,下面是他留下的一条消息的录音示例,作为事件发生的证据正如我所说。只要我能证明录音很可能是我主管的声音,证据就会进来。
但现在,几乎每个案件都可能需要专家,因为我的主管可能会辩称我制造了语音邮件,而法院需要确定证据是真实的还是虚假的。
GenAI 是否给司法系统带来了新的挑战?
是的,对于 GenAI,我们有一个完全不同的问题。我们需要确定所谓的深度造假证据是否应该在民事和刑事审判中得到承认。法官或陪审团在决定案件时是否考虑这些证据会产生巨大的差异。
司法系统(至少是我最熟悉的美国系统)面临的部分挑战是受理标准较低。证据只需满足“优势标准”,即证据比我所说的更有可能,比抛硬币的可能性稍大一些。
有了深度造假证据,这个门槛就非常低了。有人可以在法庭上播放你的声音录音,我可以作证,我已经和你说过很多次了,并且知道录音中的是你,因为我认出了你的声音。这足以让此类证据被美国法院采纳。但仅仅因为听起来像您并不意味着录音就是您实际所说的内容。借助人工智能语音克隆工具,任何人都可以在几分钟内免费生成听起来像您的音频剪辑。这就是问题所在。
对于这种新型证据,目前的证据规则与美国和加拿大司法系统的结构并不完美匹配,这种新型证据将越来越多地出现在法庭上。你说这是真实录音,我说不是;这是一个深度赝品。这种辩护——被称为“说谎者的红利”——将会越来越频繁地进行。现在一切都有可能被否认。
如果被告的律师能够证明,在我的手机上留下涉嫌违规的语音邮件消息时(根据其电子日期和时间戳,称为“元数据”),我的主管正在进行心脏直视手术,那么语音信箱里的人就是他。这应该足以质疑这一说法,但如果证据没有元数据或元数据已被以某种方式更改,会发生什么?
任何人都可以声称任何证据是假的,因此所谓的深度造假证据必须满足其他要求。主张深度造假辩护的人必须出示一定数量的证据,证明证据确实是深度造假。考虑到深度造假的说服力,这可能非常具有挑战性。虽然这个问题似乎有些牵强,但参与 1 月 6 日美国国会大厦袭击事件的个人声称,社交媒体或监控视频中针对他们的人实际上并不是他们。
随着人们越来越意识到操纵和生成音频和视频证据是多么容易,被告将利用这种怀疑来为自己谋利。
美国有一项证据规则,称为“联邦证据规则 403”,为律师和审判法官提供了可能在所谓的深度造假背景下有用的一般指导,但证据规则并不是针对任何特定类型的技术证据而设计和颁布的。该规则被谨慎地、很少地用来拒绝接受可能具有不当偏见、令人困惑或可能误导的证据。
我和我的合著者认为,我们应该放宽该规则的严格要求,这样,如果一方能够做出足够可信的证明来质疑某些证据是深度造假的,那么法官应该考虑该证据是否是证明的唯一证据该主张以及是否承认其他因素可能会超过它。还有其他佐证证据吗?
其他时间是否有六个人也听到我的主管说了语音邮件中所说的内容,或者该主管是否在发送给其他员工的其他电子邮件中写了类似的内容?如果是这样,这与深度造假证据是法院可用的唯一证据相比,这是一组非常不同的事实,而且我们对它是否真实有相互竞争的事实。
在评估潜在的深度造假证据的可采性时,法官需要避免如果允许向陪审团提供虚假证据,可能会出现不公平的偏见。我们知道音频和视频证据强烈影响人们的感知和记忆。如果您向陪审员展示视听剪辑,与让他们阅读证人笔录相比,他们记住视听剪辑中内容的可能性要高出 650%。
这就是人类思维的运作方式。法院需要考虑如果证据被证明是假的,可能会出现的潜在风险、负面影响或问题后果。当然,影响可能是任何事情,从损失一小笔钱到失去孩子的监护权或个人的自由。
律师和诉讼当事人可以使用 ChatGPT 准备法庭文件吗?
是的,在过去的一年里,律师和自辩人士(即所谓的自诉当事人)都使用 ChatGPT 准备向法庭提交的文件。但一个大问题是 GenAI 容易产生幻觉。起草的摘要中引用了听起来很权威但并不真实的引文,并且引用了不存在的案例。作为回应,我们的司法机构感到害怕,他们的反应是要求披露人工智能的使用情况,并证明提交人已验证所引用的来源。
从积极的一面来看,ChatGPT 可以允许没有足够手段的诉讼当事人聘请律师向法庭提起诉讼,从而 GenAI 可以增加诉诸司法的机会。那些根本请不起律师或因其他原因无法聘请律师的人现在可以使用 GenAI 生成针对其具体情况和司法管辖区的定制法律文件。
但消极的一面是,无理取闹的人现在可以使用 ChatGPT 对多人提出数百项投诉,并向法院提起诉讼。恶意提交者还可以在全国各地的法院同时准备提交文件,从而使法院充斥着重复、无聊的提交材料。
法官及其工作人员可以使用 GenAI 进行研究或起草意见吗?
到目前为止,我们知道至少有三位法官使用 GenAI 起草意见。你可能会想,GPT-4已经通过了美国律师资格考试,有什么问题吗?但令人担忧的是,ChatGPT 可以在不同时间对同一问题提供不同的答案,更不用说产生完全错误的信息了。
我们首先拥有一个司法系统,以保证人们在法庭上接受一位活生生的、会呼吸的人类法官的审判。使用 GenAI 系统进行独立研究,而不通知律师或当事人,并为他们提供反对或回应未记录在案的论点的机会,可能会使法院接触到尚未提供证据或引发其他问题的信息来源。正当程序问题。
因此,就目前而言,虽然这些工具可以成为有用的辅助工具,但据我所知,美国和加拿大的法院正在避免将 GenAI 用于决策和起草目的。
更多信息:莫拉·格罗斯曼 (Maura R. Grossman) 等人,GPTJudge:生成人工智能世界中的正义(2023)
引文:问答:生成人工智能的法律影响(2024 年,4 月 17 日)检索日期:2024 年 4 月 17 日来自 https://techxplore.com/news/2024-04-qa-legal-implications-generative-artificial.html
本文档受版权保护。除了出于私人学习或研究目的的任何公平交易外,不得未经书面许可,不得复制部分内容。所提供的内容仅供参考。