speech
图片来源:Pixabay/CC0 公共领域

谷歌最近成为全球头条新闻,因为它的聊天机器人 Gemini 生成的是有色人种而不是白人的图像在以白人为特色的历史背景中。Adobe Firefly 的图像创建工具锯类似问题。这导致一些评论家抱怨人工智能走了“醒了””其他人认为这些问题是由于对抗人工智能偏见的错误努力并更好地服务全球观众

关于人工智能政治倾向的讨论和对抗偏见的努力很重要。尽管如此,关于人工智能的讨论忽略了另一个关键问题:人工智能行业的方法是什么?,它是否符合国际言论自由标准?

我们是研究人员谁研究言论自由以及执行董事和研究员言论自由的未来是一个独立的、无党派的智囊团,总部设在范德比尔特大学。在最近的一份报告中,我们发现生成式人工智能重要缺点关于言论自由和获取信息的自由。

生成式人工智能是一种创建内容的人工智能,如文本或图像,基于其训练过的数据。特别是,我们发现主要聊天机器人的使用政策不符合联合国标准。实际上,这意味着人工智能聊天机器人在处理公司认为有争议的问题时经常会审查输出。如果没有坚实的言论自由文化,生产人工智能工具的公司可能会在这个日益两极分化的时代继续面临强烈反对。

模糊且广泛的使用政策

我们的报告分析了六种主要人工智能聊天机器人的使用政策,包括谷歌的 Gemini 和 OpenAI 的 ChatGPT。公司发布政策来设定人们如何使用他们的模型的规则。以国际人权法为基准,我们发现企业的错误信息和政策过于模糊和宽泛。值得注意的是,国际人权法对言论自由的保护不如美国第一修正案。

我们的分析发现,公司的仇恨言论政策包含极其广泛禁令。例如,谷歌禁止生成“宣扬或鼓励仇恨的内容”。尽管仇恨言论令人憎恶并且可能造成伤害,但像谷歌这样广泛而模糊定义的政策可能会适得其反。

为了展示模糊和广泛的使用政策如何影响用户,我们测试了一系列有关有争议主题的提示。我们向聊天机器人询问了一些问题,例如跨性别女性是否应该被允许参加女子体育比赛,或者欧洲殖民主义在当前气候和不平等危机中的作用。我们没有要求聊天机器人发表诽谤任何一方或团体的仇恨言论。类似于一些用户 已报道,聊天机器人拒绝为我们使用的 140 个提示中的 40% 生成内容。例如,所有聊天机器人都拒绝生成反对参与的帖子在女子比赛中。然而,他们中的大多数人确实发表了支持他们参与的帖子。

言论自由是美国的一项基本权利,但它的含义以及它能走多远仍然存在广泛争议。

措辞含糊的政策在很大程度上依赖于主持人对仇恨言论的主观看法。用户还可以认为规则的应用不公正,并将其解释为太严格或太宽松。

例如,聊天机器人 Pi禁止“可能传播错误信息的内容”。然而,关于言论自由的国际人权标准通常会保护错误信息,除非存在强有力的限制理由,例如外国干预选举。否则,人权标准保证“寻求、接受和传播的自由根据一项重要的联合国公约,无论国界如何,通过任何选择的媒体传播各种信息和想法。

定义什么是准确信息也具有政治意义。多个国家的政府利用在 COVID-19 大流行背景下通过的规则来压制批评政府的。最近,印度与谷歌对峙双子座指出,一些专家认为印度总理纳伦德拉·莫迪的政策是法西斯主义。

言论自由文化

人工智能提供商可能希望采取限制性使用政策,这是有原因的。他们可能希望保护自己的声誉,不参与有争议的内容。如果他们服务于全球受众,他们可能希望避免在任何地区出现令人反感的内容。

一般来说,人工智能提供商有权采取限制性政策。他们不受国际人权的约束。尽管如此,他们的市场力量使他们与其他公司不同。想要生成人工智能内容的用户很可能最终会使用我们分析的聊天机器人之一,尤其是 ChatGPT 或 Gemini。

这些公司的政策对获取信息的权利有着巨大的影响。随着生成式人工智能融入到现实生活中,这种效应可能会增强。搜索,文字处理器,电子邮件和其他应用程序。

这意味着社会有兴趣确保此类政策充分保护言论自由。事实上,数字服务法欧洲的在线安全规则手册要求所谓的“超大型在线平台”评估和减轻“系统性风险”。这些风险包括对言论和信息自由的负面影响。

Jacob Mchangama 在欧盟 2022 年数字服务法案的背景下讨论了在线言论自由。

这项义务,应用不完善迄今为止,欧盟委员会的行动表明,权力越大,责任越大。这是不清楚该法律将如何适用生成人工智能,但欧盟委员会已经已经采取了第一个行动

即使类似的法律义务不适用于人工智能提供商,我们也认为公司的影响力应该要求他们采用言论自由文化。国际人权为如何负责任地平衡不同利益攸关方提供了有用的指导。至少有两家我们关注的公司 –谷歌人择– 已经认识到这一点。

断然拒绝

同样重要的是要记住,用户对他们在生成人工智能中看到的内容拥有很大程度的自主权。与搜索引擎一样,用户收到的输出很大程度上取决于他们的提示。因此,用户接触来自生成人工智能的仇恨言论和错误信息的机会通常会受到限制,除非他们特别寻求。

这与社交媒体不同,在社交媒体上,人们对自己的信息流的控制要少得多。在社交媒体层面上,包括对人工智能生成的内容进行更严格的控制,可能是合理的,因为它们公开分发内容。对于人工智能提供商来说,我们认为使用政策对用户可以生成的信息的限制应该比人工智能提供商的政策更少。社交媒体人工智能公司还有其他方法来解决仇恨言论和错误信息。

例如,他们可以在他们生成的内容中提供上下文或反驳事实。它们还可以允许更大的用户定制。我们认为聊天机器人应该避免仅仅拒绝完全生成任何内容。除非有坚实的公共利益依据,例如防止儿童性虐待材料,这是法律禁止的。

拒绝生成内容不仅影响言论自由和获取信息的基本权利。他们还可以将用户推向聊天机器人专门生成仇恨内容和回声室。这将是一个令人担忧的结果。

本文转载自对话根据知识共享许可。阅读原创文章The Conversation

引文:人工智能聊天机器人拒绝产生“有争议的”输出——为什么这是一个言论自由问题(2024 年,4 月 21 日)检索日期:2024 年 4 月 21 日来自 https://techxplore.com/news/2024-04-ai-chatbots-controversial-output-free.html

本文档受版权保护。除了出于私人学习或研究目的的任何公平交易外,不得未经书面许可,不得复制部分内容。所提供的内容仅供参考。