ChatGPT
图片来源:Unsplash/CC0 公共领域

澳大利亚政府已发布自愿性人工智能 (AI) 安全标准,旁边有一个提案文件呼吁对高风险情况下快速发展的技术的使用进行更严格的监管。

带回家的信息联邦工业和科学部长 Ed Husic 表示:

“我们需要更多的人使用人工智能,为此我们需要建立信任。”

但为什么人们需要相信这一点?究竟为什么更多的人需要使用它?

人工智能系统使用大多数人无法理解的高级数学,在难以理解的大数据集上进行训练。他们产生的结果我们无法验证。即使是最先进的旗舰系统也会产生充满错误的输出。

随着时间的推移,ChatGPT 的准确度似乎越来越低。即使在最好的情况下无法告诉你什么字母都在“草莓”这个词里。同时,谷歌的 Gemini 聊天机器人建议在披萨上涂胶水,以及其他滑稽的失败。

鉴于这一切,公众对人工智能的不信任似乎完全合理。使用更多的理由似乎很站不住脚,而且还存在潜在危险。

人工智能风险

已经做了很多工作人工智能的“生存威胁”,以及它将如何导致失业。人工智能带来的危害有的很明显,比如自动驾驶汽车撞到行人– 更微妙的,例如人工智能招聘系统表现出对女性的偏见或人工智能法律系统对有色人种有偏见的工具

其他危害包括深度伪造的欺诈行为同事和的亲人

别介意联邦政府最近的报告表明人类比人工智能更有效、更有效率和生产力。

但如果你只有一把锤子,一切看起来都像钉子。

技术的采用仍然属于这种熟悉的比喻。人工智能并不总是完成工作的最佳工具。但当面对令人兴奋的新技术时,我们经常使用它而不考虑是否应该使用它。

我们不应该鼓励更多的人使用人工智能,而应该了解什么是好的,什么是不好的。

是我们需要信任的技术还是政府?

澳大利亚政府到底从更多人使用人工智能中得到了什么?

最大的风险之一是泄露私人数据。这些工具正在以前所未有的规模收集我们的私人信息、我们的知识产权和我们的想法。

就 ChatGPT、Google Gemini、Otter.ai 和其他人工智能模型而言,大部分数据并未在澳大利亚境内进行处理。

这些公司宣扬透明度、隐私和安全。但往往很难发现是否您的数据已被使用用于训练他们的新模型,他们如何保护它,或者其他组织或政府可以访问该数据。

最近,联邦政府服务部长 Bill Shorten 提出了政府拟议的信托交换计划,引发了人们对收集更多有关澳大利亚公民的数据。肖顿在国家新闻俱乐部的演讲中公开指出了大型科技公司的支持,包括谷歌

如果要在包括人工智能在内的不同技术平台上整理有关澳大利亚人的数据,我们可能会看到广泛的大规模监视。

但更令人担忧的是,我们观察到技术影响政治和行为的力量。

自动化偏见这是我们用来描述用户相信技术比他们“更智能”的倾向的术语。对人工智能的过度信任会给澳大利亚人带来更大的风险——如果在没有充分教育的情况下鼓励更多地使用技术,我们可能会让我们的人民受到全面的自动监视和控制系统的影响。

尽管你也许能够逃脱这个系统,但它会破坏社会信任和凝聚力,并在人们不知情的情况下影响他们。

这些因素更有理由规范人工智能的使用,正如澳大利亚政府现在正在寻求的那样。但这样做并不一定伴随着强烈的鼓励也使用它。

让我们减少盲目炒作

人工智能监管这个话题很重要。

国际标准化组织制定了一个标准人工智能系统的使用和管理。它在澳大利亚的实施将导致人工智能的更好、更合理和更规范的使用。

该标准和其他标准是政府提出的自愿人工智能安全标准的基础。

联邦政府本周宣布的问题不是呼吁加强监管,而是盲目炒作人工智能的使用。

让我们专注于保护澳大利亚人,而不是强制他们需要使用,并且, 人工智能。

本文转载自对话根据知识共享许可。阅读原创文章The Conversation

引文:澳大利亚政府表示更多人需要使用人工智能:为什么这可能是错误的(2024 年 9 月 7 日)检索日期:2024 年 9 月 7 日来自 https://techxplore.com/news/2024-09-australian-people-ai-wrong.html

本文档受版权保护。除了出于私人学习或研究目的的任何公平交易外,不得未经书面许可,不得复制部分内容。所提供的内容仅供参考。