“AI 概览”使用生成式 AI(与竞争对手产品 ChatGPT 相同的技术)提供搜索结果摘要,让您无需点击链接。如果询问“如何使香蕉保持更长时间的新鲜”,它会使用人工智能生成有用的提示摘要,例如将香蕉存放在阴凉、黑暗的地方,并远离苹果等其他水果。但如果问它一个左领域的问题,结果可能是灾难性的,甚至是危险的。

谷歌目前正忙着将这些问题一一解决,但这对搜索巨头来说是一场公关灾难,也是一场具有挑战性的打地鼠游戏。

AI Overviews 会告诉您,“Whack-A-Mole 是一款经典的街机游戏,玩家使用木槌击打随机出现的地鼠以获得分数。该游戏于 1975 年由日本游乐制造商 TOGO 发明,最初称为Mogura Taiji或Mogura Tataki。”

但 AI Overviews 还告诉您“宇航员在月球上遇到了猫,和他们一起玩耍,并提供照顾。”更令人担忧的是,它还建议“你应该每天至少吃一块小石头”因为“岩石是矿物质和维生素的重要来源”,并建议将涂上披萨配料的胶水

为什么会发生这种情况?

问题是,生成式人工智能工具不知道什么是真实的,只知道什么是流行的。例如,网络上没有很多关于吃石头的文章,因为这显然是一个坏主意。

不过,有一篇读得很好的讽刺文章来自洋葱关于吃石头的内容。因此,谷歌的人工智能的总结是基于流行的内容,而不是真实的内容。

另一个问题是生成式人工智能工具不符合我们的价值观。他们接受过大量网络训练。

虽然技术很复杂(具有异国情调的名称,例如“根据人类反馈进行强化学习“或 RLHF)被用来消除最坏的情况,毫不奇怪,它们反映了一些偏见、阴谋论以及网络上发现的更糟糕的情况。事实上,我总是对人工智能聊天机器人的礼貌和行为表现感到惊讶,因为他们接受过训练。

这是搜索的未来吗?

如果这确实是搜索的未来,那么我们将面临一段坎坷的旅程。谷歌当然是追赶与 OpenAI 和微软合作。

引领人工智能竞赛的是巨大。因此,谷歌在将技术推向用户手中时不像过去那么谨慎。

2023年,谷歌首席执行官桑达尔·皮查伊:“我们一直很谨慎。在某些领域,我们选择不第一个推出产品。我们已经围绕负责任的人工智能建立了良好的结构。您将继续看到我们慢慢来。”

这似乎不再那么真实了,因为谷歌回应批评它已经成为一个庞大而昏昏欲睡的竞争对手。

一个冒险的举动

对于谷歌来说,这是一个冒险的策略。它可能会失去公众对谷歌作为寻找问题(正确)答案的地方的信任。

但谷歌也面临着破坏其价值数十亿美元的商业模式的风险。如果我们不再点击链接,只阅读他们的摘要,谷歌如何继续赚钱?

风险不仅限于谷歌。我担心人工智能的这种使用可能会对更广泛的社会造成危害。真理已经是一个有些争议和可替代的想法。人工智能的谎言可能会让情况变得更糟。

十年后,我们可能会回顾 2024 年,将其视为网络的黄金时代,当时大部分内容都是高质量的人类生成的内容,在机器人接管之前充斥着网络合成的且质量越来越低人工智能生成的内容

人工智能已经开始呼吸自己的废气了吗?

第二代大型语言模型很可能无意中接受了某些第一代的输出。许多人工智能初创公司都在宣传培训的好处人工智能生成的合成数据

但对当前人工智能模型的废气进行训练即使是很小的偏差和错误也有放大的风险。正如吸入废气对人类有害一样,对人工智能也有害。

这些担忧符合更大的前景。在全球范围内,超过4亿美元(6 亿澳元)每天都在人工智能方面进行投资。各国政府现在才刚刚意识到,鉴于投资的洪流,我们可能需要护栏和监管,以确保负责任地使用人工智能。

制药公司不得发布有害药物。汽车公司也不是。但到目前为止,科技公司基本上被允许为所欲为。

本文转载自对话根据知识共享许可。阅读原创文章The Conversation

引文:每天吃一块石头,在披萨上涂上胶水:谷歌的人工智能如何与现实脱节(2024 年 5 月 27 日)检索日期:2024 年 8 月 23 日来自 https://techxplore.com/news/2024-05-day-pizza-google-ai-reality.html

本文档受版权保护。除了出于私人学习或研究目的的任何公平交易外,不得未经书面许可,不得复制部分内容。所提供的内容仅供参考。