ChatGPT
圖片來源:Pexels 的 Sanket Mishra

如果您是 ChatGPT 的付費訂閱者,您可能已經注意到,當您與其進行音訊互動時,人工智慧 (AI) 大語言模型最近開始聽起來更加人性化。

這是因為語言模型兼聊天機器人 OpenAI 背後的公司目前正在運行一項名為「高級語音模式」的新功能的有限試點。

OpenAI稱這種新模式「具有更自然、即時的對話,可以捕捉並做出情感反應,」。它計劃讓所有付費 ChatGPT 訂閱者在未來幾個月內能夠使用高級語音模式。

高級語音模式聽起來非常人性化。語音助理不存在我們所習慣的尷尬間隙;相反,它似乎像人類一樣呼吸。它也不會受到干擾,傳達適當的情緒提示,似乎可以從語音提示推斷使用者的情緒狀態。

但在讓 ChatGPT 看起來更人性化的同時,OpenAI已表示擔憂用戶可能會像人類一樣對聊天機器人做出反應——透過與它建立親密的關係。

這不是一個假設。例如,一位名叫 Lisa Li 的社群媒體影響者已將 ChatGPT 編碼為她的“男朋友”。但到底為什麼有些人會與某個人建立親密關係呢?

親密關係的演變

人類具有非凡的友誼和親密能力。這是靈長類動物身體方式的延伸互相打扮建立在衝突時期可以召喚的聯盟​​。

但我們的祖先也演化了非凡的能力口頭上互相“修飾”。這推動了進化週期,我們大腦中的語言中心變得更大,我們對語言的處理變得更加複雜。

更複雜的語言反過來又使得能夠與更大的親戚、朋友和盟友網絡進行更複雜的社交。它也擴大了我們大腦的社交部分。

語言隨著人類社會行為的發展而發展。我們與熟人建立友誼或與朋友建立親密關係的方式很大程度上是透過交談。

1990年代的實驗揭示了對話的來回,特別是當涉及到披露個人詳細資訊時,可以建立我們的對話夥伴在某種程度上是我們的一部分的親密感。

因此,我對嘗試複製這種「不斷升級的自我揭露」過程並不感到驚訝人類與聊天機器人之間導致人類感覺與聊天機器人親密

這還只是文字輸入。當對話的主要感官體驗——聲音——參與時,效果就會放大。即使是聽起來不像人類的語音助手,例如 Siri 和 Alexa,仍然可以大量的求婚

文字寫在實驗室的黑板上

如果 OpenAI 問我如何確保使用者不會與 ChatGPT 形成社交關係,我會給一些簡單的建議。

首先,不要給它發出聲音。其次,不要讓它能夠阻礙一場明顯對話的結束。基本上不做你做的產品。

該產品之所以如此強大,正是因為它在模仿我們用來形成社會關係的特徵方面做得非常出色。

自從第一個聊天機器人出現以來,實驗室的黑板上就出現了這樣的文字近60年前。計算機已被認定為社會行動者至少30年。ChatGPT 的高級語音模式只是下一個令人印象深刻的增量,而不是科技業滔滔不絕地稱之為「遊戲規則改變者」的東西。

去年年初,當虛擬朋友平台Replika AI 的用戶發現自己意外地無法使用聊天機器人的最高級功能時,用戶不僅與聊天機器人建立了關係,而且還建立了非常親密的個人感情,這一點變得很明顯。

Replika 不如新版的 ChatGPT 先進。然而,互動的品質如此之高,以至於用戶形成了令人驚訝的深厚依戀。

風險是真實存在的

很多人,挨餓了對於那種以非評判性方式傾聽的公司來說,將從新一代聊天機器人中獲益匪淺。他們可能會覺得不那麼孤獨和孤立。科技的這些好處永遠不容忽視。

但ChatGPT先進技術的潛在危險模式也非常真實。

與任何機器人聊天所花費的時間都不能用於與朋友和家人互動。而那些花費大量金錢的人與科技共存的時間最多是風險取代與其他人的關係。

正如 OpenAI 所指出的,與機器人聊天也會破壞人們與其他人之間現有的關係。他們可能會期望他們的伴侶或朋友表現得像禮貌、順從、恭順的聊天機器人。

這些更大的機器對文化的影響將變得更加突出。從好的方面來說,它們還可以提供對文化如何運作的深入見解。

本文轉載自對話根據知識共享許可。閱讀原創文章The Conversation

引文:最新版本的 ChatGPT 有一個您會愛上的功能,但這是一個令人擔憂的功能(2024 年 9 月 12 日)檢索日期:2024 年 9 月 12 日取自 https://techxplore.com/news/2024-09-latest-version-chatgpt-feature-youll.html

本文檔受版權保護。除了出於私人學習或研究目的的任何公平交易外,不得未經書面許可,不得複製部分內容。所提供的內容僅供參考。