work meeting
圖片來源:Unsplash/CC0 公共領域

微軟最近推出所有軟體的新版本,增加了人工智慧 (AI) 助手,可以為您完成各種任務。副駕駛可以總結口頭對話團隊線上會議,根據口頭討論提出支持或反對特定觀點的論點,並回覆部分電子郵件。它甚至可以編寫計算機代碼。

這項快速發展的技術似乎讓我們更接近未來,人工智慧讓我們的生活變得更輕鬆,並消除了我們作為人類必須做的所有無聊和重複的事情。

儘管這些進步都非常令人印象深刻且有用,但我們在使用這些進步時必須謹慎大語言模型(法學碩士)。儘管它們具有直觀性,但仍需要技巧才能有效、可靠和安全地使用它們。

大型語言模型

LLM 是一種「深度學習」神經網絡,旨在透過根據提供的提示分析不同回應的機率來理解使用者的意圖。因此,當一個人輸入提示時,法學碩士會檢查文本並確定最可能的回應。

聊天GPT是法學碩士的一個突出例子,可以為廣泛主題的提示提供答案。然而,儘管 ChatGPT 的回應看似知識淵博,擁有實際知識。它的響應只是基於給定提示的最可能的結果。

當人們向 ChatGPT、Copilot 和其他法學碩士提供他們想要完成的任務的詳細描述時,這些模型可以擅長提供高品質的回應。這可能包括生成文字、圖像或

但是,作為人類,我們經常突破技術的功能及其最初設計用途的界限。因此,我們開始使用這些系統來完成我們應該自己完成的跑腿工作。

為什麼過度依賴人工智慧可能是一個問題

儘管他們的反應看似明智,但我們不能盲目相信LLM 必須準確或可靠。我們必須仔細評估和驗證他們的輸出,確保我們最初的提示反映在所提供的答案中。

為了有效地驗證和驗證法學碩士的輸出,我們需要對主題有深入的了解。沒有專業知識,我們就無法提供必要的品質保證。

當我們使用法學碩士來彌補我們自己的知識差距時,這一點變得尤為重要。在這裡,我們缺乏知識可能會導致我們根本無法確定產出是否正確。這種情況可能會出現在文字產生和編碼中。

使用人工智慧參加會議並總結討論會帶來明顯的可靠性風險。雖然會議記錄是基於文字記錄,但會議記錄仍以與法學碩士其他文本相同的方式產生。它們仍然基於語言模式和所說內容的機率,因此需要經過驗證才能採取行動。

他們還面臨解釋問題,因為同音異義詞,發音相同但意思不同的單字。由於對話的上下文,人們很容易理解這種情況下的意思。

但人工智慧不擅長推論上下文,也不理解細微差別。因此,期望它根據可能錯誤的記錄來提出論點仍然會帶來進一步的問題。

如果我們使用人工智慧來產生計算機,驗證就更加困難。使用測試資料測試電腦程式碼是驗證其功能的唯一可靠方法。雖然這表明程式碼按預期運行,但並不能保證其行為符合現實世界的期望。

假設我們使用生成式人工智慧為情感分析工具建立程式碼。目標是分析產品評論並將情緒分類為積極、中立或消極。我們可以測試系統的功能並正確驗證程式碼功能——從技術程式設計的角度來看,它是合理的。

然而,想像一下我們在它開始將諷刺性的產品評論歸類為正面的。情緒分析系統缺乏必要的上下文知識來理解諷刺不被用作積極回饋,恰恰相反。

在諸如此類的微妙情況下驗證程式碼的輸出是否與期望的結果相符需要專業知識。

非程式設計師不會有這些知識用於確保程式碼正確的原則,例如規劃、方法、測試和文件。程式設計是一門複雜的學科,軟體工程作為管理軟體品質的領域而出現。

存在著很大的風險,就像我自己一樣研究已經證明,非專家會忽視或跳過關鍵步驟設計過程,導致程式碼品質未知。

驗證與驗證

ChatGPT 和 Copilot 等法學碩士是我們都可以從中受益的強大工具。但我們必須小心,不要盲目相信給予我們的輸出。

我們正處於基於這項技術的偉大革命的開端。人工智慧有無限的可能性,但它需要塑造、檢查和驗證。而目前,能夠做到這一點的只有人類。

本文轉載自對話根據知識共享許可。閱讀原創文章The Conversation

引文:人工智慧現在可以參加會議並為你編寫程式碼。這就是為什麼您應該保持謹慎的原因(2024 年 1 月 3 日)檢索日期:2024 年 1 月 3 日來自 https://techxplore.com/news/2024-01-ai-code-cautious.html

本文檔受版權保護。除了出於私人學習或研究目的的任何公平交易外,不得未經書面許可,不得複製部分內容。所提供的內容僅供參考。