law
圖片來源:Unsplash/CC0 公共領域

Maura R. Grossman,法學博士、哲學博士,Cheriton 電腦科學學院研究教授,交叉任命於滑鐵盧公共衛生科學學院,Osgoode Hall 法學院兼任教授,以及附屬教員Vector人工智慧研究所成員。她也是紐約州布法羅電子取證法律和諮詢公司 Maura Grossman Law 的負責人。

Maura 因其在技術輔助審查(TAR) 方面的工作而廣為人知,這是一種有監督的機器學習方法,她和她的同事、切裡頓計算機科學學院名譽教授Gordon V. Cormack 開發了這種方法,以加快對高風險文件的審查訴訟和循證醫學的系統評價。

最近,莫拉(Maura)將注意力轉向了生成式人工智慧對人類社會的影響。。她與退休地區法官 Paul W. Grimm、Cheriton 計算機科學學院教授 Dan Brown 和本科生研究助理 Molly Xu 共同撰寫了一篇題為“GPTJudge:產生人工智慧世界中的正義」概述了生成人工智慧給法官和律師帶來的新挑戰。

以下是經過輕微編輯的問答訪談記錄,其中更深入地探討了本文中討論的問題。

什麼是生成式人工智慧?

生成式人工智慧(或稱 GenAI)是人工智慧的一個特定子集,它根據人類提供的提示創建新內容。提示可以是多模式的,輸出也可以是多模式的。人們可以輸入問題並獲得文字答案,也可以創建語音剪輯、圖像或視訊——實際上是任何組合,這取決於用於輸入和輸出的系統。

GenAI 創建的內容越來越難以與人類創造的內容區分開來。生成的文字讀起來很好,照片看起來很真實,聽起來很真實,影片看起來也很令人信服。

各種 GenAI 系統中最著名的可能是 ChatGPT,這是 OpenAI 於 2022 年 11 月發布的聊天機器人,基於可產生流暢文字的大型語言模型 (LLM)。ChatGPT 可以進行對話式對話,有人問它一系列問題,它會提供類似人類的答案。

人們還可以要求 ChatGPT 為他們起草一份家庭作業,使他們的簡歷更加簡潔和專業,或者描述一個特定的工作,並要求聊天機器人根據該工作的具體要求定制他們的簡歷。同樣,他們可以要求 ChatGPT 用 8 歲孩子可以理解的語言總結書籍章節中的要點。或以阿姆的風格寫一首關於泰勒絲的饒舌歌。ChatGPT 可以很好地執行任何或所有這些任務。

ChatGPT 也依照特定準則產生內容(包括複製特定的風格或語氣),這也是越來越難區分其輸出與人類輸出的原因之一。

這些生成式人工智慧模型是如何運作的?

法學碩士使用機率和統計數據根據他們的訓練資料來預測回應中最有可能的下一個單詞,這些資料大部分是從網路上抓取的內容。這些模型可能會看到成千上萬個關於某個主題的句子範例,並且它們提供的輸出是基於最常見的書寫內容。這可能是準確的、有偏見的或完全錯誤的,但法學碩士將尋找其培訓數據中最常說的內容並進行複製。

許多基於圖像的 GenAI 工具都是使用兩種相互競爭的演算法進行訓練的,這一過程於 2017 年開發,被稱為「生成對抗網路」或「GAN」。

產生網路創建內容,而歧視網路批評該內容並將其與真實內容進行比較。當生成演算法從判別演算法獲得更多回饋時,它會變得更好。這兩個網路協同工作,隨著判別器的改進,生成器也隨之改進。

隨著 GenAI 的進步,要知道哪些輸出是由 GenAI 創建的、哪些輸出是由人類創建的將變得更加困難。它將模糊真實內容與生成內容之間、真理與虛假之間、事實與虛構之間的界線。這對司法系統有深遠的影響。

人工智慧證據可以在法庭上被採納嗎?

讓我先退一步來回答你的問題。人工智慧證據面臨著與大多數證據相同的挑戰原因在於其所依據的技術可能超出了法官或陪審團的知識範圍,因此當事人可能必須聘請昂貴的專家來評估和解釋它。

如果警察使用雷達槍來評估駕駛員的速度,我們對該技術有足夠的了解,因此對超速罰單提出爭議的案件通常不需要雷達專家來解釋該設備的工作原理以及它是否有效和可靠。但人工智慧等新技術的情況並非如此。

假設一位人力資源專業人士使用人工智慧來確定對某個職位進行面試的人,而大多數被排除在外的人似乎屬於某個種族或族裔群體。如果這件事鬧上法庭,人力資源專業人士的雇主可能需要請系統開發人員來解釋人工智慧模型是如何訓練的、使用什麼演算法、使用什麼訓練資料、如何測試和驗證等等,以表明該制度沒有歧視性。

在這個例子中,向法庭提交的證據是真是假是毫無疑問的。問題是,人工智慧是否經過充分的測試和驗證,以了解其有效、可靠、公正且如預期運作?這可能是最容易處理的問題。我們試圖確定人工智慧是否按其應有的方式運作,這與任何其他技術或科學證據沒有什麼不同;我們已經擁有這方面的法律工具。

我們面臨的新挑戰是深度偽造、人工智慧生成的不真實內容。雖然偽造或其他偽造證據的情況一直存在,但我們現在處於完全不同的水平,因為深度偽造的明顯跡象(例如,手有六個手指)已不復存在,因為技術已經進步了很多。

有了懷疑是深度偽造的證據材料,各方可能需要聘請人工智慧鑑識專家。因此,現在法院不僅要處理複雜的產品責任案件,法官或陪審團需要了解特定機器或設備的工作原理來確定責任,事實證據本身的真實性也會受到質疑。

假設我聲稱我的主管給我留下了辱罵或不適當的語音郵件訊息,以下是他留下的一條訊息的錄音示例,作為事件發生的證據正如我所說。只要我能證明錄音很可能是我主管的聲音,證據就會進來。

但現在,幾乎每個案件都可能需要專家,因為我的主管可能會辯稱我製造了語音郵件,而法院需要確定證據是真實的還是虛假的。

GenAI 是否為司法系統帶來了新的挑戰?

是的,對於 GenAI,我們有一個完全不同的問題。我們需要確定所謂的深度造假證據是否應該在民事和刑事審判中得到承認。法官或陪審團在決定案件時是否考慮這些證據會產生巨大的差異。

司法系統(至少是我最熟悉的美國系統)面臨的部分挑戰是受理標準較低。證據只需滿足“優勢標準”,即證據比我所說的更有可能,比拋硬幣的可能性稍大。

有了深度造假證據,這個門檻就非常低了。有人可以在法庭上播放你的聲音錄音,我可以作證,我已經和你說過很多次了,並且知道錄音中的是你,因為我認出了你的聲音。這足以讓此類證據被美國法院採納。但僅僅因為聽起來像您並不意味著錄音就是您實際所說的內容。借助人工智慧語音克隆工具,任何人都可以在幾分鐘內免費產生聽起來像您的音訊剪輯。這就是問題所在。

對於這種新型證據,目前的證據規則與美國和加拿大司法系統的結構並不完美匹配,這種新型證據將越來越多地出現在法庭上。你說這是真實錄音,我說不是;這是一個深度贗品。這種辯護——被稱為「說謊者的紅利」——將會越來越頻繁地進行。現在一切都有可能被否認。

如果被告的律師能夠證明,在我的手機上留下涉嫌違規的語音郵件訊息時(根據其電子日期和時間戳,稱為“元數據”),我的主管正在進行心臟直視手術,那麼語音信箱裡的人就是他。這應該足以質疑這一說法,但如果證據沒有元資料或元資料已以某種方式更改,會發生什麼?

任何人都可以聲稱任何證據是假的,因此所謂的深度造假證據必須滿足其他要求。主張深度造假辯護的人必須提出一定數量的證據,證明證據確實是深度造假。考慮到深度造假的說服力,這可能非常具有挑戰性。雖然這個問題似乎有些牽強,但參與 1 月 6 日美國國會大廈襲擊事件的個人聲稱,社交媒體或監視器影片中針對他們的人實際上並不是他們。

隨著人們越來越意識到操縱和產生音訊和視訊證據是多麼容易,被告將利用這種懷疑來為自己謀利。

美國有一項證據規則,稱為“聯邦證據規則403”,為律師和審判法官提供了可能在所謂的深度造假背景下有用的一般指導,但證據規則並不是針對任何特定類型的技術證據而設計和頒布的。該規則被謹慎地、很少地用來拒絕接受可能具有不當偏見、令人困惑或可能誤導的證據。

我和我的合著者認為,我們應該放寬該規則的嚴格要求,這樣,如果一方能夠做出足夠可信的證明來質疑某些證據是深度造假的,那麼法官應該考慮該證據是否是證明的唯一證據該主張以及是否承認其他因素可能會超過它。有其他佐證證據嗎?

其他時間是否有六個人也聽到我的主管說了語音郵件中所說的內容,或者該主管是否在發送給其他員工的其他電子郵件中寫了類似的內容?如果是這樣,這與深度造假證據是法院可用的唯一證據相比,這是一組非常不同的事實,而且我們對它是否真實有相互競爭的事實。

在評估潛在的深度造假證據的可採性時,法官需要避免如果允許向陪審團提供虛假證據,可能會出現不公平的偏見。我們知道音訊和視訊證據強烈影響人們的感知和記憶。如果您向陪審員展示視聽剪輯,與讓他們閱讀證人筆錄相比,他們記住視聽剪輯中內容的可能性高出 650%。

這就是人類思維的運作方式。法院需要考慮如果證據被證明是假的,可能會出現的潛在風險、負面影響或問題後果。當然,影響可能是任何事情,從損失一小筆錢到失去孩子的監護權或個人的自由。

律師和訴訟當事人可以使用 ChatGPT 準備法庭文件嗎?

是的,在過去的一年裡,律師和自辯人士(即所謂的自訴當事人)都使用 ChatGPT 準備向法院提交的文件。但一個大問題是 GenAI 容易產生幻覺。起草的摘要中引用了聽起來很權威但並不真實的引文,並且引用了不存在的案例。作為回應,我們的司法機構感到害怕,他們的反應是要求披露人工智慧的使用情況,並證明提交人已驗證所引用的來源。

從積極的一面來看,ChatGPT 可以允許沒有足夠手段的訴訟當事人聘請律師向法庭提起訴訟,讓 GenAI 可以增加訴諸司法的機會。那些根本請不起律師或因其他原因無法聘請律師的人現在可以使用 GenAI 產生針對其具體情況和司法管轄區的客製化法律文件。

但消極的一面是,無理取鬧的人現在可以使用 ChatGPT 對多人提出數百項投訴,並向法院提起訴訟。惡意提交者還可以在全國各地的法院同時準備提交文件,使法院充斥著重複、無聊的提交資料。

法官及其工作人員可以使用 GenAI 進行研究或起草意見嗎?

到目前為止,我們知道至少有三位法官使用 GenAI 起草意見。你可能會想,GPT-4已經通過了美國律師資格考試,有什麼問題嗎?但令人擔憂的是,ChatGPT 可以在不同時間對相同問題提供不同的答案,更不用說產生完全錯誤的資訊了。

我們首先擁有一個司法系統,以保證人們在法庭上接受一位活生生的、會呼吸的人類法官的審判。使用 GenAI 系統進行獨立研究,而不通知律師或當事人,並為他們提供反對或回應未記錄在案的論點的機會,可能會使法院接觸到尚未提供證據或引發其他問題的資訊來源。 。

因此,就目前而言,雖然這些工具可以成為有用的輔助工具,但據我所知,美國和加拿大的法院正在避免將 GenAI 用於決策和起草目的。

更多資訊:格羅斯曼 (Maura R. Grossman) 等人,GPTJudge:產生人工智慧世界中的正義(2023)

引文:問與答:產生人工智慧的法律影響(2024 年,4 月 17 日)檢索日期:2024 年 4 月 17 日取自 https://techxplore.com/news/2024-04-qa-legal-implications-generative-artificial.html

本文檔受版權保護。除了出於私人學習或研究目的的任何公平交易外,不得未經書面許可,不得複製部分內容。所提供的內容僅供參考。