- +1
美國最高法院首席大法官:謹慎對待AI在法律領域的應用
·羅伯茨表示,人工智能有潛力增加貧困的當事人訴諸司法的機會,徹底改變法律研究,并協助法院更快、更低成本地解決案件,同時也帶來隱私問題,而當前的人工智能技術無法復制人類的自由裁量決定。

美國最高法院首席大法官約翰·羅伯茨。
當地時間2023年12月31日,美國最高法院首席大法官約翰·羅伯茨(John Roberts)發布年終報告,重點闡述了人工智能在法律體系中可以發揮的積極作用及其構成的威脅。他敦促保持“謹慎和謙遜”的態度。
羅伯茨在13頁的報告中表示,人工智能有潛力增加貧困的當事人訴諸司法的機會,徹底改變法律研究,并協助法院更快、更低成本地解決案件,同時也帶來隱私問題,而當前的人工智能技術無法復制人類的自由裁量決定。
美國法院正在爭論如何應對“幻覺”
羅伯茨在提到填寫法律材料時表示,一些人工智能技術可以簡化法律申請并節省資金。他寫道:“這些工具具有令人歡迎的潛力,可以消除我們法院系統中可用資源與緊急需求之間的任何不匹配。”
“法學教授們帶著敬畏和焦慮的心情報告說,人工智能顯然可以在法學院的作業中獲得B,甚至可以通過律師資格考試。”羅伯茨寫道,“人工智能可能很快在法律研究中顯得不可或缺。人工智能顯然具有巨大的潛力,可以極大地增加律師和非律師等人對關鍵信息的獲得。但同樣明顯的是,它可能會侵犯隱私并使法律失去人性。”
“我預測人類法官將會存在一段時間。”羅伯茨寫道,“但我同樣有信心預測,司法工作——尤其是審判層面——將受到人工智能的顯著影響。”
羅伯茨的評論是他迄今為止關于人工智能對法律影響的最重要的討論,同時,美國許多下級法院正在爭論,如何最好地適應能夠通過律師考試但也容易產生虛構事實的新技術。他們指的是人工智能存在的“幻覺”,即可能“一本正經地胡說八道”。
羅伯茨強調,“任何人工智能的使用都需要謹慎和謙遜。”他提到了一個例子,人工智能的“幻覺”導致律師在法庭文件中引用不存在的案件,說這“總是一個壞主意”。他沒有對該事件進行詳細說明,只是說這種現象“成為今年的頭條新聞”。
例如,美國前總統唐納德·特朗普的前律師邁克爾·科恩(Michael Cohen)在最近公布的法庭文件中表示,他錯誤地向律師提供了一個由人工智能程序(谷歌聊天機器人Bard)生成的虛假案件引證,這些引證后來進入了一份正式的法庭文件。相關律師的其他例子,包括在法律摘要中出現人工智能生成的“幻覺”內容的案件也有記錄。
上個月,美國新奧爾良的一家聯邦上訴法院公布一項規則,旨在規范出庭律師使用OpenAI的ChatGPT等生成式人工智能工具。這可能是美國13家上訴法院中首次提出類似規則的法院。美國第五巡回上訴法院提出的擬議規則也將要求律師證明,他們要么不依賴人工智能程序起草摘要,要么人類在法庭文件中審查了人工智能生成的任何文本的準確性。
法律裁決仍然需要運用人類判斷
羅伯茨長期以來一直對法律與科技的交叉感興趣。他在一些案件的裁決中撰寫了多數意見,這些裁決通常要求政府必須獲得搜查令,才能搜查從被捕者手中沒收的手機上的數字信息,并收集有關手機公司客戶的大量位置數據。
2017年,羅伯茨被問到他是否可以“預見有一天,由人工智能驅動的智能機器將協助法庭的事實調查,甚至更有爭議的司法決策?”他回答說是的。“這一天已經到來。”他說,“這給司法部門的行事方式帶來了巨大壓力。”
羅伯茨在年終報告中寫道,這種壓力有增無減。“在刑事案件中使用人工智能評估飛行風險、累犯和其他涉及預測的自由裁量決定,引起了人們對正當程序、可靠性和潛在偏見的擔憂。”他寫道,“至少在目前,研究表明,公眾一直認為存在‘人類與人工智能的公平性差距’,這反映了一種觀點,即人類的裁決盡管存在種種缺陷,但比機器吐出的任何結果都要公平。”
羅伯茨總結道:“法律裁決通常涉及灰色地帶,仍然需要運用人類判斷。”“例如,法官在量刑時衡量被告陳述的誠意。”他寫道,“細微差別很重要:顫抖的手、顫抖的聲音、語調的變化、一滴汗、片刻的猶豫、眼神交流的短暫中斷都可能帶來很多變化。大多數人仍然相信人類而不是機器來感知這些線索并得出正確的推論。”
羅伯茨寫道,上訴法官也不會很快被取代。“許多上訴裁決都取決于下級法院是否濫用自由裁量權,這一標準本質上涉及特定事實的灰色地帶。”“其他人則關注有關法律應如何在新領域發展的開放性問題。人工智能主要基于現有信息,這些可以提供信息,但不能做出此類決定。”





- 報料熱線: 021-962866
- 報料郵箱: news@thepaper.cn
互聯網新聞信息服務許可證:31120170006
增值電信業務經營許可證:滬B2-2017116
? 2014-2025 上海東方報業有限公司