律師使用AI:有哪些不得不避開的坑

2024-07-26     中國綠髮會
法律的生命不在於邏輯,而在於經驗。對時代需要的感知、流行的道德和政治理論、對公共政策的直覺,不管你承認與否,甚至法官和他的同胞所共有的偏見對人們決定是否遵守規則所起的作用,都遠遠大於三段論。法律包含了一個民族許多世紀的發展歷史。它不能被當作由公理和推論組成的數學書。
——霍姆斯《普通法》

近期,美國佛羅里達州一位名叫Thomas Grant Neusom的律師,因在法律文件中使用了人工智慧工具,面臨了律師協會的紀律處分。

這件事迅速引發法律界的廣泛關注和討論,成為美國境內第一個律師因使用AI而收到處分的案例之一。

隨著人工智慧技術的迅猛發展,AI工具在法律行業的應用越來越廣泛:從法律研究、文書起草到案件分析,AI正在改變律師的工作方式,提高工作效率。然而,佛羅里達這一事件暴露出在享受AI技術帶來的便利的同時,法律從業人員也面臨著新的挑戰和風險。

律師運用AI時,可能會踩的坑

像GPT這樣的AI大模型,既然能給律師提供強大的輔助作用,也能直接為當事人所用,但是無論AI到底多厲害,仍然還會生成虛假或誤導性內容,從而引發倫理問題,損害社會公共利益、公共秩序,並可能引起法律糾紛。

網際網路的無數資料庫可能已經存在虛假、錯誤及失效的信息,不能保證數據的真實性、完整性、時效性、準確性、合法性等,從而導致AI生成虛假或者有偏見的內容,給出的信息不能確保完全真實可靠或出具誤導性結論。

所以,律師在使用AI工具時,必須對生成的內容進行嚴格的審查和核實。尤其是在引用法律案例時,更需要確保其準確性和真實性。此外,每一種AI工具都有局限性和可能的誤差。律師應該充分的了解所使用工具的原理、適用範圍、以及潛在的誤導風險,避免盲目依靠AI生成的內容。例如,人工智慧驅動的法律研究工具可以加快初步研究,但律師仍必須分析研究結果並確保其準確性。

AI使用不當,或導致法律糾紛

AI也可能會引發數據安全風險等法律糾紛,可能會收集、存儲、處理或泄露當事人提供的個人信息、隱私、商業秘密等敏感數據,導致數據安全風險。另一種可能是Ai會複製、轉載、引用、或修改當事人提供的原創作品、發明創新、專利技術等導致智慧財產權侵權風險,還可能會利用上述信息進行商業化利用,非法交易,惡意競爭等造成法律糾紛或經濟損失。其次,AI自身的局限,會給用戶帶來風險。

除了上述自身的機制局限,還有其他很多能力方面的受限。譬如,AI不能夠檢索律師或所在律所曾經辦理的案件等私人資料庫的真實案例,也不能夠參與談判、出庭應訴、調解、和解等需要現場處理的法律事務或突發事件。此外,Ai也無法決涉及刑民交叉和多種法律關係交集的疑難複雜案件。

另外,生成式人工智慧系統基於複雜的算法運行,需要對機器學習原理有細緻入微的了解,這對不熟悉計算概念的律師來說,可能是一條陡峭的學習曲線。

另一個重大問題是算法偏見的可能性,即人工智慧系統可能會無意中延續或放大現有的偏見。這種風險在刑事司法等敏感領域尤為突出,因為帶有偏見的人工智慧可能會影響量刑建議或假釋決定。此外,人工智慧時代的客戶保密問題也需要嚴格關注。

就業:可以部分取代,不能完全替代

從就業方面看,人工智慧具有眾多優勢,導致人們對法律行業內可能出現的工作崗位流失現象感到擔憂。畢竟AI強大的信息整合和對話能力依託於網際網路強大的資料庫,資料庫的海量信息遠超出人腦的裝載量,所以AI的認知能力普遍高於律師,效率高於律師,AI的智能成本低於律師的人工成本,所以簡單標準化的法律服務可能被取代。

因此,AI雖然具有強大和驚人的搜索、歸納、分析、整理整理對話的能力,確實能夠取代部分法律服務,但是AI永遠無法完全取代律師。

就像霍姆斯在《普通法》開篇評論的一段話,可以很好地說明AI不能完全取代律師的底層邏輯——「法律的生命不在於邏輯,而在於經驗。對時代需要的感知、流行的道德和政治理論、對公共政策的直覺,不管你承認與否,甚至法官和他的同胞所共有的偏見對人們決定是否遵守規則所起的作用,都遠遠大於三段論。法律包含了一個民族許多世紀的發展歷史。它不能被當作由公理和推論組成的數學書」。

本文僅代表資訊,不代表平台觀點。

歡迎轉發(請註明來源)。

文案 | 梅雅君

審核 | Linda 橡樹

排版 | Candy

文章來源: https://twgreatdaily.com/zh-cn/58b824dfc4d5634cfa60435fa9b2424a.html