ChatGPT 在很多領域都可以提供幫助,但法院可能不是一個很好的選擇。好吧,並不是每個人都這麼認為,因為一些美國律師讓自己沒事他們對人工智能模型的依賴。這是一個非常有趣的案例,它凸顯了人工智能的缺陷以及在信任人工智能搜索結果之前進行適當研究的必要性。

所涉罰款價值 5,000 美元,並將分攤給參與其中的各方。案子。該案的律師史蒂文·施瓦茨(Steven Schwartz)將此事歸咎於他的當事人和其他各方。他通過讓 ChatGPT 獲得他將在法庭上針對被告的重要觀點來做到這一點,是的,存在嚴重錯誤。

與 AI 模型 ChatGPT 不同,法院能夠做出他們的調查結果並發現 Steven Schwartz 的人工智能生成的引用是錯誤的。這一發現意味著史蒂文·施瓦茨 (Steven Schwartz) 出庭時以虛假引文向法庭陳述案件,因此應處以罰款。但律師到底是如何在案件中使用 ChatGPT 的,到底出了什麼問題?

因從 ChatGPT 獲取法庭案件事實而被罰款 5,000 美元

Steven Schwartz 是涉及其客戶的案件的律師以及哥倫比亞航空公司 Avianca。由於某種原因,史蒂文的客戶正在起訴航空公司,需要一位律師來支持他的客戶。為了更好地準備此案,史蒂文讓 ChatGPT 對類似案例做了一些功課

這是一個壞主意,如果他審查了 ChatGPT 搜索結果,他本可以避免這種情況。眾所周知,當人工智能模型無法找到合理的反應時,它們往往會憑空形成信息。紐約律師史蒂文(Steven)並不知道人工智能模型的“操縱性”本質,現在他正在經歷慘痛的教訓。

ChatGPT 給史蒂文提供了與他即將面臨的案件類似的虛假法庭案件法庭。他不知道該信息是錯誤的,因此將其告上法庭作為先例。好吧,法院做了功課,發現“馬丁內斯訴達美航空和米勒訴聯合航空”案件並不存在。

法院很快就弄清楚了這一點,並給出了史蒂文·施瓦茨 (Steven Schwartz) 及其同夥在此案中被處以 5000 美元罰款。當然,法院在法律上承認人工智能的存在,但需要對其提供的信息進行確認。是的,人工智能在許多行業中發揮著至關重要的作用,但需要謹慎使用它。

Categories: IT Info