天天看點

美國律師偷懶用ChatGPT打官司,慘烈翻車!各種案例張嘴就胡編?

作者:英國那些事兒

ChatGPT推出後,很多白領惶惶不可終日,

曾經伏案多日才能完成的文字工作,AI輕輕松松就能生成。

我們之前寫過,44%的工作将被AI取代,其中,法律行業是“失業重災區”。

但最近一個官司,讓法律人重振精神,

用AI打官司可能沒那麼快,至少現在還不行,

因為AI太能胡編亂造了……

美國律師偷懶用ChatGPT打官司,慘烈翻車!各種案例張嘴就胡編?

這起官司本身非常簡單,小到簡直不值一提:

2019年,羅伯特·馬塔(Roberto Mata)乘坐哥倫比亞航空的航班,從薩爾瓦多飛往紐約的肯尼迪國際機場。

在飛機上,一名乘務員推着金屬推車,不小心撞到了馬塔的膝蓋。

馬塔大呼小叫,說自己受了重傷,要航空公司賠償。

美國律師偷懶用ChatGPT打官司,慘烈翻車!各種案例張嘴就胡編?

幾年後,馬塔向曼哈頓聯邦法院起訴哥倫比亞航空。

航空公司說案件已經過了追訴期,建議法官撤銷此案。

馬塔自然不答應,他讓律師洋洋灑灑寫了十頁紙,引用從1999年到2019年的六起案件,用它們來論證為什麼時效已過,航空事故案仍該被審理。

律師援引的案件看着很規範,它們包括:

瓦吉斯訴中國南方航空案,2019年;

沙波訴埃及航空案,2013年;

彼得森訴伊朗航空案,2012年;

馬丁内斯訴達美航空案,2019年;

德登地産訴荷蘭皇家航空案,2017年;

米勒訴聯合航空案,1999年。

美國律師偷懶用ChatGPT打官司,慘烈翻車!各種案例張嘴就胡編?

這些案件都配有大段大段的引文,原告和被告公司之間的恩怨情仇寫得清清楚楚。

這份翔實的法律摘要交上去,一定能打動法官大人的心吧?

美國律師偷懶用ChatGPT打官司,慘烈翻車!各種案例張嘴就胡編?

就在馬塔等人等待的時候,哥倫比亞航空請的律師懵逼了,

他全網翻了個遍,都找不到對方律師引用的案件!

被告律師寫信告訴卡斯特法官:“瓦吉斯訴中國南方航空案似乎不存在……我們無法通過它的标題或引文找到此案,也找不到任何相似的案件。”

“雖然法律摘要裡含有瓦吉斯的冗長引語,但我們找不到這段話的出處。”

美國律師偷懶用ChatGPT打官司,慘烈翻車!各種案例張嘴就胡編?

瓦吉斯的引語裡提到2008年的大韓航空案件。他說這起案件是美國聯邦第十一巡回上訴法院判的。

但被告律師詢問了第十一巡回上訴法院,對方說他們沒判過此案。

收到信後,卡斯特法官也懵圈了,

他在案件資料庫中搜尋一番,同樣沒有找到案件的出處。

美國律師偷懶用ChatGPT打官司,慘烈翻車!各種案例張嘴就胡編?

卡斯特法官要求馬塔的律師給出案件判決書的副本,他們給了八份檔案,裡面列出每個案子的受理法院、法官、檔案标号和日期。

其中,光是瓦吉斯案的判決書就有六頁紙,上面标注了撰寫人的名字和所屬法院。

雖然姓名是真實的,法院也是存在的,

但……這些判決書本身是虛構的,案件根本不存在!

美國律師偷懶用ChatGPT打官司,慘烈翻車!各種案例張嘴就胡編?

卡斯特法官氣壞了,他說自己從業多年,從未見過這種事。

“真是豈有此理!引用了六個案件,全部是虛假的判決、虛假的引文和虛假的内文引用。”

卡斯特法官下令調查這是怎麼回事。原來,法律摘要不是馬塔的律師彼得·洛杜卡(Peter LoDuca)寫的,而是他的老同僚斯蒂芬·史華茲(Steven Schwartz)寫的。

史華茲當了30年律師,第一次被爆出僞造案件。

他光速認錯,說這些内容也不是他寫的,

而是,嗯……ChatGPT寫的。

美國律師偷懶用ChatGPT打官司,慘烈翻車!各種案例張嘴就胡編?

“我很後悔自己依賴ChatGPT。我以前從未在打官司的時候用它,但這次我用了。我不知道它給的内容可能是假的。”

史華茲和ChatGPT的聊天記錄顯示,他根本沒做案件研究,全是AI完成的。

他隻提供簡單的思路,讓ChatGPT找出能支撐論據的案子,然後讓它摘取能用的引述。最後把AI給的内容縫合一下,法律摘要就寫完了。

美國律師偷懶用ChatGPT打官司,慘烈翻車!各種案例張嘴就胡編?

從聊天記錄裡看,史華茲也曾對案件的真實性有所懷疑。

S:“瓦吉斯是真實的案件嗎?”

ChatGPT:“是的,瓦吉斯訴中國南方航空案(第11巡回法院,2019)是真實的案件。”

S:“出處在哪裡呢?”

美國律師偷懶用ChatGPT打官司,慘烈翻車!各種案例張嘴就胡編?

ChatGPT:“抱歉我之前可能給您帶來困惑。瓦吉斯訴中國南方航空案是真實存在的案件,它可以在法律研究資料庫,比如Westlaw和LexisNexis中找到。我很抱歉我之前的回答可能給您造成疑惑。”

美國律師偷懶用ChatGPT打官司,慘烈翻車!各種案例張嘴就胡編?

S:“那還有别的案件是虛假的嗎?”

ChatGPT:“沒有。我提供的案件都是真實的,可以在聲譽極好的資料庫Westlaw和LexisNexis中找到。”

美國律師偷懶用ChatGPT打官司,慘烈翻車!各種案例張嘴就胡編?

史華茲有些委屈地告訴媒體:

“我問了ChatGPT它給的資訊是不是真的,它說是真的。”

額,也就是說,他不光相信ChatGPT搜尋資訊的能力,還相信它有判斷力。

既然它說自己是對的,那就是對的。

不知道該說是太天真,還是太愚蠢……

美國律師偷懶用ChatGPT打官司,慘烈翻車!各種案例張嘴就胡編?

卡斯特法官下令在6月份舉行聽證會,将對所有牽涉僞造的律師進行懲罰。

僞造案件可是大醜聞,這家律師事務所怕是要遭殃了。

美國律師偷懶用ChatGPT打官司,慘烈翻車!各種案例張嘴就胡編?

紐約大學的法律倫理學教授史蒂芬·吉勒斯(Stephen Gillers)說,雖然此案看上去有點喜劇,但背後的問題很大。

“律師界一直在讨論如何避免使用虛假的AI資訊。我們不能簡單地将AI給的文字粘貼到法庭檔案裡,我們需要自己去查。”

其實,AI最擅長的就是一本正經地胡說八道,這種現象已經有個專有詞彙,叫“人工智能幻覺”。

美國律師偷懶用ChatGPT打官司,慘烈翻車!各種案例張嘴就胡編?

明明無中生有,它說真實存在;

明明大錯特錯,它說完全正确。

這是因為AI本質上隻是語言預測模型,它根據前一句話來預測後一句話,并不清楚其中的道理和邏輯。

但它那自信滿滿的語氣,會讓人類對它抱有過高的期望。

前不久,大學教授霍爾為了讓學生了解到“幻覺”的可怕,布置了一項特殊的作業。

美國律師偷懶用ChatGPT打官司,慘烈翻車!各種案例張嘴就胡編?

他給學生一個作文題目,要求他們用ChatGPT生成文章,然後再給文章糾錯。

結果發現,全班63篇文章,每篇都存在錯誤資訊。

“虛假的引文、虛假的來源、來源真實但了解錯誤或拼寫錯誤。每一份作業都有這些。我都震驚了,我知道錯誤比例會很高,但沒想到那麼高。”

美國律師偷懶用ChatGPT打官司,慘烈翻車!各種案例張嘴就胡編?

“學生們最大的收獲是,人不能完全依賴AI。在此之前,很多學生都覺得AI永遠是正确的,他們這次驚呆了,發現它很能誤導人。大約一半的學生不知道AI能編造謊言。這次清醒過來後,他們對AI僞造資訊的能力感到擔憂和害怕。”

到目前為止,AI編謊話的現象沒有解決辦法。AI公司能做到的隻是提醒人們,AI生産的内容并不完全可信。

一想到這點,全球白領應該能緩口氣,

人類雖然也會犯錯,但至少有自知之明,知道哪裡有問題。

AI這個理直氣壯胡說八道的架勢,還是有點沒譜啊……

繼續閱讀