ChatGPT推出後,很多白領惶惶不可終日,
曾經伏案多日才能完成的文字工作,AI輕輕松松就能生成。
我們之前寫過,44%的工作将被AI取代,其中,法律行業是“失業重災區”。
但最近一個官司,讓法律人重振精神,
用AI打官司可能沒那麼快,至少現在還不行,
因為AI太能胡編亂造了……
這起官司本身非常簡單,小到簡直不值一提:
2019年,羅伯特·馬塔(Roberto Mata)乘坐哥倫比亞航空的航班,從薩爾瓦多飛往紐約的肯尼迪國際機場。
在飛機上,一名乘務員推着金屬推車,不小心撞到了馬塔的膝蓋。
馬塔大呼小叫,說自己受了重傷,要航空公司賠償。
幾年後,馬塔向曼哈頓聯邦法院起訴哥倫比亞航空。
航空公司說案件已經過了追訴期,建議法官撤銷此案。
馬塔自然不答應,他讓律師洋洋灑灑寫了十頁紙,引用從1999年到2019年的六起案件,用它們來論證為什麼時效已過,航空事故案仍該被審理。
律師援引的案件看着很規範,它們包括:
瓦吉斯訴中國南方航空案,2019年;
沙波訴埃及航空案,2013年;
彼得森訴伊朗航空案,2012年;
馬丁内斯訴達美航空案,2019年;
德登地産訴荷蘭皇家航空案,2017年;
米勒訴聯合航空案,1999年。
這些案件都配有大段大段的引文,原告和被告公司之間的恩怨情仇寫得清清楚楚。
這份翔實的法律摘要交上去,一定能打動法官大人的心吧?
就在馬塔等人等待的時候,哥倫比亞航空請的律師懵逼了,
他全網翻了個遍,都找不到對方律師引用的案件!
被告律師寫信告訴卡斯特法官:“瓦吉斯訴中國南方航空案似乎不存在……我們無法通過它的标題或引文找到此案,也找不到任何相似的案件。”
“雖然法律摘要裡含有瓦吉斯的冗長引語,但我們找不到這段話的出處。”
瓦吉斯的引語裡提到2008年的大韓航空案件。他說這起案件是美國聯邦第十一巡回上訴法院判的。
但被告律師詢問了第十一巡回上訴法院,對方說他們沒判過此案。
收到信後,卡斯特法官也懵圈了,
他在案件資料庫中搜尋一番,同樣沒有找到案件的出處。
卡斯特法官要求馬塔的律師給出案件判決書的副本,他們給了八份檔案,裡面列出每個案子的受理法院、法官、檔案标号和日期。
其中,光是瓦吉斯案的判決書就有六頁紙,上面标注了撰寫人的名字和所屬法院。
雖然姓名是真實的,法院也是存在的,
但……這些判決書本身是虛構的,案件根本不存在!
卡斯特法官氣壞了,他說自己從業多年,從未見過這種事。
“真是豈有此理!引用了六個案件,全部是虛假的判決、虛假的引文和虛假的内文引用。”
卡斯特法官下令調查這是怎麼回事。原來,法律摘要不是馬塔的律師彼得·洛杜卡(Peter LoDuca)寫的,而是他的老同僚斯蒂芬·史華茲(Steven Schwartz)寫的。
史華茲當了30年律師,第一次被爆出僞造案件。
他光速認錯,說這些内容也不是他寫的,
而是,嗯……ChatGPT寫的。
“我很後悔自己依賴ChatGPT。我以前從未在打官司的時候用它,但這次我用了。我不知道它給的内容可能是假的。”
史華茲和ChatGPT的聊天記錄顯示,他根本沒做案件研究,全是AI完成的。
他隻提供簡單的思路,讓ChatGPT找出能支撐論據的案子,然後讓它摘取能用的引述。最後把AI給的内容縫合一下,法律摘要就寫完了。
從聊天記錄裡看,史華茲也曾對案件的真實性有所懷疑。
S:“瓦吉斯是真實的案件嗎?”
ChatGPT:“是的,瓦吉斯訴中國南方航空案(第11巡回法院,2019)是真實的案件。”
S:“出處在哪裡呢?”
ChatGPT:“抱歉我之前可能給您帶來困惑。瓦吉斯訴中國南方航空案是真實存在的案件,它可以在法律研究資料庫,比如Westlaw和LexisNexis中找到。我很抱歉我之前的回答可能給您造成疑惑。”
S:“那還有别的案件是虛假的嗎?”
ChatGPT:“沒有。我提供的案件都是真實的,可以在聲譽極好的資料庫Westlaw和LexisNexis中找到。”
史華茲有些委屈地告訴媒體:
“我問了ChatGPT它給的資訊是不是真的,它說是真的。”
額,也就是說,他不光相信ChatGPT搜尋資訊的能力,還相信它有判斷力。
既然它說自己是對的,那就是對的。
不知道該說是太天真,還是太愚蠢……
卡斯特法官下令在6月份舉行聽證會,将對所有牽涉僞造的律師進行懲罰。
僞造案件可是大醜聞,這家律師事務所怕是要遭殃了。
紐約大學的法律倫理學教授史蒂芬·吉勒斯(Stephen Gillers)說,雖然此案看上去有點喜劇,但背後的問題很大。
“律師界一直在讨論如何避免使用虛假的AI資訊。我們不能簡單地将AI給的文字粘貼到法庭檔案裡,我們需要自己去查。”
其實,AI最擅長的就是一本正經地胡說八道,這種現象已經有個專有詞彙,叫“人工智能幻覺”。
明明無中生有,它說真實存在;
明明大錯特錯,它說完全正确。
這是因為AI本質上隻是語言預測模型,它根據前一句話來預測後一句話,并不清楚其中的道理和邏輯。
但它那自信滿滿的語氣,會讓人類對它抱有過高的期望。
前不久,大學教授霍爾為了讓學生了解到“幻覺”的可怕,布置了一項特殊的作業。
他給學生一個作文題目,要求他們用ChatGPT生成文章,然後再給文章糾錯。
結果發現,全班63篇文章,每篇都存在錯誤資訊。
“虛假的引文、虛假的來源、來源真實但了解錯誤或拼寫錯誤。每一份作業都有這些。我都震驚了,我知道錯誤比例會很高,但沒想到那麼高。”
“學生們最大的收獲是,人不能完全依賴AI。在此之前,很多學生都覺得AI永遠是正确的,他們這次驚呆了,發現它很能誤導人。大約一半的學生不知道AI能編造謊言。這次清醒過來後,他們對AI僞造資訊的能力感到擔憂和害怕。”
到目前為止,AI編謊話的現象沒有解決辦法。AI公司能做到的隻是提醒人們,AI生産的内容并不完全可信。
一想到這點,全球白領應該能緩口氣,
人類雖然也會犯錯,但至少有自知之明,知道哪裡有問題。
AI這個理直氣壯胡說八道的架勢,還是有點沒譜啊……