(相關資料圖)
大語言模型正在成為人們工作生活中的得力助手,但正如不少人所擔憂的那樣,不謹慎使用可能帶來麻煩,甚至引發(fā)法律風險。5月底,就有一名紐約律師辦案時使用ChatGPT進行案例研究、撰寫法律文件,結果被“坑”了。
故事的主人公名叫史蒂文·A·施瓦茨(Steven A. Schwart),他是一名在紐約州從事法律工作超過三十年的律師。2022年他經(jīng)手了一起案件,原告羅伯托·馬塔(Roberto Mata)起訴阿維安卡航空公司(Avianca),稱因乘務人員疏忽導致他被一輛服務車撞傷了膝蓋。
案件審理過程中,阿維安卡航空公司試圖以訴訟時效,要求法官駁回此案。為了推進案件的進度,史蒂文提供了一份長達十頁的簡報,其中記錄了六樁類似事故。然而,這份簡報不僅沒有幫助史蒂文達成目的,還給他引來了新的麻煩——因為航空公司的律師和法官無法找到簡報里提及案件的任何證據(jù)。
法官因此要求史蒂夫提供其辯護詞中引用案例的相關資料,他也很快給出了這些案例涉及的法院和法官、案件編號和日期等信息,甚至提交了完整的判決書。但是,阿維安卡航空公司仍舊找不到這些法庭記錄,法律數(shù)據(jù)庫中也遍尋不著。也因此,阿維安卡航空公司的律師指出,這些辯護詞中的案例都是假的,“甚至可能有聊天機器人參與其中?!?/p>
當?shù)貢r間5月24日,史蒂文在一份宣誓書中承認:在找案例時,確實咨詢了 ChatGPT,同時為自己辯解道,由于之前未曾使用過ChatGPT,“因此不知道其內(nèi)容可能是虛假的?!?/p>
史蒂文強調(diào),當時他還要求ChatGPT確認案例發(fā)生。而這個樂于助人的聊天機器人給出了肯定的回答,說相關信息可以在“有信譽的法律數(shù)據(jù)庫”中找到。
本案的法官在一份命令中寫道,正在面臨一個“前所未有”的情況:“一份法律呈文充滿了虛假的司法裁定,并被虛假引用”。為此,他下令將于6月8日舉行聽證會,并考慮可能作出的處罰。
對輕信AI的行為,史蒂文表示“非常后悔”,稱在沒有核實ChatGPT提供的信息真實性的情況下,今后絕不會這樣做。
標簽:
熱門