DoNews5月29日消息,近日,一名美国律师在一起法庭案件中,依赖聊天机器人 CHATGPT 进行法律文献检索(legal research),导致提交了错误的信息。这一事件揭示了人工智能在法律领域的潜在风险,包括误传错误信息。
据IT之家援引纽时报道,该案件涉及一名男子因个人受伤而起诉一家航空公司,原告的法律团队提交了一份简短的诉讼文件,引用了几个先前的法院案例来支持他们的论点,试图为他们的诉求建立一个法律先例。然而,航空公司的律师发现,其中一些引用的案例并不存在,并立即通知了主审法官。
凯文?卡斯特尔法官对这种情况表示惊讶,称其为“前所未有”,并下令要求原告的法律团队作出解释。
原告律师之一史蒂文?施瓦茨承认自己使用了 ChatGPT 来搜索类似的法律先例,在一份书面声明中,施瓦茨深表遗憾,他说:“我以前从未使用过人工智能进行法律文献检索,也不知道它的内容可能是虚假的。”
提交给法院的文件附有施瓦茨和 ChatGPT 之间的对话截图,在对话中施瓦茨询问了一个特定的案例:Varghese v. China Southern Airlines Co Ltd 是否真实。
ChatGPT 回答说是真实的,并表示该案例可以在法律参考数据库如 LexisNexis 和 Westlaw 中找到。然而,后续的调查显示,该案例并不存在,进一步调查显示,ChatGPT 捏造了 6 个不存在的案例。
鉴于这一事件,涉案的两名律师,来自 Levidow, Levidow & Oberman 律师事务所的彼得?洛杜卡和史蒂文?施瓦茨将于 6 月 8 日出席一个纪律听证会,解释他们的行为。
这一事件也引发了法律界对于人工智能工具在法律研究中适当使用的讨论,以及制定全面指导方针以防止类似情况发生的需求。