5 月 28 日消息,据纽约时报报道,近日,一名律师在一起法庭案件中,依赖聊天机器人 ChatGPT 进行法律文献检索(legal research),导致提交了错误的信息。这一事件揭示了人工智能在法律领域的潜在风险,包括误传错误信息。
该案件涉及一名男子因个人受伤而起诉一家航空公司,原告的法律团队提交了一份简短的诉讼文件,引用了几个先前的法院案例来支持他们的论点,试图为他们的诉求建立一个法律先例。然而,航空公司的律师发现,其中一些引用的案例并不存在,并立即通知了主审法官。
凯文・卡斯特尔法官对这种情况表示惊讶,称其为“前所未有”,并下令要求原告的法律团队作出解释。
原告律师之一史蒂文・施瓦茨承认自己使用了 ChatGPT 来搜索类似的法律先例,在一份书面声明中,施瓦茨深表遗憾,他说:“我以前从未使用过人工智能进行法律文献检索,也不知道它的内容可能是虚假的。”
提交给法院的文件附有施瓦茨和 ChatGPT 之间的对话截图,在对话中施瓦茨询问了一个特定的案例:Varghese v. China Southern Airlines Co Ltd 是否真实。ChatGPT 回答说是真实的,并表示该案例可以在法律参考数据库如 LexisNexis 和 Westlaw 中找到。然而,后续的调查显示,该案例并不存在,进一步调查显示,ChatGPT 捏造了 6 个不存在的案例。
鉴于这一事件,涉案的两名律师,来自 Levidow, Levidow & Oberman 律师事务所的彼得・洛杜卡和史蒂文・施瓦茨将于 6 月 8 日出席一个纪律听证会,解释他们的行为。IT之家注意到,这一事件引发了法律界对于人工智能工具在法律研究中适当使用的讨论,以及制定全面指导方针以防止类似情况发生的需求。
文章版权声明
1 原创文章作者:古月今人,如若转载,请注明出处: https://www.52hwl.com/77982.html
2 温馨提示:软件侵权请联系469472785#qq.com(三天内删除相关链接)资源失效请留言反馈
3 下载提示:如遇蓝奏云无法访问,请修改lanzous(把s修改成x)
4 免责声明:本站为个人博客,所有软件信息均来自网络 修改版软件,加群广告提示为修改者自留,非本站信息,注意鉴别