新数据显示,法官们发现虚假法律引文的频率越来越高,而这在很大程度上是律师过度依赖人工智能所致。
达米安·沙洛廷是一位法律数据分析师兼顾问,他创建了一个公开数据库,其中收录了 120 起案例,在这些案例中,法院认定人工智能虚构了引语、编造了虚假案例,或者引用了根本不存在的其他法律权威。其他一些人工智能虚构的情况可能不会引起法官的注意,所以这个数字只是下限,而非上限。
尽管大多数错误是由那些在法庭上为自己辩护的人造成的,但数据显示,律师和其他与他们合作的专业人士,比如律师助理,所犯的错误也越来越多。2023 年,在被发现存在幻觉的案件中,七成是由所谓的无律师代理当事人造成的,三成是律师的过错;上个月,在发现存在人工智能错误的 23 起案件中,至少有 13 起是法律专业人士的过错。
夏洛廷在其网站上写道:“律师或诉讼当事人误引子虚乌有的案例的情况如今已成了一个相当常见的现象。”
该数据库收录了 2023 年的 10 项裁决、2024 年的 37 项裁决以及 2025 年前五个月的 73 项裁决,其中大多数来自美国。其他国家的法官也发现了人工智能的错误,这些国家包括英国、南非、以色列、澳大利亚和西班牙。世界各地的法院也已习惯于对人工智能的滥用处以罚款,有 5 起案件被处以 1 万美元或以上的罚款,其中 4 起发生在今年。
在很多情况下,违规者没有资源或专业知识来进行复杂的法律研究,这种研究通常需要分析大量引用相同法律条款的案例,以了解过去这些条款是如何被解释的。南非一家法院表示,一名“年长”的律师在使用伪造的人工智能引用时似乎“技术上存在障碍”。
近几个月来,一些知名案件中与美国顶级律师事务所合作的律师被发现使用了人工智能。凯易律师事务所(K&L Gates)和埃利斯·乔治律师事务所(Ellis George)的律师最近承认,由于案件处理律师之间的沟通失误以及未检查工作,他们部分依赖了虚构的案例,因此被处以约 3.1 万美元的罚款。
在夏洛廷数据库中的许多案例中,并未提及所使用的具体人工智能网站或软件。在某些情况下,尽管相关方予以否认,但法官仍认定使用了人工智能。然而,在提及具体工具的案例中,夏洛廷的数据中提到 ChatGPT 的次数比其他任何工具都多。
夏洛廷没有立即回应置评请求。
本信息来自互联网,不代表氢读网立场,如若转载,请注明出处:http://www.cqshuma.com/news/45989/