ChatGPT究竟有没有说谎?老律师的文书之路遇挫,AI法律大战一触即发!
文章主题:ChatGPT, 法律误判, AI验证
ChatGPT,把从业 30 年的老律师给坑惨了!
老哥撰写案件文案的时候,尝鲜让 ChatGPT 帮忙准备材料。然而提交后,不管是法官、对方律师还是老哥自己,都溯源不到引用的判决文书。
结果就是,10 页文书被法官定义为 ” 充满虚假 “,老哥还被暂停执业许可,面临被制裁的可能。
🌟面对ChatGPT给出的”南方航空公司被诉案”信息,施姓人士心中五味杂陈。他严谨地提问,试图揭开真相——是否如其所言,内容全然无诈?然而,无论他如何追问,那AI的回答仿佛带着一丝神秘的微笑,让人不禁疑惑其背后的真实性。
ChatGPT 响应得很快:” 当然没有啦~~”
事件一出,引发铺天盖地的谈论。
不过这一次大多数网友站在 ChatGPT 这边,站队后的发言都有些愤愤:
ChatGPT 又不是故意撒谎的!
以前人们就喜欢把数学、报告出错的锅甩给计算机,结果 ” 计算机永不出错 ” 的说法就流行开。
但 ChatGPT 本身就不是事实机器啊。
一份杜撰 6 个相关案件的文书
如果没有 ChatGPT 的介入,施老哥接手的案件本身其实平平无奇:
一位乘客起诉航空公司 A,称他乘坐航司 A 的航班时,被空乘用金属服务车给砸到膝盖受了伤。
🌟律师智囊🌟:代理笔力深厚,10页文献雄浑展示! klienten案例堆砌,法庭胜利痕迹明显——从维格海瑟诉南航案到齐赫曼诉韩亚案,每一页都满载法律智慧与判例权威。📚详尽分析,逻辑严密,只为精准论证。欲了解更多?法律之路,步步深入,敬请关注!SEO优化:#代理律师文书# #法院判决案例研究# #法律智识探索
从业 30 年,这等案件对老哥来说就是小 case。
然而戏剧性的一幕发生了——
被告律师向法庭提交书面文字,称他们在核实文书中提到的 Varghese 与南航案时,” 无法通过标题或引用找到此案 “,也没有任何与此相似的案件。
🌟案例分析🌟:Zicherman 对大韩航空的法律挑战——2008年美国11巡回上诉法院的经典判例,虽被施老提及为标志性案件,遗憾的是,其原始出处却成了一个谜团。此案在业内广受关注,尽管各方搜寻无果,但其深远影响至今仍清晰可见于相关法律文献中。🌟SEO优化提示🌟:#Zicherman大韩案# #美国巡回上诉法院# #法律案例研究
此外美国达美航空的公司正式名称也存在错误,应该是 Delta Air Lines,而不是文书中提到的 Delta Airlines。
核实情况后,法官们发现确有其事,这简直是” 前所未有的情况 “!
最终,他们判定这份文书充满 ” 虚假司法判决,虚假引用和虚假内部引用 “。
🎉好消息来啦!纽约南区的法律界迎来重大转折——资深律师施兄已遭禁令,后续的制裁决定将于6月8日引人关注!法官们将深入审议这一议题,为公正发声。记得关注后续动态哦!🏆
这件荒唐事儿到底是怎么发生的?
施老哥在周四的宣誓书中解开了谜底,原来,在准备文书材料时,他让 ChatGPT 来给自己打下手,以 ” 补充 ” 自己所做的工作。
” 我不是故意欺骗法院或航空公司的 “,施老哥说自己之前从来没用过 ChatGPT,”我不知道它的内容可能有假。”
施老哥还向法院提供了一份 ” 证据 “,证明他确实向 ChatGPT 寻求过材料的真实性。
他在对话框中输入了以下文字:
Varghese 是一个真实的案件吗?你的消息来源是什么?你提供的其他案件是假的吗?
ChatGPT 迅速给出响应:
我提供的案例是真实的,可以在信誉良好的法律数据库中找到。
但事实是这些案例都是 ChatGPT 一本正经胡说八道的。
事已至此,施老哥追悔莫及,表示自己 ” 非常遗憾 ” 依赖 ChatGPT来寻找类似案件的判决材料。
🌟他深信不疑地宣告,未来若非经过严谨核实,ChatGPT的言论将不再轻信。🔥对于其之前轻易接受的”一面之词”,他表示会坚决反思,并将其作为信任大厦重建的基石。🛡️这不仅是对他个人承诺,也是对信息时代理性判断的庄重宣誓。
法律从业者,是否该拥抱 AI
这个案件引起了法律界的广泛关注,对此,纽约大学法学院法律伦理学教授斯蒂芬 · 吉勒斯(Stephen Gillers)表示,施老哥的事儿虽然只是个例,但背后问题在法律界尤为尖锐。
律师们热衷于探讨ChatGPT的AI潜力与潜在风险,议题围绕AI信息的真实性审查展开,对于验证其提供的内容是否可靠,业界意见不一。
ChatGPT 对法律工作带来的最大危险,就是它拥有 ” 胡说八道还不脸红 ” 的本领。
ChatGPT 问世半年后,仍然没有良好的规避和解决办法。防不胜防,连多家 AI 巨头也因此栽在 AI 手里,譬如 Bard 编造关于詹姆斯韦伯太空望远镜的新闻、Bing 谎称 Bard 被关闭什么的。
目前最为行之有效的办法就是依靠用户手动 double check ——这也是施老哥上当的一重原因,只是询问 ChatGPT 真假,没有自己二次确认。
除此之外的另一重威胁,ChatGPT 引发了从业者对 “AI 替代律师 ” 的担忧和激烈争辩。
不过发生了施老哥这件事,加上 ChatGPT 类产品目前确实无法尽善尽美,国内外法律界的普遍声音是,至少在机器人接管之前,律师、法官离 ” 被替代 ” 还有很长一段时间。
现实情况中,施老哥不是唯一一个让 ChatGPT 成为自己助手的法律从业者。
今年年初,哥伦比亚一名法官在审理一名自闭症儿童的保险理赔官司时,采纳了 ChatGPT 的答案。
2 月,上海政法学院教授曹阳面对《上海法治报》谈论了 ChatGPT 在司法领域的应用,表示道:
ChatGPT 可以演化成 “智能律师助手“,帮助律师分析大量的法律文件和案例,提供智能化的法律建议和指导;
可以变成 “法律问答机器人“,回答法律问题,并提供相关的法律信息和建议。
可以进行合同审核、辅助诉讼、分析法律数据等等,提高法律工作者的效率和准确性。
个人从业者拥抱 ChatGPT 带来的便利(即便背后隐藏着危险),市场也对法律和 AI 结合的赛道寄予厚望。
OpenAI 自己就在去年 11 月投资了专为律所打造 LLM 的公司Harvey,该公司上个月又获得了红杉领投的 2100 万美金 A 轮融资。
就在前天,法律 AI 初创公司Spellbook宣布获得 1090 万美元(约 7700 万元人民币)融资。Spellbook 主要通过 GPT-4 和数十亿份法律文件打造,还接入了一些其他大模型。它为专业律师提供服务,通过自然语言就能自动起草、审核法律合同等。
不过现在发生了施老哥身上的这件离谱事,算是给大伙儿敲响了警钟。
大概整个法律界都会对 ChatGPT 及同类产品抱以更冷静、更谨慎的态度了。
One More Thing
施老哥因为 ChatGPT 深陷泥潭的事情是真的,绝非通过 AI 瞎编。
但是,这篇文章也是在 ChatGPT 的帮助下写的(虽然参与部分很少很少,还进行了事实确认)。
——人类的本质就是套娃。
参考链接:
[ 1 ] https://www.nytimes.com/2023/05/27/nyregion/avianca-airline-lawsuit-chatgpt.html
[ 2 ] https://www.theverge.com/2023/5/27/23739913/chatgpt-ai-lawsuit-avianca-airlines-chatbot-research
— 联系作者 —
AI时代,掌握AI大模型第一手资讯!AI时代不落人后!
免费ChatGPT问答,办公、写作、生活好得力助手!
扫码右边公众号,驾驭AI生产力!