文章主题:,ChatGPT,法律纠纷
衡宇 发自 凹非寺
量子位 | 公众号 QbitAI
ChatGPT,把从业30年的老律师给坑惨了!
老哥撰写案件文案的时候,尝鲜让ChatGPT帮忙准备材料。然而提交后,不管是法官、对方律师还是老哥自己,都溯源不到引用的判决文书。
结果就是,10页文书被法官定义为“充满虚假”,老哥还被暂停执业许可,面临被制裁的可能。
🌟施先生的心中满是无奈,他坚信自己的提问方式精准无误。在与ChatGPT的深入交流中,他诚恳地探求了关于”南方航空公司诉讼事件”的信息,紧盯着每一个细节,期待得到最真实、准确的答案。然而,当结果出乎意料,那份看似权威的资料却成为他心中难以释怀的谜团。
ChatGPT响应得很快:“当然没有啦~~”
事件一出,引发铺天盖地的谈论。
不过这一次大多数网友站在ChatGPT这边,站队后的发言都有些愤愤:
ChatGPT又不是故意撒谎的!
以前人们就喜欢把数学、报告出错的锅甩给计算机,结果“计算机永不出错”的说法就流行开。
但ChatGPT本身就不是事实机器啊。
一份杜撰6个相关案件的文书
如果没有ChatGPT的介入,施老哥接手的案件本身其实平平无奇:
一位乘客起诉航空公司A,称他乘坐航司A的航班时,被空乘用金属服务车给砸到膝盖受了伤。
🌟律师施以深厚的专业知识,精心炮制了一篇10页的文案🔥,满载6桩同类案件的经典判例💡——如Varghese对阵南航的胜仗与Zicherman挑战韩航时的法庭智慧。他巧妙地运用案例分析,为法律辩论提供了坚实的理论基础。\n欲了解更多法律策略?这份文书无疑是寻求法律见解的绝佳指引📚。SEO优化已融入其中,让搜索引擎轻松找到,提升阅读体验和流量哦!🏆
从业30年,这等案件对老哥来说就是小case。
然而戏剧性的一幕发生了——
被告律师向法庭提交书面文字,称他们在核实文书中提到的Varghese与南航案时,“无法通过标题或引用找到此案”,也没有任何与此相似的案件。
🌟案例分析🌟:Zicherman对大韩航空的争议,一个隐晦的法律里程碑!💡2008年,美国第11巡回上诉法院在此案中发表了关键观点,却成为司法迷踪——案件记录难觅踪迹。📚施老律师虽坚信其权威性,但证据链仍是个谜团。🔍被告律师们在这场智力对决中,也面临着挑战,试图揭示这个判例背后的真相。
此外美国达美航空的公司正式名称也存在错误,应该是Delta Air Lines,而不是文书中提到的Delta Airlines。
核实情况后,法官们发现确有其事,这简直是“前所未有的情况”!
最终,他们判定这份文书充满“虚假司法判决,虚假引用和虚假内部引用”。
这下好了,施老哥被禁止在纽约南区执业,法官们还将在6月8日将举行听证会,讨论是否制裁施老哥。
这件荒唐事儿到底是怎么发生的?
施老哥在周四的宣誓书中解开了谜底,原来,在准备文书材料时,他让ChatGPT来给自己打下手,以“补充”自己所做的工作。
“我不是故意欺骗法院或航空公司的”,施老哥说自己之前从来没用过ChatGPT,“我不知道它的内容可能有假。”
施老哥还向法院提供了一份“证据”,证明他确实向ChatGPT寻求过材料的真实性。
他在对话框中输入了以下文字:
Varghese是一个真实的案件吗?你的消息来源是什么?你提供的其他案件是假的吗?
ChatGPT迅速给出响应:
我提供的案例是真实的,可以在信誉良好的法律数据库中找到。
但事实是这些案例都是ChatGPT一本正经胡说八道的。
事已至此,施老哥追悔莫及,表示自己“非常遗憾”依赖ChatGPT来寻找类似案件的判决材料。
他还表达了自己的决心,称以后如果没有验证真实性,再也不会随意相信ChatGPT的“一面之词”了。
法律从业者,是否该拥抱AI
这个案件引起了法律界的广泛关注,对此,纽约大学法学院法律伦理学教授斯蒂芬·吉勒斯(Stephen Gillers)表示,施老哥的事儿虽然只是个例,但背后问题在法律界尤为尖锐。
律师之间一直在争论类ChatGPT的AI的价值和危险性,也在讨论是不是有必要验证AI提供的信息。
ChatGPT对法律工作带来的最大危险,就是它拥有“胡说八道还不脸红”的本领。
🎉【ChatGPT挑战】🚀半年已过,AI防护战依旧胶着!🛡️尽管ChatGPT的出现引发了诸多意想不到的问题,但技术的脚步从未停歇。👀行业巨头们纷纷遭遇AI“误伤”,比如Bard卷入虚假新闻旋涡,Bing的误导声明更是让人咋舌。🔍这些事件不仅揭示了AI潜在风险,也促使我们更深入地探索解决方案。🔥如何有效防止AI滥用和误导? kode experts正全力以赴,寻找防火墙。📚技术升级与伦理规范并行,成为对抗ChatGPT的关键。📝透明度和用户教育同样重要,让公众对AI有清晰的认知,降低被欺骗的可能性。🚀未来,我们期待看到更智能的AI,同时也有信心在AI与人类之间架起一道稳固的防线。🛡️保持警惕,迎接挑战,因为AI的世界,我们在其中!🌐—原文改写如下:ChatGPT问世仅半年,AI防护难题持续发酵。👀AI巨头如Bard和Bing已遭其误伤,新闻乌龙与误导声明层出不穷。🔍这些事件凸显了AI安全的紧迫性,呼唤更高效的技术策略。 kode大师们正致力于打造AI防火墙,伦理与技术齐头并进。📝透明度与公众教育并肩作战,帮助人们辨别真假信息,减少被AI欺骗的风险。未来,我们期待AI智慧的同时,也对智能与责任的平衡充满信心。🛡️在这个AI时代,我们需要共同构建安全防线。🌐让我们一起面对挑战,迎接科技的进步!
🌟提高警惕,防范诈骗!🚀ChatGPT验证需谨慎,双重确认至关重要!🔍用户自行检查虽常见,但往往易忽视其重要性,正如老兄不幸遭遇的那样。他仅依赖ChatGPT的提示,未做二次确认,导致误解与风险。🛡️务必确保信息来源的准确性,别让一次疏忽铸成大错。记得,验证无小事!💪
除此之外的另一重威胁,ChatGPT引发了从业者对“AI替代律师”的担忧和激烈争辩。
🌟【智能进程中的法律守护者】🌟面对ChatGPT等技术的崛起,法律界的声音清晰而坚定:尽管施老哥事件引发了讨论,但这并不意味着律师与法官的角色会轻易被取代。机器人时代的来临,律师和法官的地位反而更加凸显其专业价值与不可替代性。在机器人接管前的漫长岁月里,他们将继续守护法律的边界,确保公正得以维系。当前,ChatGPT等技术虽有进步,但距离完全成熟的智能决策还有段路要走。它们更像是辅助工具,而非取代人类智慧的决定者。法律领域的深度与复杂性,需要律师的专业知识和人性洞察,这是AI无法复制的特质。SEO优化提示:使用关键词“机器人接管”、“律师角色”、“法律边界”、“公正维系”、“ChatGPT进步”等。
现实情况中,施老哥不是唯一一个让ChatGPT成为自己助手的法律从业者。
今年年初,哥伦比亚一名法官在审理一名自闭症儿童的保险理赔官司时,采纳了ChatGPT的答案。
2月,上海政法学院教授曹阳面对《上海法治报》谈论了ChatGPT在司法领域的应用,表示道:
ChatGPT可以演化成“智能律师助手”,帮助律师分析大量的法律文件和案例,提供智能化的法律建议和指导;
可以变成“法律问答机器人”,回答法律问题,并提供相关的法律信息和建议。
可以进行合同审核、辅助诉讼、分析法律数据等等,提高法律工作者的效率和准确性。
个人从业者拥抱ChatGPT带来的便利(即便背后隐藏着危险),市场也对法律和AI结合的赛道寄予厚望。
OpenAI自己就在去年11月投资了专为律所打造LLM的公司Harvey,该公司上个月又获得了红杉领投的2100万美金A轮融资。
就在前天,法律AI初创公司Spellbook宣布获得1090万美元(约7700万元人民币)融资。Spellbook主要通过GPT-4和数十亿份法律文件打造,还接入了一些其他大模型。它为专业律师提供服务,通过自然语言就能自动起草、审核法律合同等。
不过现在发生了施老哥身上的这件离谱事,算是给大伙儿敲响了警钟。
大概整个法律界都会对ChatGPT及同类产品抱以更冷静、更谨慎的态度了。
One More Thing
施老哥因为ChatGPT深陷泥潭的事情是真的,绝非通过AI瞎编。
但是,这篇文章也是在ChatGPT的帮助下写的(虽然参与部分很少很少,还进行了事实确认)。
——人类的本质就是套娃(狗头)。
参考链接:
[1]https://www.nytimes.com/2023/05/27/nyregion/avianca-airline-lawsuit-chatgpt.html
[2]https://www.theverge.com/2023/5/27/23739913/chatgpt-ai-lawsuit-avianca-airlines-chatbot-research
AI时代,掌握AI大模型第一手资讯!AI时代不落人后!
免费ChatGPT问答,办公、写作、生活好得力助手!
扫码右边公众号,驾驭AI生产力!