「大模型挑战新解」ChatGPT对面,PandaLM如何高效公正地一较高下?

ChatGPT与PPT 2年前 (2023) lida
46 0 0

文章主题:ChatGPT, 大语言模型, PandaLM, 评估框架

666ChatGPT办公新姿势,助力做AI时代先行者!

🎉 ChatGPT革命性地重塑了自然语言处理领域!🌍以前难以应对的挑战,现在ChatGPT一出手,问题迎刃而解。💻它就像一个全能的智慧助手,为创新提供了无限可能。🌟无论学术研究、日常沟通还是商业应用,ChatGPT正引领一场效率与便利的浪潮。👩‍💻👨‍💼让我们共同见证这场技术革新带来的奇迹吧!SEO优化提示:#ChatGPT变革 #自然语言处理 #智慧助手

不过也带来了一个问题:大模型的性能都太强了,光靠肉眼很难评估各个模型的差异。

🌟在模型优化过程中,我们常常会尝试多种基础架构(📚基座模型)并调整超参数(🔑超谱),以获得相似的预测表现。虽然某些版本可能在示例数据上看似旗鼓相当,难以通过单一指标精确衡量两者间的性能鸿沟(📊)。评估差异时,需要更深入的定量分析和严谨的比较方法。🚀

目前评估大语言模型主要有两个方案:

1、调用OpenAI的API接口评估。

🌟ChatGPT作为一种强大的工具💡,确实常被用于检验模型间的响应一致性,但由于其持续的更新优化,同一问题在不同时期的回答可能会有所差异。这无疑给质量评估带来了一定的挑战🔍,复现性成为了一个需要关注的现实因素。

2、人工标注

如果在众包平台上请人工标注的话,经费不足的团队可能无力负担,也存在第三方公司泄露数据的情况。

🌟研究人员联手打造!北京大学等高校联袂推出”PandaLM”🎉——革新性大模型评估新框架,专为解决隐私保护、可信度、可再现性与成本效益的挑战而生!🚀通过PandaLM,我们致力于提供高效且经济实惠的评估方案,让大模型的力量得以安全、公正地释放。🌍无论何处,都能确保你的研究成果经得起严谨考验。💪欲了解更多详情,敬请关注后续更新!SEO优化关键词:PandaLM, 语言模型评估, 隐私保护, 可靠性, 复现性, 成本效益

「大模型挑战新解」ChatGPT对面,PandaLM如何高效公正地一较高下?

项目链接:https://github.com/WeOpenML/PandaLM

提供相同的上下文,PandaLM可以比较不同LLM的响应输出,并提供具体的理由。

🌟研究人员精心打造了一款强大工具,通过严谨的测试,展示了其卓越的可靠性与一致性。他们构建了一个包含1000余份多样样本的人工智能标注集,作为验证其实力的关键里程碑。在这个集子中,PandaLM-7B的表现惊人,精准度直逼ChatGPT的顶级94%,展现出无人能敌的评估效能。📊

三行代码用上PandaLM

🌟💡PandaLM:深度解析大模型交锋!🚀每当双雄模型在相同的指令与语境下展开独特见解, gözlem | 观察PandaLM出手!🔍我们专注于评估这些复杂回应的质量对决,揭示差异背后的真相。🎯 不只是输出分数,而是深入剖析每个模型的响应亮点和短板。💡每一份对比报告都将附带详尽的理由分析,帮助你理解何为优质响应,何需改进。📚提供全面且客观的参考,助你决策,让知识无偏颇。⚖️让你的决策过程更加明智,PandaLM在此,为你揭示大模型世界的深邃逻辑!🧠

比较结果有三种:响应1更好,响应2更好,响应1与响应2质量相似。

比较多个大模型的性能时,只需使用PandaLM对其进行两两比较,再汇总两两比较的结果进行多个大模型的性能排名或画出模型偏序关系图,即可清晰直观地分析不同模型间的性能差异。

PandaLM只需要在「本地部署」,且「不需要人类参与」,因此PandaLM的评估是可以保护隐私且相当廉价的。

为了提供更好的可解释性,PandaLM亦可用自然语言对其选择进行解释,并额外生成一组参考响应。

「大模型挑战新解」ChatGPT对面,PandaLM如何高效公正地一较高下?

在项目中,研究人员不仅支持使用Web UI使用PandaLM以便于进行案例分析,为了方便使用,还支持三行代码调用PandaLM对任意模型和数据生成的文本评估。

「大模型挑战新解」ChatGPT对面,PandaLM如何高效公正地一较高下?

考虑到现有的许多模型、框架并不开源或难以在本地完成推理,PandaLM支持利用指定模型权重生成待评估文本,或直接传入包含待评估文本的.json文件。

用户只需传入一个包含模型名称/HuggingFace模型ID或.json文件路径的列表,即可利用PandaLM对用户定义的模型和输入数据进行评估。下面是一个极简的使用示例:

「大模型挑战新解」ChatGPT对面,PandaLM如何高效公正地一较高下?

为了能让大家灵活的运用PandaLM进行自由评测,研究人员也将PandaLM的模型权重公布在了huggingface网站上,可以通过以下命令加载PandaLM-7B模型:

「大模型挑战新解」ChatGPT对面,PandaLM如何高效公正地一较高下?

PandaLM的特点

可复现性

因为PandaLM的权重是公开的,即使语言模型的输出有随机性,当固定随机种子之后,PandaLM的评价结果仍可始终保持一致。

而基于在线API的模型的更新不透明,其输出在不同时间有可能很不一致,且旧版模型不再可访问,因此基于在线API的评测往往不具有可复现性。

自动化、保护隐私性和开销低

只需本地部署PandaLM模型,调用现成的命令即可开始评估各种大模型,不需像雇佣专家标注时要时刻与专家保持沟通,也不会存在数据泄露的问题,同时也不涉及任何API费用以及劳务费用,非常廉价。

评估水平

为了证明PandaLM的可靠性,研究人员雇佣了三个专家进行独立重复标注,创建了一个人工标注的测试集。

测试集包含50个不同的场景,每个场景中又包含若干任务。这个测试集是多样化、可靠且与人类对文本的偏好相一致的。测试集的每个样本由一个指令和上下文,以及两个由不同大模型生成的响应共同组成,并由人类来比较这两个响应的质量。

筛除了标注员之间有较大差异的样本,以确保每个标注者在最终测试集上的IAA(Inter Annotator Agreement)接近0.85。值得注意的是,PandaLM的训练集与创建的人工标注测试集无任何重叠。

「大模型挑战新解」ChatGPT对面,PandaLM如何高效公正地一较高下?

这些被过滤的样本需要额外的知识或难以获取的信息来辅助判断,这使得人类也难以对它们进行准确标注。

经过筛选的测试集包含1000个样本,而原始未经过滤的测试集包含2500个样本。测试集的分布为{0:105,1:422,2:472},其中0表示两个响应质量相似,1表示响应1更好,2表示响应2更好。以人类测试集为基准,PandaLM与gpt-3.5-turbo的性能对比如下:

「大模型挑战新解」ChatGPT对面,PandaLM如何高效公正地一较高下?

可以看到,PandaLM-7B在准确度上已经达到了gpt-3.5-turbo 94%的水平,而在精确率,召回率,F1分数上,PandaLM-7B已于gpt-3.5-turbo相差无几。

因此,相比于gpt-3.5-turbo而言,可以认为PandaLM-7B已经具备了相当的大模型评估能力。

除了在测试集上的准确度,精确率,召回率,F1分数之外,还提供了5个大小相近且开源的大模型之间比较的结果。

首先使用了相同的训练数据对这个5个模型进行指令微调,接着用人类,gpt-3.5-turbo,PandaLM对这5个模型分别进行两两比较。

下表中第一行第一个元组(72,28,11)表示有72个LLaMA-7B的响应比Bloom-7B的好,有28个LLaMA-7B的响应比Bloom-7B的差,两个模型有11个响应质量相似。

「大模型挑战新解」ChatGPT对面,PandaLM如何高效公正地一较高下?

因此在这个例子中,人类认为LLaMA-7B优于Bloom-7B。下面三张表的结果说明人类,gpt-3.5-turbo与PandaLM-7B对于各个模型之间优劣关系的判断完全一致。

「大模型挑战新解」ChatGPT对面,PandaLM如何高效公正地一较高下?

总结

PandaLM提供了除人类评估与OpenAI API评估之外的第三条评估大模型的方案,PandaLM不仅评估水平高,而且评估结果可复现,评估流程自动化,保护隐私且开销低。

未来,PandaLM将推动学术界和工业界关于大模型的研究,使得更多人受益于大模型的发展。

「大模型挑战新解」ChatGPT对面,PandaLM如何高效公正地一较高下?

AI时代,掌握AI大模型第一手资讯!AI时代不落人后!

免费ChatGPT问答,办公、写作、生活好得力助手!

扫码右边公众号,驾驭AI生产力!

相关文章