使用过ChatGPT后,我反而不担心自己的工作被它取代了
出品 | 搜狐科技
作者 | 潘琭玙
编辑 | 杨锦
两个月内,ChatGPT重构了人类对未来的想象。
今年2月,ChatGPT通过了平均薪酬为18.3万美元的谷歌L3软件工程师入职面试。有研究评估了ChatGPT在美国医学执照考试的表现,结果表明该模型可以与大学三年级的医学生相媲美。
一时间,ChatGPT引燃“人类工作是否被AI取代”的大讨论,创新工场创始人李开复也撰文谈论ChatGPT引发的失业恐慌,并列举了20项容易被AI取代的工作。
人工智能所能替代的人类工作已不止于重复性劳动,ChatGPT开创了以AI代替知识类工作者的可能性。它掌握了海量知识,可以轻松写出各类文章与程序代码,在某些方面的创意能力甚至超过人类。
苹果公司联合创始人史蒂夫·沃兹尼亚克认为,人工智能可以比人类更快地执行任务和做出决定,但仍缺乏人类独一无二的情感和品质。
但今年2月斯坦福大学学者发表的论文证明,原本被认为是人类独具的特质心智理论(ToM,Theory of Mind)已展现在ChatGPT背后的AI模型上,根据研究结果,GPT-3之后的AI模型同理心能力可能跟9岁小孩相当。
OpenAI CEO山姆·阿尔特曼也曾表示,“我们过去对于劳动难易的划分准则可能有问题,现在看来AI最先取代的可能是知识工作者和创意工作者的工作。”
但也有研究发现ChatGPT在逻辑推理、非文本推理和常识推理等10个不同的推理类别中平均准确率为64.33%,ChatGPT并非可靠。牛津大学计算机科学系的研究结果表明,ChatGPT的数学能力明显低于普通数学研究生。研究指出,ChatGPT通常能够理解问题但无法提供正确的解决方案。
“ChatGPT只是打开了一扇门,”资深人工智能研究专家田涛源在接受搜狐科技采访时表示。但在门后,个体对AI与人类关系的想象并无穷尽。搜狐科技对话了律师与心理咨询师,来听听他们如何看待个人职业与新技术的冲击。
“ChatGPT会降低我的效率”
当问及是否会有失业的危机感时,上海大邦律师事务所游云庭律师表示,在用过ChatGPT后反而没有危机感了。
他尝试使用ChatGPT生成一份游戏合同,在输入基本条件后,确实能够生成出一份符合标准的,最基础的合同。“但真实情况下的合同拟定更加复杂,也许未来能够取代20%至30%的工作量。”
他提到,很多大公司和银行耗费很高法务人力资源成本审查标准合同和处理较为简单的合同审查,这部分的服务需要智能,但对智能的要求又不高,同时沟通成本也比较低。“实际上大量的合同都是重复的,因为银行的合同就是金融合同,与用户签订。”他表示人工智能能够为律师承担这方面的工作。
有观点指出,ChatGPT提升了在垂类场景落地的预期。但田涛源指出,语言大模型LLM的数据处理成本高,另外获取文本需要大量的采购成本,还需要加上算力成本。“大模型的训练成本一次需要100万到500万美金。”此外,叠加后期运营成本,进入垂直领域仍需要进行大量优化。
游云庭律师也指出,ChatGPT向垂类领域扩展并实现减少律师服务成本之前,他目前所用的垂类付费工具例如法条检索,已能够满足需求,“ChatGPT反而会降低我的效率。”
谈及ChatGPT是否能够取代法律咨询的相关工作,游云庭律师表示,ChatGPT对于法律问题的回复,能够作为非法律行业需要了解标准化法律知识的人所用。
但面对一对一的咨询者,他指出,“我通过设置一系列的流程让他们讲清楚,很多人的能力不一定能够说清一件事情。”另外,他举例了进行商务法律服务的流程,即便面对面初步谈论所出现的争议,律师给到的初步判断也往往是不准确的。而针对AI是否能够实现追问与引导,田涛源表示,AI只会模仿人类的问题。
“或许患者更愿意向AI吐露心声”
而对心理咨询师Tim而言,ChatGPT已成为趁手的简单工具。
他向搜狐科技表示, 目前他在内容创作与心理科普方面,会利用ChatGPT帮助他进行头脑风暴。同时,在一些纸面工作例如输出咨询工作相关邮件模板,他已经将ChatGPT作为生活与工作中的简单工具。“只是其中的环节仍然需要人的整合再过滤,确认信息无误。当然它也可以为我提供一些不同的思路。”
在谈到对行业的帮助,他指出“ChatGPT可以让心理健康行业赛道更细分。”ChatGPT能够充分分担心理健康教育的工作,“它能够集合大量的通用信息。”但也因没有深入垂直领域,“专门的理论或者疗法相关的信息是达不到的。”
他认为,如果未来能够相对开源,通过培训语言模型囊括领域内的可靠信息来源,“我认为向更加细分领域发展后,它才能够成为一个更有利的工具。”
另一方面,Tim指出AI在心理咨询领域难以替代的是和真人建立的咨访关系。其中涉及对来访者的共情与理解,以及在特定的语境与文化环境中进行评估。而这一点,田涛源表示,人类目前无法定义意识。“脑科学和生命科学还有很长的路要去发展,把意识与自主意识说清楚是前提。”
Tim也指出另一种可能性,若AI能够衍生出共情能力,“一些人在面对非真人时,或许更愿意对AI吐露心声。”据悉,目前心理领域已有应用AI对话机器人及数字化干预疗法,主要以CBT(Cognitive Behavioural Therapy 认知行为疗法)为范式,在足够的数据训练下,目前的AI自然语言处理水平基本可无障碍地实现一个合格CBT疗程,改变用户的认知及行为模式。
但这主要是由于CBT拥有高度结构化的特征,天然存在数字化的可能性。因此目前难以替代人,只能作为治疗的辅助工具。而Tim指出,AI若能够取代咨访关系,在非语言沟通的部分更加必要。“我们很多时候会根据来访者的手势、动作,他们的表情,这些属于评估中很重要的一部分。”
田涛源也提到,目前情感智能是人工智能前沿领域的分支研究方向。但是感知是多模态的,人工智能需要依赖大量的数据去做训练的。“认知层面的知识结构,也需要依靠大量心理学书籍的数字化数据。”
ChatGPT本身并非拐点,预测学习模型已经存在了几十年。而将替代人类的论调,也是对ChatGPT的神化。田涛源指出,“严格来讲它不是技术取代人,而是使用新技术的这部分劳动者逐步与使用旧技术的劳动者竞争。”
他提出目前AI伦理层面的三个原则中,其一是“以人为本”。任何技术研发的最高优先级是服务好人类,“你一定要帮助人类,不管是提升体验还是效率。”在该原则下,技术的发展将遵循能否将技术控制在人类可控的范围内。因此,AI的发展以成为人类得力工具为大方向,“人使用新的工具实现商业模式创新,或者是效率升级,产业升级。”
但目前新技术尚未越过工业红线,田涛源指出,“就像是汽车火车跑的还没有人走的快。” 而人工智能正在处于一个大变革的前夜,因此我们需要给予技术正面价值的肯定。
同时,他也认为,“科技是一个博弈问题。”比起机器与人竞争的科幻性,“产业链全球化的当下,当竞争对手使用机器人实现人机合作提升效率后,整个产业可能面临失业。”