文章主题:科技伦理, ChatGPT, 人工智能, 伦理问题
原创 徐欣欣 民主与法制时报
核心要义:ChatGPT所引发的科技伦理道德问题涉及多个方面,如社会公平均衡、学术伦理规范的维护、算法所存在的偏见与歧视等。为了实现数据正义,我们可以在技术层面融入法律道德评估机制,对外部则需强化科技伦理 constraint,从而促进科技与法律道德之间的健康发展。
武丹/制图
作者|徐欣欣
责编|薛应军
正文共2868个字,预计阅读需8分钟▼
在4月20日的北美时间中,Open AI的联合创始人Greg Brockman受到了“2023TED”大会的邀请,并在现场展示了ChatGPT Plus(GPT-4)的多项尚未公开的新功能和插件。据Greg Brockman的现场演示视频显示,GPT-4已经实现了端到端的跨业务流程、平台和系统的超级自动化功能,这一特性正是之前广受欢迎的开源应用Auto-GPT所著称的功能。
ChatGPT,作为由Open AI研发的自然语言处理技术,其采用深度学习等人工智能手段,能够模拟人类自然语言交流的方式,包括问答、对话以及文章生成等多种任务。如今,ChatGPT已发展至第四代,具备生成连贯、逻辑性强的文章的能力,同时拥有强大的数据存储能力、卓越的地方信息检索功能以及精准的语言识别技术。ChatGPT的出现,标志着智能机器人或人工智能技术的重大阶段性进展。然而,这也伴随着诸多科技伦理问题的出现,值得我们高度重视。
ChatGPT带来的科技伦理道德挑战
ChatGPT 的问世犹如开启了一个生成式人工智能的“潘多拉魔盒”,既给人们带来了令人惊喜的突破,同时也引发了众多关注与担忧,其中就包括科技伦理方面的问题。
以生成式人工智能为核心的人工智能产业崛起,可能导致未来劳动力市场中出现薪资倾斜现象。例如,与AI开发相关的职位可能获得较高薪酬,而被AI替代的职业可能面临降薪甚至失业的风险。当前,生成式人工智能如ChatGPT已逐渐成为资本投资焦点,相关企业市值纷纷上升,从而使许多企业的资本收益率大幅提高。在此轮技术浪潮中,领先企业和其所属国家获得了巨大的利益。这种趋势有可能加剧社会收入不均衡,最终导致“数字鸿沟”现象的出现,即部分人群因基础设施等因素而无法适应社会智能化的快速发展。因此,当决策者依据这些数据制定政策时,可能会不自觉地忽视非数据群体需求,将其排除在算法数据收集范围之外。
自2022年年末以来,ChatGPT已成为我国众多学生完成学业或撰写论文的首选工具,对其产生了深远影响。根据央视新闻的报道,一项调查结果显示,美国有89%的学生选择使用ChatGPT来完成他们的学业任务。这种方法能有效避免“论文抄袭”等问题,同时其效率和质量也远远超过了之前许多商家开发的学习软件,对于学生具有极大的吸引力。面对ChatGPT可能在教育学术界引发的问题,许多学校和组织纷纷发出警告,禁止或严格限制学生使用ChatGPT进行论文写作。一些美国的中学和大学已经逐步宣布校园内禁止使用ChatGPT,并通过减少课后作业的量,防止学生利用家庭网络访问ChatGPT以进行作弊行为。此外,《科学》杂志已明确禁止在投稿的论文中使用ChatGPT生成的文本,而《自然》杂志也在更新投稿规则时强调,ChatGPT等大语言模型只能被视为一种工具,并在论文的方法部分加以适当的说明,但不得将其作为作者列出。这些举措都反映出我国对于ChatGPT使用的严肃态度和对 potential问题的警惕性。
尽管ChatGPT能提供更加智能的体验,但其智能化水平仍有所限制,尤其在理解和运用知识方面。ChatGPT能通过海量训练数据提升自身的能力,但仍无法达到人类的深度理解和应用水平。因此,在一些高度复杂且专业的领域,人类的经验仍不可替代。面对复杂问题或情境,ChatGPT往往难以给出恰当的答案或建议。在早期用户测试阶段,ChatGPT甚至出现过侮辱用户、鼓动离婚等不当言论。这说明,如果训练数据库中出现有害和错误信息,人工智能学到的行为可能会进一步加剧算法偏见和歧视现象。
ChatGPT科技伦理问题的法律规制方案
科技伦理是一种理性思考的体现,其核心理念在于确保科技创新及其产生的成果能够为人、生物和环境带来最大程度的利益,避免对其造成任何形式的伤害。即使在无法完全避免对人类、生物和环境的负面影响的情况下,也要努力降低这种影响的程度,甚至将其降至最低,甚至接近于零。科技与法律是社会治理的两大基石,科技的发展必须与法律的制定和完善相互支持,以引导社会朝着更加积极向上的方向发展。对于科技伦理失范的问题,我们可以从以下几个方面着手解决:
在技术内部层面嵌入法律道德评价机制,实现数据正义。数据是信息的载体,是一种可被编码的符号,本身不具有价值倾向。ChatGPT等生成式人工智能依托数据构建而来,在一定程度上会体现设计者、生产者个人偏好的技术治理程序,并在“物理-数字”双重空间影响法律关系。技术伦理失范的底层逻辑在于设计者等主体对数据的解读具有自我主观认识,这种主观认识因不符合法律价值规范、公序良俗等社会共识,使得数据具有非正义的价值倾向,而导致伦理偏差。因此,科技伦理的实现基础是回归数据正义。具体来说,一方面应在意识形态层面建立诸如公平正义、安全法治、共建共享等体现社会共识的数据价值观,引导数据主体建立对科技伦理的正确认知。生成式人工智能的科技伦理,主要表现为科研活动中人与社会、人与自然以及人与人关系的思想与行为准则,涉及科学研究中的伦理、科研人员应当遵守科技伦理、科研成果应用中的伦理。另一方面,应培养人工智能的伦理自主习得能力,以技术制约技术。ChatGPT等生成式人工智能的伦理失范之所以具有隐蔽性、耐受性以及机制化特点,是因为人工智能程序结构具备深度学习的主动性。因此,要确保科技伦理朝着数据正义方向发展,需要培养算法自主的伦理习得能力;要在技术知识和法律价值中间实现弥合,并通过人-机反复博弈,不断矫正、升级、完善自我约束技术。
在外部层面以制度的规范性加强科技伦理约束,实现科技与法律、科技与道德的良性互动。伦理规范是调节人与人之间关系的行为准则,旨在引导人们作出有道德、值得推崇的行为。科技伦理是指科技活动中的人与人、人与社会、人与自然之间的伦理关系,旨在规范科技活动符合道德要求。因此,在制度层面加强科技伦理约束,就要加强科技伦理审查和算法影响评价,重点考察技术应用是否在现行法律框架下运行、能否依法保障人们合法权利。具体来说,包含两个方面:第一,建立科技伦理(审查)委员会。结合企业具体情况,厘清决策部门、管理部门、业务部门同科技伦理(审查)委员会之间的关系和职责分工,明确科技伦理在企业常态化管理中的工作机制。第二,组织开展算法应用调查,识别不同应用场景下的算法滥用危害,加快制定算法应用规则和标准规范,建立算法应用影响评估制度。针对典型场景,要求企业在算法正式上线前,评估算法对消费者权益、个人基本权利等方面的影响,并针对评估中发现的相关风险,采取相应防范措施。
ChatGPT等生成式人工智能不仅改变生产关系,而且改变人们认知方式和行为能力,如何应对这种生成式人工智能,值得法律人认真思考。有的学者提出,应当在一定程度上赋予生成式人工智能主体地位,并使其承担相应法律责任。笔者认为,法律人格地位的确认应当是有限度的,在遵循科技向善基础上,算法设计者、生产者、使用者等相关主体仍需按照分级分类的要求承担相应法律责任。
综上所述,完善科技伦理治理体系,提升科技伦理治理能力,有效防控科技伦理风险,应当进一步加深对人工智能正当技术程序工具与算法责任原理的研究,平衡过程与结果端的规制手段,引入风险场景与类别区分式规制模式,为生成式人工智能的可持续发展提供有效的规制方案。
(作者单位:东南大学法学院)
《ChatGPT的科技伦理问题及法律治理》
AI时代,拥有个人微信机器人AI助手!AI时代不落人后!
免费ChatGPT问答,办公、写作、生活好得力助手!
搜索微信号aigc666aigc999或上边扫码,即可拥有个人AI助手!