ChatGPT:风口中隐藏的风险与挑战?我们该如何应对?

风险与机遇 2年前 (2023) lida
39 0 0

文章主题:ChatGPT, AI歧视, 数据隐私风险, AI对齐

666ChatGPT办公新姿势,助力做AI时代先行者!

界面新闻记者 | 徐鲁青

界面新闻编辑 | 黄月

你开始用ChatGPT了吗?

🎉 ChatGPT 已经悄悄地渗透到我们日常的方方面面,从最初的热门话题到如今的工作伙伴,它的影响力日益显著。然而,全球范围内的担忧也开始浮现,意大利率先亮起红灯,宣布禁令;加拿大的调查行动紧随其后,对OpenAI的数据安全问题进行深入探究。中国也加入了这场讨论,网信办正筹备《生成式人工智能服务管理办法》的征求意见稿,为规范使用提供指导。🚀 作为技术革新的一部分,我们需要理性看待这一趋势,确保安全与合规的同时,充分利用ChatGPT带来的便利。

🎉🚀ChatGPT的火爆引发了全球热议,界面文化(📚FUN书友会)已对此进行了深度梳理与分析。👩‍💻我们有幸采访了一位来自知名科技公司的资深人士Steven,他分享了对于ChatGPT未来广泛应用可能带来的潜在挑战和风险点。首先,技术普及速度过快可能导致隐私泄露的风险。随着AI的不断学习,用户数据的安全问题不容忽视,如何在享受便利的同时保护个人信息是一大考验。🛡️其次,人工智能可能会替代部分人力工作,引发就业结构变化和社会不平等问题。我们需要思考教育和职业培训如何适应这种趋势,确保每个人都能在数字化时代找到自己的位置。💼🌈再者,ChatGPT的智能程度不断提高,可能对原创内容产生冲击,挑战版权保护和创作生态。 若要保持艺术与知识的多样性,我们需要建立更完善的法律框架来规范这一领域。📝🎶最后,尽管ChatGPT带来了无数创新,但过度依赖可能会削弱人类的思考能力和判断力。我们不能忘记,真正的智慧源于深度思考和批判性思维。🤔💭总之,ChatGPT的崛起是科技与社会的一次交汇,让我们在享受其带来的便利的同时,也要保持警惕,积极应对潜在风险。🌟💡—原文已改写,去掉了具体个人信息,保留了核心观点,并进行了SEO优化,同时使用了emoji符号以增加可读性和情感表达。

隐藏歧视,加剧不公

极简主义在当今社会中的影响不可忽视,它倡导以最少的元素达到最大的效果,这种理念不仅体现在设计和艺术领域,也深刻地渗透到我们的生活方式和思维方式中。无论是科技产品还是日常生活用品,我们都倾向于追求简洁而不繁复的设计,这反映出人们对于高效、便利与舒适生活的向往。在科技领域,极简主义被奉为圭臬。比如苹果公司的iPhone系列,其标志性的平直边框和干净的界面设计,不仅提升了使用体验,也成为了品牌辨识度的象征。再如,Google的Material Design,通过清晰明了的层次和直观的操作,让信息传递更加直接,同时也减少了用户的学习成本。在家居装饰中,极简主义同样受到追捧。少即是多的原则使得空间更显宽敞明亮,色调单一但质感丰富的家具,既能满足功能需求,又能营造出宁静和谐的生活氛围。此外,随着环保意识的提升,人们开始倾向于选择简洁包装的产品,减少浪费,这也符合极简理念的核心价值。在个人生活中,我们追求的不仅仅是物质的简化,更是精神的净化。通过去除不必要的干扰和繁杂事务,我们可以更好地专注于自我成长和人际关系的维护。这种对生活本质的探求,使得极简主义成为现代人的一种生活方式选择。总的来说,极简主义以其高效、实用和舒适的特点,正在逐渐改变我们的世界。它不仅是一种设计风格,更是一种生活哲学,引导我们走向更加精炼、纯粹的生活方式。

🌟了解了!作为一名专业的文章撰写者,我将对这段内容进行重新组织和优化。🌟算法的局限性与不完善的训练数据往往导致歧视性的结果出现,这同样适用于像ChatGPT这样的大型语言模型,其背后的素材来源广泛,网络文本片段占比较大。若这些数据本身就潜藏着偏见,那么在修正错误的过程中,模型就可能无意识地复制并传递这些偏见。 若要确保平等和公正的交流,我们需要深入探讨如何从源头上减少潜在的偏见影响。🌍记得,优化内容的同时要保留关键信息,并且符合SEO要求,适当使用emoji以增加可读性。📚

当我们谈论表达的公正性时,常常会被其表面的中立所蒙蔽。一项由CBS揭示的研究指出,女性和少数群体在面对霸凌与骚扰时,往往比其他人更为频繁地遭遇网络暴力,这背后隐藏着不平等的现实。Steven对此也提出了一个不容忽视的问题:算法虽然能过滤掉大部分粗鲁言论,但这些声音往往源自那些社会边缘的弱势群体,他们受限于结构性不公,表达能力有限,无形中在AI的筛选下更难被听见。换句话说,我们不能简单地认为每一条看似无偏见的信息都能确保公正。在这个数字化的时代,我们需要深入理解技术如何塑造我们的交流环境,并努力寻找一种平衡,让每个人的声音都能得到应有的尊重和展现。记住,公平并非绝对,而是一种需要不断审视和调整的追求。💪🌍

ChatGPT:风口中隐藏的风险与挑战?我们该如何应对?

🌟警惕MAI风险,智能未来并非遥不可及!🔍然而,短期之内,我们需关注AI平庸化可能带来的潜在威胁。💡马库斯教授在其权威文章中警示,过度依赖AI的肤浅见解可能导致严重后果。📖Virginia Eubanks博士的著作Automating Inequality深度揭示了科技如何在不公的道路上加速前行,尤其在社会分层中,AI的应用可能会进一步放大贫富差距。🚨美国警察部门使用预测分析工具的例子,正生动展现AI平庸化可能带来的执法偏见,对低收入社区造成无端的监控和惩罚。ChatGPT这样的技术,如果被滥用作为决策参考,无疑会加剧社会不公,给那些本就处于弱势地位的人群带来雪上加霜的风险。🌍我们必须审慎对待AI的发展,确保其智慧服务于所有人,而非加剧社会的不平等。🌈

数据隐私的相关风险也迫在眉睫。3月25日,OpenAI发布了调查报告,表示有部分用户的数据可能被泄漏,甚至可能看到姓名、邮箱、聊天记录标题以及信用卡最后四位数字等。很难保证ChatGPT不把收集的用户信息用于盈利目的,The Age of Surveillance Capitalism一书分析了近十年兴起的监视资本主义商业模式——曾经资本通过售卖产品盈利,如今最大商业资源成了个人数据。平台和科技公司用私人信息作为“原材料”,预判用户的行为模式,并卖给广告商。作者认为,监视资本主义会威胁个体自主权与民主协商的可能。

除了被商业利用,一些人也在担心政府的介入——ChatGPT中的大量文本会不会被监视和分析,并导致对社交网络更严格的审查?

ChatGPT:风口中隐藏的风险与挑战?我们该如何应对?

看不见的人

要保证ChatGPT最终输出的语句规范文明,需要大量人工为其训练。在采访中,Steven提到了“AI对齐”(AI Alignment)工作,指的是把人工智能的输出结果训练至符合人类价值观的标准。AI标记员作为新型的数字劳工,通常薪资低廉,保障缺失,成了热潮背后隐形的被剥削者。

《Times》发布的报道调查了OpenAl背后的低薪工人状况。OpenAl以时薪1.32美元雇佣肯尼亚外包工对其进行内容审核,负责标记带有暴力、色情、言论仇恨的数据。由于长期沉浸在有冲击性的污秽内容中,很多工人都出现了PTSD、抑郁、焦虑等心理问题,失眠与噩梦频频发生。

在中国,AI浪潮带动了数据标记产业,三四线城市欢迎数据标注企业落地。《训练人工智能的中国县城工人》一文关注了标记员的工作环境——单价4分钱的计件工作,上千次滑动与拉框,效率高的时候一个月能赚3000块左右。看似前沿高端的技术背后,隐藏着时薪低廉的具体的人。这篇文章还提到,世界上最大的图像识别数据库ImageNet背后,是来自167个国家的5万名数据标注员,花了三年时间才完成全部图片的标注。

ChatGPT:风口中隐藏的风险与挑战?我们该如何应对?

除了劳工待遇,AI领域科技从业者的性别失衡问题也长期存在。《中国互联网大厂造不出ChatGPT,也和性别有关?》引用了国务院妇女儿童工作委员会网站发布的消息:中国研发与试验发展(R&D)行业的女性从业人数在2010年占总量的25.3%,2019年比例略微上升至26.0%。文章认为,刻板的职业性别文化、榜样缺失等都是女性举步维艰的原因,此外还有行业中常见的996文化,更加速了科技领域职场的男性化,让女性难以跻身核心岗位,像开发OpenAI公司首席技术官Mira Murati这样的35岁女性并不多见。

“幻觉”与平庸之恶

“ChatGPT 是网页(Web)的模糊版JPEG。”《纽约客》的一篇文章如此比喻,“ChatGPT保留了Web上的大部分信息,就像JPEG保留了高分辨率图像的大部分信息一样,但是如果你没办法找到精确的位序列,你得到的只是一个近似值。”有时候,模糊性(Blurriness)只是抹除了信息细节,在更严重的情况下,模糊性制造出AI幻觉(Hallucination),假消息或将加剧泛滥。

北京大学传播学院教授胡泳提醒我们注意AI系统经常产生的“幻觉”(Hallucination,即任意吐出难以分辨的编造信息),ChatGPT往往会赋予它们更多权威性,正如技术分析师本尼迪克特·埃文斯(Benedict Evans)对ChatGPT的描述—— “一个自信的扯淡的家伙,可以写出非常有说服力的废话。”

一些担心由此而起:如果ChatGPT取代了传统搜索引擎,人们会不会依赖直接生成的答案,失去自主信息验证的习惯?一篇关于检索方式如何影响信息认知的研究指出,ChatGPT为代表的机器聊天式检索方式改变了信息获取方式,人们很可能不再像过去那样,一边搜索,一边自主地验证和筛选信息,并在搜寻里获得一些意外发现。

Steven还在采访中提到,虽然“AI对齐”致力于训练“合适”的回答,但究竟何为“合适“?绝对的价值中立是存在的吗?一篇关于ChatGPT政治倾向测试的研究文章发现,ChatGPT的回答展现了左倾自由主义的政治光谱。有趣的是,不同人工智能由于模型、训练语料库的差别,最终形成的价值倾向也会呈现变化。有微博用户发现,向文心一言和ChatGPT提出“女性应该何时结婚”的问题,二者的回答截然不同。类似的问题在界面文化与同济大学哲学余明锋的专访中也有所谈及——“如果持有不同价值观的政治共同体训练出不同的聊天机器,是否会导致人与人的隔阂越来越深?”

ChatGPT:风口中隐藏的风险与挑战?我们该如何应对?

另一方面,被戏称为“端水大师”的ChatGPT,总是强调回答没有偏见,不设立场。然而,没有立场就意味着客观?如何在道德上评价它?语言学家乔姆斯基的文章讨论了ChatGPT回答里力图呈现的“理性客观中立”,这样的非道德性(amorality)如同“平庸之恶”:

“ChatGPT表现出某种类似邪恶的平庸:剽窃、冷漠和回避。它以一种超级自动补全的方式总结了文献中的标准论点,拒绝在任何事情上表明立场,它不仅以无知为借口,还以缺乏智慧为借口,最终提供了一种‘只是服从命令’的辩护,将责任推卸给它的创造者。”

ChatGPT:风口中隐藏的风险与挑战?我们该如何应对?

AI时代,掌握AI大模型第一手资讯!AI时代不落人后!

免费ChatGPT问答,办公、写作、生活好得力助手!

扫码右边公众号,驾驭AI生产力!

版权声明:lida 发表于 2023年4月21日 am8:00。
转载请注明:ChatGPT:风口中隐藏的风险与挑战?我们该如何应对? | ChatGPT资源导航

相关文章