北大教授被AI换脸,紧急发布声明:已报警

21世纪经济报道 见习记者 郭聪聪 北京报道

北京大学国家发展研究院教授李玲于9月1日对外发布公开声明,称“近期网上出现了大量假冒本人推销医药书籍和治疗手段的虚假视频,大多是人工智能AI合成,这些视频在微信公众号、头条、抖音等平台发布,随后被大量传播,涉嫌严重违法。”

对此李玲已报警处理,并将积极采取法律行动追究策划、制造、恶意传播虚假视频者的法律责任,维护自身合法权益。

并强调:“本人从未在任何平台推销过医药书籍和医疗产品,请大家不要上当受骗。特此声明!

北大教授被AI换脸,紧急发布声明:已报警

公开资料显示,李玲不仅是北京大学国家发展研究院的经济学教授,‌同时也是北京大学健康发展研究中心主任。‌

AI进步带来的双刃剑矛盾日益凸显,利用AI换脸侵权的情形层出不穷,侵权范围广泛。

近日,在微博等公众平台中,#deepfake(深度欺骗)#话题多日冲榜。一则韩国女性的发帖称,韩国女性陷入了“AI换脸恐慌”,利用deepfake工具进行侵权的行为引发公众关注。

《韩国日报》8月27日报道,韩国总统对该事件公开发声:“最近以不特定人群为对象的deepfake技术影响通过社交媒体迅速传播,不少受害者为未成年人。”据韩国教授联盟估计,已有200所学校受到影响。

韩国总统表示,依靠匿名恶意利用deepfake技术是犯罪行为,希望有关部门通过掌握实际情况和调查,彻底根除此类数字技术犯罪行为。

此外,北京互联网法院此前公布了服务保障新质生产力十大典型案例中,也存在某科技公司未经本人同意,借助AI技术生成与何某高度关联的“AI陪伴者”形象,并且使用了“调教”算法机制,令AI角色更加拟人化。最终法院判决该科技公司的行为侵犯了何某肖像权、姓名权、一般人格权。

借助AI换脸技术实施的违法行为,不止侵犯人身权,还会侵犯财产权。

在今年年初发生的一起诈骗案中,一家跨国公司的一名财务人员就被“AI换脸”欺骗,将2亿港元公司财产转入了不知名账户。经警方调查得知,在诈骗分子发起的“多人视频会议”中其他“参会人员”都是经过“AI换脸”后的诈骗人员,只有受害人一个人是“真人”。

诈骗团伙借助deepfake的技术,仅通过搜集这家公司的公开素材,就成功伪造出了高管们的形象和声音。也就是说,在这名财务职员参加的多人视频会议中,诈骗人员都通过“AI换脸”技术换成了该公司高管的形象,并且模拟了他们的声音。

从这名财务职员的视角,他所看到的每个人—公司CFO、他的同事们—都是假的,其面貌、声音都是由AI生成的。面对熟悉的同事,这名财务职员也放松了警惕,最终将公司的2亿资金转入了不知名账户中。返回搜狐,查看更多

责任编辑:

版权声明:lida 发表于 2024年9月4日 am11:00。
转载请注明:北大教授被AI换脸,紧急发布声明:已报警 | ChatGPT资源导航

相关文章