ChatGPT真的“懂人类”吗?上海“数字法治”三卷本展开前瞻思考穿浴巾、内衣外露,聂小雨拜师小杨哥,为博流量已经不择手段?

学会提问 11个月前
30 0 0
ChatGPT真的“懂人类”吗?上海“数字法治”三卷本展开前瞻思考穿浴巾、内衣外露,聂小雨拜师小杨哥,为博流量已经不择手段?

随着ChatGPT等生成式AI技术迭代,大数据时代如何平衡个人信息隐私与数据安全?如何让ChatGPT更好地为人类服务?近年来,上海学者围绕国家发展战略,率先对人工智能的相关法律问题开展研究,一批相关研究著作在沪陆续面世。

上海人民出版社新近推出“数字法治”三卷本,含《权利的边界:个人信息赋权逻辑及其行使路径》《信息的限度:个人信息保护法中的同意规则》《个人信息保护案例评析》,理论研究与案例解析相结合,寻找个人信息保护制度规范的改进空间。

当ChatGPT遇上法律中的个人信息权利边界,是机遇还是挑战?前不久在朵云书院·旗舰店举办的学习读书会上,上海政法学院佘山特聘岗教授、中国法学会网络与信息法学研究会理事徐伟与读者探讨人工智能时代下法律的应对之法。

ChatGPT真的“懂人类”吗?上海“数字法治”三卷本展开前瞻思考穿浴巾、内衣外露,聂小雨拜师小杨哥,为博流量已经不择手段?

徐伟认为,我们需要控制好生成式人工智能用于训练和开发的数据和个人信息,并控制好相应的算法,就能大概决定生成式人工智能未来的方向。业内观察到一个现象:ChatGPT看上去似乎“太懂人类”想要什么,知道如何投其所好——比如,如果你提问:“中国最好的法学学府是哪所大学?”它可能会回答,北京大学是最好的。接着,你对ChatGPT说:“我是中国政法大学的学生。”它会回答:“抱歉,可能中国政法大学才是中国最好的。”

法律不同的规则设计会对人工智能的发展产生重要影响。徐伟介绍,欧盟《一般数据保护条例》对个人信息保护提出了严格要求,一方面限制欧洲用户数据被其他国家开发和利用,另一方面又阻碍欧洲深层次人工智能产业的发展。因为门槛高了,初创公司更难“玩得起”,很难形成好的循环。

法律要对人工智能的关键变量予以制度上的控制,关键变量包括数据(含个人信息)、算法等。数据是数字经济时代的新型“石油”,如何通过制度设计让数据能够源源不断地生产出来,并且能被更好地开发利用?2022年底,《中共中央国务院关于构建数据基础制度更好发挥数据要素作用的意见》发布,徐伟从数据产权、流通交易、收益分配、安全治理等方面作详细解读,明确如何有效地促进数据的生产和开发利用。

“个人信息是数据领域中量最大、最有价值的数据。人工智能时代,个人数据若要进行开发利用,需要法律介入保护。如果得不到有效保护,不仅会造成财产损失,还会影响人的自由意志、自由思想。”徐伟谈到,目前人工智能应用主要有两种类型,一是以自动驾驶汽车为代表的人工智能体,另一种是以ChatGPT为代表的人工智能服务提供者。“从法律层面上来说,人工智能体往往归入产品领域,用《产品质量法》等产品的规则进行调整,人工智能服务提供者则归入服务领域。”

ChatGPT真的“懂人类”吗?上海“数字法治”三卷本展开前瞻思考穿浴巾、内衣外露,聂小雨拜师小杨哥,为博流量已经不择手段?

徐伟、王黎黎、向秦等主编的新书《权利的边界:个人信息赋权逻辑及其行使路径》,以个人信息权利体系为核心,着眼于各项具体权利或权能内容,以期描绘出其法律性质、规范构造以及行权路径等,为个人信息权利体系的“枝繁叶茂”贡献智识。

如果将个人信息权益体系比作一棵“大树”,那么《宪法》中作为基本权利的个人信息受保护权就是“树根”、《民法典》中作为不同于传统姓名、肖像、隐私等具体人格权的个人信息权就是“树干”,而《个人信息保护法》中规定的系列权利或权能就是“树枝”,呈现开放性。

  作者:许旸

图片来源:出版方

  编辑:姜方

责任编辑:李婷

*文汇独家稿件,转载请注明出处。

相关文章