意大利用户数据保护机构要求OpenAI解决ChatGPT担忧
文章主题:ChatGPT, 意大利, 数据保护机构, OpenAI
ChatGPT
据凤凰网科技报道,北京时间4月13日,意大利的数据保护机构向人工智能研究实验室OpenAI提出了一项要求列表,旨在解决其对ChatGPT的疑虑。只有在满足这些条件之后,ChatGPT才有可能在意大利重新投入使用。
大约两周前,OpenAI在欧洲市场暂时停止了ChatGPT的服务。在此之前,意大利数据保护局(Garante)对ChatGPT处理个人数据的行为进行了暂时性的限制,并对其实行涉嫌违反隐私规则的调查。作为西欧首个限制ChatGPT的国家,这一举措反映了该聊天工具迅速发展的影响力已引起众多国家立法者和监管机构的警觉。许多专业人士认为,鉴于人工智能可能在国家安全、就业和教育培训方面带来的潜在影响,有必要制定新的法规对其进行有效监管。
Garante在一份周三的声明中,提出了一系列“具体”的要求,需要OpenAI在本月底之前予以满足。若满足这些要求,当局将取消对意大利用户数据的临时限制,ChatGPT将在意大利重新开放。Garante强调,只有在这种情况下,才会采取这样的行动。
该机构要求OpenAI解释其利用用户处理ChatGPT运行所需数据的“方法和逻辑”,同时,OpenAI还需要提供相应的工具,使得涉及到的 individuals(包括非用户)能够要求纠正因该服务产生的人格数据不准确之处,或在无法纠正的情况下,将这些数据予以删除。
Garante呼吁,为了确保人工智能的公正性和透明度,OpenAI有必要对此类操作进行更加宽松的管控。具体而言,该机构建议OpenAI允许非用户通过简便的方法来阻止他们的个人信息被用于运行算法。同时,Garante还要求OpenAI在9月30日前建立并实施一个年龄验证系统,以确保13岁以下的用户无法访问其服务。
Garante表明,他们将持之以恒地探究OpenAI可能存在的数据保护规则违规行为,并在相关调查结束后,保留采取一切必要措施的权力。
近期,意大利针对ChatGPT的监管行动引发了欧洲地区其他隐私监管机构的警觉。这些机构正在深入探讨是否需要对聊天机器人的监管力度进行加强,并考虑是否存在必要的重合协调。与此同时,西班牙的数据保护机构已经要求欧盟内的隐私监管机构对ChatGPT的隐私问题展开评估。今年2月,意大利的监管机构对人工智能聊天机器人公司Replika采取了限制措施,原因是该公司涉嫌对未成年人以及情感脆弱的人群造成了潜在的风险,因此禁止其利用意大利用户的个人数据。这一事件再次凸显了人工智能技术在隐私方面的挑战,也让我们看到了全球范围内对于该问题的关注和担忧。(作者/箫雨)
更多一手新闻,欢迎下载凤凰新闻客户端订阅凤凰网科技。想看深度报道,请微信搜索“凤凰网科技”。
AI时代,拥有个人微信机器人AI助手!AI时代不落人后!
免费ChatGPT问答,办公、写作、生活好得力助手!
搜索微信号aigc666aigc999或上边扫码,即可拥有个人AI助手!