英国数据监管机构就生成性AI的数据保护问题发出警告 在线
英国信息委员会强调组织需遵循数据保护法
关键要点
英国信息委员会ICO提醒科技公司在开发和部署大型语言模型时,需保护个人信息,且数据保护法仍然适用。意大利数据隐私监管机构在ChatGPT涉嫌侵犯隐私后,已对此作出封禁。ICO建议组织在开发生成式人工智能时考虑数据保护责任,并提出一系列问题以确认其合规性。相关技术领袖对生成式人工智能提出暂停开发的呼吁,关注其潜在风险。白鲸官网英国的数据监管机构对科技公司发出警告,强调在开发和使用大型语言模型、生成式人工智能 时必须保护个人信息。

在意大利数据隐私监管机构因涉嫌隐私违规而禁止ChatGPT使用不到一周后,信息委员会ICO发布了一篇博客文章,提醒各组织:当处理来自公共可获取来源的个人信息时,数据保护法律依然适用。
“开发或使用生成式人工智能的组织应从一开始就考虑数据保护责任,采用设计时保护数据和默认为保护数据的方式,” ICO 的技术与创新总监史蒂芬阿尔蒙德在该博文中表示。
阿尔蒙德还提到,处理个人数据以开发生成式人工智能的组织应提问以下几个方面:他们的个人数据处理的合法依据是什么;如何降低安全风险;以及如何回应个人权利请求。
“对于生成式人工智能的隐私影响,没有理由犯错,”阿尔蒙德表示,并补充说ChatGPT最近也对他表示,“生成式人工智能与其他技术一样,如果不负责任使用,确实可能对数据隐私构成风险。”
“我们将努力确保各组织能够正确应对这些问题,”阿尔蒙德说。
除了ICO和意大利数据监管机构,最近还有许多人对生成式人工智能可能对公众造成的风险表示担忧。上个月,苹果公司联合创始人史蒂夫沃兹尼亚克、推特拥有者埃隆马斯克以及1100位科技领袖和科学家共同呼吁暂停六个月 开发比OpenAI新推出的GPT4更强大的系统。
在一封公开信中,签署者描绘了一个反乌托邦的未来,并质疑先进的人工智能是否会导致“对我们文明的失控”,同时警告如果聊天机器人假装成人类,可能会淹没社交媒体平台,传播宣传和“虚假新闻”对民主的潜在威胁。
该团体也指出了人工智能可能“自动化消灭所有工作,包括令人满足的工作”的担忧。
人工智能监管面临的挑战
谈到监管人工智能,最大的挑战就是创新的速度如此之快,以至于法规难以跟上。Gartner的分析师Frank Buytendijk表示,如果法规规定得过于具体,随着技术的发展,它们便失去了效用;如果过于笼统,则不容易有效执行,因为不够明确。
“然而,Buytendijk补充道,最终可能扼杀人工智能创新的不是监管,而是由于过多的代价高昂的错误导致的信任和社会接受度的下降。”
“人工智能的监管要求模型检查偏见,要求算法更透明,也会激发大量创新,以确保能够识别偏见并实现透明性和可解释性,”Buytendijk表示。