担心泄露个人信息 英国监管机构警告聊天机器人开发者
继意大利监管机构因数据隐私问题宣布暂时禁止智能聊天机器人ChatGPT后,英国监管机构也对这项技术进行了干预。英国信息专员办公室(ICO)向科技公司发出警告,警告不要使用个人信息来开发聊天机器人,担心这项技术是通过用从网络上抓取大量未经过滤的个人数据“训练”生成的人工智能。
英国《卫报》报道,ICO表示,开发和使用聊天机器人的公司在构建生成人工智能系统时必须尊重个人隐私。生成式人工智能最具代表性的例子就是ChatGPT,它基于一个名为大型语言模型(LLM)的系统,该系统通过从互联网上筛选的大量数据“训练”生成。
ICO技术和创新总监斯蒂芬·阿尔蒙德表示,“对于生成式人工智能对隐私的影响,我们真的没有任何借口去误解。我们将努力确保各机构都能正确地理解(这种技术)。”
阿尔蒙德还在博客文章中提到意大利的禁令,以及包括埃隆·马斯克和苹果联合创始人史蒂夫·沃兹尼亚克等多名学者上周签署的联名信,呼吁立即暂停“大型人工智能实验”,至少暂停6个月。信中写道,人们担心科技公司正在创造“更强大的数字思维”,没有人能“理解、预测或有效控制”。
阿尔蒙德说他在与ChatGPT聊天时被告知,生成式人工智能“如果不负责任地使用,有可能对数据隐私构成风险”。在谈到大型语言模型的培训过程时,他表示当处理的个人数据来自公众可访问的来源时,数据保护法仍然适用。
ICO周一发布的一份核验清单指出,根据英国《通用数据保护条例》,处理个人数据必须有法可依,比如个人对其数据的使用给予“明确同意”。它还补充说,公司必须进行数据保护影响评估,降低安全风险,如个人数据泄露,以及所谓的成员推断攻击,即流氓行为者试图确定某个人是否被用于大型语言模型的培训数据。
意大利数据保护监管机构上周五宣布暂时禁止ChatGPT,原因是上月发生的数据泄露事件,以及对聊天机器人系统中使用个人数据的担忧。该机构表示,似乎“没有法律依据支持大规模收集和处理个人数据,以‘训练’该平台所依赖的算法”。
作为对意大利禁令的回应,ChatGPT开发商OpenAI首席执行官萨姆·奥特曼称,“我们认为我们遵守了所有的隐私法。”但该公司拒绝透露用于训练GPT-4所使用的数据和信息。GPT-4是支撑ChatGPT的语言模型的最新版本。而上一版本GPT-3通过使用从互联网上抓取的3000亿个单词和数百万本电子书的内容,以及整个英文维基百科进行“训练”。