从2026年起,在欧盟运营的科技公司必须确保其人工智能模型能够有效“遗忘”隐私数据。欧盟《人工智能法案》规定,企业必须赋予用户“被遗忘权”,这将迫使开发者必须采用复杂的机器遗忘技术,以符合严苛的隐私标准。
如果未能从AI神经网络中彻底清除个人信息,企业将面临沉重的经济处罚。根据新规,如果公司无法证明特定用户数据不再影响模型的输出结果,最高可能被处以其全球年度总营业额7%的罚款。
AI透明度面临技术壁垒
从大语言模型(LLM)中删除信息是一项巨大的工程挑战。与传统数据库不同,AI模型将训练数据整合到了内部权重中,这意味着无法通过简单的删除操作来移除数据,否则可能会导致整个系统崩溃。
为了赶在2026年的截止日期前达标,开发者们正转向“选择性遗忘”方法。其中一种被称为“分片与切片”的技术,是将训练数据拆分为独立的片段。当用户要求删除数据时,公司只需对包含该信息的特定片段进行重新训练,从而保留模型的其余部分。
其他公司则在测试直接权重编辑技术。这一过程类似于“神经外科手术”,开发者需要定位存储特定概念的精确神经连接并将其停用。此外,法律还要求高风险AI系统必须保留严格的溯源记录,迫使企业对训练集中使用的每一项数据负责。
拉美各国政府正密切关注这些欧洲标准,以作为其自身立法议程的参考。智利参议院目前正在推进一项法案,该法案模仿了欧盟基于风险的分类体系。同样,巴西参议院也已通过了2338/2023号法案,旨在与国际算法透明度标准保持一致。
谷歌、OpenAI和Meta等全球科技巨头通常会将其内部流程标准化,以符合最严格的地区要求。因此,预计这些公司的“被遗忘权”功能将在智利和墨西哥等市场的应用程序中,与欧洲同步上线。
欧盟《人工智能法案》将于2026年8月全面实施,强制性的AI生成内容水印要求将于同年11月生效。到2027年,监管范围将进一步扩大至医疗和司法领域的专业AI系统。