新型图像保护技术阻止AI模型未经授权学习
澳大利亚研究人员开发出一种新技术,可以阻止未经授权的人工智能系统从照片、艺术品和其他图像内容中学习。
这项技术由澳大利亚国家科学机构与网络安全合作研究中心及芝加哥大学合作开发,其方法是通过微妙地改变内容,使其对AI模型不可读,同时保持人眼看到的图像不变。
这可以帮助艺术家、组织和社交媒体用户保护他们的作品和个人数据不被用于训练AI系统或创建深度伪造内容。例如,社交媒体用户可以在发布前自动为照片添加保护层,防止AI系统学习面部特征以创建深度伪造。同样,国防组织可以保护敏感的卫星图像或网络威胁数据不被吸收到AI模型中。
该技术为AI系统从受保护内容中学习设置了限制。它提供了数学保证,即使面对自适应攻击或重新训练尝试,这种保护仍然有效。
某机构科学家表示,该技术为任何在线发布内容的人提供了新的确定性水平。
“现有方法依赖于试错或对AI模型行为的假设,“科学家说。“我们的方法不同;我们可以数学保证未经授权的机器学习模型无法超越特定阈值从内容中学习。这对社交媒体用户、内容创作者和组织来说是一个强大的保障。”
科学家表示,该技术可以自动大规模应用。
“社交媒体平台或网站可以将这种保护层嵌入到上传的每个图像中,“他说。“这可以遏制深度伪造的兴起,减少知识产权盗窃,并帮助用户保持对其内容的控制。”
虽然该方法目前适用于图像,但计划将其扩展到文本、音乐和视频。
该方法目前仍是理论性的,结果在受控实验室环境中得到验证。代码已在GitHub上提供供学术使用,团队正在寻求来自AI安全与伦理、国防、网络安全、学术界等领域的研究合作伙伴。
论文《可证明不可学习的数据示例》在2025年网络与分布式系统安全研讨会上发表,并获得了杰出论文奖。