MaXsive:扩散模型中高容量且鲁棒的无训练生成式图像水印技术
摘要
扩散模型在图像合成领域的巨大成功导致了大型商业模型的发布,引发了版权保护和不当内容生成的问题。无训练扩散水印为这些问题提供了一种低成本的解决方案。然而,先前的工作仍然容易受到旋转、缩放和平移(RST)攻击的影响。尽管一些方法采用精心设计的模式来缓解这个问题,但它们通常会降低水印容量,这可能导致身份(ID)冲突。为了解决这些问题,我们提出了MaXsive,一种无训练的扩散模型生成水印技术,具有高容量和鲁棒性。MaXsive充分利用初始噪声来为扩散模型添加水印。此外,我们提出注入X形模板来恢复RST失真,而不是使用精心设计的重复环形模式。这种设计显著提高了鲁棒性,而不会损失任何容量,使得ID冲突不太可能发生。MaXsive的有效性已在验证和识别场景下的两个知名水印基准测试中得到验证。
主题
密码学与安全(cs.CR);人工智能(cs.AI);多媒体(cs.MM)
引用
arXiv:2507.21195 [cs.CR]
(或此版本的 arXiv:2507.21195v1 [cs.CR])
https://doi.org/10.48550/arXiv.2507.21195
相关DOI
https://doi.org/10.1145/3746027.3755266
提交历史
来自:Po-Yuan Mao [查看电子邮件] [v1]
2025年7月28日星期一 00:51:47 UTC(7,935 KB)
全文链接
- 查看论文PDF:
[查看标题为“MaXsive:扩散模型中高容量且鲁棒的无训练生成式图像水印技术”的论文PDF,作者:Po-Yuan Mao及其他1位作者](View PDF) - HTML(实验性)
- TeX源代码
- 其他格式
浏览上下文
当前浏览上下文:cs.CR
参考文献与引用
- NASA ADS
- Google Scholar
- Semantic Scholar
书目工具
- 书目浏览器
- 关联论文
- Litmaps
- scite.ai智能引用
代码、数据、媒体
- alphaXiv
- CatalyzeX代码查找器
- DagsHub
- GotitPub
- Hugging Face
- Papers with Code
- ScienceCast
演示
- Replicate
- Hugging Face Spaces
- TXYZ.AI
相关论文
- 影响力花
- CORE推荐器
关于arXivLabs
arXivLabs:与社区合作者进行的实验项目。arXivLabs是一个框架,允许合作者直接在我们的网站上开发和共享新的arXiv功能。与arXivLabs合作的个人和组织都接受并遵循我们的开放、社区、卓越和用户数据隐私的价值观。arXiv致力于这些价值观,并仅与遵守这些价值观的合作伙伴合作。
联系与订阅
- 联系arXiv
- 订阅arXiv邮件
版权与隐私政策
- 版权
- 隐私政策
网络无障碍协助
- arXiv运营状态:通过电子邮件或Slack获取状态通知