基于域适应技术的隐私保护语义分割方法

本文提出一种隐私保护的语义分割方法,通过感知加密技术对训练和测试图像进行保护,并利用Vision Transformer的嵌入结构和域适应技术实现与未加密模型相当的精度,实验验证了该方法在Segmentation Transformer模型上的有效性。

基于域适应技术的隐私保护语义分割方法

摘要

我们提出了一种隐私保护的语义分割方法,该方法不仅对测试图像应用感知加密,还对用于模型训练的图像进行加密。此方法还能提供与未加密模型几乎相同的精度。上述性能是通过在Vision Transformer(ViT)的嵌入结构上使用域适应技术实现的。所提出方法的有效性在使用名为Segmentation Transformer的强大ViT语义分割模型时,在语义分割精度方面得到了实验验证。

评论

4页,5图,1表。已被GCCE 2025接受。

主题

计算机视觉与模式识别(cs.CV);密码学与安全(cs.CR)

引用

arXiv:2507.12730 [cs.CV]
(或此版本的 arXiv:2507.12730v1 [cs.CV])
https://doi.org/10.48550/arXiv.2507.12730

提交历史

来自:Homare Sueyoshi [查看邮箱] [v1]
2025年7月17日星期四 02:14:50 UTC(2,660 KB)

comments powered by Disqus
使用 Hugo 构建
主题 StackJimmy 设计