PRvL:量化大语言模型在PII脱敏中的能力与风险
从非结构化文本中脱敏个人可识别信息(PII)对于受监管领域的数据隐私保障至关重要。虽然早期方法依赖于基于规则的系统和特定领域的命名实体识别(NER)模型,但这些方法难以跨格式和上下文泛化。大语言模型(LLMs)的最新进展提供了一种有前景的替代方案,然而架构和训练选择对脱敏性能的影响仍未得到充分探索。
LLMs在需要上下文语言理解的任务中表现出色,包括自由文本中的PII脱敏。先前的研究表明,通过适当适配,LLMs可以成为有效的上下文隐私学习器。然而,架构和训练选择对PII脱敏的影响仍未得到充分研究。
在本研究中,我们对LLMs作为隐私保护的PII脱敏系统进行了全面分析。我们评估了一系列LLM架构和训练策略在PII脱敏中的有效性。我们的分析测量了脱敏性能、语义保留和PII泄漏,并将这些结果与延迟和计算成本进行了比较。研究结果为配置准确、高效且具有隐私意识基于LLM的脱敏工具提供了实用指导。
为了支持可重现性和实际部署,我们发布了PRvL,一个开源的精调模型套件和评估工具,用于通用PII脱敏。PRvL完全基于开源LLMs构建,支持多种推理设置以实现灵活性和合规性。它设计为可轻松针对不同领域定制,并完全在安全、自管理的环境中运行。这使得数据所有者能够在不依赖第三方服务或将敏感内容暴露于自身基础设施之外的情况下执行脱敏操作。