保护用户免受自身行为危害:对话代理交互中的上下文隐私保护
摘要
对话代理已深度融入个人生活,但用户常低估其隐私风险。当用户向大型语言模型(LLM)等代理分享信息时,私人信息便面临暴露威胁。本文提出面向LLM对话代理(LCAs)交互的上下文隐私概念,旨在通过确保用户(发送方)仅披露与实现目标相关且必要的信息,最小化隐私风险。
通过形成性设计用户研究发现,即便是“具备隐私意识”的用户也会通过间接披露无意间泄露敏感信息。基于此研究,提出本地可部署框架,该框架运行于用户与LCAs之间,能够识别并重构用户提示中的上下文无关信息。
使用ShareGPT示例的评估表明,轻量级模型可有效实施该框架,在保持用户交互意图的同时显著提升上下文隐私。值得注意的是,人类评估中约76%的参与者更倾向于重构后的提示词,验证了所提出框架中上下文隐私的实用性与有效性。
核心贡献
- 提出上下文隐私概念,强调在LLM交互中仅披露必要信息
- 通过用户研究揭示间接信息泄露的普遍性
- 开发本地部署的隐私保护框架,实时重构用户提示
- 实证验证轻量级模型可实现隐私保护与功能性的平衡
技术框架
提出的框架包含以下关键组件:
- 上下文分析模块:识别提示中的敏感信息
- 提示重构引擎:修改超出上下文的信息
- 轻量级模型部署:支持本地运行,避免数据外传
评估结果
- 使用ShareGPT数据集进行测试
- 76%用户偏好重构后的提示词
- 在保持交互目标的同时显著减少隐私泄露
结论
本研究证明了上下文隐私保护在对话代理交互中的可行性,提出的本地化框架既有效又实用,为未来隐私保护技术提供了重要方向。
代码已开源:https://example.com