可验证的隐私与透明:Brave AI 隐私的新前沿
今天,Brave Leo 通过部署搭载在 NEAR AI 英伟达支持的可信执行环境(简称“TEE”,详见下文“了解更多关于 TEEs”部分)中的大语言模型,提供了一项新的能力:加密可验证的隐私和透明度。Brave 认为,用户必须能够验证他们正在与预期的模型进行私密对话。该功能已在 Brave Nightly(我们的测试和开发渠道)中提供,可供早期体验 DeepSeek V3.1 模型(我们计划未来根据反馈将此功能扩展到更多模型)。
通过集成可信执行环境,Brave Leo 朝着为 AI 助手提供无与伦比的可验证隐私和透明度迈进,实际上是从“相信我兄弟”的过程,过渡到 Brave 所追求的隐私设计方法:“信任但验证”。
Brave 坚信用户至上的 AI
Leo 是 Brave 浏览器集成的、保护隐私的 AI 助手。它由最先进的大语言模型驱动,同时通过保护隐私的订阅模式、云端不存储聊天记录、云端不存储上下文、不记录 IP 地址以及不使用用户对话进行训练来保护用户隐私。
Brave 认为,用户必须能够:
- 可验证的隐私——用户必须能够验证 Leo 的隐私保证与其公开的隐私承诺相符。
- 模型选择的可验证透明度——用户必须能够验证 Leo 的回复确实来自用户期望(或在 Leo Premium 情况下付费使用的)的机器学习模型。
在其他竞争性聊天机器人提供商的产品中,缺乏这些以用户为先的功能带来了“隐私洗白”的风险。研究(例如,“你得到你付费的东西了吗?审计 LLM API 中的模型替换”)和实践(例如,对 ChatGPT 的强烈反对)都已表明,聊天机器人提供商可能有动机将昂贵的大语言模型静默替换为运行成本更低、能力更弱的模型,并将来自较弱模型的结果返回给用户,以降低 GPU 成本并提高利润率。
Brave 通过机密计算迈向 LLM 的可验证隐私与透明
Brave 通过消除对 LLM/API 提供商的信任需求,利用 NEAR AI TEE 上的机密 LLM 计算,开启了这一旅程。Brave 使用启用 NEAR AI TEE 的英伟达 GPU,通过创建安全飞地来确保机密性和完整性,在飞地中数据和代码都经过加密处理。
这些 TEE 会生成一份密码学证明报告,其中包含已加载模型和执行代码的测量值(哈希值)。此类证明报告可以通过密码学方式进行验证,以获得绝对保证:
- 通过真正的英伟达 GPU TEE 创建了一个安全环境,该环境会生成其完整性和配置的密码学证明。
- 推理在此安全环境中运行,采用完全加密,保护用户数据的私密性——任何人都无法看到用户传递给计算的任何数据,或计算的任何结果。
- 通过对每次计算进行密码学签名,确保用户期望的模型和开源代码正在未加修改地运行。
在我们开发的第 1 阶段,Brave 执行密码学验证,用户可以在 Leo 中如下使用“通过 NEAR AI TEE 可验证私密”:
- 用户在 Brave Nightly 的 Leo 中选择标有“通过 NEAR AI TEE 可验证私密”的 DeepSeek V3.1 模型。
- Brave 执行 NEAR AI TEE 验证,验证从 NEAR 开源代码到硬件证明执行的密码学链,确保响应是在运行特定版本 NEAR 开源服务器的真正英伟达 TEE 中生成的。
- Brave 通过显示一个已验证的绿色标签(如下方截图所示),将验证结果传达给用户。
- 用户开始聊天,无需信任 API 提供商能看到或记录他们的数据和回复。
Brave Leo 中可验证隐私与透明的未来
今天,我们很高兴在 Brave Nightly(我们的测试和开发渠道)发布基于 TEE 的机密 DeepSeek V3.1 计算,供早期实验和反馈。
在更广泛地推出此功能之前,我们专注于两件事:
- 对用户无感的性能开销——TEE 会给 GPU 带来一些计算开销。然而,正如《英伟达 Hopper GPU 上的机密计算:性能基准研究》所示,近期的进展显著降低了这种开销——在某些情况下几乎为零。我们希望确保我们的用户不会体验到性能下降。
- 端到端验证——我们正在积极研究如何扩展 Leo 中的机密计算,以便用户能够验证他们对整个流程链的信任,同时 Brave 开源所有阶段。特别是,我们正计划将验证更贴近用户,以便他们可以在 Brave 浏览器中自行重新确认 API 验证。
更多关于可信执行环境的信息
可信执行环境是处理器中的一个安全区域,它提供了一个独立于传统富运行时环境(如操作系统)的隔离计算环境。TEE 为其承载的代码和数据提供由硬件支持的强大约束性机密性和完整性保证。这些保证通过诸如仅 TEE 可访问的专用内存等强制措施来实现。
硬件隔离确保即使是一个完全被入侵的操作系统也无法访问或篡改驻留在 TEE 内的任何代码或数据。除此之外,TEE 还暴露独特的硬件原语,如安全启动和远程证明,以确保只有受信任的代码被加载到 TEE 中,并且外部方能够验证 TEE 的完整性。
芯片制造商已经在 CPU(传统上)和 GPU(最近)上实现了 TEE。启用 TEE 的 CPU(例如 Intel TDX)与启用 TEE 的 GPU(例如英伟达 Hopper)相结合,能够实现端到端的机密性和保持完整性的大语言模型推理计算,且性能损失最小。