AI在数字取证中的法律风险与应对策略
我完全支持AI在能够提升数字取证/事件响应(DF/IR)效率、精确度和准确性时发挥作用。但如果我们不加谨慎地贸然前进,不仅可能失去对DF/IR无效的AI部分,更可能在法庭上完全失去使用AI的机会。
目前,在DF/IR中使用AI的感觉就像跳伞自由落体——风扑面而来,景色令人惊叹。一如既往,每个人都在实验、研究项目、开发原型、测试案例工作,并将AI嵌入商业工具中。这很有趣!
但总会有一位检验员成为首位在法庭上作证,承认AI参与了其DF/IR分析和决策过程的人。
问题很简单:法庭将对案例中的AI作何裁决?
- 法庭会直接说"不行,不可采纳"吗?
- 还是会耸耸肩说"没问题,进来吧"?
- 或者,最可能的是,会设定严格的条件和限制,采取折中立场?
FLIR的前车之鉴
在证据采纳或排除方面,新技术并不新鲜。看看热成像(FLIR)大麻种植案例。在Kyllo诉美国案(2001)中,最高法院裁定,使用热成像仪指向房屋测量逸出热量属于第四修正案下的搜查,意味着需要搜查令。华盛顿州早在Young州案(1994)中也作出了相同裁决。当时的一些证词夸大了FLIR的能力,不准确地作证称FLIR可以"看到屋内"。这种夸张帮助确立了一个先例,即执法部门需要搜查令,无论该技术的实际限制如何。FLIR并不能看到建筑物内部,但交叉询问使法庭(法官、陪审团)相信它可以。
糟糕的证词 → 糟糕的判例法 → 长期限制。
如果我们在DF/IR中过度吹捧AI,声称它绝无错误,隐瞒错误率,或依赖"供应商说它有效",我们可能会以同样的方式毒化水源。法官非但不会为AI证据开辟谨慎的道路,反而可能直接关闭大门。一旦那扇门关闭,不仅不良的AI使用被排除,所有使用都将被排除。
如果你首先被传唤在这些AI案件中作证,请务必做对。
正确使用AI的关键要素
- 透明说明你如何使用AI,以及人类专业知识在何处保持控制
- 展示验证研究、错误率和可重复性
- 像记录取证工具和设置一样记录提示、参数和版本
- 承认局限性,因为法官更尊重诚实而非过度自信
你的A团队:研究人员、供应商、律师和你
准备好为这些首批案件组建A团队。对方律师会攻击AI——这是他们的职责,不要个人化。他们不仅会攻击AI本身,还会攻击用户和使用AI的方式。他们会攻击供应商和开发方式。他们会攻击学术界的研究。
在这些首批案件中,AI的使用不会是典型的证据听证会。这将是一个律师可以成名(通过抨击或捍卫AI)、专家的信誉将面临考验、法庭必须对证据可采性做出独特决定、案件受害者要么获得正义要么被剥夺正义的场合。
然后我们其他人跟随。要么AI从工具中移除,我们在案例工作中甚至不再提及"人工智能",要么我们继续努力完善AI在DF/IR中的使用。
当前与未来的AI应用
我们已经开始处理涉及AI增强视频、AI虚拟形象和AI面部识别的案件。这些是容易的。困难的案件将是当AI不仅仅是增强证据,而是积极得出结论、对嫌疑人进行排名或建议调查路径时。如果AI曾经指名嫌疑人,我们将达到《少数派报告》的水平。
如果我们搞错了,降落伞不仅对一名跳伞者失效。它对仍在空中的每个人都会失效,每个人都将在热点座位上轮到自己。你想成为因毁掉一切而声名狼藉的专家,还是作为为每个人奠定正确基础而闻名的专家?因为就像跳伞一样,你不需要担心坠落;你需要担心的是突然停止。