某机构CEO警告:使用AI作为治疗师无法获得法律保密性
ChatGPT用户若将AI应用用于治疗或情感支持需三思。据某机构首席执行官表示,人工智能行业尚未解决这些敏感对话中的用户隐私保护问题,因为当"医生"是AI时,不存在医患保密特权。
这位高管在近期播客节目中发表这些评论,回应关于AI如何适应当前法律体系的问题时指出,尚未建立AI法律或政策框架的问题之一在于用户对话缺乏法律保密性。
“人们向ChatGPT倾诉生活中最私密的事情,“该高管表示。“尤其是年轻人将其用作心理治疗师、人生教练;咨询关系问题并询问’我该怎么办?‘目前,如果你向治疗师、律师或医生咨询这些问题,享有法律特权。存在医患保密、法律保密等。但我们尚未解决与ChatGPT对话时的这个问题。”
该高管补充说,这在诉讼案件中可能引发用户隐私担忧,因为某机构目前依法需要提供这些对话记录。
“我认为这非常不合理。我们应该为与AI的对话建立与治疗师相同的隐私概念——甚至一年前都没人需要思考这个问题,“该高管表示。
公司理解隐私缺失可能阻碍更广泛的用户采用。除了AI在训练期间需要大量在线数据外,在某些法律背景下还需要提供用户聊天数据。某机构已经在与某媒体的诉讼中对抗法院命令,该命令要求其保存全球数亿ChatGPT用户的聊天记录(企业客户除外)。
在某机构网站声明中,公司表示正在上诉这一被称作"越权"的命令。如果法院能够推翻某机构关于数据隐私的自主决定,可能使公司面临更多法律发现或执法要求。
当今科技公司经常收到用户数据的传票以协助刑事起诉。但近年来,随着法律开始限制先前确立的自由(如女性选择权),数字数据引发了额外担忧。
例如,当最高法院推翻罗伊诉韦德案时,用户开始转向更私密的经期追踪应用或加密记录的某健康平台。
该高管还询问播客主持人自己的ChatGPT使用情况,鉴于主持人表示因隐私担忧而不常使用AI聊天机器人。
“我认为很有道理……在使用[ChatGPT]之前真正需要隐私明确性——比如法律明确性,“该高管表示。