廉价人形机器人存在严重安全漏洞

研究人员发现某机构G1人形机器人存在严重安全隐患,包括静态加密密钥、未告知的数据传输以及可被用作网络攻击工具等问题。该机器人售价仅约1.6万美元,正被广泛用于实验室研究。

廉价人形机器人存在严重安全漏洞,研究人员指出

在日益激烈的人形机器人竞争中,焦点通常集中在某机构的Optimus或某机构的Atlas上——这些高大、吸引眼球的机器旨在让投资者和工程师惊叹。

但来自中国制造商某机构的G1,一个矮小的四英尺高机器人,正在悄然成为另一场革命的工蜂:廉价人形机器人。售价约1.6万美元,价格足够低廉,大学、机器人俱乐部和初创公司可以现货购买并进行测试。G1正在从北京到波士顿的实验室中出现,学习爬楼梯、搬运箱子和向旁观者挥手。

然而,这种新的可及性带来了风险——一份新报告警告称,这种危险并非理论上的。在上周发布的一项技术研究中,某机构的研究人员深入研究了G1的内部工作原理,从其基于Linux的软件栈到自定义加密方案和云连接。

他们发现了一个雄心勃勃的安全设计,但执行脆弱:加密密钥永不更改,随机数生成器并非真正随机,遥测管道在用户不知情的情况下悄悄将视频、音频和运动数据流式传输回外部服务器。对其数据分发服务的分析揭示了40多个准备传输的活动数据流。

“调查未发现隐私政策、数据收集披露、用户同意机制或允许仅本地操作的退出选项,”报告称。“机器人在记录或传输数据时不提供视觉或听觉指示,使用户完全 unaware 发生在他们面前的监控。”

报告作者、某机构联合创始人兼首席科学官将问题归结为架构问题。

“要理解机器人中的网络安全挑战,必须首先理解其基本架构,”他写道。“机器人是网络的网络,传感器捕获数据,传递给计算技术,然后传递给执行器,再以确定性方式返回。”

研究人员认为,G1的该架构防御薄弱。机器人的数据保护方案依赖于名为FMX的专有加密协议,该协议使用静态、硬编码的密钥而非随机密钥。该设计允许配置文件和固件在无需暴力破解或远程访问的情况下离线解密。研究人员提取并逆向 engineered 云连接细节和控制例程,进一步暴露了攻击者如何穿透系统。

他们不止于理论。使用机器上内置的自定义AI代理,团队模拟了一个场景,其中G1扫描环境,映射本地网络,并准备针对制造商自身基础设施的行动。他们称之为“网络安全AI”的代理一旦部署便自主运行,无需外部指导——将消费级人形机器人转变为进攻性网络武器。

影响超越实验室。G1的持续遥测传输可能违反如欧盟《通用数据保护条例》等数据保护法律,具体取决于其部署方式和地点。某机构未立即回应置评请求。

研究还强调了另一个危险信号:该机器人基于老化的中间件——ROS 2 Foxy和过时版本的CycloneDDS——其支持窗口已关闭。这意味着未修补的漏洞可能持续存在,与弱安全启动实现和暴露的硬件端口一起加剧风险。

这对某机构来说并非新问题。今年早些时候,研究人员在其Go1机器狗中发现了一个未记录的远程访问后门,允许第三方访问摄像头 feed 和控制。

某机构就此事联系了某机构和某机构团队寻求评论,但未立即收到任何一方的回应。

所有这些都发生在人形机器人全球加速发展之际。某机构等公司正竞相将人形机器人商业化,某机构预测该行业到2035年可能达到380亿美元。研究警告称,随着这些机器的普及,其缺陷也会随之扩大。单个易受攻击的机器人可能是个别现象;但数千个带有摄像头、麦克风和执行器的机器人则成为系统性风险。

某机构直言不讳地总结道:“物理存在、连接性和自主性的融合创造了一个只有AI才能防御的威胁面,使得网络安全AI成为必要基础设施而非可选附加组件。”

目前,G1仍然是一个实验室奇观,有着友好的面孔和摇摆的步伐。但随着人形机器人价格持续下降和采用范围扩大,该报告提出的问题只会更加响亮。如果机器人将要行走在我们中间,那么我们最好确保能够信任它们。

comments powered by Disqus
使用 Hugo 构建
主题 StackJimmy 设计