多传感器融合的感知系统
安装在车辆四角的高精度传感器组(包括视觉摄像头、激光雷达、毫米波雷达和长波红外摄像头)构成360度重叠视场,探测范围超过百米。这种配置使车辆能同时感知所有方向的动态环境。
三层AI技术栈架构
-
感知层
- 基于Zoox道路网络(ZRN)语义地图,实时识别并分类周围动态物体(称为"智能体")
- 精确追踪每个智能体的速度和当前运动轨迹
- 将原始传感器数据转换为60通道的机器可读二维图像(包含语义信息层)
-
预测层
- 采用卷积神经网络(CNN)处理空间精确的鸟瞰图
- 为每个动态智能体生成未来8秒的轨迹概率分布
- 每0.1秒更新预测结果,考虑交通信号、人行道规则等场景因素
-
规划层
- 根据预测结果实时制定行驶策略
- 正在开发与预测系统的反馈循环机制(测试"假设-响应"场景)
图神经网络创新应用
- 通过消息传递机制显式编码场景中各元素的相互关系
- 能模拟人类行为交互(如车辆间的避让协商)
- 基于真实道路数据训练,预测结果更符合自然驾驶行为
数据优势与挑战
-
训练数据:在旧金山、西雅图和拉斯维加斯收集数百万英里真实道路数据
-
核心挑战:未来事件的固有不确定性(即使人类也无法完美预测)
系统预测精度持续提升,目前可处理包括宠物犬在内的复杂城市场景,夜间环境下也能准确预测交叉路口的车辆行为。技术团队正致力于降低延迟、优化算法,使这套预测系统达到量产标准。