HEAL: 异质开放场景协同感知

异质开放场景

本文研究异质开放场景下协同感知,目标是为已有协同网络持续纳入新出现的异质感知器,进行低耗高质协同感知。

同质场景背景

同质场景

  • 各感知器均带一个编码器,将感知数据编码为鸟瞰视角(Bird's Eye View, BEV)特征
  • 感知器共享BEV,并变换他人BEV,对齐到自己空间,得到对齐特征
  • 对齐特征经融合模型(本文设计了个Pyramid Fusion,略)得到融合特征,再经检测层得到结果
  • 使用已有感知器的所有数据训练得到编码器、融合模型、检测层

异质开放场景思路

HEAL

  • 新加入节点时,固定融合模型与检测层,训练出新加入节点的编码器,便可接入网络进行协同感知

数据集

  • OPV2V-H:CARLA与OpenCDA模拟得到的数据集,每个时间帧有2~7个感知器,包括不同分辨率的3种LiDAR和7种摄像头
  • DAIR-V2X:从一辆车与一个路边单元收集来的真实数据集,两者都装备了一个LiDAR和一个摄像头

CARLA + OpenCDA共同模拟的环境

装备的感知器

需要注意的问题

  • 按rebuttal信息,节点加入协同前训练编码器要3小时(参考:初始训练要5小时),因此可能不适用于车联网这种进出频繁的场景
  • 从方法本身来看,融合模型与检测层只在初始阶段训练,因此初始化数据充足可能比较重要,实际使用时可配合低频的完整训练

Page Not Found

Try to search through the entire repo.