治疗白癜风去哪里 https://m-mip.39.net/baidianfeng/mipso_7337065.html近日,香港中文大学(深圳)理工学院/未来智联网络研究院李镇教授团队发表的两篇论文被IEEE/CVF计算机视觉与模式识别会议CVPR收录。其中一篇以“Beyond3DSiameseTracking:AMotion-CentricParadigmfor3DSingleObjectTrackinginPointClouds”为题的文章被接收为CVPRoral(根据CVPR和ICCV的统计数据,oral接收率大概在4%左右)。同时,李镇教授组的相关工作在竞争激烈的自动驾驶语义分割公开竞赛中获得冠军。受益于上述室外大场景点云解析的工作,李镇教授入选腾讯大出行犀牛鸟专项研究计划,致力于推动高清地图与腾讯地图在自动驾驶领域的发展。另外,李镇教授另一篇室内场景点云解析的工作“X-Trans2Cap:Cross-ModalKnowledgeTransferusingTransformerfor3DDenseCaptioning”也被CVPR接收,为机器人室内导航和室内推理感知提供了可能的解决方案。
会议介绍
CVPR英文全称ConferenceonComputerVisionandPatternRecognition,中文全称是国际计算机视觉与模式识别会议。这个会议是由IEEE主办的一年一度的全球学术性顶级会议,年在谷歌学术的“工程和计算机科学”分类下排名第一,在总榜下位列第四,仅次于Science。
论文一简介(CVPROral)
LiDAR场景的点云单目标跟踪,在近年来取得了不错的进展,尤其是在无人机跟踪和自动驾驶跟车领域有着重要的实际意义。现有的点云单目标跟踪方案,都使用外观匹配的方式来在一个特定区域内搜索潜在的目标。在2D场景中,外观匹配是进行单目标跟踪的一种重要手段。但是LiDAR点云上缺乏纹理信息,并且由于遮挡等原因,同一个物体在相邻两帧之间也常常发生剧烈的外观变化。这严重影响了外观匹配的准确性。因此,基于外观匹配的单目标跟踪方案对干扰项十分敏感。
本文方法提出了一种基于运动建模的单目标物体跟踪范式。不同于先前在LiDAR场景上被广泛使用基于外观匹配的Siamese范式,该方法:快:速度提升1.67倍,达到57FPS,满足自动驾驶的实时处理需求;准:干扰项众多、目标外观极度缺失的情况下表现出显著的鲁棒性;狠:仅用最基础和最简单的PointNet做为backbone,在三个大场景数据集下大幅提升现有最好模型的跟踪表现,效果提升超过10%以上。该新范式能为后续的LiDAR场景下的单目标跟踪提供一个全新的视角。
项目地址
论文地址
GitHub
有关论文细节可以详见将门创投(具体详情请扫描左图