,在方框里重重写下了“transforrender”。
“在这个编码器内部,通过强大的注意力机制(attentionis),让模型自己学会在像素级别上,跨时间、跨空间、跨摄像头视角,去建立关联,去理解三维空间的结构!
让ai自己‘看’懂这个世界的几何关系,而不是依赖我们人工预设的规则去分割目标、匹配特征。”
随着笔尖持续移动,在白板中央画出一个代表三维空间特征(3dfeatures)的立体区域,并标注了“bev(bird's-eye-view)representation”。
“在模型内部,自然生成统一、稠密的鸟瞰图(bev)空间表征。
在这个统一的bev空间里,激光雷达点云也好,毫米波雷达目标也好,甚至未来的v2x车路协同信号也好,都只是作为辅助的‘特征’(feature)。
通过跨模态注意力机制(odalattention)自然地融入、补充、增强这个由视觉主导构建的三维空间理解。”
他在bev空间周围画上代表激光雷达、毫米波雷达、v2x的符号,用虚线箭头指向中央的bev空间,并在连接处标注了“attention”。
“最终输出的是什么?”陈默的笔尖用力地在bev空间下方画了一个输出箭头,重重写下两个词:“oygrid(占据栅格)”、“flowpredi(运动流预测)”。
“不是一个个孤立的、需要后期费力融合的‘目标框’(boundgbox)和‘轨迹线’(trajectory)。
而是这个三维空间中,每一个‘体素’(voxel)是否被占据的概率,以及占据物未来的运动趋势!
这才是最接近人类驾驶员对周围环境空间和运动态势的直觉感知方式。
这才是通往l3级以上高阶智能驾驶的真正钥匙!”
“沙沙”声停止了。
陈默放下笔,转过身。
会议室内一片死寂。
落针可闻的死寂。
时间仿佛被按下了暂停键。
所有人都僵住了,如同被施了定身法。
会议室里的智能驾驶团队五人组,反应是最为直接且剧烈。