当前位置 爱咖号首页 百度首秀三域融通智驾能力,实力演绎降维打击

百度首秀三域融通智驾能力,实力演绎降维打击

车东西 656浏览 2022-12-23 IP属地: 北京

百度首秀三域融通智驾能力,实力演绎降维打击

车东西(公众号:chedongxi)

作者 | 晓寒

编辑 | 肖涵

最近一两年,城市智能驾驶是车圈最热门的技术,华为、小鹏等玩家展开了激烈的争夺战,都想抢下国内第一个交付此类系统的荣誉。

热闹了一阵之后,百度也出手了——最近首次对外展示了自家的ANP3.0系统。

百度虽不是第一个发布城市智驾系统的厂商,但有着国内自动驾驶圈最强大的综合实力,所以这次的意图很明显,那就是要实现降维打击和后发制人!

一、覆盖场景更多 博弈算法是亮点

咱们先说后发制人这事儿。

虽然最近两年有多家车企展示过城市智驾的视频,但如果仔细观察你会发现它们展示的场景都是城市街道和高速路,收费站并没有出现——这就是说系统还不能自动通过收费站。

在北京等大城市里开车,收费站是经常要遇到的场景。智驾系统只有把它搞定,才能彻底打通高速和城市道路。

作为国内自动驾驶行业的老大哥,百度ANP3.0做到了!

它可以精确判断侧面障碍物的距离,并且还能识别阻拦杆的状态,最终做到全自动通过收费站的ETC窗口,啃下了行业的一大技术难题。

ANP3.0在行业普遍头疼的博弈环节也表现出了“人有我优”的特点。

比如眼前这个路口红灯坏了,直行车辆和左转车辆都挤在了一起。测试车要完成左转有两个策略,第一是等其他车都走完再通行。第二是与其它车博弈,见缝插针地开。

博弈系统做起来相对比较困难,所以一般的智驾系统往往都选了方案一,通行效率低了一些,但是安全又省事。

百度选择的就是第二种方案。

注意看,在直行方向还有车的时候测试车就已经开始往前走了,但是速度控制的很好,刚好能避开两台直行车,最终顺利完成左转,这种设计显然比方案一更加智能。

基于这种博弈能力,ANP3.0不仅能处理无保护左转场景,还能搞定无保护掉头、与非机动车博弈等多个行业难题,是真正的后发制人。

二、率先应用BEV模型 技术架构降维打击

百度这套系统能够实现后来者居上,背后核心原因是其在技术上实现了降维打击。

百度在L4无人驾驶领域深耕了10年,拥有国内最庞大技术团队和测试车队,实际路测里程超过4000万公里,还在重庆等地实现了Robotaxi全无人化运营,技术上敢直接叫板行业老大谷歌Waymo。

而百度ANP3.0就是基于自家L4技术降维而来。

具体来说,它是继特斯拉之后全球第二个使用了纯视觉BEV方案的城市智驾系统。

当然了,为了进一步提升安全性,该系统在量产时还会引入激光雷达作为感知冗余,提升对非常规异形障碍物等场景的识别能力。

具体到BEV算法方面,ANP3.0用7颗800万像素高清摄像头、4颗300万像素高感光环视摄像头,实现车身周围360度感知。

系统工作时,各摄像头感知的画面会被送入AI算法,自动生成一个鸟瞰视角的3D场景模型,然后在这个模型下输出对车外障碍物的感知结果。

这样一来,车辆周身的摄像头不再是独立的个体,而是被整合成了一个放在头顶往下看的超级摄像头,对车外的动态物体尤其是侧面车辆的检测能力大幅增强。

而非BEV方案的智驾系统用的都是后融合方案,各摄像头独立工作,当障碍车辆刚好处于两个摄像头视野交界处的时候,两者都感知不到目标。

那对用户来说具体有啥区别?

比如在这个场景,前方轿车突然从右侧加塞进来,距离还很近。

ANP3.0系统因为是BEV方案,实际上早就盯上了这台车,很从容地就完成了避让。

而如果是采用传统方案的智驾系统,面对这种场景要么没反应,要么就是最后一刻来一脚急刹车,体验非常不好。

这里问题来了,既然BEV有优势,为啥其他家不能用呢?

不是不能用,而是暂时用不好。

BEV是AI技术,也需要标注过的图像数据来喂养,但它需要的是4D标注数据!

企业需要先采集360度的环视图像,基于图像生成一个3D空间,然后在3D空间里进行连续帧标注,这种做法与传统2D图像标注完全不同,对数据源、标注工具和标注人员要求很高,新入局者很难快速扩大数据规模。

而百度的L4测试车超过600台,累计行驶超4000万公里,不仅拥有海量360度的视觉和激光雷达数据,还有全套自动化的数据生产线,能为BEV模型提供源源不断的数据燃料。

正是这样,百度才能成为全球第二个在泛化测试阶段用纯视觉算法跑通城市域的玩家。

咱们还是回到实际路测表现来说。

在城市内行驶时识别和躲避非机动车是难点,各种遮挡的情况也是难点。百度在展示ANP3.0能力时,索性秀了一个二合一的两难场景。

在这个路口,ANP3.0的测试车正在右转,同时一个外卖小哥骑车正在快速横穿斑马线。

刚走了几米,外卖小哥又被一个快递车挡住了身影,测试车此时果断选择了减速,待电动自行车穿过后才继续完成右转。

这个场景虽然时间短,但门道可不少。

首先是外卖小哥一开始站的位置很复杂,有行人还有电线杆,都揉在了一起,能够提前识别并追踪到外卖小哥说明ANP3.0的感知模型很强。

其次是车辆的反应很智能,因为你不知道被挡着的外卖小哥要怎么走,他可能继续前进、原地不动,或者原路返回。

如果只是简单的让车辆原地等待,那遇到后两种情况可不就是傻等么。

视频中测试车跟人开车类似,用缓行的方式往前试探,如果看到外卖小哥继续前行,就等他先走,看不到他的话就继续前进。

除了这个场景,百度还展示了多个与非机动车和行人交互的场景,整体反应都很出色。

点评一下就是说ANP3.0已经像一个人类司机一样,可以在复杂的城市场景里帮你开车了。

三、轻量化高精地图打辅助 还能基于数据迭代

ANP3.0的优秀也并非都靠算法,高精地图和数据驱动的架构同样重要。

百度既做自动驾驶又做地图,在国内仅此一家,因而打造了目前最适合自动驾驶的轻量级高精地图,它能给智驾系统提供数百种高精数据元素。并且还通过自动化的生产方式大幅降低了制作成本,可以更快速更新,为智驾系统的量产交付保驾护航。

现在百度有超过40万公里的高精地图数据可以给智能驾驶系统使用,几乎覆盖国内所有高速和快速路,同时还拿下了上海、广州、深圳三个城市地图审图资质。

最后我们再说一下进化能力,ANP3.0采用了高度集成的AI化设计,尤其是感知模块,90%都是AI算法,这就意味着它可以通过数据不断升级。

数据从哪来呢?

一是百度的L4车队,每天都在跑。

二是明年ANP3.0交付给用户后,路上的车辆每天也会收集到海量数据,通过动态挖掘和车云交互技术,百度可以在云端有的放矢地挖掘高价值长尾数据

然后迅速进行模型训练,实现模型周更,甚至高优先级问题数天修复的迭代频率。

这架势,是不是特别像学校里的某些学霸?本来就赢在了起跑线上,结果没想到跑的还比别人都快。

百度方面告诉我们,ANP3.0系统已经获得了车企的项目定点,消费者最快明年夏天就能买到搭载这套系统的车型,现在百度正在国内多个城市对ANP3.0进行泛化测试以持续优化和改进系统。到交付的时候,相信也会有着更加亮相的表现

看完ANP3.0的具体表现之后,屏幕前的小伙伴们是不是已经迫不及待想要来一个“百度代驾”了呢?咱们评论区见。

文章标签:
新能源 行业资讯
 
相关推荐
车东西 6171粉丝    2983作品 关注 智能汽车产业新媒体。
推荐作者
车轮哥 关注
记录老外在中国的汽车生活。
爱车大家说 关注
分享用车相关知识,让你更懂你的车。
汽车爆闻 关注
新品汽车独家爆料,用车试车开车体感分享
大威说改车 关注
热爱原厂改装升级,大威说改车和你分享。18820132777
酱酱侃车 关注
跟着酱哥,没有肉吃但有车开
车霸霸说车 关注
一个有态度的汽车自媒体
远闻观车 关注
纵览车市风云,点评车圈江湖。
笑寒松 关注
专业车迷必须了解的原创干货!
全部爱咖号