AutoLab 10月18日 00:33
智能驾驶技术路线对比:理想、华为、特斯拉谁更胜一筹?
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

智能驾驶正从感知迈向认知,各厂商探索不同技术路径。理想汽车采用VLA技术,强调语言大模型理解世界并指导驾驶;华为则推行WEWA架构,以世界模型实现“感知到行动”的闭环,拒绝语言化;特斯拉FSD则以纯视觉硬件和端到端技术为标杆。文章通过理想i8、问界M8和特斯拉Model Y的实测对比,在停车场自主泊车、复杂道路行驶(如掉头、特殊车道、文字指示牌路口)以及人机交互方面,展现了不同技术路线的优劣,探讨谁更能适应中国复杂多变的交通环境,引领“拟人化”辅助驾驶新方向。

🚗 **技术路线分化**: 智能驾驶的竞争已进入“看得懂”的认知层面。理想汽车坚持VLA路线,利用语言大模型理解世界并指导驾驶,实现“思维链”的类人认知与推理,并催生了“理想同学”Agent。华为则采取WEWA架构,强调“去语言化”的世界模型,直接打通“感知到行动”的闭环。特斯拉FSD则以纯视觉硬件实现端到端,在全场景可用性上是标杆。

🅿️ **停车场自主泊车能力**: 在陌生停车场,“车位到车位”的领航辅助能力是关键。理想i8和特斯拉Model Y采用“漫游”模式,依靠实时感知寻找车位,理想i8在此环节表现更为迅速高效。问界M8则依赖“云图”技术,在已有地图覆盖的停车场内表现出色,如“预知”般从容,但若无云图则需降级为LCC。

🛣️ **复杂道路驾驶表现**: 在公开道路上,理想i8在掉头场景中展现出更强的灵活性,能实现三点掉头。其与问界M8能识别潮汐车道和可变车道,而特斯拉Model Y尚不支持。在文字指示牌路口,具备语言大模型的理想i8能精准识别并执行“进入待行区”指令,体现了语言模型在复杂场景下的独特优势。

🗣️ **人机交互体验革新**: 理想i8搭载语言大模型后,交互体验显著提升。系统具备动作可解释性,在中控屏上展示感知与决策原因,增强了用户对系统的理解和信任。同时,其语音控车能力大幅提升,能理解复杂指令并结合当下环境做出判断,甚至能实现泊车入位等精细化操作,重新定义了“拟人化”的驾驶伙伴。

💡 **不同技术路线的价值**: 特斯拉以纯视觉证明了硬件的潜力上限;华为通过世界模型深化了对环境的全局理解;而理想则将“语言”引入,开创了新的用车交互方式。三种技术路线各有侧重,共同推动着智能辅助驾驶向更高级、更拟人的方向发展。

原创 汪洁 2025-10-17 18:03 上海

“看得清”到“看得懂”

智能驾驶的竞争,已经从“看得清”的感知层面,进入了“看得懂”的认知层面。

为了让智能辅助驾驶系统更拟人,各家厂商纷纷将大模型技术引上车,但路径选择却截然不同。

理想坚决地走 VLA 技术路线,强调语言模型在智能辅助驾驶中的作用。通过语言大模型对视觉感知到的物理世界进行理解,再去给执行模块输出指令。

这个过程会产生车端的思维链,具备类似人类的认知、推理和沟通能力。甚至理想还基于这样的技术做了“理想同学”Agent,我们可以通过语音指令操控它完成一些驾驶动作。

华为则明确拒绝VLA路线,采用WEWA架构,用世界模型实现对信息的全景理解,强调“去语言化”,直接实现“感知到行动”的闭环。

特斯拉 FSD 使用最简单的纯视觉硬件,将端到端发挥到极致,实现了全场景可用,一直是标杆车型,但在本土的使用体验是打了一定折扣的。

这三种理念,谁更能适应国内复杂多变的交通环境?

我们通过理想i8、问界M8与特斯拉Model Y的同场对比,带大家看看不同技术路线实现的“车位到车位”,体验究竟有什么区别。

三车版本如下:

车位

想实现“车位到车位”的全场景领航辅助,车辆必须具备进出园区以及在园区内自行寻找车位的能力。

过去行业普遍采用“记忆泊车”方案,需要提前建图——车主需先手动驾驶一遍,让系统记录路线与环境信息。

而现在,这三款车型的辅助驾驶系统已能应对陌生停车场,无需车主预先采图,就能实现自主进出。

其中理想i8和特斯拉Model Y的应对方式是“漫游”,也就是一边用感知系统认路一边找车位。

理想i8 在目标停车场附近切换漫游状态,通行闸机进入园区后就近泊车,从发现空位到停好车全程没超过50秒。

出停车场时,理想i8可以车位上原地开启功能,为了调整车身还进行了倒车脱困,顺利出园区汇入主路。

相同环境下,特斯拉Model Y的漫游功能出现了一些异常动作,可能是受闸机处的竖杆影响。

出停车场时,特斯拉Model Y同样是原地开启功能,跟随地面路标指引,漫游到闸机。

但应该右转汇入主路时,它抖动方向盘选择向左打,有撞杆风险,所以驾驶员介入了。

问界M8的方式和这两款车不同,它依靠“云图”,也就是说华为要在全国各地的停车场提前采图并上传云端共享给所有车主。

如果目标停车场并不在云图范围,那么它在入口处就会降级为LCC状态,需要驾驶员手动开进去。

优势在于,华为云图数量多、新增速度快。

如果你要去的停车场恰好有图,那么就可以在设置导航时,直接选择目标停车位的某具体车位

如果这个位置被占用,车辆还会继续漫游找车位,全程没有停车焦虑。

总结一下找车位时,问界M8凭借云端地图,在覆盖区域内像有预知能力,即使初来乍到也能从容不迫。

而理想与特斯拉则完全依赖车辆的实时感知,不受地图限制;其中,理想的实时找路能力表现更为出色。

行车

再来看看理想i8、问界M8与特斯拉Model Y在公开道路上的表现。

三车差距比较明显的地方有三处。

首先是掉头场景。

理想i8是其中唯一一款能够实现三点掉头的车型,当转弯受困时,它会倒一把来调整车身,所以它在更加狭窄的主路也能完成掉头。

其次是特殊车道。 

对于潮汐车道和可变车道这种特殊车道,目前只有理想i8和问界M8可以识别,特斯拉Model Y没有经过训练,还没学会这些规则。

最后是文字指示牌路口。在这种场景中,大家应该就能感受到语言模型在智能辅助驾驶中的独特作用了。

当路口的文字指示牌,变化为“直行车辆请进入待行区”时,只有上了语言大模型的理想i8,立马识别并进入待行区时。另外两车,均无反应。

交互

从交互体验上来说,上了语言大模型的理想i8有两点和问界M8、特斯拉Model Y截然不同。

第一点是,系统具备动作可解释性。系统会把自己看到了什么、做每一个动作的原因都在中控屏上显示出来。

我们不会再觉得它某些动作很奇怪,万一出错了,也知道是什么原因。

但是文字有点太密集了,建议简化些会更好。

第二点,是理想i8可以实现语音控车。

在听懂指令的同时,也会考虑当下情况,适不适合这么做。

我们甚至可以在停车场里说一声“靠边停”后全员下车,让它泊入车位。

或者直接说一句“停去电梯口”,小小的电梯间标志也逃不过理想i8的感知系统。

最后

这三款车通过不同技术路线刷新了辅助驾驶“拟人”的定义,特斯拉证明了纯视觉的潜力上限,华为定义了世界模型的深度,而理想让“语言”成为新的用车方式。

那么看完这期评测,谁的辅助驾驶是你最中意的开车小伙伴呢?

END

阅读原文

跳转微信打开

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

智能驾驶 辅助驾驶 理想汽车 华为 特斯拉 VLA 世界模型 纯视觉 语言大模型 自动泊车 人机交互 Intelligent Driving Assisted Driving Li Auto Huawei Tesla VLA World Model Pure Vision Large Language Model Autonomous Parking Human-Computer Interaction
相关文章