梧桐车联王永亮:赋能智能座舱,策略脑3.0帮助用户使用好智能汽车

12月20日,由北京大学光华管理学院、腾讯云联合主办的“AI驱动汽车新智能”出行产业沙龙在北京大学举行。梧桐车联副总经理王永亮受邀出席活动并发表《行业大模型在智能座舱领域的应用和实践》主题演讲,分享 AI大模型驱动汽车智能化发展的当下,梧桐车联在智能座舱领域的丰富实践与最新成果。

王永亮表示:“梧桐车联始终认为垂域数据训练才是智能座舱真正需要的大模型,它能有效应对个人隐私问题、虚假信息和误导性问题,更能为用户精准匹配服务、丰富驾乘体验,为此梧桐车联正在加码打造‘车垂域专有的架构和语料训练能力’”。

梧桐车联从2020年开始进行智能化的打造,目前已经进行到3.0阶段,王永亮表示:“策略脑3.0是以大模型作为一个基础、一个核心的构建,赋能智能座舱,通过感知理解服务,帮助我们的用户真正使用好智能汽车。”

目前,依托腾讯提供的大模型理论基座,结合来自长安汽车丰富的实践机会,梧桐车联已实现万亿级参数语言大模型,其以重构为切入点,具备理论、整合和垂域三个特点,能够实现连续的对话。

以下为王永亮演讲全文:

大家晚上好!

我今天分享的主题是行业大模型在智能座舱领域方面的一些应用和实践。

我们汽车行业正从上半场的电动化走到了下半场的智能化。大家都知道汽车行业有接近150年的历史,我国电动汽车产业借助于电动化腾飞,这是一个很了不起的成就。

如果是这个行业的人都知道,或者说在移动互联网行业的都知道,汽车也被誉为是工业皇冠上的明珠,所以我们取得这个成就很不容易。但是在弯道超车的过程中,下半场的竞争将更加激烈。

近几年为了强调软件在汽车中的作用,我们说软件能够定义汽车,实际上我认为那是一个手段,我们的目的是智能化,所以在这个方面,我们认为智能化才能够真正地去定义汽车,但智能化面临一个很大的问题:它的目标是什么?下一步怎么发展?怎么度量?梧桐很早就开始进行这方面的思考。

我们在前几年就开始参与了中国工程汽车学会牵头的白皮书的创建,我们的目标是为了构建理论-技术-产品的代际发展理念。

智能驾驶之所以发展这么快,得到用户的认可,我认为分级起到了很重要的作用,虽然汽车学会是比较权威的组织,但实际上并非所有厂商或者大家都认可的,但我觉得这个探索是非常有意义的。以前的功能车是L0,但现在的智能车在L1-L2之间,也就是我们所说的智能座舱。

梧桐汽车在2020年就开始进行智能化的打造,我们叫策略脑的打造,迭代到现在叫策略脑3.0,因为有大模型的加持或支持,它自动化水平有质的提升。

后面我简单介绍一下几代的历程。

我们策略脑1.0是简单规则的执行,相对比较简单,相当于A到B满足什么条件,我们就执行什么任务。

策略脑2.0,这时,我们实现了复杂场景的编排,实现了多场景的联动。这时候我们认为它已经具备了智能感知、智能座舱的全量能力,它在往部分主动交互的水平在推进。

策略脑3.0,它已经达到了L3的水准,但这还在开发完善当中。

大家可能也会觉得梧桐还是一个比较小的公司,现在不到1000人,跟腾讯、跟理想比,还有很大差距。梧桐为什么可以做到这些?其实梧桐有很大的优势。

第一,腾讯给我们提供大模型理论的基座。

第二,长安会给我们提供实践的机会。

这是非常难得的,我们有腾讯大模型的支持,有长安车的实践。

其实我们在很早就参与了腾讯大模型生态的构建,我们在同步发展,一起在探索大模型在汽车智能座舱行业的应用场景的一些机会。

我们也依托于长安,很早就有把汽车看作机器人的构想,我们认为汽车远远不是一个交通工具,实际上它是一个行走的机器人。有一个很形象的比喻,把电子电气架构比喻成大脑和神经网络,这对应着咱们人的身体素质。另外三层,操作系统层比喻成人的心智,云端大数据对应着人们的知识单元,这是对应着人的情商和智商,我们刚好参与的就是上三层的打造。

所以我们有这么一个很好的机会,希望帮长安一起打造一个“双商在线”的智慧型产品。

在两个“股东”方面的支持下,使我们具备了高阶智能座舱的典型能力。

我们简单分享一下梧桐在大模型方面做的一些探索,我们觉得挺有价值的,希望对大家有所启发。我们的大模型是站在腾讯千亿级别参数的基础上,再加上一些领域的支持,现在是万亿级参数,并且在不断强大。我们自研的语言大模型是以重构为切入点,能够实现连续的对话,刚才讲了智能语音对话是大模型最重要的特点,将来交互肯定会进行重新的整合。

我们大模型的特点,做为一个产品,怎样给它立几个标签?我们认为它有理论、整合和垂域这几个特点。

为了实现我们的构想,实际上我们的大模型的一个主要特征是端云一体,这里面主要的考量有三个方面:第一是它的效率,第二是它的稳定性,第三是它的安全。

这里面有几个很重要的方向,我们是怎么做的?一是软件和硬件,你要考虑云端和车端的软硬件设施;二是协作优势;三是灵活和稳定,后面会讲到大模型的安全性,特别是在车的无网和弱网环境下,依然能够保证我们的服务质量,我们觉得在构建汽车大模型上应用的时候,这是相当重要的;四是安全和隐私,这是在大模型时代首要考虑的问题,虽然对我们企业来讲要避免法律和道德风险,我认为从用户的视角来讲,更不能给用户造成伤害。

为什么要做端侧?因为即使服务器挂掉的时候,或者说网络不稳定的时候,我们端侧也能保证基本的稳定服务。

在云侧,我们有几个特点:我们利用腾讯大模型训练平台,让我们拥有近乎无限的算力,在网关层我们要屏蔽网络的调动差异,我们也利用MaaS模型即服务,支持行业小模型和大模型的灵活部署。最重要的是我们会自研自己的机器学习平台,具备从数据、算法、训练、评估、部署的全流程能力。

刚才讲了我们对大模型的一些探索,策略脑3.0是通过感知理解服务,帮助我们的用户真正使用好智能汽车。

下面简单给大家介绍一下我们在大模型应用的几个案例。

第一个案例,最重要的就是大模型在语音交互方面的应用。在汽车这个半私密空间内,非常适合自然语音交互的应用,所以我们行业大模型的应用,让我们真正可以实现综合意图的理解。我这里举个例子,刚才视频里也有,帮他把门仓打开,这个模糊的语义,在以前是特别难搞定的时候,它里面有指定词,多意图,手势理解,有了大模型之后就特别简单。

第二,我们利用大模型的图形识别和理解能力,实现真正的AI。行业内的人都知道AI最重要的就是不贴路、不贴车,微小的动作,调焦也搞不定。但是我们有了大模型的工具,一切都不是问题。

第三,我们大模型最重要的一个特点,就是拥有全世界几乎所有的知识,通用大模型99.99%的人都干不过它,但是我们在车上面,再加上车垂域数据的加入,所以肯定会比老司机更懂车,所以以后开车的过程中,你不懂就问、问了就会,这是没问题的,出了事故,大模型也能够直接给你最好的建议,也不怕被坑。

第四,大模型在智能驾驶上能够实现真正的自动自适应车控。在雪地里,它会自动把雪地模式打开,建议你怎么开、开多快,它比老司机更好。

我觉得未来车越来越不需要人有太多技能,例如我现在基本不会自己停车进库了,都是自动泊车搞定。

展望未来,我们认为未来策略脑4.0随着咱们技术的成熟,特别是我们数据积累到一定程度,我们的算法还在演进,我们的算力也在不停地增强。我认为未来车一定会比你自己更懂你自己。

谢谢,希望对大家有启发。