ChatGPT走红后,大模型的热度继续下降,并逐渐形成“千模大战”的局面。前两个月,百度、阿里、腾讯加入;5月,网易先有道,基于发布“子曰”大模型开发的AI口语教师剧透视频介绍了基于教育场景的ChatGPT产品;后来,科大讯飞发布了认知大模型“讯飞星火”……总之,各种大大小小的新闻发布会,都在向外界证明自己到底有多大的想象空间。
随着大模型的全面发展,其产业化也越来越多地被提及,以前的炒作“AI ”也再次站在风口上。在此背景下,人工智能大模型在汽车领域的应用也开始飙升。
(图片来自Canva可画)
智能汽车的“ChatGPT时刻”来了
目前,虽然大模型重构已成为各行各业的共识,但ChatGPT“上车”远比预期的来得快。作为继家庭和办公空间之外的地方“第三空间”,汽车正在成为一个新的智能终端。ChatGPT到来后,车机关系受到了更大的影响。
一是ChatGPT对汽车自动驾驶的影响。业内分析人士表示,大型模型具有处理大量数据和多维分析的能力,可以提供更准确、更全面的数据分析和预测能力,不断优化模型,提高智能驾驶的准确性和可靠性。特别是随着ChatGPT的出现,人们发现当模型的参数达到一定程度时,效果不是“性能变好”,而是“出奇的好”。
在应用层面,大型模型对自动驾驶的影响是:在云中,汽车公司可以充分发挥模型参数的大容量优势,通过大型模型完成大部分数据标记和数据挖掘工作,节省数据标记成本,并在模拟场景的帮助下构建授权。在车端,它可以将负责不同子任务的小型模型合并为大型模型,节省了车端推理的计算时间,提高了车辆的安全性。最重要的是,它被认为是自动驾驶算法终局端到端感知决策集成算法的瓶颈。自动驾驶算法升级即将到来。
二是对汽车智能驾驶舱的影响。车载ChatGPT语音助手可以处理完整的对话,如提问,保持对前后文本的理解,形成更好的语音交互体验。例如,微软和梅赛德斯—奔驰探索ChatGPT插件生态系统,为第三方服务集成开辟可能。未来,驾驶员有望通过车载系统完成餐厅预订、电影票预订等任务,进一步提高便利性和生产力,大大丰富智能汽车与人之间的互动体验。
此外,在改变智能驾驶和智能驾驶舱交互能力的同时,也对汽车的研发模式和商业模式产生了新的影响。在研发方法方面,由于机器的高效标记能力,数据标记任务需要一年的时间,现在只需要几个小时,研发周期大大缩短,多模式(视觉、语音、手势等)丰富的数据,可以进一步提高整体研发效率,降低研发成本。就商业模式而言,车载AI语音交互在它具有情感智能之后,它就会从中走出来“雇佣关系”演变成“陪伴关系”,更好地了解人们的喜好和习惯,这将产生新的商业价值。
产业探索流派纷呈
也许正是意识到这一点,现在越来越多的汽车公司选择接入AI大模型。除了国外梅赛德斯-奔驰宣布ChatGPT外,国内理想汽车还发布了自主研发的大型MindGPT。百度的文心也与长安、吉利、兰图、红旗、零跑等众多汽车企业相连。“让梦想窒息”未来,法拉利也将大型模型纳入新车。不难预测,未来大型模型将在智能汽车中普及,这将是一个高概率事件。从整个汽车公司的角度来看,大模型发展的方向和重点是不同的。
从功能上看,可分为以下两类:一类用于人工智能交流对话领域,大部分用于智能驾驶舱。比如百度的文心一言,东风日产、红旗、长城等近十家汽车公司已经宣布接入;上海车展期间,尚堂科技出现在日日新sensenova大模型中,展示了中文语言模型“讨论Sensechatt”以及“如影像Senseavatartar”等待与驾驶舱的结合;此前,阿里巴巴还宣布,AliOS智能汽车操作系统已接入通义千问大模型进行测试。
另一种是聚焦智能驾驶的大模型应用。例如,毫末智行发布了大型自动驾驶生成型DriveGPT,帮助解决认知决策问题,最终实现端到端自动驾驶。理想汽车自主研发大型MindGPT,摆脱对高清地图的依赖,使汽车更接近人类驾驶员的驾驶性能。蔚来、小鹏、长城、奇瑞四家汽车公司,也已注册申请多个与GPT相关的商标。
从参与者的角度来看,它也可以分为两类:一是汽车公司亲自完成,如理想汽车、百度将自己的大型模型应用于自己的汽车产品等;另一类是外部制造商向汽车公司提供大型模型,如华为盘古大型模型、百度文心等用于其他汽车公司。
与普通大模型相比,垂直领域的大模型培训和使用成本较低,可能更容易实现商业化。据业内人士分析,汽车具有明确的交互需求,垂直领域的应用场景相对较小,参数量级要求不如通用人工智能大。因此,无论是传统汽车制造商、新力量还是大型技术制造商,人们普遍认为智能汽车最有可能成为第一个实现大型模型着陆的B端场景。
大规模上车的机会尚未成熟
目前,尽管ChatGPT已经启动“上车”,已经拉开了智能汽车领域大模型竞争的序幕。但现阶段还有一段距离大模型真正上车的距离。
首先,汽车公司做大模型,多模态数据的收集、处理和培训本身就是一个难题。自动驾驶所需的传感器数据包括激光雷达、毫米波雷达、超声波雷达、高清摄像头、GPS等。这些数据来自不同的坐标系,具有不同的触发时间戳,并考虑硬件损坏;同时,需要大量的场景数据,如交通标志线、交通流量、行为模型等。这使得大型汽车研发和培训的门槛非常高。
业内人士认为,模型数据调动管理需要使用许多平台,如智能网络车辆、计算技术平台、云控制技术平台等。只有实现海量数据的收集,才能进行交叉,尤其是在垂直领域,这与车内的其他系统不同。如果无法打开基本的平台能力,就很难向更深层次发展。此外,虽然生成人工智能在信息获取方面取得了突破,但在决策和执行控制方面,它离真正登陆汽车还有很长的路要走。
此外,端到端人工智能大模型培训需要在智能汽车中构建基于人工智能大模型的新算法,这也需要一个过程,业内人士认为至少需要3—完成这个过程需要五年甚至更长时间。
其次,由于车载设备的硬件条件有限,车内大模型所需的硬件配置可能有限,难以有效发挥作用。具体来说,大型模型需要高标准的硬件配置,包括高性能计算能力、大容量内存和低延迟,但车载设备的硬件条件相对有限,无法提供足够的计算能力资源来支持大型模型的运行。例如,GPT-3模型在自然语言处理领域需要数万亿TOPS的计算能力。这就要求芯片的计算能力至少在万级TOPS以上,才能胜任大模型的计算任务。但在车载部署场景中,芯片的计算能力往往只有数百个TOPS,远远不能满足大型模型的要求。
在此背景下,汽车计算能力基础设施的升级已成为必然趋势。目前,智能计算中心可能成为未来的智能汽车“标配”。例如,特斯拉发布了一个独立的云智算中心——Dojo,总共使用了1.4万个英伟达GPU来训练AI模型。在中国,小鹏汽车和阿里云共同建立了智能计算中心“扶摇”,专门用于自动驾驶模型训练,计算能力可达600PFLOPS;毫末智行和火山发动机共同打造了中国自动驾驶行业最大的智能计算中心“雪湖.绿洲”,每秒浮点运算可达67亿次。然而,这些建设仍处于探索应用阶段,大型模型应用大规模上车的时机尚未完全成熟。
底层技术是未来竞争的焦点
目前,人工智能大模型对汽车最重要的变化可能是它将进一步驱动汽车,从制造属性到技术 消费电子属性的转变。在此背景下,汽车厂本身的底层技术能力将成为未来决定性胜利的关键。
一方面,人工智能大模型将被重新定义“人机交互”和“服务生态”,加快汽车应用服务生态消费电子化,将改变底层产品的定义。目前,车载语音系统的底层是一个不完全成熟的任务对话系统,不能真正实现个性化、情感和自由的交互能力,大型模型可以通过深度学习 声音生成,迎来开放场景 全新的自然交互人机交互体验。同时,在R&D和设计中,随着大模型的OS化,传统APP上车、点击功能、HMI交付的必要性和重要性值得思考,这意味着汽车“产品”重新定义。
正如前华为自动驾驶产品部部长苏青所说:“首先,我的基础是汽车,现在有一些计算机单点,所以我把汽车作为一个基础,试图嵌入计算机,这是传统汽车制造商的观点。我们有不同的看法。基础是计算机,汽车是计算机控制的外设。一台大计算机出了问题,把车挂了起来。这是不同的本质观点。”事实上,在大型车型上车后,汽车的计算中心、智能和消费电子属性将变得更加明显,其产品定义将遵循消费电子的基本逻辑(如应用程序、生态服务等)的迭代演变。
另一方面,人工智能大型模型将改变现有的汽车算法。考虑到大型模型应用所需的硬件成本和外部环境,国内企业未来大型模型的技术实力将更依赖于底层技术,包括人工智能操作系统。具体来说,原汽车的自动驾驶算法更依赖于劳动力。接入大模型后,需要依靠大模型驱动形成新的智能算法。为了构建这样的算法,我们不仅要做好产品,还要做好平台。
例如,包括芯片、云在内的计算平台需要低成本和标准;有了好的产品,我们可以有足够的销量和足够的销量来增加“端到端”(云到车端)闭环数据;人工智能大算力芯片作为基本支撑,也需要重新考虑汽车公司自身的情况。回到底层,谁的训练成本低,谁的转化速度快,谁就跑到前面。
以英伟达的培训芯片为例。一个芯片被炒到10万元。关键是这种高成本的芯片培训方案不是汽车公司的最佳解决方案。而且受外部制裁的影响,这种“外供依赖”随时都有可能被掐掉,非常脆弱。而且受外部制裁的影响,这种“外供依赖”它可能会在任何时候被切断,这是非常脆弱的。因此,从长远来看,如果汽车公司想在这一领域走在行业的前列,他们要么增加对底层芯片的自主研究,以降低采购成本,如百度自主研发人工智能芯片,要么寻求人工智能算法和操作系统的突破,以找到最佳的应用路径。
原创文章,作者:刘旷,如若转载,请注明出处:https://www.car-metaverse.com/202307/1012100479.html