PG(中国大陆)官方网站-电子AI辅助平台

对话李想:在AI面前所有的人性都应该得以保留-PG(中国大陆)官方网站

PG新闻
分类

对话李想:在AI面前所有的人性都应该得以保留

发布时间:2025-05-08 22:11:37    浏览:

[返回]

  

对话李想:在AI面前所有的人性都应该得以保留

  理想汽车创始人李想在接受采访时表示,自动驾驶领域应该是VLA最早实现的,因为规则清楚且具有确定性。

  3.为了解决数据获取难题,理想汽车采用了世界模型和生成数据训练的方法,大幅降低了验证成本。

  4.此外,李想强调关注人,尤其是关注亲密关系的人,以提升自己的能量和吸引更多能量。

  5.最后,他表示,所有的人性都应该得以保留,包括好的和坏的,以创造一个有生命力的世界。

  距离上次《独家与李想的三小时访谈》发布过去了130多天,人工智能的世界翻天覆地,我与理想CEO李想决定,再坐下来聊聊对人工智能的全新观察。

  这次访谈的话题包括:过去五个月的AI王国变幻、中国AI出现的最大变量DeepSeek与梁文锋、理想还做基座模型吗、辅助驾驶的新模型VLA(视觉语言行动模型)以及李想对AI与人性的哲思。

  在AI面前,什么是值得被保留的人性?李想说:“所有的人性都应该得以保留。无论是好的和坏的。”

  在他看来:“没有坏的,就没有好的。你可以把好的东西和不好的东西都当成一种特质——它是文化的特质,它是生命的特质,它是性格的特质,它是能力的特质——这样才是一个有生命力的世界,才是活生生的人。”

  张小珺:距离上次AI Talk 过去 130 天,你最大进步是什么?你有成为一个更智能的李想吗?

  李想:这 130 天我更高兴看到整个中国进步。包括DeepSeek、通义千问。可以让中国无论是基座模型,还是推理模型、多模态,已经跟美国的距离基本上拉近,或者基本上在一个水平线。

  中国的企业做出来这些模型效率也更高,无论在训练的层面,还是在后边整个推理层面,我们做了很多深层工程改造。也让中国人工智能领域更有信心。也包含后边我看到一些比较惊喜的,在 Agent(智能体)上面的突破,无论是Manus还是Genspark,非常惊喜。

  今天大家在讲语言模型,但我还是认为语言模型只是世界的重要组成部分,并不是全部。我们要想理解物理世界,要想让一个终端或者一个机器人能在物理世界和数字世界运行,要做的工作还非常多。这让我们也更加坚信,这条路走下去是对的。

  李想:没有那么大变化。如果从实际角度,人工智能发展这么好,我每天工作时间并没有减少,还是在增加。

  AI作为一个信息工具不是完美的,因为它最后一定要给你next token(下个词元),一定要给你一个结果。

  大家今天使用的时候会先点上联网搜索,先去通过Rag(检索增强生成)联网搜索一些索引信息。但往往索引的信息源,已经失真和不准确了,所以最后推理的过程,(虽然)很认真在做推理,但你明显看到这个过程和结果已经开始有问题。所以如果我们不对这套机制进行一个改造,它仍然在做熵增,在增加大量无效信息、无效结果、无效结论。

  这是一个很大挑战,我就在思考一个问题,还是要站在真正用户价值的角度。如果大家在拼命使用AI,大家在为AI做投资,但我的工作时长并没有减少,我的工作结果也没有变好,这个问题到底在哪里?——这也是过去几个月我跟很多人在聊,在思考,我们内部在讨论非常多的一个问题。

  很多时候不要把东西缠绕到一起。我们可以先做一个分类,因为人类历史上也会有类似这些的分类:

  今天,通过一个对话的方式,无论文本多么长,它都是信息工具,信息工具对大家更重要的是参考作用。

  再往下,AI 变好了以后,它会变成辅助工具。我们今天做的辅助驾驶,大家在车上用人工智能的语音方式进行导航,来查找美团、调取音乐,会让效率更高,但它仍然离不开我们。这种角色比较像什么呢?它比原来的使用体验会更好了,但它是辅助工具。

  什么时候才能真正改变我们的工作成果以及减少工作时长,它必须变成生产工具。我自己认为Agent(智能体)最重要的评判条件是,它是否是生产工具、它是否真正能替代我完成专业工作、它是否在产生有效的生产力、它是否真的解决我工作中最重要的 8 小时?

  这是我接下来对Agent(智能体)最重要的衡量,也是Agent(智能体)的意义所在。

  李想:对,国际环境在发生重大的变化,技术也在发生变化,但技术最大变化还是中国在人工智能方面带来的变化。美国的变化反而没那么大。

  李想:DeepSeek我能学到最好的一个方式是:DeepSeek运用了人类的最佳实践,它极简地运用了人的最佳实践。

  它在做DeepSeek V3的时候,V3 是一个MoE(混合专家模型),671B的一个模型。MoE(混合专家模型)是非常好的架构。它相当于把一堆专家组合在一起,每个是一个专家能力。

  这个专家能力是怎么构建的?挺明显的,当我们想去构建能力的时候,DeepSeek给你展示一个最佳实践——第一步要先搞研究,这非常重要;任何时候,当我们想去改变能力和提升能力,第一步一定是搞研究,搞完研究以后才搞研发;搞完研发以后,第三步是把能力表达出来;第四步是能力变成业务的价值。

  这四个步骤是极简的人类最佳实践,但我们经常做着就忘掉,看到什么东西就直接启动研发,而没有搞研究。我们自己也很受益,无论我们是在端到端和VLM(视觉语言模型)上,还是今天做VLA(视觉语言行动模型),我们的研究团队表现得非常好。

  包括你可以看国外的像李飞飞,她在引用辅助驾驶的时候,经常会引用我们关于辅助驾驶方面的研究论文。这个挺重要。

  研究跑通了以后,研发效率会变得非常高。但研发又非常在意价值,他能够把价值表达出来,然后变成业务。这是很重要的过程。

  我印象应该是1月20号DeepSeek R1上线的,到后边开源,我们也在对DeepSeek做很多研究:DeepSeek很多东西为什么做得好?包括训练和推理效率,也包括MoE(混合专家模型)模型部署上去对内存占用的挑战。我们自己已经开始在芯片上写FP8(8 位浮点数格式)工程优化了。因为我们有编译团队。

  比较有意思的一点是,我没有上来敢跟模型团队直接聊。我先跟谢炎(理想汽车CTO)聊了一下,我说我们本身要做VLA,VLA一个很重要的计划是到今年9月份,能做一个非常好的语言模型出来,才能再往下去训练VLA。

  但今天,我们自己预测到9月份做的模型,能力是否比DeepSeek V3加R1更强?我说至少我听到你们说的东西,我说不如那个强。而且它开源开得如此彻底。

  我们是否应该基于它的开源,去做我们的 VLA的L(language 语言)的部分,并且我们基于这个L(language 语言)的部分,比如我在理想同学用的话可能就是个VL(视觉和语言),它没有A(action 行动),对吧?就把vision(视觉)和language(语言)放在一起,包括做成端到端语音的一个方式。

  我们原来本来应该9月份以后才能做这些,我们是否应该站在巨人的肩膀上就去做了?谢炎说肯定应该这么做。

  我们比较担心陈伟(理想汽车基座模型负责人)会怎么想,这个压力是挺大的。我们发现陈伟比我们还坚决。他说这会加速我们往下一步工作,我们应该以这个为基础,加速VLA,加速端到端多模态进展,研究团队也都在研究我们如何在芯片上也跑到同样的训练和推理效率,大家都在同步地进行工作。

  我跟谢炎打的电话最多,我们还有一个专门的人工智能战略小组,我们就在里边不停地聊,发现大家并不纠结。因为我们知道我们企业的基因,还是要为用户推出最好的产品和服务。

  拥抱DeepSeek的过程比我们想象得要快。今天我们VLA推出的速度也会比原来的预期要快。

  张小珺:你怎么看梁文锋(DeepSeek创始人)?他是怎么找到你说的所谓人类最佳实践的?

  李想:我只跟他聊过一次,去年9月份,印象特别深,应该是ChatGPT的o1发布前的几天。

  第二,我个人认为他是会在全世界范围之内,去研究和学习最佳实践和最好的方法论的这样一个人。

  李想:自律的最大特点就是能够坚守这些你相信的东西,能够坚守这些最佳实践,能跟人性的懒惰、走捷径,这些方面做对抗。

  开源让我们更加敬佩他。DeepSeek的出现对我们加速做VLA是巨大帮助。过去我们打算要到今年年底才能做出一个像样的,能够满足需求的语言模型,但DeepSeek一开源,我们就加速了 9 个月时间,给我们带来了巨大收益和帮助。我们受到了那么大的帮助,我们在想能对社会做点什么贡献,我们就把自研的整车操作系统理想星环OS给开源了。

  没有大家想的那么复杂,我自己内心,包括谢炎的内心就是:DeepSeek给我们带来那么大的帮助,我们应该给对社会贡献点什么。不让行业那么卷——说白了纯粹是感谢DeepSeek。

  我的人生经历——进入了汽车行业,做汽车的网站,一直在自己的长板的延长线上继续做。从最开始做个人网站,到做产品IT网站,到做汽车网站,最后希望能够改变汽车行业,推出更好的产品,汽车叠加下一代信息技术。这是我的延长线。

  他(梁文锋)的延长线就是从人工智能开始。他在浙大学的就是人工智能。那是他的延长线。

  本身我也相信,量化交易的公司,对于整个模型的能力,对模型的理解,对于本身工程的能力,不会比任何互联网公司差,甚至可能还要更强。

  张小珺:春节之后,很多人来问我这个问题:理想还做基座模型吗?——既然都有DeepSeek开源了,为什么还要做基座模型?

  我们车上要有对话,又有多模态,这个仍然需要我们自己训练一个根据我们自己需要的基座模型。包括我要去做VLA。

  因为这个VLA里边,哪怕V(vision 视觉)和L(language 语言)都和正常的不一样。就是这个我需要3D的vision(视觉),还有高清的2D的vision(视觉),token(词元)要用预训练,必须得涉及更专业的车领域的语义语料,交通领域的语义语料,我们面向的家庭用户的语义语料,来做训练。

  也包含很多时候,一个重要的是说,大家在做VLA训练的时候,很多时候在做基座说我要把VL(视觉和语言)也连在一起,把VL(视觉和语言)的组合语料放进去。那这些无论是OpenAI还是DeepSeek,都没有这样的数据,也没有这样的场景和需求,也不去解决这样的问题,那只能我自己来做了。

  只是好处是说VLA里边的language(语言),我可以站在巨人的肩膀上,但它只是我其中的一部分。

  张小珺:所以一方面是拥抱了DeepSeek,另一方面你们把基座模型的团队还拆出去了,并且加大了投入,是吗?加大投入,加了多大?

  比如我们给理想同学用的,会是一个300B模型,就大概是个3000亿(参数)的一个模型,我们给辅助驾驶运用的VLA的,VL(视觉和语言)的部分,是个32B模型。包含我们真正工作中用的,也会去用3000亿的模型。大概现在是这样的两个版本。

  如果你规则算法都做不好,你根本不知道怎么去做端到端,如果你端到端没有做到非常极致的水平,你连VLA怎么训练都不知道。

  张小珺:今年2月5号,也就是春节之后,你们的第一个AI的例会,你说:DeepSeek更像是Linux推出,而你们要去追逐安卓时刻,你们准备怎么去争夺安卓时刻?

  李想:这个东西是一个比喻,比如安卓是基于Linux开发出来的一个手机操作系统。

  我们以语言作为基础,我们的VLA就是把vision(视觉)这部分做成最强的,把action(行动)也做好,借助了L(language),就是语言的能力。VLA就比较像在汽车或者交通领域的更重要的一个大模型或者操作系统,这是我们的机会所在。

  今天的辅助驾驶走到了一个新的十字路口上,有的人甚至觉得辅助驾驶应该被叫停。你怎么想?

  李想:我们这么多年,从规则算法,做到了端到端+VLM,今天真正迈入到VLA的阶段,比较像什么?像黎明前的黑暗吧——黎明马上就要来了,但会先经历一个黑暗的过程,之所以有黑暗是因为要迎来黎明。

  正因为辅助驾驶行业遇到了问题,我最喜欢、最开心的方式,是去解决行业解决不了的问题,这是我们自己坚决相信的。

  就跟我们推出增程,是为了解决电池成本高、充电难的问题。我们推出5C也是为了解决充电慢、等待时间长的问题。我们愿意去解决各种行业问题,包括我们做操作系统,也是因为过去,传统的车控和智控的操作系统性能差,开发缓慢,芯片匹配周期长的这些问题。这些问题(存在)恰恰是我们的价值所在。

  李想:只要人类会雇佣司机,人工智能技术就是把类似这样的功能和角色,去变成真正的生产力、生产工具,然后去进行替代。

  李想:对于我们而言, VLA是一个司机大模型,像人类的司机一样去工作的模型。

  经历了三个阶段。第一阶段是我们从2021年开始,通过机器学习的感知,配合后边的规则算法,包括规划、控制、执行这些规则算法分段式的。

  第一个阶段比较像什么?像昆虫动物的智能。它有既定规则,还要依赖于高精地图,就比较像蚂蚁的行动和完成任务的方式。

  它(规则算法)就这样一个规模的脑子,包括整个模型规模大概只有几百万参数。它就那么小一个脑子,你让它去完成复杂的事情,几乎不可能。所以你就不停地限定、限定,几乎把它做成一个有轨交通的方式。跟蚂蚁非常相似。

  第二阶段是我们从2023年开始搞研究,2024年推出端到端。端到端比较像什么?比较像哺乳动物的智能。比如像马戏团的动物,像人类学习怎么骑自行车。它学了人类的这些行为,人类怎么去做出各种行为开车。但是它对物理世界并不理解,只是看到一个什么样的三维图像,知道自身的速度,并给出了一个什么样的轨迹,所以它应付大部分的泛化没有问题,去面对它从来没有学到的、特别复杂的,就会遇到问题。

  这时候我们也会配合,视觉语言模型 VLM,然后放进来。但是我们能够用到的视觉语言模型这些开源的,用在交通上的能力都非常有限,所以只能起到一些非常有限的辅助作用。

  到了VLA,就是完全人类的运作方式了。它会像人类一样,用3D的vision(视觉)和2D的组合,去看真实物理世界,也包含它能够去看懂导航软件,这样的软件是怎么在运行的,而不是像VLM(视觉语言模型)那样只能看到一张图片。

  另一方面,它有自己的整个脑系统,不但要看到物理世界,还能够理解物理世界。它有language(语言),有CoT(思维链),有推理能力。

  第三,它能够像人类一样,真正去执行行动。VLA放在我们的汽车,辅助驾驶领域,我们把它称之为VLA司机大模型。

  李想:第一个是训练环节。训练环节第一部分是什么呢?要训出来一个VL(视觉和语言)基座,就vision(视觉)和language(语言)基座。

  我们目前在训的,当前这个版本,是一个32B的,就是320亿云端的基座模型,所以先训这个。这里边,跟过去这些语言模型差异在于什么?第一在于我要放入更多vision(视觉)的语料,放入vision(视觉)的token(词元)。

  vision(视觉) 里面包含两个部分,一部分是 3D上的vision(视觉),物理世界 3D 的 vision(视觉) 要放进去,第二个是高清的、2D的vision(视觉)。因为今天,大家看到各种多模态的开源 VLM(视觉语言模型) 里边,它整个 2D vision(视觉)的清晰度太低,所以看的距离不够。我们放进去的基本上图像分辨率提升了10倍。这是非常之重要的。这是一个部分,是vision(视觉)的token(词元)和语料。

  第二个是要放入language(语言),跟交通、驾驶相关的足够多的这方面的语料。这是language(语言)的部分。

  第三个还有一个很重要的,是大家可能容易忽略的,就我们必须放入很多VL(视觉和语言)联合的语料,就是三维图像和对世界的理解语义要同时产生的。比如我举一个例子,我要把导航的地图和车辆对导航地图的理解一起放进去。

  比如我要放入一个,看到导航以后人类做了一个什么判断,这个判断我们的车辆是怎么记录的,把这个语料放进去。

  整个 VL (视觉和语言)基座模型训练的时候,包含了三个部分,数据是vision(视觉)的数据,language(语言)的数据和VL(视觉和语言)联合的数据。它形成一个VL(视觉和语言)的一个基座。

  我要把这个基座干什么呢?我要蒸馏,变成一个 3.2B 端侧蒸馏模型。因为我要保证它运行速度足够得快,无论是两个Orin-X还是Thor-U上能够流畅运行。蒸馏下来是一个3.2B,8个专家组成的MoE(混合专家模型)模型。如果直接跑3.2B一个完整模型的话,双Orin-X和Thor-U的帧率是达不到的,token(词元)的整个输出率是达不到的第一个步骤,这是预训练的环节。

  第二个步骤是什么?是做后训练。后训练是我把它变成VLA。我要把action(行动)放进来。action(行动)部分后训练什么呢?仍然是一种模仿学习。

  特别像你去驾校学开车,就相当于我训练VLA,把它组合成一个VLA的端到端的一个方式,这是第二个部分。这个时候大概模型规模就会从3.2B大概扩大到接近4B,大概这么一个规模。

  同时,它一方面是个VLA,能够直接从视觉,到理解,到最后的输出。但是我们的CoT(思维链)会很短,我不会做超长CoT(思维链),我的CoT(思维链)链条一般两步到三步,我不会再做更多的,否则延时太长,没有办法满足交通或者机器人的安全。

  另外当我 action(行动)做完以后,我还会做一个diffusion(扩散模型)预测,就是下边会发生什么样的时长的一个场景。这主要根据性能会做出来4到8秒的一个diffusion(扩散模型)的轨迹和环境的预测。这是第二个部分,比较像人去驾校学开车这样的一个环节。

  强化我们分成两个部分,第一个部分先做RLHF(人类反馈强化学习),带有人类反馈,所以我们有很多人类数据。就是当它这样的话,人类就会接管,当它那样,人类不会接管。包括人类的一些习惯,拿这块来做一个带有人类反馈的强化训练。

  包括我们安全的对齐都是在这个强化环节完成的,你除了要遵守交通规则以外,你要遵守比如中国的大家的驾驶习惯。你的开车习惯能够融入社会,首先要开得跟整个社会环境上的大家一样好,不能给别人带来麻烦,而不是像一个新手在路上,你变成一个阻碍。

  第二个部分是纯粹的RL(强化学习),是(拿RL模型放到)我们的世界模型来做训练。这块儿的目的什么呢?就是开得比人类更好。

  这块儿,我们中间不会给人类的反馈,只会给一个结果,就是从a点到b点要开过去。但是会有三类的训练要求,第一个是我们可以通过G 值(加速度数值)来判断舒适性,给舒适性的反馈。

  第三个是交通规则的反馈,如果它违反交通规则就没有完成。所以是舒适、交通规则和碰撞事故,让它自己来做整个强化的训练。当这三个步骤完成了以后,VLA能够跑在车端的模型就产生了。

  大概是这么一个方式。跟人非常像——先学习世界、交通和人类的这些知识,这是预训练的环节;后训练的环节相当于去驾校,认真地去学开车;第三个环节相当于到社会上开车,也是我们训练的一个过程,要通过人类的RLHF(人类反馈强化学习)跟人类做对齐,跟社会的环境来对齐。

  另外一方面,通过纯RL(强化学习)强化,以及我们自己在世界模型里生成的数据拿它做强化训练,从而开得比人类更好,能够解决更复杂的问题,或者说,比人类的平均值要好得多,大概是这么一个过程。

  这还没有完,这时有了VLA。但人类是怎么跟VLA工作的时候,我要搭建一个司机的Agent(智能体)。

  司机的Agent(智能体)是什么?是人类以自然语言的方式,就是你跟一个司机怎么说话,你跟一个正常的驾驶员。假设你有男朋友,你男朋友在开车,你怎么跟他说,你就怎么跟司机Agent来说。或者一个代驾,你怎么跟他说就说了。

  这里边,如果是一些短指令,通用的短指令VLA直接就处理了,不需要再经过云端。如果是一些复杂的指令,先要到云端的 32B那里,VL(视觉和语言)处理完以后,(因为它理解交通的一切) ,整个交给VLA来进行处理,大概这么运行的过程。

  说白了它最后一个好处是,它能够像人类司机一样去理解物理世界,能够像人类司机一样去开车,去处理复杂的问题,也能像人类司机一样跟其他人类进行沟通。这是最后我们交付到用户那里的产品。

  DeepSeek也没走过这条路,OpenAI也没有走过这条路,谷歌、Waymo也没有走过这条路。

  张小珺:你们为什么就押注了这条路呢?VLA的技术路线还没有收敛,为什么你们觉得你们可以?

  一是规则清楚,包括你说做强化非常容易。按照每个来讲,交通的世界,一个车会跑到哪里?是有规则的,虽然它很复杂,但是确定的。车又不能开到水里,车也不能开到空中,车只能开到有路的地方,它是复杂但具备确定性。

  第二是车的控制,车是个3 DoF(自由度),车有三个自由度。左右是一个自由度,前后是个自由度,某种程度上还有一点轻微旋转,是个自由度。甚至辅助驾驶某种程度就控制两个多,撑死就三个自由度。如果这个不能实现,机器人的上来就是40多个自由度,那个挑战就更大。

  所以这时候,我们进行模仿学习是特别容易的。车看到的就是人看到的,人操作的就是车操作的,所以第二个它能做特别好的模仿学习。

  第三,它还能做特别好的强化。大家在使用的过程中不满意的时候就接管了,如果这个跟人类没有对齐,它就告诉你不应该这么做,以及告诉你该怎么做,这是非常清晰的指标。

  包含哪怕不做,包括后边我不做人类监督,我靠生成数据来做训练的时候也非常清晰。因为什么是舒适,G值(加速度数值)是可以表达的。什么是符合交通规则是能够表达出来的,交通规则是个清晰的规则。

  第三个是否发生碰撞是可以表达的。如果它很舒适,又不违反交通规则,然后第三个,又没有发生碰撞,a点到b点它就会开得越来越好。它是VLA第一个重要的实验场。

  vision(视觉)和action(行动)的数据是因为车,我们装满传感器是可以收集物理世界数据的,还有人在车上开车是我们可以收集到action(行动)数据的,这两个是最难的,而且也没有任何公司可以替代。

  李想:但是其他车型你有没有建立整个基座模型、预训练的能力,后训练的能力,以及后边强化的能力?因为强化还需要世界模型的能力,这是不一样的,对吧?

  包括我刚才讲的,本身我们怎么去解决很多问题,比如说我讲一个问题,第一个如何提升能力刚才讲清楚了,第二个是说我如何向人类安全对齐,我如果让它像一个职业司机一样足够的安全,足够的舒适,所以我们本身能够要建立强化学习的体系。我们的RLHF(人类反馈强化学习)是很重要,我们有一个成规模的团队了。

  因为很多时候一家公司如果模型能力不强,根本不知道怎么去对齐。因为你模型能力强的时候,你才发现对齐重要性,你才知道Ilya(伊尔亚·苏茨克维,OpenAI联合创始人)原来想得那么远。Ilya把很多事情想得那么远。

  李想:因为模型能力越强,也就意味着它胡来的可能性越高;就跟一个人能力越强,我需要他的职业性越强。

  公司规模越大,越需要职业性。公司小时候不需要职业性,因为一个人能力强的时候,他干好事也很强,干坏事能力也很强,所以这时候就需要职业性来约束。

  举个例子,我不可能雇用一个职业赛车手每天给我开车,但我要雇一个职业司机,他除了开车能力不错以外,他有非常强的职业性,保证舒适、安全、价值观能够对齐,所以这是很重要的工作,我们就能做得非常好。

  第三还有最大一个挑战,就是模型是一个黑盒子。怎么解决?我们做了世界模型。我们把VLA放在世界模型里,一个交通世界模型。它是一个如果不跟你说的话,你看的跟一个真实世界是一样的。

  我们当时做的世界模型,或者说是叫交通世界模型,就是我们用重建加生成的一个方式,借助我们的数据,来构建了真的、交通的一个物理世界,包含参与者、参与物、所有固定物体,是非常重要的。

  我们就可以让,无论是最开始的端到端还是今天的VLA,在模型里边考试,它会模拟真实交通的参与,包括真实的这些城市,来进行考试。而且考试跟我刚才讲的强化训练非常类似。它考什么呢?a点到b点,考它的舒适性、交通的合规性和安全性。

  这是我们要一直在做的这方面的工作。这时候就能非常好还原了,而且基于这样一个我们的模型或者真实物理世界的仿真能力。我们还把整个验证成本大幅下降,过去我们靠人类司机来做一万公里验证,每一万公里成本大概在17万到18万人民币,算上车的各种费用,今天我们大概只需要花 4000 多块钱人民币,就每一万公里。那这4000多块钱基本上都是算力为主的成本,而且解决问题的效率还提升的多得多。

  为什么呢?比如说今天,我们要解决一个问题,这个问题产生的时候,是我们自身的车辆跟多个交通参与物在不同位置上,还有不同道路上,出现一个问题。但是如果你靠人类去验证我有没有解决这个问题?要把这几个交通参与物,相同的位置、相同的速度,凑在一起,几乎没有可能。只能模糊的验证。

  但今天,我们有了世界模型,我们可以非常准确地验证。我们修正以后的模型有没有解决这方面的问题,可以100%还原一模一样的、真实的场景,在世界模型里,进行验证。

  张小珺:我们在说司机Agent(智能体)的时候,它涉及到action(行动)进入了外部世界,进入了物理世界。怎么解决安全问题?这个非常重要。

  李想:我们从去年年底成立了超级对齐团队,比如说模型能力很强,但不遵守交通规则,去在交通拥堵中去加塞。

  它做出来一些让人类坐在车上感觉到不安全行为,至于是否让它碰撞,是模型能力的问题,是否产生这些问题,是这个价值观,是这个模型要去做的对齐的这方面的。

  所以这也是刚才我讲的,就是说我们要在做强化,训练的第一个环节,是我们必须把人类的这些规则、习俗、驾驶习惯,对于很多东西的判断,变成它整个的要训练的反馈。这个我们必须要做的。我们有一个挺大规模的、100 多人的超级对齐团队。

  因为你能力越强、责任越大,这是责任,或者你还可以用另外一种方式,我们把超级对齐如果拿一个人举例子,模型相当于是这个人的专业能力,然后超级对齐,是这个人的职业性。

  司机Agent(智能体),包括司机背后的记忆能力是如何和使用者建立信任的。

  我是否认可一个员工,同样是看他三个:第一个,是看他的专业能力,第二是看他的职业性,第三是看他对别人理解和构建信任的能力——这三个都很好,是最卓越的员工。

  李想:是我们做到了1000万Clips(视频片段)以后开始来做的,因为我发现这时候怎么去有效的运用模型的能力就很关键了。

  举个例子,它经常一拥堵就去加塞,这个包括它做的很多行为,虽然效率很高,但是人坐在车上是很不舒服的,因为跟人类的一些处理方式或者跟正常人类处理方式不一样,它可能学到了一些不该学的司机的行为。

  李想:是的。我一个很重要的感觉是,我们只有让它变成一个真正的司机,它才是一个生产力工具,不只是一个辅助工具。

  今天L2、L2+是辅助工具,辅助工具还需要人大量的参与。但如果想变成一个生产工具,我个人认为并不会出现通用Agent(智能体),而是每个专业领域做专业的Agent(智能体)。

  就我刚才讲的一样,要想开好车,它所有的vision(视觉)语料、language(语言)语料和action(行动)都是不一样的。你想做好一个医生,你想做好一个律师,背后的思维链,所有的数据都是完全不同的。

  另一方面,如果你想变成一个生产工具,这时候就会和专业的人进行比较,比如说你是否比一个专业司机开得更好?你是否比一个专业医生表现得更好?你是否比一个专业律师表现得更好?你是否比一个专业程序员表现得更好?因为你会影响到它的整个生产、业绩、工作结果,甚至它的财产和生命安全。

  这是我们看到的终点,这也是为什么我们必须很耐心、很深入地去解决,哪怕一个司机的问题。

  它并不可能通过一个泛化的大基座模型,或者一个大语言模型,这些东西都能实现了,这不现实。

  李想:还是把司机大模型和Agent(智能体)放在一起,这才是一个真正用户能够使用的一个产品。

  如果是一个司机大模型,跟人的判断是一样,就我判断一个司机,就我们家雇用了一个司机,第一是他开车水平好不好?是他模型能力强不强?第二个还是说他是否职业?他是否职业,很重要的一点就是我们的超级对齐这方面的工作,包括强化训练,是否做得足够的好?第三个,是否安全?第三个是他跟我之间的信任的关系,我是跟他说什么他都听不明白?还是我说上半句他就知道下半句,甚至我很多东西不说,他已经对我的记忆里边都可以独自去完成了。

  我们如何通过Agent(智能体)和记忆来构建一个更好的信任的关系和理解的关系?如果我什么都不说,他都知道我要干什么了,这个司机要同时又满足了他开车不错,又很职业,他又对我特别理解,我就会一直雇佣他。

  最后我们对司机的Agent(智能体),对整个的这一个司机大模型,司机Agent(智能体)的判断也是一样的。以后所有AI的或者Agent(智能体)的判断都应该是这样的,它的专业能力,它的职业能力,以及它给你构建信任的能力。

  李想:我们雇用人类费用的几分之一,至于几分之一最后还是看把成本都算出来以后,比如说我一个月,我雇一个司机,1万块钱,我是否愿意?2千到3千雇佣一个司机。

  这可能是一个比较重要的判断,当然它也会带来其他商业模式的不同。比如你花2千到3千块钱雇佣一个司机,那可能你对车而言,也不需要付保险费了,保险费也包在这里边,保险费用就财产的保险,这个财产险的费用也包含在里边了。到最后算下来,可能是个更划算的一个事情。

  张小珺:有可能一步直达 VLA 吗?比如去年不推出端到端加VLM(视觉语言模型)那个版本,直接研发VLA。

  我说不太好听的话,没有办法直接吃第十个包子。虽然可能大家觉得第十个包子吃饱了,但前面每个包子都跳不过去。往往很多时候,如果大家不想做前面任何包子的积累,只想吃第十个包子,很多时候非常像练葵花宝典。

  今天包括DeepSeek的出现并不是练葵花宝典练出来的,过去它很早就构建这种集群的能力去做这些链路、基建的优化,都是非常之重要的。所以才有了它的低成本和效率。我们特别喜欢讲这种,有一个人很聪明直接吃到了第 10 个包子,但现实中,至少今天这个社会整个的知识文明发展得越来越好了,不是胆大大于一切,我看不到什么捷径。

  张小珺:但是大家就觉得李想才是摘第10个包子的人,因为你们做辅助驾驶的时间比别人晚。

  李想:但我们自研的时间并不短啊。我们从2021年,上地平线芯片的时候就开始做自研。我们研究做得也很扎实。中国的所有企业里边,关于辅助驾驶的论文我们应该是发表,以及被大的会议、大的社区录取和引用的应该也是最多的。这个阶段我们还是做的挺扎实。

  因为我们是个用户导向的公司,我们认为技术是一种能力,我们更多的时候讲的是用户的价值。今天大家讲我们是冰箱、彩电、大沙发,但我们的这个冰箱、彩电、大沙发的智能化背后的基础,今天大家看仍然是非常强的,体验起来是完全不一样的。

  比如举一个例子,为什么今天大家做端到端和VLM(视觉语言模型)很难?是因为这个Orin芯片并不支持直接跑语言模型。我们是自己的编译团队,所以我们特别理解DeepSeek,一看就看明白了,比如它做FP8(8位浮点数格式)的优化,能够跑它的整个训练的一个架构。

  我们做相同的事情,我们直接然后是写了Orin-X底层,因为英伟达没时间,我们自己写的底层(推理引擎),让它用INT4量化的方式来跑VLM(视觉语言模型)。

  那这跟DeepSeek做FP8(8位浮点数格式) 的训练一个道理。包括今天,我们为什么能做到双Orin-X跟Thor-U都能跑VLA,可能对很多团队是个非常大的挑战,为什么呢?

  因为我们自己有非常强的能力,我们有编译团队,我们有芯片的能力,我们有板子设计能力,有操作系统能力,所以我们是能够把两个Orin-X带宽足够的大,它同样可以跑同等规模的VLA的模型。

  我们这方面的技术都是非常之扎实的。因为我自己还是认为,就是你规模小的时候无所谓,你规模大的时候基本功和能力永远是无法逾越的。

  张小珺:什么样的corner case(长尾案例)是端到端加VLM(视觉语言模型)架构无法解决,而VLA是可以解决的?能不能给大家举个例子。

  第一个问题是它对复杂东西的理解,比如这有一个复杂的修路,如果是规则算法可能就会撞上了,如果是端到端可能停下来,但它不知道该怎么干了。如果是VLA就能轻松解决了,而且这些我不需要有真实的场景,甚至我可以直接生成,然后来数据来进行训练。

  因为它能够有理解能力了,它并不是只是看到一个景象,就做出一个结果。规则算法往往可能就会出现,遇到一个复杂路况,复杂的、没见过的,或者规则之外的它就会出现事故。如果是端到端的,它可能停下来,但它不知道该怎么办了,我们经常遇到修路状况,它在那不知道犹犹豫豫,不知道该怎么办,对吧?但PG电子是如果VLA,它就能够有效地去处理了,而且不需要通过海量的数据训练。哪怕最开始这个场景没有办法处理,但我保证三天之内相关的这种场景都能处理,因为我可以拿这东西来生成数据,生成让数据来进行训练。这是一方面。

  另外一方面还有很难的一点是跟人沟通。今天端到端怎么做?就跟猴子一样,你影响不了它。比如说我们会经常遇到一个什么样的状况,就是在一条路上三条道,最右侧的车道是公交车道,然后又是限行,但是公交车道长久没有维护了,那个印刷已经不清楚了,所以它就会在那跑,虽然你可以通过一个调整说,回到中间车道,但它过一阵又跑到那条车道上去了。

  如果是人类有了Agent(智能体)以后,因为有了VLA才有Agent(智能体)能跟VLA沟通。所以我可以跟一个Agent(智能体)讲说,接下来这条道路一直在中间行驶,直到它在导航的时候走了下一个。包含如果跟导航错失了以后,端到端就不知该怎么办了,但是VLA在小区里可以漫游。

  在一个开放空间里,它可以先处理完以后,最后再跟导航调整以后的进行汇合,它跟人类完全一样的了。只是今天可能它作为一个人类,能力还没那么强,作为一个人类能力还有一个成长的过程,比如它今天像一个刚从驾校学完的新手司机,有可能是这么一个状况。

  张小珺:VLA是终极的架构吗?还会有下一代吗?会不会明年这个时候又是新的架构了呢?

  李想:我自己认为VLA能够解决到全自动驾驶,但是VLA是否是一个效率最高的方式?是否有效率更高的架构出现?我打个问号。

  我认为大概率还是会有的啊。因为VLA还是基于TPG电子ransformer这样子的,那Transformer是不是一个效率最高的一个架构,这个后边不知道。

  我们虽然有模型,但我们从来不放弃工具,因为工具是增加确定性和提高效率的。

  我还是举一个挺清晰的一个例子,因为团队很多时候太想用模型解决一切问题,对吧?这时候就会出现类似一个现象,比如我举一个例子,今天当然VLA会解决很好了,我们在使用 VLM在解决ETC车道时候并不好。

  因为VLM(视觉语言模型)对于位置的判断是很糟糕的,它如果是两到三个ETC车道,我怎么进入非常容易判断,就是这个左中右。但如果像京承高速这样的机场高速那样的十几个ETC车道,它很多时候就不知道怎么处理了,就开始非常混乱,因为它没有位置的判断的能力,我们团队太希望用模型去解决问题,就是说不停地去给VLM(视觉语言模型)喂更多的语料,更多的东西,都没有解决这个问题,因为这是VLM(视觉语言模型)的那个架构问题。

  我跟团队说,解决ETC为什么不能用规则算法?因为最多的也有15个口。 15个口对于你们而言,写一个程序基本上一周之内就能完成,甚至三天就能完成。但我说很多时候我们心里有个心结,因为人类很多运行的时候是大模型运行,但我说我们作为正常的人,我们也会背乘法口则,乘法口则就是个规则算法,但是乘法口则的结果是我们消耗的脑力更少,我们消耗的token(词元)更少,以及我们的准确性更高。所以它就是个好东西,它就是个工具。

  如果是一个确定性的,能够拿规则去解决的,它意味着更低的能量消耗、更低的算力消耗和更高的准确性,为什么不用?团队很快就把问题解决了,我们在ETC就非常稳了。一周都不到就解决了,过去解决了三四个月都解决不了的,成本很高的方式解决不了的。

  所以真正往下去落的时候,很多时候还是要考虑效率,今天DeepSeek之所以受到全世界的瞩目,很重要的一个原因还是因为它的效率变得更高了。

  李想:我们认为,我们自己一个判断,从实测过来,他们大概在用12.5之前的模型。距离特斯拉真实能力还有巨大的差距。

  特斯拉13.0以后的能力还是非常强的。而且12.5之前的话应该是这个半规则算法的能力。所以我说不是特斯拉真实能力的体现,但是我们能看到特斯拉基本功是非常扎实的。它的整个的感知的距离,它整个运行的帧率,它整个的车辆的整个的控制的稳定性。

  李想:因为如果直接上端到端的话,有中国的这些路况什么的,刚才我就像我讲的,它在美国没有学习到这些东西,再遇到这些复杂的,是还是会遇到挑战的。

  李想:美国的很多的顶级公司,像苹果,像特斯拉这种企业,就是他们基本功特别扎实。

  我们真正要去学的,尤其是在今天这种内卷的环境下,包括外部的不确定的环境下,是每个企业扎扎实实练基本功的最好的时候。

  而且到了人工智能时代,基本功就更是不可跳跃的。如果很多企业做了很多的创新,但是没有基本功,不扎实,所以很多创新就会昙花一现就过去了,所以这会是很大的问题。

  因为就它虽然拥有很多钱,能发明了很多东西,就创造、创新了一些很多的功能的组合。但是你会发现能力强的公司复制的东西基本上在人工智能时代都是按周计算的就能复制过来,所以那个能力的基本功还是非常重要的。

  我们在小的时候没有看明白,没有看懂苹果,那这个阶段的时候我们可能又去认真研究苹果,发现苹果还有很多能力值得我们去学习的。

  到今天为止,你去看一个苹果作为一个全世界市值第一的公司,当你做到千亿收入,你再去看这种万亿收入公司的能力的时候,你开始模模糊糊能看懂一些了。

  但是我们小的时候,我们很小规模的时候,我们看不懂苹果为什么这么做。最后是规模,因为规模是一个可以确定衡量的变化,也会带来用户规模和用户需求的变化,技术和产品的变化,也会带来组织和能力的变化。

  张小珺:7月份是理想的十周年,站在今天回顾理想这十年走过的路,你脑海里浮现的最深刻的场景画面是什么?

  李想:我的第一个最重要的画面,是2018年理想ONE第一次发布,一直延续到2019年的4月份,上海车展第一次正式的展示,带有价格的。那是一个非常重要的时刻,我们真的能做出来一辆车。

  另一个是2022年发布理想L9的时候。到了今天2025年,能看到至少有5个以上的企业是因为当时理想L9的成功,在打造跟理想L9相同的产品。

  张小珺:你脑海里浮现的都是幸福的时候,而不是痛苦的时候。你会回忆到痛苦的时候吗?

  李想:太多了。刚经历了L9的幸福就出现了,那一个季度我们亏了十几亿,将近二十亿,原来从没亏过那么多——忽然从巅峰掉到谷底。

  好处还是我说的,我们认识到很多能力不足,我们就去补了很多能力。但正是因为这件事情,我们的调整又带来了2023年获得接近三倍的增长,我们直接做到了1200亿的收入。

  反正我创业那么多年了,当问题来的很多时候,又是一个更大的机会的到来。所以我对这方面也没那么纠结。

  我对于不正常的事情耐受力很差,但我对于一些不好的东西解决完以后,整个记忆能力也很差,会把它忘掉,但你让我回顾还是能回顾过来的。

  李想:为了让自己有更好的正能量,我还是尽可能的只保留那些有价值、美好的片段。

  哪怕是一个不好的东西,比如刚才讲的我们被黑、被打击,我会转变成“看,正是因为这件事情我们增长了三倍,我们获取了其他新势力没有的能力,我们面临其他新势力没有的挑战。”这样的方式来表达,这是一种心态。

  创业确实不容易,但是没必要苦哈哈的。苦和甜。是一个硬币的正反面,取决于你选择看哪一面。

  张小珺:余凯博士(地平线创始人兼CEO)回忆跟你第一次见面是在杭州一起去爬山,你那天穿了一个军大衣。我很好奇余凯博士见到的那个军大衣里包裹的是一个怎样的灵魂?它跟今天发生了什么样的变化?

  李想:没什么变化。我甚至认为我今天90%的状态、思维方式跟上高中差不多。

  遇到问题解决问题、解决别人不愿意解决的问题、解决消费者遇到的最大问题、去找更多人学习。那时候我是个人网站站长,但我又有合伙人,是少数有小团队的站长。靠自己能力不行的时候还要靠别人,继续完善能力。到今天为止我没变化,只是解决的问题在变大、服务的用户群体在变大、公司的规模在变大、组织在变大。

  张小珺:过去十年中所有的记忆里如果能改变一个记忆,改变一个程序,你想改变什么?

  李想:没什么要改变的。能赶上这么一个时代,几次创业还能一路走下来,在最难的时候都有人来帮你,当遇到问题的时候,总是能从坑里快速爬出来,一帮人齐心竭力变得更好,挺幸运的了。

  无论是从运气层面,还是从能够创造出来的价值层面,没什么可后悔的。挺好的。

  张小珺:怎么让自己成为一个更有能量的人,更强大的人,或者是能吸引到更多能量的人?

  第一,我会接受自己所有的优点。我很多身上的特质,这么多年的积累,从DNA里带来的,它就是我的优势,我应该怎么去发扬自己的优势。

  第二个是要能接受自己的不足。往往不足就是优势的另外一面。比如这个人很擅长决策,他可能就没有办法去做很细致的运营,因为这两件事是冲突的。有的人非常擅长运营,他可能就很难跳出来,或者跳好几个维度来去做决策。

  一个人很懒,但可能是个极品的产品经理,但如果他很勤奋,应该是个非常好的业务运营。每个人是不一样的,往往我们如果要改的话,会变成一个更差的别人,以及一个更糟糕的自己。所以我说要接受自己的不足。第三个是用成长替代改变。更重要的是我有没有成长,我们在做汽车之家的时候,我说做好业务就行了,资本根本不重要,最后我们折在了资本上。

  在做理想汽车的时候就非常注重资本,请最好的FA(财务顾问),请最好的律所,股权架构的设计、投票权,今天大家可以看到所有的新势力企业里面,理想汽车的股权架构、治理结构、资本现金管理都是做得最好的。我并没有改变我的业务,是增强了一个能力,所以它是个成长。

  我们会面临方方面面的能力成长,就能给自己带来能量。你的成长有自己的能量,然后你又不跟自己纠结,当有这个能力的时候,我们再看待别人也是一样,我会先看别人的优点,这非常重要——这优点能带来什么?这优点怎么让他发挥?

  第二个,当看到别人不足的时候,根本不是问题。我从创业开始就有合伙人。樊铮就是我的互补,是我所不具备的,秦致是我所不具备的,李铁、马东辉、谢炎、邹良军就是我所不具备的。当看到大家这些不足的时候,反而是我的价值,我有价值能帮助到他,他有价值能帮助到我。

  第三个,去看别人的成长,你能看到孩子的成长,你能看到爱人的成长,你能看到身边每个同事的成长,这就有能量了。

  李想:对,因为变好就有能量嘛。而且你关注的是人的成长,不是那些事儿。所以,第一你能自己产生能量,第二你能够带给别人能量,第三你能从别人那获取能量,因为别人给你能量,别人也不会丢掉能量,它是个辐射作用。所以这是我一些随着自己的成长,开始有效的一些理解。

  另外一方面很重要的是亲密关系,亲密关系里边特别重要的一点,是要关注人,我需要我的爱人,我需要我的孩子,我需要李铁、马东辉,我需要刘杰、解卫国、范皓宇,甚至超过了他们需要我。首先是我需要他们,才是他们需要我。

  这时候这些人之间的连接就不一样了,我们在一起就能形成一个非常强的脑力、非常强的心力,形成特别好的能量,这个是特别重要的,而不是说我对他们没有需求。

  李想:在我的家里非常有意思的一点,过去我和我老婆之间的相互支撑还是有限的,从去年年底春节过后一个最大的变化是我们家大女儿她形成了我们的第三个支撑。

  她14岁了,她对事情的理解在发生巨大的变化。她自己的三观开始有效、特别完善地形成,而且超出了我们的预期。而且她有能力跟我们做特别好的沟通了,关于她自己的人生规划,她自己的喜好,她自己对人和事物的理解,这个特别有意思,我们家里实现了一个三人的支撑,这是个让家里的能量大幅地提升。

  因为这些能量会影响到其他的孩子,虽然他们还没有办法做成支撑。我每次跟我老婆聊,在聊到大女儿的时候都是非常的高兴,就没想到她14岁就能和我们两个人形成一个三人的支撑了。

  我们能跟她一起去讨论很多问题了。我们可以讨论事情,可以讨论人,可以讨论不同的见解,也可以讨论她的规划,可以讨论怎么出去玩,可以讨论家里要解决一些什么问题,都可以的,这个特别好。

  张小珺:我之前跟一个教授聊天,他说他几年前跟你聊过,感觉你的心灵观就是家庭观,这个也反映到你的公司上,要创造“幸福的家”。他想问的是,你有没有更大的宇宙观、世界观?

  李想:我们从人出生开始,上学到大学毕业到开始工作,我们有多少自己想去做的事情没有去做?我们有多少想接触的万物没有去接触?我每天都在忙着去工作,去在做事儿。但什么是智慧呢?智慧就是我们跟万物的接触。

  如果你没有去过森林,没有在森林里,认真的玩、住过几天,那你可能觉得木头就是做筷子的,就是做纸的,就是做桌子的,而并不是意味着它是一个生命,它是跟我们不同的生命。

  你不能没有跟孩子在一起、长时间的生活体验跟他们一起去玩,你可能就不知道什么是亲密的关系,你就没法真正的去理解孩子,去了解孩子。

  什么是智慧?智慧就是我们和万物的关系。但是怎么去提升我跟万物的关系?首先要有足够的时间跟万物去接触。所以我在讲的一个很重要的一个问题,就是今天我们很卷,但是这是恰恰是真正的人工智能的意义。

  一个人的优点的另外一面,就是它的缺点。一个好的另外一面就是它的不好。我们如果只想要好的东西,但放弃所有不好的东西,这件事情并不成立。你可以把好的东西和不好的东西都当成一种特质。

  它是文化的特质,它是生命的特质,它是性格的特质,它是能力的特质——这样才是一个有生命力的世界,才是活生生的人。

搜索