对话侯晓迪:泼冷水王的赤子之心

什么是科技行业最昂贵的假设?
侯晓迪的回答是资源中心主义教条。(resource-centric dogma)。
这个教条是逐渐接近承诺的(asymptotic promise)引诱人工智能产业:只有通过呈指数级增长的资源才能保证进步,没有这些资源是不可能取得进步的。
逐渐接近承诺可以通俗地理解为 "规模越大,表现越好" 保证,也可以理解为Scaling。 Law归纳(规模法则)。
但是侯晓迪一直以来的观点是:Scaling Law不是答案,绝不允许只有Scaling。 Law主义。
侯晓迪是一家自动驾驶卡车公司。 创始人Auto,CEO,创建Bot 在Auto之前,他曾经是“自动驾驶第一股”图森未来的创始人,并且先后担任CTO和CEO。
扩大数据规模,增加模型参数,提高计算能力...他很熟悉这个“规则”,但他一直呼吁“不要盲目堆叠数据、GPU和车队规模”。
我身边的人都不相信我之前说的理论。仍然坚持认为是“信息量不足”,这让侯晓迪非常痛苦。但是DeepSeek-V3&R1出现后,情况发生了变化,有人开始想起:“晓迪,你当初好像也这么说过。”
在他看来,DeepSeek不仅颠覆了AI行业,也意味着其他以资源为核心的技术领域也会发生类似的剧烈变化,尤其是在自动驾驶行业。“DeepSeek的成功表明我们正处于范式变革的风口浪尖,这种变化可能会在一夜之间改写游戏规则。”
在DeepSeek团队中,我们可以看到侯晓迪身上也出现了无情的务实主义和对效率的大胆追求:作为一个现实主义者,他以近乎严格的理性拆解行业思想;作为一个理想主义者,他把“爱与勇气”视为技术变革的底层精神。
这一“分歧”,直观地体现在侯晓迪的创业经历中。
当整个市场都倾向于数据驱动和大型军备竞赛时,侯晓迪走上了另一条道路——坚信思维能力比信息量更重要,坚信科学工程是正确的道路。他可以无休止地讲述自动驾驶,AI、大型模型的核心问题,却从来没有使用过“高大上”的术语。他拒绝讲故事,只想走自己的路。
“创业不是一场由资本驱动的赌博,而是一位工程师对技术的最大实践。”侯晓迪说。
由于DeepSeek,侯晓迪与DeepSeek产生了许多“共鸣”,而这些“共鸣”终于被DeepSeek所熟知。
本文,「甲子光年」对话Bot 侯晓迪,Auto创始人,CEO。
1.谈DeepSeek:最后,世界上出现了一些纠偏机制。
甲光年:DeepSeek火了之后,你会有什么感觉?
侯晓迪:我终于等到了“拨云见日”的时刻。
甲子光年:拨云见日?以前你不叫科技行业的“先知”吗?
侯晓迪:以前我所说的理论周围的人都不相信。他们坚持认为“自动驾驶系统能力不足是因为信息量不足”,这让我很痛苦。但是现在情况变了,他们开始想:“晓迪,你一开始好像也这么说过。”
甲子光年:看起来“先知”的身份是真实的。
侯晓迪:更深层次的快乐是,最后,世界上出现了一些纠偏机制,使我们能够更顺利地按照自己的节奏开发系统。如今,我们更容易得到应有的认可和肯定,尤其是在融资方面。别人的表扬我不在乎,但是降低企业融资压力是好事。
甲子光年:我看到你在LinkedIn上写了一篇赞美DeepSeek的文章,并认为“DeepSeek的成功为基于资源的教条敲响了警钟”,你是否在DeepSeek上找到了共鸣?
侯晓迪:第一,我们应该不会疾不徐地讨论DeepSeek的价值。
我发现有些人正在把“科学玄学”,假如一个人有很多资源,数据 还有很多,那么就会愿意相信“资源取胜论”。我常说的就是这个。 “用战略努力掩盖战略懒惰” 。然而,资源的胜利本质上只是一种信念。我相信一个paper中的一个观察仍然适用于更广阔的场景和更大的规模。这不是科学,而是玄学。
而且DeepSeek是“科学工程化”。就像Quantization一样、Multi-Head的预测和改进都是项目细节,但是他们做得很好,说明团队执行力很强。他们的执行标准不是靠大模型和多GPU,而是靠细致的项目优化把性能推向完美。
这与L4自动驾驶非常相似。L4在工程优化方面也做了很多细节,而不是单一的核心突破。两者的共鸣是,成功更多的是工程驱动,而不是基础理论创新。
甲子光年:那些堆积数据和计算能力的公司是否将“科学玄学化”?
侯晓迪:是的,科学玄学是结果。它是由多个角色引起的。比如能力普通但身居高位的中层管理者,短期胜利对他们来说尤为重要。这种有投资有业绩的项目,相对于有风险的创新,绝对是最好的。
再比如,有些公司的高管不在乎技术,只在乎融资。他们不在乎事物的本质和真正的发展规律,只要有一个能说服金主的故事。
甲光年:金主也没有责任吗?
侯晓迪:当然,金主也有责任,都说自己是。 “风险”投资者,但大多数投资者最喜欢的肯定是这种基于共识的“无风险投资”。
这样就会出现“回声室效应”(Echo chamber),也就是相互放大的机制。比如八个投资者投资同一个方向,互相交流的时候会加强,统一观点。“我认为Scaling Law非常有用”“我也一样”。这种人越多,就会逐渐形成不可忽视的共识。

甲光年:这种共识会带来什么后果?
侯晓迪:Sometimes the biggest risk isn't betting against the consensus, it’s betting with it.用中文表达就是,有时,最大的风险并非与共识对赌,而是与之同赌。
这样的共识很可怕,因为达成共识的人是决策者,但是他们可能没有技术前瞻性。
甲光年:你认为DeepSeek之所以能够做出正确的决定?
侯晓迪:组织文化。我常说的一句话——项目问题永远是大量的小问题,而不是少量的大问题。
为了解决大量的小问题,我们不能指望“拯救世界”,日夜写一篇发现世界真理的论文。这只是科幻小说的情节。真正的研发是大量的人每天都在做微决策。组织艺术就是让那些有权决定“微决策”的人——他们可能不是首席执行官或首席执行官,他们可以自然地做出正确的决定。
甲子光年:什么是健康的组织文化?
侯晓迪:要保持理性乐观,凡事要以事实和逻辑为基础,争论挑战,通过这种方式,我们可以看到别人玄学化的东西,然后逐个进行工程化处理。
甲光年:哈佛教授Graham Allison曾经写道,DeepSeek的关键R&D成员潘梓正曾经是英伟达的见习生,他是“美国失去的非常人才”,你怎么看?
侯晓迪:我不同意“一个人才流失是美国的损失”这种简单的说法。组织纲领和执行力才是真正决定成败的。组织行动纲领,决定个人产出。假如一家公司有足够的GPU资源,谁来优化计算?在标注数据管够的时候,谁会研究自监督学习?(Self-Supervised Learning),还有谁会想去掉监管微调?(Supervised Fine-Tuning)?
伟大的组织,关键在于勇于异常 认识地走不同的道路,并坚定地执行。唯有在困境中坚持,才能取得真正的胜利。
2.谈GPT-4.5:OpenAI强调的EQ更像是一个外行的概念。
甲子光年:2月28日,OpenAI发布了GPT-4.5,这次他们主要推广“EQ(情商)”,你认为OpenAI是在用情商掩盖模型能力突破有限吗?
侯晓迪:GPT-确认Scaling4.5 Law再次撞墙。反对泛化Scaling作为长期实名。 最近,Law人经常见证碰墙事件。老实说,我很高兴。
我认为OpenAI开始讲EQ的故事是无奈的。事实上,他们并没有真正准备定义EQ,甚至没有一个严肃的框架。OpenAI团队没有假装在EQ上有所突破。
甲子光年:您是加州理工学院计算与神经系统专业的博士,理论上对AIEQ有话语权。
侯晓迪:当我看到标题的时候,我很期待在OpenAI上讲EQ,但是看完之后,我觉得自己被戏弄了。其实很遗憾,为什么不做全套戏呢?EQ是理解“智能”的重要窗口,也是可以科学测量的客观衡量。
甲光年:那么OpenAI应该说些什么,才能更好地满足你的期望?
侯晓迪:EQ不应该只指个人的情绪管理,而应该涉及到对他人情绪的理解和反馈。真正的情商涉及到人们的情感认知和调节能力,而不仅仅是“说话得当”。然而,OpenAI现在强调的情商更像是一个门外汉的概念。其实只是为了让模型更“流畅”地回应客户,而不是真正衡量情商。
至于EQ,我们可以让大模型测谎,分析心理现象,甚至通过临床试验验证模型在心理咨询中的作用。EQ的研究应该围绕人的行为进行,而不是作为概念随意包装。如果我们沿着这个科学的方向发展,我们会取得很大的成就。
甲子光年:但是OpenAI的演示并没有这样做。
侯晓迪:这个方向值得深入研究,也是我的专业领域——概念研究。
这个问题属于心理物理(psychophysics)范围。作为一个长期研究这个领域的人,真的很难接受他们以如此随意的方式处理这个问题。如果你真的想做EQ,你应该认真对待,承认这是一个未知的领域。
甲子光年:你认为OpenAI的态度不真诚?
侯晓迪:假如他们真的想探索这个方向,至少可以组织几个研究人员,花几个月的时间做一些基础研究,初步定义一个Benchmark(基准测试),这个Benchmark需要针对人类社会的福祉。
我们不应该局限于如何把大模型变成“小镇做题者”,公开地向大模型提出empathy/social skill(同理心/社交能力)等数据的定量研究,体现了科技向善。
甲光年:智力的本质是什么?
侯晓迪:智能化的本质是多维度的,仅凭数学竞赛满分就认定完成了AGI,这是不能接受的。
比如多任务检测(Multi-test)。文字处理能力也分为摘要、语法纠正等多个方面。智力被大量任务所描绘。情感交互任务的集合及其表现与人类标准的接近程度才是真正有意义的。
再比如,大模型可以通过测谎仪吗?你能感知到别人的情绪变化吗?你能像心理学家一样在交互中识别病理现象或行为问题吗?这些是智力的一部分。
谈论无人驾驶:用数据规模来回应质疑是错误的。
甲子光年:离开图森后,你将再次加入L4级无人卡车创业,在美国成立了Bot。 Auto。以前图森在对外宣传的时候会强调数据和公里数,你不怕再掉进资源中心主义的陷阱吗?
侯晓迪:一段时间以来,许多自动驾驶公司积累了大量的测试里程来捕捉所有的边缘案例,并制定了一个巨大的GPU集群来训练端到端的AI模型来处理所有的边缘案例。
但是我感觉公里数被过分强调了。
离开图森后,我沉淀了一段时间,决定重新起航。2023年4月,我去见了投资者。当时融资环境极差。主流观点是无人驾驶没有机会筹集资金。甚至有人说无人驾驶的窗口已经关闭,应该是机器人或者大模型。
到了2023年年中,我不敢说会成功,但我直觉上认为无人驾驶可能没有那么“烧钱”,也不是简单的“烧钱换结果”。基于这个想法,我创立了Bot Auto。
甲子光年:老实说,你当时有没有想过要做具身智能、大模型的创业?
侯晓迪:自然而然地,我想要,并非常认真地研究和研究。那时候有投资人很直白地对我说:“你做机器人我给你钱,你做无人驾驶,我不给你钱。”但是我最终还是决定做无人驾驶。
甲光年:为什么还想做无人驾驶?
侯晓迪:开玩笑说,这就是“自讨苦吃”。(笑声)
同时也想做无人驾驶,因为我在无人驾驶领域交了很多学费,踩了很多坑,这些经验非常珍贵,放弃很可惜。
还有,我真正追求的是长期而深远的、长期的成功。我不应该太在意一轮融资是否顺利只是短期波动。
我没有选择做机器人,因为我在做决定的时候关注的都是长期的问题,这里的不确定性太多了。机器人创业有一个不容忽视的问题:什么是运营成本和商业模式?零件的稳定性如何?客户是谁?我能从谁那里赚钱?我不知道这些问题。
投资者可以在短期内布局,在中期获得,在几年内获得丰厚的回报。但是作为一个企业家,我的使命是不同的。我必须坚持到最后,确保我的职业生涯最终能够创造真正的价值。
甲光年:你正在创建Bot 在Auto的时候,有没有赌注的成分?
侯晓迪:我更倾向于说这是一种基于经验和专业直觉的判断,而不是盲目下注。当Bot成立为一家公司时,我确实有两个关键假设需要验证。
首先假设算法模块可以整合在一起。那时队伍30-40人,只有5人做深度学习,不能按照传统的方式进行分组。我们强迫自己整合所有的模块。2023年下半年,我们研究了大量的预训练论文,预测预训练可以节省注明的资源和计算率。同时,多任务和多模式可以将分散的神经网络整合成一个大网络。那是最初的假设,只是一个不包含太多细节的大方向,但是直觉告诉我,如果继续探索这个方向,肯定会有惊喜。
其次,假设业务不能是数据密集型的。我们没有钱做大规模的标记,比如前司(图森未来)上千万张图片的标记规模,光是标记数据就要两年。所以我们Bot里面有一个口号——“插上电源就能跑”。新网络的冷启动必须高度自我监督,数据不能用昂贵的人工标记。信息来源可以基于过去帧的预测,比如看前五帧预测第六帧的模型,或者使用模拟数据。
甲光年:结果如何?
侯晓迪:结果很可喜,“插上电就能跑”给了我们很大的启发。有一段时间,我们甚至开始计算电费——这个电费能提高多少算法性能?结果发现很划算。
直到2024年3月,我们才在数据标记上花了一分钱。,所有数据要么来自MIT License的公开数据集,如果不是自己生成的模拟数据,如果不是各种自我监督的预训练,最终会实现!尤其是模型多模式的特点极大地启发了我们,整体进度远远超出了预期。
甲光年:最初的大胆假设基本上已经得到了验证,接下来又有哪些新的假设?
侯晓迪:比如车队有多大?这是对无人驾驶领域的一个很大的误解。融资时,很多人将特斯拉的所有权与无人驾驶测试车队的规模进行比较。这是完全错误的。
看看大多数无人驾驶的检测车队都不大,而且这些车也不是每天开足马力连轴转的检测,因为对大多数企业来说,开发重点根本没有达到非百万公里数据无法处理的程度。。
我一直坚持的观点是,关键不在于数据有多少,而在于你能否很好地使用它们。当少数数据没有发现价值时,不是因为信息量不足,而是因为“差生文具多”。
甲子光年:如果无人驾驶不依赖“信息量就是正义”,那该怎么办?
侯晓迪:人们经常问我这个问题。我积累了100万英里,他们问如何解决200万英里的问题;到了1000万公里,问如何处理2000万英里的极端情况。按照这个逻辑,数据和检测里程总是不够,就像在无尽的渐进路径上奔跑一样。
无论学习的深度有多强,数据有多好,总会有无法检测到的BoundingBox(边界框)。这时,有人会说:“如果处理不了怎么办?”
用数据规模来回应这些问题是错误的。沿着积累数据的道路走向黑暗,到了后期边际效益的下降,你会越来越绝望。这个时候,我们需要改变我们的想法。即使是行业内著名的里程高车队Waymo,也不可能因为担心动物园的大象会跑到街上而成为“大象检测器”,而是依靠“通用障碍物检测”的方案来解决。这样就可以通过不同的传感器或算法进行保险,成倍降低失效率。
另一点是世界上没有绝对的安全。飞机坠毁的概率是百万分之一,但我们仍然选择乘坐飞机。自动驾驶也是如此,关键是将风险降低到合理的范围。比如比人类司机安全几倍。
而且算法只是系统安全的一部分,比如轮胎爆胎这样的硬件风险,算法并不能完全消除。
抛弃主义,分析风险来源,试图量化,是一种科学的方法。若接受贝叶斯主义,一切都有概率,即使不能观察或精确量化,至少可以估计。估计一个可量化的区间,这个问题就可以实现。我们的目标是建立一个优秀的人类司机系统,超越处于最佳状态。但即便如此,我们也不能保证无人驾驶系统能够绕过穿着隐身衣的忍者,在夜间潜行穿越高速公路。
甲光年:所以你认为,问题的根源在于我们需要调整安全意识。
侯晓迪:当我们面对安全问题时,我们不能情绪化地处理它们,就像科学不能被形而上学一样,我们应该用科学的方法来解决它们。因此,我们正在推广一个叫做Safety的项目。 Science(安全科学)。既然游戏是科学的,那么安全也应该是。
假如总是用情绪化的方式来讨论,比如“人生只有一次”,“你怎么能把路上的行人置于危险之中?” 这种对话很容易把无人驾驶推到不切实际的位置,不得不面对一个永远无法实现的安全目标,从而陷入无意义的争论。
为了平复这样的争论,行业只能用更多的测试里程来回应,用更多的资源来缓解焦虑。在投入资源消除焦虑的同时,另一方面也存在着没有科学依据的问题。两者暗流涌动,造成资源浪费,连累行业走向错误方向。
如今是需要纠正偏差的时候,而DeepSeek就像一记当头棒喝,让很多人清醒过来,这是一件好事。
甲子光年:那么无人驾驶还要回答如何保证安全的问题吗?
侯晓迪:需要。但问题归根结底很简单:一是明确路权;二是无权时不涉险,有权时尽量避让;三是确保前两条,同时最大限度地提高效率。
如果你真的做到了,你会发现做前两个相对容易,挑战在于保证前两个同时符合第三个。历史上无人驾驶的问题,恰恰是因为前两个安全问题,在效率上做出了妥协,最后没有保持安全边界,导致了事故。在这一点上,我们做的是卡车,比汽车容易得多。
甲光年:无人驾驶卡车与无人驾驶乘用车有何不同?
侯晓迪:无人驾驶卡车里没有乘客,只有货物。紧急情况下,货物可以等待,他们不会抱怨。,这种等待成本和心理压力远远低于载人场景。对于我们来说,无人驾驶将成为一个简单的成本优化问题——能否在绝对安全的情况下,将效率提高到能够盈利的水平?
这一目标越早实现,企业就越早进入扩张阶段。
甲光年:你见过无人驾驶商业化的拐点吗?
侯晓迪:无人驾驶类似于可控核聚变,指的是商业化的拐点。只要可控核聚变释放的能量大于维护成本,就能赚钱。无人驾驶也是如此。系统复杂,维护成本高,但一旦低于雇佣司机的成本,就会进入盈利模式。
在拐点到来之前,规模化只能缓解市场焦虑,但不能解决根本问题,所以我们反对规模化扩张。近年来,我一直强调,车队或增加人员都是按照最低限度配备的,坚持节俭经营。在规模具有商业价值之前,所有的扩张都是错误的。不幸的是,今天仍然有许多企业走错了方向。
谈到“端到端”。:谁说无人驾驶是端到端,不是片面就是天真。
甲子光年:今年国内很多车企开始卷入智能驾驶,“端到端”自动驾驶也出现在很多车企的宣传中。你之前跟我们说过,“端到端”不是一个学术概念,而是一个情感媒介。去年,《侯晓迪,慎勇者》本文发表后,您对“端到端”的评价也引起了一些讨论。您有什么要解释的吗?
侯晓迪:也许每个人都太在意我喊的口号,而忽略了背后的含义。我想表达的是,要不要“端到端”或者扣什么帽子都无所谓。关键是今天的人工智能,尤其是神经网络,比五年前发生了什么变化?如何做到这些变化?了解本质,我们可以发现大量不同的组合可以达到相同的目的。
我一直公开反对“端到端”,谁说无人驾驶是“端到端”,不是片面就是天真。
关于神经网络的发展趋势, 我总结了两点:首先是多任务处理(multitasking),二是多模态(multimodality)。这两点是无人驾驶和许多其他应用的关键。抓住这两点后,实现它们的方式是自然的。“端到端”只是其中之一,并非唯一。
我的态度是忘记了什么叫“端到端”,借用李小龙的话:“就像水一样,我的朋友(be water, my friend)。”
甲子光年:关于“端到端”,行业内的认知有什么变化吗?
侯晓迪:现在业内越来越多的人公开承认自己实际上并非纯粹的“端到端”,但是外界仍然把“端到端”当作特别神圣的物品。
有些企业为了炒作,故意创造新鲜感,把自己的技术包装得非常神圣,实际上毫无价值,反而造成了行业内耗。
在线下的工程师交流场所,大家更容易说实话:“啊,你家也是这么做的?我们也是。这是端到端吗?”“嘿,管他,总之大家都叫端到端。”我听过几次这样的对话,每次都很开心。我心想:“好吧,你可以说你喜欢的任何话。”
甲子光年:业界都这么说,你不这么说,会不会显得格格不入?
侯晓迪:当所有人都在玩边缘球的时候,你会发现整个市场都在强迫所有人玩边缘球。但我是那种宁愿不打这个球也不打边缘球的人。有时候会有一种很难沟通的挫败感,但是我发现投资Bot Auto的人,喜欢我这种敢碰墙的精神,所以做自己就好。
甲光年:我们知道,Bot 全新的Auto无人驾驶技术框架,大家团队之前有没有经验?
侯晓迪:具体结构必须边做边探索。我们所做的就是把Deep Learning 集中,我们称之为Foundation。 to All。Scaling不是成功的关键。 Law,而是工程化的科学方法。目前我们的参数还不够大,网络结构的变化至关重要。
我们应该专注于如何利用这些新趋势,而不是陷入“冠名权”的争吵。我们的神经网络是多头的。从某种意义上说,它也是一个MoE(混合专家模型)。以前我说MoE的时候,很多人都不明白,现在是拖DeepSeek的福气,沟通成本一下子低了很多。
甲光年:MoE加上科学的工程化,可以直接移植到无人驾驶吗?
侯晓迪:这不是简单的移植,而是看本质。在此之前,模块之间的信息传输非常稀疏,我们应该让它承载更多的语境信息。用时髦的术语来说,就是Token(标记),Embedding(嵌入)的维度要足够高。
我描述的是核心原理。在真正的工程师面前,自由度其实很高。只要关键部分处理到位,性能总会有所提升。但原理不是一个化工厂的流程手册,让你“遵循就会成功”。这些原则勾勒出一片土地,告诉你地下有石油,但如何挖出来取决于你的方法。
比如我刚才提到的这个原理——让不同的功能模块或任务(Multitask)可以放置在基础底座下,共享更多信息,改善模块间通讯渠道。这种观察是方向性的。对于是否使用混合专家模型MoE,甚至是端到端,都不是核心问题。也许过一段时间,结构不再是MoE,而是另一个系统,甚至包括非Deep。 Learning模块,但是如果这些模块能够有效地共享背景信息,那么完全有可能建立一个高性能的系统。
别局限于具体的实现方式,不要把问题框死在你的招数上,“是剑宗还是气宗”,杀伤力高的,才是好招数。
甲光年:事实上,技术路径不应成为判断智力的标准。
侯晓迪:行业内的争论太多,争吵太多,结果反而模糊了方向观察和观点。
甲子光年:为什么无人驾驶领域存在主义纠纷?
侯晓迪:如果我们不谈论主义,大多数人会立即失去参与资格。他们没有实践经验,没有专业能力,没有看过paper,也不知道成功实验背后有多少失败。谈话很容易让更多的人有话语权。但是缺点是过度简化。任何事过于简化之后,都不再对未来起到指导作用。
你认为商业航天领域的主义是什么?谁能指导火箭发射?谁能决定耐热材料?没有人谈论主义,因为他们不能指导它。医药领域呢?谁能判断药物是左旋还是右旋?这些硬科学领域基本没有主义。
但是无人驾驶领域不一样。每个人都会开车,自然觉得自己有话语权。尤其是在大语言模型领域。当每个人都使用语言时,他们认为他们可以评估它。人们总是认为自己有智慧,觉得自己能判断智慧。
甲子光年:你的很多观点都是反共识的,甚至在给行业“泼冷水”,随之而来的是各种褒贬不一的反馈。看到这些反馈,你是怎么想的?
侯晓迪:首先,观点是力量。我相信这一点,因为我是一个自洽的人。我没有试图说这些,但我认为这是我看到的现实世界,我愿意说出来。越纯粹越强大——这是我这么多年学到的重要一课。
其次,这个世界虽然有各种各样的噪音,但是整体还是不错的,我还是爱这个世界。
甲光年:有什么收获吗?
侯晓迪:说实话的时候,我可以交到真正的朋友,得到意想不到的善意。
真的有完全不同领域的人来加我微信,就是为了说:“晓迪,我觉得你说得太好了。”我认为这些意想不到的善意是人生旅途中非常有意义的一部分。
人生不是一长串小考试,而是一张体验卡。要体验现实,感受这个世界上的善良。那是我对“活着”的态度。
谈创业:我没有近忧,全是远虑。
甲光年:创建Bot Auto已经一年多了,在这个过程中,有没有经历过特别艰难的时刻?
侯晓迪:我不这么认为。老话说得好,“人没有远见,就会有近忧”,但我没有近忧,都是远见。我现在每天想的几乎所有问题都可以用一年的规模来规划和安排。
甲光年:你变了。
侯晓迪:那确实是我的一个改变。以前我更加关注技术,现在我发现技术并非全部。
现在我把自己定位为守护者,希望守护这家公司。即使没有我的参与,工程师团队也可以在两个月后成功完成任务。但是如何保证公司两年后不会面临生死危机——这是我最关心的。
甲子光年:那么你要面对的问题是什么?
侯晓迪:比如说:到底走scrappy?-centric或resource(资源有限但灵活高效)-centric(资源充足但效率可能不高)?在开始的时候,我们选择了其中一个,然后一直坚持下去。
在这次Deepseek的突破中,我特别想为他们鼓掌,因为我看到了这场“主义”胜利。
但是他们的胜利和我们有关系吗?没有。不管Deepseek是否存在,我们仍然会走自己的路。是否仍然可以在没有外援和资源有限的情况下商业化无人驾驶,站着挣钱?我清楚地看到了这条路。即使外部环境艰难,即使我们不赌运气,我们也可以做我们应该做的一切,自然而然地走到最后。
所以我没有近忧,全是远虑。
甲子光年:你说过:“现在抓的细节少了。如果有算法问题,需要一个月的时间才能克服。在此之前,你可能会拍桌子亲自上阵,但现在这种情况不太可能了。”你认为从实施者到守护者的角色很难改变吗?
侯晓迪:不,两者密切相关。如果我每天都在做一些遥远的事情,那么最近的担忧就会有一个重、双、三重防护网,我们在防护方面做得很好。我觉得现在团队的完善度很高。和五年前相比,我对现在的团队感到安心。
甲子光年:有时候会不会忍不住拍桌子亲自上阵?
侯晓迪:在某些项目中,我还是会把握细节,主要是为了三件事:
首先,锻炼队伍,亲自做项目打个样,让他们看看怎么做;
其次,保持触觉,企业的大决定,基本上都要有战场前线的具体信息。
第三,愿景交流,每个项目的不同合作伙伴都有不同的预期。这时,我可以帮助连接软硬件、技术和运营、业务和法律事务。
下图是关于愿景的。很多时候,每个人都在说同样的话,但实际上,进出特别大,所以我们需要一起做项目,对齐我们的想法。我们的团队流动性大,没有固定的组织结构。我们经常根据项目调动人手,完成后会解散和更换。在这种组织形式下,我作为一个具体的实施者创造的价值并不重要,但是我给大家画一张图来适应所有的团队就变得非常重要了。

甲光年:你在2024年经历的Magic 什么是moment?
侯晓迪:事实上,我自己并没有,相反,2024年,由于AI的技术突破,世界变得特别浮躁。我一如既往地做我的分析、判断和实践。很少有人相信,但对我影响不大。唯一不同的是噪音真的很大,有点不舒服。
但回过头来看,只是每个人都参加了一个极其疯狂的嘉年华。嘉年华结束后,每个人都逐渐走出来。世界的客观规律没有改变,我的认知也没有改变,而是参与群众。
假如一定要让我谈谈2024年的Magic moment,那么我就不说自己了,从更宏伟的角度来谈谈社会和人类文明的演变。那是人类加速发展的一年。到了2024年底,连我妈都开始使用大模型。大众拥抱技术越来越多,技术也正成为生活中不可或缺的一部分,这是一件好事。与此同时,我看到更多比我更了解和更有想象力的人开始引领公众,广泛而深刻地讨论科技、人工智能、人类社会甚至我们文明的未来命运。这是我们这个时代的启蒙运动。
虽然批评的声音很多,但是钟摆摆向左边的极端,摆向右边的极端。但是,如果我们不站在个人身上,而是站在文明的过程中,很少有文明的过程会直线前进。 这个地方并没有绕圈子,而是走了一条蜿蜒的盘山公路。
甲子光年:你对今年的人工智能和无人驾驶有什么新的期待?
侯晓迪:要在产品层面实现大模型的飞跃,不仅要靠自身的技术突破,还要结合其他技术。我期待这一点,也反对盲目堆积资源的做法。目前有很多人持这种观点。
关键是将LLM融入计算机科学系统,而不是抛弃现有的技术积累。随着计算机科学的发展近百年,现在很多人只会提高模型,造成技术障碍。然而,RAG等方向有所突破,搜索和优化的价值也在回归。
例如,最近有很多人谈论Chain。 of Thought 思维链,现在很多工作都是基于经验主义的实践,但实际上有很多古老的AI技术,上一代甚至上三代。他们背后的哲学思辨和指导方向远没有被彻底理解和充分利用。我期待这方面能够通过文艺复兴产生下一个大的突破——这与无人驾驶无关,但意义深远。
One More Thing
三月四日,甲子光年,Bot Auto公布了2025年无人驾驶商业货运计划,这对你们意味着什么?
侯晓迪:2025年的无人商业货运计划对我们来说非常重要,这不是由拍脑袋决定的。先说重点。今天,我们将开始从休斯敦到圣安东尼奥的自动驾驶卡车运营。我们不从事技术表演,这是一个真正的商业试运行。
对于两个最真实的问题,我们去了:
顾客到底愿不愿意用无人卡车运送真货?
对于无人驾驶公司来说,这个生意最终能赚到真金白银吗?
现在,在这个时间点,外界肯定会有疑问。然而,当我们看到市场现状时,每个人都将目标设定在2025年。这些不是巧合,而是技术成熟度曲线的必然。当硬件冗余设计通过百万公里的测试和超过事故发生率的软件迭代速度时,商业窗口自然会打开。
美国高速公路上最后一次有无人卡车是在2021年。巧合的是,这也是我们团队做的。从那以后,我一直在寻找这个问题的答案——如何让无人驾驶公司盈利。Bot Auto的建立,人员组织架构的建立,技术路径的选择,包括这次的Driver out试点,都是我回答的一部分。
关于这次试运行,我想强调两点:
1.本次试点将严格记录完全无人驾驶卡车的实际运行成本,我们将将所有运行数据视为可审计的会计数据,从硬件成本、油耗到出车效率和维护频率;
2.我们拒绝“为自动驾驶而自动驾驶”,所有的技术创新都必须经过商业验证。这四个月的试运行将直接指导我们后续的工作重点。
最后,我引用了我经常对团队说的话:“无人驾驶的最终测试不是在实验室,而是在货运公司的利润表中。”2025年,我们将向行业证明,自动驾驶卡车不是一个科幻概念,而是一个大规模的生产力工具。
本文来自微信公众号“甲子光年”,作者:苏霍伊,36氪经授权发布。
本文仅代表作者观点,版权归原创者所有,如需转载请在文中注明来源及作者名字。
免责声明:本文系转载编辑文章,仅作分享之用。如分享内容、图片侵犯到您的版权或非授权发布,请及时与我们联系进行审核处理或删除,您可以发送材料至邮箱:service@tojoy.com




