谷歌DeepMind首席执行官:AI规模扩展是实现通用人工智能的核心
IT之家12月8日消息,据《商业内幕》昨日报道,谷歌DeepMind首席执行官德米斯・哈萨比斯(Demis Hassabis)近期指出,扩大AI模型的规模是达成通用人工智能(AGI)的关键所在。

报道显示,硅谷业内人士围绕“规模定律(scaling laws)究竟能引领AI发展到何种程度”这一议题的争论从未停歇。
凭借Gemini 3收获大量好评的谷歌DeepMind首席执行官德米斯・哈萨比斯于上周称:“我们必须将当前AI的规模化发展推向顶峰,它最终会成为通用人工智能的核心构成部分,甚至有可能是整个通用人工智能系统的基础。”
IT之家补充说明:通用人工智能(AGI)指的是拥有与人类相当甚至超越普通人类智能水平的人工智能,能够展现出正常人类具备的所有智能行为,目前该概念仍停留在理论阶段,全球顶尖的AI企业都在为此投入资源,竞争行业领先地位。
规模定律(scaling laws)则是机器学习领域中,用于描述模型性能与模型规模、训练数据集大小以及计算资源之间可预测关系的经验性规律,被AI行业视作大模型预训练的核心准则,简单来说就是“模型规模越大+训练数据越多且时间越长=AI系统越智能”。
哈萨比斯还表示,仅依靠规模定律或许就能推动AI向AGI发展,不过他也猜测,最终可能还需要一到两项额外的技术突破才能真正实现AGI。
但规模定律并非毫无缺陷,毕竟公开可获取的数据总量存在上限,而且增加算力就意味着要建设更多数据中心,这会导致训练成本不断攀升,同时给自然环境带来压力。部分关注AI领域的专家也担忧,大语言模型企业持续按照规模定律投入,可能会出现投入产出逐渐递减的情况。
在此期间,硅谷也出现了不同的观点,其中前Meta首席AI科学家、近期宣布离职并开启创业之路的Yann LeCun(杨立昆)就认为,AI行业不能仅仅依赖规模定律。
他今年4月在新加坡国立大学发表观点时提到:“大多数真正有价值的问题在规模定律下的解决效果都非常差,不能简单地认为只要增加数据量和算力就能打造出更智能的AI。”
据悉,杨立昆离开Meta后,计划构建一套不依赖语言数据、而是以空间数据为基础的“世界模型”AI体系,这可以看作是大语言模型之外的另一种技术方案。
本文仅代表作者观点,版权归原创者所有,如需转载请在文中注明来源及作者名字。
免责声明:本文系转载编辑文章,仅作分享之用。如分享内容、图片侵犯到您的版权或非授权发布,请及时与我们联系进行审核处理或删除,您可以发送材料至邮箱:service@tojoy.com




