李飞飞发了一封公开信!支持开源AI
提出AI治理三大原则的李飞飞发文。
编译 | 陈骏达
编辑 | Panken
2月8日,斯坦福大学教授、以人为本的AI研究中心主任李飞飞发布了一封公开信,全力支持开源AI。
最近,DeepSeek在爆炸后遭到了美国乃至世界上大量相关机构和公司的追捧,但也有杨立昆。(Yann LeCun)、马克·安德森(Marc Andreessen)等待业内知名人士发表不同意见,支持开源AI。此时李飞飞就开源问题发声,似乎也从侧面回应了最近的相关讨论。
李飞飞在信中强调,AI的未来已经到来,但令人担忧的是,AI治理似乎缺乏一个整体框架,无法有效保证其对人类的利益。更严重的是,一些科幻小说和意识形态化的概念似乎正在渗透到AI治理框架的制定过程中,需要用科学的理念和务实的态度来防止。
她认为限制浏览先进的AI系统会阻碍和缓解创新,这对学术界和人才培养都是极其不利的,最终会攻击AI行业的发展。
在过去的一年里,李飞飞除了在空间智能领域创立World之外, 除了Labs之外,我们还积极参与AI领域相关政策和治理框架的公开讨论,倡导公共行政加强对AI的投资,反思过去使用ImageNet创建的众包AI模式的公平性。
下面是李飞飞公开信的完整编译:
AI治理框架,刻不容缓。
AI正以惊人的速度发展。过去需要计算几天才能解决的问题,现在只需要几分钟就能完成。虽然培训成本大幅上升,但这些成本很快就会降低,因为开发者学会用更少的资源做更多的事情。我之前说过,现在AI的未来又来了。
对于AI领域的业内人士来说,这并不奇怪。计算机科学家一直在努力工作,公司多年来一直在不断创新。令人惊讶和关注的是,AI治理似乎缺乏一个整体框架。是的,AI正在快速发展——随之而来的是确保它对全人类都有好处的重要性。
作为一名技术专家和教育工作者,我相信全球AI生态系统中的每个人都有责任推动技术进步,以确保以人为本的方法。这是一项艰巨的任务,需要一套结构化的指导方针。为了准备下周在巴黎举行的AI行动峰会,我提出了三个基本原则来制定未来的AI政策。
首先,依靠科学,而不是科幻。科学工作的基础是依靠实证数据和严格的研究,同样的方法也应用于AI治理。虽然未来主义的场景——无论是乌托邦还是末世——激发了我们的想象力,但有效的政策制定需要对当前的现实有一个清晰的认识。
我们在图像识别和自然语言处理方面取得了显著进展。聊天机器人和辅助软件系统正在以令人兴奋的势头改变工作模式——但它们只是应用了先进的数据学习和模式生成技术。他们不是有意图、有自由意志或想法的智能方法。理解这一点非常重要。它可以帮助我们避免被不切实际的情况转移注意力,并使我们能够致力于关键的测试。
鉴于AI的复杂性,即使致力于现实也不总是容易的。为了消除科学进步和实际应用之间的差距,我们应该能够准确地分享AI能力的最新信息。像美国国家标准和技术研究院这样的权威部门可以澄清AI在现实世界中的影响,然后根据技术现状制定准确可操作的政策。
其次,务实而不是意识形态化。AI领域虽然发展迅速,但还处于起步阶段,最大的贡献还在未来。因此,必须以务实的方式制定什么可以构建,什么不可以构建的政策,以最大限度地减少意想不到的后果,激励创新。
以AI用于更准确的疾病诊断为例。这可能会迅速普及高质量医疗服务的获取。但是,如果没有适当的引导,也可能会加重当今医疗行业的偏见。
开发人工智能技术并不容易。开发一个模型可能是为了一个好的目的,但是这个模型将来可能会被滥用。因此,最好的治理政策应该是战术性地缓解这种风险,同时奖励负责任的实践。政策制定者必须制定实用的责任政策,以防止故意滥用,同时不会对善意行为进行不公平的处罚。
最后,赋能AI生态系统。这项技术可以激励学生,帮助我们照顾老龄化人口,并为绿色能源创新解决方案——最好的创新往往是通过合作来实现的。因此,政策制定者赋能整个AI生态系统——包括开源社区和学术界——尤为重要。
AI模型和计算工具的开放权限对进步尤为重要。限制访问会阻碍和缓解创新,尤其是对资源较少的学术机构和研究人员。当然,这种限制的后果不仅限于学术界。如果今天的计算机科学生不能使用最佳模型进行研究,那么当他们进入私营部门或决定成立自己的公司时,他们就无法理解这些复杂的系统——这是一个严重的差距。
人工智能革命已经到来——我对此感到兴奋。在人工智能驱动的世界里,我们有显著改善人类生活条件的潜力,但为了实现这一目标,我们应该基于实证、合作和深度扎根于以人为本的价值观的治理体系。
(本文系网易新闻•网易号特色内容激励计划签约帐号【智东西】原创内容,未经帐号授权,严禁随意转载。)
本文仅代表作者观点,版权归原创者所有,如需转载请在文中注明来源及作者名字。
免责声明:本文系转载编辑文章,仅作分享之用。如分享内容、图片侵犯到您的版权或非授权发布,请及时与我们联系进行审核处理或删除,您可以发送材料至邮箱:service@tojoy.com




