最新发布的李飞飞:人工智能需要一个治理框架,要遵循三个原则。

二月九日消息,斯坦福以人为本。(HAI)World公司院长,空间智能创业公司 在英国《金融时报》的最新一篇文章中,Labs的联合创始人兼首席执行官李飞飞说,人工智能发展迅速,但目前世界上缺乏明确的治理框架,已经成为一个亟待解决的挑战。所以,她提出了制定三个AI政策的基本原则。
李飞飞强调,AI治理应该以科学为基础,而不是科幻想象。目前,一些科幻小说和意识形态化的概念似乎正在渗透到AI治理框架的制定过程中,需要以科学的理念和务实的态度来防止。
李飞飞在发表文章时说。全力支持开源AI。她认为,开放AI模型和计算工具的访问限制尤为重要,有助于促进技术进步。限制访问将设置障碍,缓解创新。
下面是李飞飞发布的全篇文章:
AI正在以前所未有的速度发展。计算任务需要几天才能完成,现在几分钟就能完成。虽然培训成本大幅上升,但这些成本很快就会降低,因为开发者学会了如何用更少的资源做更多的事情。我之前说过,但是今天我要重申一下——AI的未来来了。
对这一领域的从业者来说,这并不奇怪。计算机科学家们一直在努力工作,公司多年来一直在不断创新。但是令人惊讶和担忧的是,AI似乎缺乏一个全面的治理框架。是的,AI正在迅速发展,但是另一方面,我们必须确保它能够造福人类。
作为一名技术专家和教育工作者,我相信全球AI生态系统中的每个人都有责任推动技术进步,以确保以人为本的方法。这是一项艰巨的任务,值得制定一套结构化的指导方针来规范。在准备下周的巴黎AI行动峰会时,我为未来的AI政策制定提出了三个基本原则。
首先,依靠科学,而不是科幻。
科学工作的基础原则上是依靠经验数据和严格的研究,同样的方法也可以用于AI治理。虽然有一些未来主义的场景——无论是乌托邦还是末日,这些场景往往会激起我们的想象力,但有效的政策制定需要对当前的现实有一个清晰的认识。
在图像识别和自然语言处理等方面取得了重大突破。聊天机器人和智能助手正以令人兴奋的方式改变他们的工作模式,但是他们使用的是先进的数据学习和模式生成技术。而非具有意图、自由意志或观念的智能方法。理解这一点非常重要,它能让我们防止被不切实际的情况转移注意力,进而致力于应对关键挑战。
鉴于AI的复杂性,即使致力于现实,也并不总是容易的。为了消除科学进步和实际应用的差距,我们需要一些准确的工具来提供人工智能能力和最新的信息。美国国家标准和技术研究院等老牌权威部门可以帮助我们了解人工智能对现实世界的影响,从而为制定切实有效的政策提供参考。
其次,务实而非意识形态化。
AI领域虽然发展迅速,但还处于起步阶段,最大潜力还没有显现出来。因此,必须以务实的态度制定什么可以构建,什么不能构建的政策,既要最大限度地减少意想不到的后果,又要鼓励创新。
以AI用于更准确地诊断疾病为例,可能会迅速普及高质量的医疗服务。但是,如果没有适当的引导,也可能会加重当今医疗行业的偏见。
AI的开发并不容易。即使一个模型是以最好的初衷开发的,但是这个模型将来可能会被滥用。所以,最佳的治理政策应该是以战略手段规避风险,同时奖励以负责任的态度开发和部署AI技术的行为。为了防止故意乱用,避免不公平地惩罚善意的努力,政策制定者必须制定实用的责任政策。
三是赋能AI生态系统。
AI技术可以激励学生,帮助我们照顾老龄人口,提供绿色能源创新解决方案,而最好的创新往往是通过合作来实现的。因此,更重要的是,政策制定者赋能整个AI生态系统。这一生态系统包括开源社区和学术界。。
对AI模型和计算工具进行开放访问限制尤为重要,有助于促进技术进步。对于资源低于私营部门的学术机构和研究人员来说,限制访问会设置障碍,缓解创新。当然,这种限制的后果远远超出了学术界的范围。如果今天的计算机科学生不能使用最好的模型进行研究,当他们进入私营部门或决定成立自己的公司时,他们就无法理解这些复杂的系统,这是一个非常严重的知识空缺。
人工智能革命已经到来,我对此感到兴奋。在人工智能驱动的世界里,我们可能会大大改善人类的生活。但是为了实现这个目标,我们应该有一个全新的治理结构:它强调协作性,基于实际数据和验证的研究结果,并根植于以人为本的价值观中。。
本文来源于“腾讯科技”,编译:金鹿,36氪经授权发布。
本文仅代表作者观点,版权归原创者所有,如需转载请在文中注明来源及作者名字。
免责声明:本文系转载编辑文章,仅作分享之用。如分享内容、图片侵犯到您的版权或非授权发布,请及时与我们联系进行审核处理或删除,您可以发送材料至邮箱:service@tojoy.com




