话人工智能|人工智能将如何进化中关村论坛?
三月二十七日,2025中关村论坛年会正式开幕,这个以科技为重点的论坛,还设置了更多与人工智能相关的内容。现在,人工智能的发展到底到了什么阶段?如何让人工智能在现有的基础上继续前进?在发展的同时,如何解决安全问题?《新闻1 清华大学人工智能研究院教授黄民烈、中国政法大学数据法治研究院教授张凌寒,带来分析解读。
当人工智能发生什么变化时,关注点是什么?

清华大学人工智能研究所教授黄民烈:我认为今年的变化有两个热点:
1. 具体智能,今年的具体智能确实是除了生成大模型之外最重要的研究热点和产业布局方向。这个方向的投融资非常活跃。因为具体智能是一些可见度很高的使用场景,比如人形机器人、自动驾驶等。,可以通过将具体的大模型与机器人相结合来实现。
2. 另外,AI的一个重要变化是 for Sciences(形成人工智能驱动的科学研究),为什么AI? for 目前,Sciences变得非常重要?因为过去的大模型,也许只能陪人聊天,帮人写公文,做些文档操作,但能不能用AI帮来创新呢?解决一些重要的科学发现,比如探索如何发现新材料,解决一些重要的基础科学问题,比如医学研究,甚至生命科学研究。其实这个方向也是未来。如何真正用AI创造新的项目,发现新的知识,然后探索一些人类过去没有探索过的重要科学发现,是我们非常重要的焦点。
这两点在今年的中关村论坛上也得到了很好的体现。
发展工业场景中的人工智能技术有哪些关键?

黄民烈:我认为人工智能是未来工业场景应用的一个非常重要的方向,也是实现新质量生产力的最重要的突破方向。因为工业场景中的人工智能技术需要高可靠性,所以我们必须处理三个非常重要的问题:
1. 我们的智能化能否提升到更高的水平?虽然现在的大模型在很多方面都很智能,但是我们工业场景的数据要和实际的工作流程深度结合,这样我们的智能化能否达到更高的水平。
2. 其可靠性问题在工业场景中的容错空间相对较小。一旦出现错误,可能会导致明显的破坏性效果,因此需要更高的可靠性。在可靠性方面,也是目前人工智能研究的一个非常重要的方向。
3. 安全问题,安全意味着我们应用了很多新一代的人工智能技术。事实上,它对我们整个人和人工智能的关系以及人工智能对整个社会的发展产生了深远的影响。其实这是一个治理层面的问题。可靠性和治理也是未来非常重要的一点。
怎样处理人工智能发展中存在的风险和安全问题?

中国政法大学数据法治研究院教授张凌寒:事实上,在制定监管法律法规时,我们充分考虑了AI的风险。去年9月,中国发布了《人工智能安全管理框架》,将人工智能风险分为两类——内部风险和应用风险,实际上是AI的技术风险和滥用风险。对内部风险的治理,我们提出了“以技治技”的原则,以技术治理技术。人工智能技术,在研究开发和部署过程中,必须进行充分的评估,对价值进行对齐,并进行持续的运行监控。至于应用的风险,其实我们不仅要关注AI的法律治理和监管,还要充分制定和考虑一些与AI相关的行业的法律,比如自动驾驶、智能医疗、AI陪伴等。,从而做出全面的规划。
原标题:“话人工智能”|人工智能将如何进化中关村论坛?》
本文仅代表作者观点,版权归原创者所有,如需转载请在文中注明来源及作者名字。
免责声明:本文系转载编辑文章,仅作分享之用。如分享内容、图片侵犯到您的版权或非授权发布,请及时与我们联系进行审核处理或删除,您可以发送材料至邮箱:service@tojoy.com




