最强AI未必是最佳搭档:适配性才是AI协作的关键

2天前

本文来自微信公众号:生态学时空,作者:复旦赵斌



我们常常认为,AI越强大、越全能,就越能成为我们的得力助手。无论是编写代码、进行设计,还是分析数据,我们都在追寻“最厉害”的AI工具。但事实真的如此吗?



一篇发表于全球人工智能顶会ICLR 2024的研究,通过一个象棋实验告诉我们:AI的价值,不仅在于它的能力强弱,更在于它是否与你“适配”。





这场AI间的象棋比赛并非单打独斗,而是“组队协作”。



研究人员设计了这样一场特殊的比赛:



队伍配置:每支队伍均为“强AI+弱AI”的搭档组合。其中的“弱AI”(代号Maia)被训练成模仿普通人类业余棋手的水平,就像我们这些“普通”队友。



由此组成了两支实力差距明显的队伍:



红队(超级英雄队):拥有世界冠军级别的超级AI“Leela”,其棋力足以碾压当前任何人类棋手。



蓝队(默契搭档队):拥有一个实力稍逊于Leela的AI,但它被专门训练去“迁就”和“配合”弱队友。它走的每一步,并非追求自身的“神之一手”,而是确保队友能理解、能衔接。



核心规则:随机接力。具体而言,每个队伍的下一步由哪位队员走,全凭抛硬币决定。这意味着,强大的AI也无法预知下一秒是否需要将“指挥权”交给水平远不如自己的队友。



对决结果如何?所有人都以为会稳赢的超级英雄队,被默契搭档队彻底击败。



你看,即便像下棋这种纯拼算力与硬实力的事,也并非AI越厉害越好。AI自身再强,若与你无法配合、不能让你随之进步,那它不仅帮不上忙,反而可能因“神操作”让你无所适从,拖垮整个团队。



这个实验的结论,放到当下的大学教育中,精准戳中了绝大多数人正在踩的坑。如今大学生使用AI,大多在追求“最强、最全能”的AI:写论文找最擅长生成内容的AI,做PPT找最会排版的AI,做数据分析找算力最强的AI,甚至连课堂发言的稿子,都要AI写得毫无破绽。



大家都觉得,AI越厉害,自己就能越省力,就能取得更好的成绩。但你是否发现,用了一学期AI后,期末闭卷让你写3000字报告时,你对着空白文档连大纲都列不出来?老师上课提问,你照着AI给的答案念,老师多问两句原因,你瞬间哑口无言?因为你用的AI太强了,而你就是那个弱队友!



2025年的《柳叶刀》也报道了一个类似案例:内镜医生长期依赖AI辅助查找癌前病变,仅一段时间后,不用AI、纯靠肉眼找病变的准确率,从28%直接降至22%。



这便是AI给我们挖的第一个坑:个体层面的“技能退化”。天天让AI替你写、替你想、替你做最核心的专业判断,你的大脑、你的专业能力,就像长期不用的肌肉一样,会慢慢萎缩。这并非AI赋能,而是AI替你完成了本该你成长的过程,最终你自己什么能力都没留下。



正如前面所说,真正好的AI,其输出应是“弱队友能接得住、能继续往下走”的,而非直接给你最终答案,把你该走的路全走完。



但这还不是最可怕的。最可怕的是绝大多数人未察觉到的第二个更深的坑:整个行业的“思考能力退化”。



回到象棋实验,下棋有明确的终极目标,即把对方将死、赢得比赛。但我们上大学、学专业,目标大多并非一成不变,也就是说没有类似将对方将死的最终目标。



你学临床当医生,最终目标并非“看片子100%找对病变”就结束。我们来看一个真实的临床场景:一位80多岁的老年患者查出早期肺癌,AI给出的最优方案是手术切除,测算的5年生存率达90%,数字十分漂亮。但患者本身有严重的心脏病、糖尿病,身体底子很差,子女也担心老人扛不住手术创伤和术后痛苦,想选择保守治疗,让老人剩下的日子安稳舒服些。



此时,医生要做的判断,根本不是盯着AI给出的90%生存率数字选方案。他要平衡的是“延长生命长度”与“保障老人最后生活质量”,还要考虑患者本人的意愿、家属的顾虑、老人的心理状态。这个判断,没有任何AI能给出标准答案,它无法算出“70%该手术,30%该保守”的概率,因为背后是医生的专业伦理,是对“什么才是好的医疗”的理解,是对一个个活生生的人的共情。



而AI的局限正在于此:它只能朝着固定的、可计算的目标优化,比如“诊断准确率”,但很难理解那些无法用数字衡量的、一个行业真正的灵魂与价值。



如今很多大学的AI教育走向了两个极端:要么一刀切、禁止使用,甚至有学校规定抓到用AI写作业直接算挂科;要么开一门课,只教你如何写提示词、如何让AI输出最完美的答案。



不得不遗憾地说,这两种做法都存在很大问题。禁用AI不现实,现在绝大多数大学生都在接触和使用AI,禁用只会让大家明着不用私下用,反而从课堂上的规范引导变成课堂外的盲目滥用;而只教写提示词更是避重就轻——本质上是教你如何适配现有的AI,如何跟着有缺陷的AI逻辑走,而非教你如何驾驭AI,如何守住人类独有的、AI难以复刻的思考能力。



如果我们的大学只教学生用AI做可量化的事,那十年后,很难再有医生去琢磨数字背后患者的真实处境;很难再有律师去深究法律条文背后的公平正义;很难再有老师去关心分数之外孩子的成长与可能性。



整个行业会慢慢失去质疑和重新定义自身核心价值的能力,被AI的算法牵着鼻子走。这才是AI给高等教育挖的最深的坑。



那面对这个坑,我们到底该怎么办?我认为最重要的一条是:别再把AI当成计算机专业的子学科,它是能与文科、理科、农科、工科、医科、社科相融,甚至与这些学科门类并肩的基础能力。





很多人的认知里,AI是计算机专业的事,只有学CS的才需要懂AI的底层逻辑,其他专业的学生只要会用现成的AI工具就行。但这种认知恰恰窄化了我们对AI的想象,也锁死了各个专业用好AI的可能性。



试想,学中文的,不是只能用计算机专业做好的AI写稿子,而是可以结合自身专业,去定义AI如何帮助我们进行古籍整理、方言保护、民间文学的数字化传承;学农科的,不是只能用现成的AI计算产量,而是可以结合田间地头的实际情况,去定义AI如何适配不同的土壤、气候,帮农户做更贴合实际的种植决策;学医的,不是只能用现成的AI看片子,而是可以结合临床的真实需求,去定义AI如何辅助医患沟通、术后康复管理,该守住什么样的医疗伦理边界。



如果一直把AI困在计算机专业的子学科里,那其他所有专业的学生都只能顺着计算机专业设定好的AI框架走,无法结合自身专业需求去定义AI的使用方式和边界,最终只能被AI的逻辑带着走,很难成为AI的主人。



所以,我们或许从一开始就搞错了AI的定位。


本文仅代表作者观点,版权归原创者所有,如需转载请在文中注明来源及作者名字。

免责声明:本文系转载编辑文章,仅作分享之用。如分享内容、图片侵犯到您的版权或非授权发布,请及时与我们联系进行审核处理或删除,您可以发送材料至邮箱:service@tojoy.com