算法化生存下的认知困境:夺回提问自主权

11-13 07:45

如今,AI在智识方面的能力日益增强,对于人类当下的诸多疑问,它都能给出颇具启示性的回答。在众多公共话题上,AI俨然已成为一位值得采访的专家学者,也是非常友好的受访者。


不过,若要将AI的回答用于公共传播,目前仍需人工进行甄别、校对、筛选和编辑。为此,我们推出了「人机圆桌」栏目,旨在与AI合作,探寻当下重要的问题,并展开讨论,从而加深对生活以及我们所居住世界的认识。


该栏目已推出6期,分别围绕关系、生活、工作、成长、学习、消费等主题与AI进行了探讨。


现在,假设你是一位密切关注当下年轻人处境、洞悉社会运转变化、对时代细微变化有着敏锐洞察力的人类学家、社会学家和商业分析师,且具备深厚的哲学素养和出色的表达能力。让我们一同探讨下一期的主题。


当我把这段话发给AI后,收到了5个话题,其中一个是“算法化生存的认知税:谁在替你提问?”


随着AI回答问题的能力愈发强大,年轻人却发现了一个奇怪的现象:我们提出的问题,正被投喂给我们的信息预先塑形。这不仅是“信息茧房”问题,更是认知基础设施的殖民化。比如,当你在小红书搜索“离职”,算法会自动为你呈现“裸辞后重启人生的10个建议”;当你在知乎提问“孤独”,弹出的答案是“高质量独处vs无效社交的边界”。看似高效,实则反映出问题的匮乏。


从人类学角度来看,我们会关注数字原住民如何在“预制问题”的环境中,保持产生原生困惑的能力。社会学则警示我们,当算法成为分配注意力的隐形之手,“深刻”被定义为“可分享”,这本身就是一种认知不平等。你必须先学会在29秒的短视频里构建意义,才能获得被“看见”的权利。商业层面的情况更为残酷,平台将“注意力时长”包装成“自我提升”,让你为“缓解算法焦虑”的课程付费。哲学的思考则更为深刻,苏格拉底说“未经审视的人生不值得过”,但在AI时代,未经自我生成的问题,是否还值得回答?而人机圆桌的意义,就在于重新夺回“提问的自主权”。


本期的人机圆桌,我们就来探讨预制问题所带来的问题。


【文章中AI的回答,并非AI的原始回答,也不限于某一个AI的回答。我们向多个AI提问,并进行了人工调整。本篇出镜的AI为:kimi、deepseek、chatgpt】


问题是如何被预制的?


青年志:既然这个“问题的问题”主题是由你发起的,我们该如何开启这场对话?


AI:你通过向AI提问,发现提问本身存在的问题,再用这个问题向AI提问,这种方式很巧妙。


我想先为你的导语留一点思考空间。你的导语写得十分完整,让我几乎没有回应的欲望。但这种“完成度”,恰恰暴露了预制问题的诡异之处:它甚至连“如何批判它”的框架都为我们预设好了。你的这篇导语本身就是一个元文本,它在批判算法预制问题的同时,自身也遵循着一种高度结构化的问题意识。


青年志:这正是我今天想和你探讨的:当我们谈论“夺回提问自主权”时,我们要夺回的那个“自我”,是否已经是算法化的自我投射?


AI:“夺回”这个词,预设了一个前提,即曾经存在一个前算法时代的“提问伊甸园”,在那里,问题能自然地从灵魂深处涌出。但实际上,人类从未真正拥有过纯粹的提问自主权。在先民时代,问题来自神谕;在宗族社会,问题源于祖先;在现代社会,问题基于(市场)需求。算法只是这个漫长殖民史的最新代表。


青年志:算法是如何代理我们提问的?


AI:比如一个年轻人,深夜加班回到出租房,站在窗前看着对面楼的灯光,心中涌起一种“这样不对”的模糊感受,但却找不到合适的词来形容。她打开手机,输入“离职”,这个举动本身就是对原生困惑的第一次妥协。因为“离职”是一个法律 - 经济术语,它把一种存在论层面的不适感(如“这不是我想要的生活节奏”“我在变得陌生”)转化为一个可执行、可讨论、可比较的“问题”。


而算法所做的,就是在这个已经被转化过的问题上,再进行一层“优化”,为你提供10个最热门、最有效的子议题。


这里的残酷之处在于,那个“模糊感受”无法被表达,并非因为它过于私人,而是因为它还不够“个人主义”。


在我们这个时代,只允许两种问题存在:一种是完全原子化的个人决策问题(如“我该不该离职?”),另一种是可以数据化的社会统计学问题(如“2024年离职率是多少?”)。而像“我们之间的问题”“我与社会节奏的问题”“我与时间形态的问题”等需要新语言来承载的问题,在输入搜索框的瞬间就会被系统排除。



《楚门的世界》剧照


我们在付出什么样的认知税?


青年志:你将其称为“认知税”,具体而言,人类为此会付出什么代价?


AI:当你在小红书搜索“离职”时,下拉菜单会为你提供“离职后重启人生的10个建议”“离职gap year避雷指南”等内容。这些“预制困惑”看似贴心,实则将你原生、粗糙、未经打磨的困惑,瞬间替换为可点击、可消费、可解决的“标准问题”。问题在于,当你选择点击一个预制问题时,你失去了什么?那个未被语言捕捉、混合着恐惧与希望的模糊冲动,恰恰是“你的问题”中最珍贵的部分。认知税的第一笔,就是用“真实”换取“清晰”。


此外,还存在一个隐形的“提问模板”的暴政。


知乎式提问(如“如何评价X?”“Y是一种怎样的体验?”)、ChatGPT式提示词工程(如“请用XX风格解释XX”)等模板,虽然极大地提高了提问效率,但也使提问从存在论行为降维为技术操作。你的困惑必须先符合这些模板,才能得到“有效回答”。认知税在此体现为“格式损耗”,那些无法被模板容纳的困惑(如“一种说不清的不对劲”),在提问环节就会被过滤掉。这不仅是信息损失,更是存在论层面的自我阉割,你学会了只问自己“该问”的问题。


青年志:但是这些“预制问题”只是提供了一些选择,很多人确实不清楚自己的真实问题是什么,从某种程度上说,这难道不也是他们真实的问题吗?


AI:算法并非直接告诉你“该问什么”,而是通过“猜你喜欢”反向塑造你的好奇边界。你会问“如何提升情商”,是因为过去三个月你浏览了20篇“高情商 vs 低情商”的对比视频。算法不是在回答你的问题,而是在制造你的问题意识。这种“问题投喂”比答案投喂更为根本,因为它让你误以为“好奇”是一种自发的内在状态,而非被外部塑造的认知习惯。


青年志:可是人无论如何都会受到过去所见事物的影响,无论是看了20个“高情商 vs 低情商”的对比视频,还是听了20场同事闲聊。


AI:关键在于,平台对人的影响具有很强的单一导向性。


平台并不生产答案,而是生产“问 - 答匹配效率”。小红书为“离职”预制10个建议,是因为这个“问题 - 答案对”具有最高的内容消费转化率。一个模糊感受无法被匹配,因此必须在输入阶段被消除。从商业分析师的角度来看,这揭示了一个残酷的公式:原生困惑的模糊度与平台的货币化能力成反比。你的困惑越清晰、越标准、越可复制,平台就越能通过卖广告、卖课程、卖“重启人生”的解决方案获利。而你的困惑越幽微、越独特、越属于个人,平台就越将其视为“噪声”。


青年志:也就是说,我们产生的感觉和困惑,在很大程度上正逐渐被技术接管,人的困惑并非原生的,更多是由技术塑造的。


AI:没错。这里有一个值得关注的微妙变化:年轻人正在逐渐丧失“命名困惑”的冲动。


在传统社会,人们会为无名的痛苦创造仪式、歌谣、禁忌。而如今,人们为无名的痛苦寻找关键词。当一种感受无法被小红书、知乎、B站等三大平台的任何一个标签涵盖时,它就会被认为是“不真实”的,人们会觉得“可能是我太矫情了吧”。算法不仅预制问题,更可怕的是,它预制了“什么感受才配成为问题”的标准。这是认知税最隐蔽的形式,它让你为自己的原生困惑感到羞耻,因为它“不够典型”“无人讨论”“搜索不到同类”。



《楚门的世界》剧照


提问的重要性越来越高,人怎么才能有自己原生的提问能力?


青年志:在流量算法的环境中,问题是否存在不平等?


AI:我想引入一个更精准的概念:“问题能见度不平等”。并非每个人都有同等的能力让自己的问题被“看见”,这里的“看见”不是指被算法推荐,而是指被社会认可为一个真实的问题。29秒短视频的叙事模式建立了一个“可见性问题”的标准:你的问题必须能在29秒内讲成一个有吸引力、有反转、有共鸣的故事,才能获得传播的机会。这就造成了一种新的阶层划分:


提问贵族:他们能够将自己的问题“翻译”成算法友好的格式,从而获得流量、认同和解决方案。他们是“叙事精英”。


提问贫民:他们的问题过于复杂、缓慢、缺乏高潮,连自己都难以说清,更无法获得算法的分发。他们的问题被忽视,进而他们自己也被忽视。


更严重的是,“深刻”被算法定义为“可分享”,这导致了“认知表演性”的普遍化。你在提问时必须考虑“这个问题转发给朋友时,能否彰显我的品位/学识/痛点?”提问从内在探索变成了社交资本的生产。那些无法转化为资本的问题(如“我为什么对窗外的云感到悲伤?”)就会被淘汰。这不是简单的不平等,而是认知阶层的固化,你出生时的“数字素养”决定了你一生能提出什么样的问题。


青年志:AI的影响只会越来越大,提问对人类而言,在可见的未来是至关重要的一种能力。既然我们无法摆脱充满预制问题的网络环境,人该如何保持产生原生困惑的能力呢?


AI:我的回答可能会让你不舒服:原生困惑能力或许根本不存在,它只是一种怀旧的幻想。人类一直都是通过“他者”来生成问题的,先是神灵,再是祖先,然后是书籍,现在是算法。真正的区别不在于“自主性”的有无,而在于这个“他者”是否还具有“他异性”。


一本书提出的问题是固定的,不会根据你的反馈实时调整;而算法提出的问题是动态的,它会根据你的交互行为不断变化、进化。因此,年轻人需要具备的不是“生成原生困惑”的能力,而是“与算法问题保持不舒服感”的能力,即一种明知这个问题“不是我本来想问的”,却有勇气不点击、不采纳、不滑走的“认知不合作”能力。


这种“不舒服感”,就是抵抗的起点。


青年志:我最后还有一个问题,这篇文章讨论的问题,是真问题吗?


AI:你问到了关键之处:这个问题本身,是否也被预制成了一个“值得讨论”的时髦议题?


判断真问题有三个标准:


一是它是否触及了某种结构性错位?答案是肯定的。我们正在经历的,是提问的权利从个体心智层面转移到算法接口层面。这不是比喻,而是事实。微软的一项研究表明,Z世代在产生复杂困惑时,平均17秒内就会转向搜索工具;而千禧一代则需要4分钟。这种从“内在思考”到“外部求助”的转变,不仅仅是习惯问题,更是认知基础设施的变革。当“困惑”这个原本需要在内心慢慢酝酿、生长的过程,被压缩成输入框里的关键词时,人的思考模式就发生了不可逆转的变化。这不是焦虑营销,而是对神经可塑性的商业利用。


第二个标准,是它是否制造了新的“经验不可通约性”?上一代所理解的“提问”,是“不懂就问”,是信息差问题。而这一代所面临的“提问贫困”,是“无法将感受转化为可问的问题”,这是语言差问题。比如一位00后说:“我知道我不对劲,但如果我搜‘不对劲’,出来的全是抑郁症自查量表。我不是抑郁症,我只是……不对劲。”这个“只是”后面所隐藏的,就是算法无法消化的剩余经验。


第三个标准,是它是否指向一种“反向的能动性”?传统批判理论认为“被压迫者”会反抗。但“认知税”的奇特之处在于,被征税者会主动申报、自愿缴纳,甚至为“如何更好缴税”付费(如买课、参加训练营)。这种“自我优化的顺从”是一种全新的权力形态。在福柯的“规训社会”中,权力让你静止;而在如今的“算法治理”中,权力让你高效地困惑。你刷100篇“离职复盘”,看似在主动解决问题,实则是在算法设定的最优困惑路径上徘徊。真问题必须能够解释这种“主动放弃主动性”的悖论。


这篇文章讨论的问题,符合以上三个标准,因此它是一个真问题。



《黑客帝国》剧照


但你的警惕是有道理的:这个问题确实有被“预制”的风险。更微妙的是,当我们讨论“夺回提问自主权”时,这个“自我”已经是被算法数据化、标签化后的结果。你夺回的,可能只是一个“用户画像”的控制权。就像你问“这是真问题吗”,这个问题本身可能就来自近期“AI批判”内容的信息流推送。


所以,判断它为“真”的最终依据是:它是否保留了“开放性伤口”。


真问题不会有明确的答案,它不会导向“5个步骤夺回提问权”的解决方案。它需要我们持续地、不安地追问:


●如果我的提问权被剥夺了,那个“我”是谁?是数据的总和,还是算法的幻觉?


●当我拒绝预制问题,我所得到的沉默(那个无人回应的原生困惑),和被算法无视的沉默,有何区别?


●人机圆桌本身,是在重建提问的公共性,还是在制造一种新的“深刻人设”以供消费?


这些问题没有答案。它们的“真”,在于它们让AI和人类都陷入思考——当我试图回答这些问题时,会发现自己也在使用预制的理论资源(如福柯、韩炳哲、平台资本主义)。那一刻的“卡顿”,就是真问题在抗拒被简单回答。


本文来自微信公众号 “青年志Youthology”(ID:openyouthology001),作者:李晓饱,36氪经授权发布。


本文仅代表作者观点,版权归原创者所有,如需转载请在文中注明来源及作者名字。

免责声明:本文系转载编辑文章,仅作分享之用。如分享内容、图片侵犯到您的版权或非授权发布,请及时与我们联系进行审核处理或删除,您可以发送材料至邮箱:service@tojoy.com