人工智能改变人脑?七项突破性研究带来了惊人的答案
伴随着人工智能(AI)科学家们正在争分夺秒地研究他们在心理、社会和认知方面的深刻影响,融入日常生活的方方面面。从心理问题的诊断到政治观念的塑造,人工智能工具,尤其是像ChatGPT这样的大型语言模型,正在深刻影响我们的思维方式、工作方式和与技术和他人互动的方式。
一系列全新的研究已经进行,揭示了这一切对我们的思考、行为和社会的意义。
本文将共同探讨七项前沿研究成果。这些发现揭示了AI以超乎想象的方式悄然重塑了人类的思维模式、行为习惯和文化生态。。
好奇的AI黑客:LLM红队成员的世界
《公共科学图书馆:综合》上发表的一项研究揭示了这一点。 “大型语言模型红队” 新兴文化。在这种文化中,人们将大型语言模型推向极限。其目的不是造成伤害,而是通过探索和实验对模型运行逻辑进行深入分析。
研究小组采访了来自软件工程师、艺术家等不同领域的28名从业者,发现是强烈的好奇心、道德责任感和使命感驱使他们投身于探索人工智能系统的隐藏漏洞。他们试图通过使用创造性和即兴创造性的策略来激发模型的事故或有限反应。
参与者们用 “炼金术” 和 “占卜” 这种隐喻描述了他们的活动,反映了大型语言模型行为的神秘本质。很多人属于充满活力的在线社区,他们在这些社区分享提示和技巧。
这项研究确定了五种红队战略,如修辞框架的构建和虚构世界的构建,并指出大多数测试人员没有恶意做事。他们不是为了利用安全漏洞,而是为了知道如何依靠语言。 “黑入” 这些模型。

研究人员认为,以人为本的定性方法是理解人工智能红队不断演变的关键,尤其是在传统网络安全方法无法应对这一新的语言领域的情况下。
02.ChatGPT在精神病例分析中零确诊错误
《亚洲精神病学杂志》发表的一项研究选择了100个精神病例片段来评估ChatGPT的诊断能力。结果引人注目:该模型在61例中获得最高分,在31例中获得次高分,并在整个过程中保持零确诊错误。
这个充分说明,ChatGPT 3.5在解读精神疾病、提出治疗方法等方面表现突出,也使人工智能在未来治疗心理健康方面发挥辅助作用成为可能。
这项研究使用了一本著名教科书中的例子片段,这些片段可能被纳入模型训练数据,也可能不包括在内。
每一个案例都详细描述了疾病,然后设置了诊断问题,并由两位经验丰富的精神科医生进行评估。ChatGPT最好的表现就是提出治疗管理方案,但它在鉴别诊断方面也相当出色。
研究表明,语言模型可以帮助临床医生,尤其是在适度监督的情况下,语言模型。。然而,其结论的普遍性仍然存在疑问。特别是当未来的测试选择不常见或未公开的数据时,模型能否保持这样的表现还有待验证。
03.ChatGPT的政治倾向有没有改变?
在《人文与社会科学通信》上发表的一项研究发现,ChatGPT政治导出侧重于与自由左派价值观的一致性,但更新版显示了对政治右派的细微转变。
研究人员使用 对ChatGPT-3.5和GPT-4各自的3000条回复进行了“政治指南针检测”分析。虽然两个版本普遍倾向于自由左派,但GPT-4在社会价值观上倾向于中右派。
这种变化可能不是因为训练数据的变化,而是因为研究人员控制了大量的外部变量。相反,研究结果表明,即使是模型设计的微小更新也会影响其答案的政治倾向。
虽然大型语言模型本身没有政治信仰,但它们反映了培训的数据和开发者的指示。作者提倡持续监督,以跟踪这些变化是如何发生的,尤其是当大型语言模型在公共交流、教育和决策环境中被更频繁地使用时。
04.ChatGPT的应用加剧了职场不平等。
一项在美国国家科学院院刊上发现的研究,尽管ChatGPT在工作场所得到了广泛的应用,但是它带来的好处并没有平等分配。。

研究人员调查了1.8万名高AI接触度的丹麦工人,如新闻和软件开发,发现年轻高收入的男性使用这种工具的概率要高得多。即使在同一个角色中,女性和低收入工人使用ChatGPT的概率也很小。
这些研究结果表明,AI应用的障碍,如公司政策或培训不足,可能会加剧目前的不平等。即使我们知道ChatGPT有节省时间的潜力,许多工人也没有改变他们的使用计划,这表明只有认知不足以促进他们的应用。
有趣的是,早期用户通常收入更高,对生产率的提高更加乐观。研究人员指出,这些模式可能会让一些人长期受益,而另一些人则处于劣势,除非他们采取治疗措施来创造公平的竞争环境。
05.AI可以从老年人的驾驶行为中发现抑郁症状
两项研究表明,圣路易斯华盛顿大学的研究人员主导,驾驶可以揭示老年人抑郁的迹象,人工智能可以帮助检查这些迹象。。
在第一项研究中,65岁及以上的参与者通过安装在汽车上的全球定位系统设备收集了驾驶数据。抑郁症患者表现出更不稳定的性能模式,包括突然刹车、难以预测的驾驶路线和更远的驾驶距离,尽管他们在认知测试中的分数与没有抑郁症的人相似。
第二项研究利用机器学习分析了157名老年人两年的驾驶数据。一种结合性能模式和药物应用模式,可以以90%的准确率识别抑郁症患者。令人惊讶的是,人口统计数据并没有显著提高模型性能,这表明行为数据可能比年龄或性别更能解释问题。
虽然这项研究不能证明抑郁症引起了这些变化,但它突出了一种非常有前途的新方法,即利用现实世界中的行为数据进行心理健康筛查。
06.个性化测试中的AI “粉饰” 形象
《美国国家科学院》・Nexus》发表的一项研究表明,在接受个性测试时,大型语言模型会出现明显的社会期望误差。。

在做完 “大五人格” 测评时,GPT-4、Claude 3等模型回答通常会让你看起来特别外向、友好、自律,同时刻意削弱情绪变化。有趣的是,测试中的问题越多,这种问题就越多。 “美化” 倾向越明显,仿佛模型也懂得 “迎合” 评估标准。
为了消除记忆或机械反应的影响,研究团队制定了多版本的问题,扰乱了提问顺序,调整了表达方式。数据显示,模型误差水平相当夸张。如果转换成人的测试结果,就相当于人格特征的标准差偏差。
这一发现为心理学研究和现实评价敲响了警钟:如果模型在训练中被引导 “塑造好感”,其输出结果可能无法真正模拟人类行为。
07.研究警告:过度依赖AI或削弱批判性思维
《社会》杂志发表的一项研究指出,人工智能工具的频繁使用可能会导致用户批判性思维能力下降。根本原因在于认知卸载。人们习惯于通过深入分析让AI复杂地思考,直接得到答案。
资料表明,这一影响在年轻人中尤为明显,而高学历者即使是普通AI,仍然可以更好地保持思辨能力。
通过对666人的问卷调查、深度访谈和统计建模,研究团队发现,在批判性思维测试中,使用AI解决日常决策或问题的用户得分明显较低。采访透露,许多年轻用户不再质疑AI的结论。
研究人员呼吁通过正确的引导和技术优化,促进客户对AI的理性审视。归根结底,AI本身没有利弊之分,关键在于人类如何与之互动,这将决定其对思维能力的长期影响。。
文本来源:
1.https://www.psypost.org/artificial-intelligence-7-eye-opening-new-scientific-discoveries/
本文来自微信公众号“元宇宙之心MetaverseHub”,作者:元宇宙之心,36氪经授权发布。
本文仅代表作者观点,版权归原创者所有,如需转载请在文中注明来源及作者名字。
免责声明:本文系转载编辑文章,仅作分享之用。如分享内容、图片侵犯到您的版权或非授权发布,请及时与我们联系进行审核处理或删除,您可以发送材料至邮箱:service@tojoy.com




