大语言模型:2024年回顾和2025年趋势

01-30 06:40

神译局是36氪旗下的编译团队,重点介绍海外新技术、新观点、新趋势,重点介绍科技、商业、职场、生活等领域。



编者按:随着大型语言模型的快速发展,未来将有更多的大型语言模型进入人类的生产和生活。本文来自编译,希望对大家有所启发。



探索人工智能AI)机械学习的应用已经成为常态,大型语言模型现在已经成为常态。(LLMs)在聚光灯下。为了揭示心理学、神经科学等多个领域的复杂性,大型语言模型在去年的多项研究中得到了应用。


利用人类认知和心理学原理来评价大型语言模型将是今年的增长领域。研究人员只触及表面层面,利用科学家从心理学和人类行为中学到的知识来评价AI的大型语言模型。例如,去年的一项人工智能研究应用认知心理学,从一系列旨在发现人类启发和偏见的任务中检验了大型语言模型的合理性。


准确理解人脑如何处理语音和表达,可以加速人工智能在脑机接口、人工智能机器学习、机器人技术、神经技术、儿童成长、谈话疗法、语音合成器、自然语言理解、残疾人辅助技术、商业聊天机器人、语音识别商品、机器翻译、无人驾驶汽车、心理学、精神病学、医学诊断、制药、生物技术和医疗保健等多种现实应用中的进步。


在人类语音和语言领域,对话人工智能将在2025年得到更多的探索。去年,大幸运模型在研究生物大脑方面取得了进展。例如,2024年,Goldin-Meadow等人对PNAS的研究使用大型语言模型来决定儿童学习语言的能力。这种发现可能对儿童发育、语言治疗和人工智能发展起到辅助作用。


2025年,另一个值得注意的趋势是使用大型语言模型从大量复杂的生物信息中识别模型,这些信息是通过完善的大脑活动图像和记录技术捕获的。预计未来使用大型语言模型和神经活动数据的研究将整体增加,预计增长最大的研究将是使用功能磁共振成像。(fMRI)、脑磁图(MEG)和脑电(EEG)对神经数据进行非侵入性记录,甚至通过临时数字电子纹身,直接从头皮上打印出来。(e-tattoo)进行记录。


2024年发表在《自然机器智能》上的另一项研究比较了各种大型语言模型和实际人脑活动记录,发现大型语言模型正在与人脑趋同。具体来说,研究发现,研究的大型语言模型表现出类似于生物大脑中声音和语言处理区域的层次处理。


2025年,一个新的趋势将是对大型语言模型和人类神经科学专家预测能力的比较。去年,《自然人类行为》发表(Nature human Behaviour)杂志上的一项研究表明,大型语言模型在确定神经科学结果方面比人类神经科学专家有更好的预测能力,这是人工智能的里程碑。


同样在2024年,OpenAI的大型语言模型GPT-4在一项发表在《欧洲放射学》上的研究中,与人类神经放射学家进行了对比检测,其任务是诊断现实世界中脑肿瘤的临床MRI报告。科学家们发现,GPT-4表现可作为临床医师神经放射咨询工具,并为最终神经放射诊断提供有用的第二意见。


除了神经科学领域,预计大型语言模型将更多地融入到面向消费者的产品中,尤其是在交通运输领域。例如,普渡大学(Purdue University)2024年,研究人员进行了一项研究,该研究采用了一种基于大型语言模型的对话人工智能,名叫Talk2Drive,它能够解释人类的语音命令,从而引导无人驾驶汽车。这项研究是现实世界中第一项对无人驾驶汽车进行多场景现场实验的研究。


2025年值得关注的一个重要趋势是,在整个研究生命周期中,科学家可能会越来越多地将大型语言模型作为各种功能的研究工具,如信息收集、编辑、格式化、语法检查、同义词搜索、后台数据收集、已发布的研究搜索、数据库清理、数据分析、统计报告、写作、重写、头脑风暴、数据生成、数据标签生成等。


艾伦人工智能研究所(Ai2)在过去的一年里、一项由华盛顿大学、哥本哈根大学和普林斯顿大学的研究人员进行的预印研究表明,Semantic调查的800多名学生 在Scholar上测试的已发表作者中,80.9%的人说他们在一个或多个领域使用了大型语言模型进行研究。


随着越来越多的研究人员将大型语言模型作为科学研究过程中的辅助技术,预计这一数字将继续上升。另一个值得注意的趋势是,越来越多的人呼吁提高透明度和信息披露在各种语言模型的使用中。


过去一年是人工智能与科学交叉领域的非凡发现。估计会有更多的研究来评价大型语言模型和人类专家的能力,更多的是利用大型语言模型进行实际研究。利用人类行为和应用心理学来理解大型语言模型的有效性和能力,将是2025年及以后的重要增长领域。


译者:Teresa


本文仅代表作者观点,版权归原创者所有,如需转载请在文中注明来源及作者名字。

免责声明:本文系转载编辑文章,仅作分享之用。如分享内容、图片侵犯到您的版权或非授权发布,请及时与我们联系进行审核处理或删除,您可以发送材料至邮箱:service@tojoy.com