借助AI,人类可以到达“彼岸” 吗?

2024-12-03

当前,随着AI的发展,人类对自身外部世界认识能力的上限产生了无限的假设。所以, 在AI的帮助下,人类能否达到康德所说的“彼岸”,我们可以问这样一个问题吗?


#1 问题的解答


这一问题,笔者与许多学术界的大佬、学术同事进行了多次探讨。每个人都有不同的看法,具体而言, 有否定论和肯定论两种最重要的典型说法。


在AI的帮助下,“否认论”认为人类无法到达“彼岸”。理由如下:


康德的限制:从康德的角度来看,人类认识的“彼岸”是一个哲学概念。这是一个绝对的真理,超越了人类的感知和思维能力。人类永远无法完全理解事物的本质。这是人类理解的基本特征。


AI的局限性:当前,AI在数据处理、数据分析、模式识别等方面取得了长足的进步, 但它仍然在人类设计算法和知识的框架下运行。AI的“智能”本质上是基于算法和数据。它不能像人类一样有主观意识和情感体验,也不能触及康德所说的“舒适的东西”。


反之,肯定论认为,借助AI,人类可以到达“彼岸”。理由如下:


认知论的突破:康德的认知论具有明显的时代局限性。人类认知的局限性本质上是由人类自身的遗传决定的。随着时代的发展,尤其是科技水平的提高,为什么要自己设置?


认识论还是哲学意义上的限制?


AI的假设:毫无疑问,就目前或可预测的情况来看,AI的“智能”是以算法和数据为基础的,是一种数字智能。AI什么时候会有和人类一样的情感和意识,我们甚至无法预测, 具有独特的具体智能机体。然而,AI能力的发展几乎是无限可能的。这一可能性可以通过AI本身的发展历程来证明,更重要的是,AI也有能力获得人类的具体智能, 在算法和数据基础上突破数字智能的局限性(下面我们将详细分析)。


除否定和肯定论外,还有一些有趣的想法。


●“怀疑论”。这一观点怀疑到达“彼岸”的可能性。


●“漂移论”。这种观点认为,所谓的“另一面”并不是固定的,它会随着人类认知的发展而有一个清晰的“漂移”,永远与人类认知能力能够触及的范围保持一定的距离。


●“无限接近论”。这一观点认为,人类的认识只能无限接近彼岸。


在以上三种观点中,怀疑论偏向于肯定论,只是信心问题。飘移论是一种变相的否定论, 用另一边的漂移来否定人类到达另一边的概率。无限接近论看起来有点像肯定论,但本质上还是侧重于否定论,因为无限接近意味着最终无法到达另一边。


在这一点上,可以说,对于“借助AI,能否到达彼岸”的问题,还是持否定论者居多, 肯定论少数。本来以为主要原因还是大家普遍认为,目前AI数字智能发展的思路有明显的局限性。


有一个例子可以让每个人看到问题的痛点。如果你想处理四色问题,电脑需要计算2.1万次。用现在的超级电脑计算需要多少年?10275年。宇宙存在多少年?1010年①。换言之,很有可能宇宙已经灭亡,我们的超级计算机还没有回答四色问题。


处理这一复杂问题,AI发展的出路在哪里?我认为仅仅依靠硬件或算法的突破来促进AI数字智能的可持续发展是不明智的。然而,通过人类智能的研究和突破,有可能使非常AI拥有人类的身体智能,并带来人工智能的革命性突破。接下来,我们先简单介绍一下算法和硬件, 接着结合算法本身的局限性来谈谈具体智能特征及其可能的程序化方法。最后,我们希望从我们自己的实验结果来证明这个概念的内在含义和它在非常AI上实现的概率。



#2 很好的AI发展方式


第一,我们假设非常AI是基于当前的计算机,而非基于生物细胞等智能体。算法是计算机的核心。根据现有数据,第一台商用计算机每秒可以计算103个指令(费伦蒂马一号)。现在超级计算机每秒可以计算1018条指令,TPUPod的超级计算机设计,其计算能力是每秒1017次(2018年),这与人脑理论上的1017次“计算”几乎一致。在硬件方面,直到2025年,根据摩尔定律,芯片上的电子元件总数每两年可以翻一番。另外,还有量子计算的能力。即便如此,麻省理工学院科学家塞里·劳埃德估计,计算机计算极限为每秒1051次。②。


这么大的算率能满足还是实现很大的AI?事实证明这是不可能的。比如像四色问题这样非常复杂的问题,显然是不称职的,即使是目前可以预测未来的计算能力。美国加州大学伯克利分校的科学家斯图尔特·罗素,人类兼容人工智能中心主任,肯定:“光靠速度是不能给我们带来人工智能的。”此外,算法本身的问题也是一个死胡同。图灵曾经提出过“停机问题” 可以使计算机陷入“无限循环”。


除上述分析外,当前算法本身的局限性也限制了AI的发展。


首先是算法的取向问题。举例来说,最简单的非常AI还需要实现机器的视觉功能, 为了保证AI有最基本的视觉信息输入。目前,机器视觉的基础是外部物理世界。基于这个方向,即使是简单的图片也需要大量的计算,更不用说动态或变化的场景了。


相比之下,人类视觉的基本点是“心理世界”,它是人类基于遗传、个人经验和外部刺激共同构建的世界。比如物理世界中的距离是用米等标准度量单位来衡量的,但是在心理世界中,距离是有意义的,不等于物理距离。所以,在物理世界中,很难计算或模拟心理世界中的感知恒常性。同理,一幅画中,四个人正在传球,如果中间有一个黑人, 四个传球者可能会对这个黑人视而不见。这一视觉盲点只存在于人类的心理世界中。


要解决人类感知中的许多问题,如视觉恒常性、视觉盲等,使非常AI具有人类感知能力, 一种基本的具象智能需要将现有的机器视觉从物理世界转变为基于心理世界的智能算法。例如,在算法中考虑人类注意力的特征,使感知外部世界的所有视觉元素都能根据人类注意力的特点进行权重分配。需要注意的视觉元素应该有更好的权重,而不需要注意的元素可以简单地忽略。根据“探照灯理论”,整个画面的视觉元素应该有权重梯度的分布。这种考虑到人类注重特征的算法,不仅可以处理或表征“视觉盲目”现象,更重要的是,由于视觉元素权重梯度的分布,可以大大节省计算率。


另一个限制是算法的理性问题。我们可以通过非常AI来构思参与心理学中典型的Asha实验。因此,很明显,超级AI不会像人类一样从众,因为这是由算法中的理性决定的。但是,如果非常AI是如此理性或“正确”,这样的非常AI能被人类接受吗?恐怕这是另一个更棘手的“恐怖谷效应”。


显然,从众现象是一种有趣的现象。人有头脑,智商正常,为什么会莫名其妙地从众?这些秘密也许更有趣。人类之所以强大,在某些能力上击败了各种动物, 而且,尼安德特人因为人类会抱团,形成团体组织进行各种生存竞争,灭绝了比我们更高更强的尼安德特人。而且从众只是组织团队的核心要素之一。这种搞笑的现象,其实是人类生存的基本要素。



因此,当前算法的理性或“正确”似乎是一种不切实际的奢侈品。关于人际交往, 非常AI需要与人类具有相同的社交能力和生存意义上的身体智能。只有具备这种能力,才能考虑人类和非常AI在地球上共存共荣的概率。


其三个限制是算法的“浅”问题。2024年,对人们个人和大语言模型进行了一项研究。(LLM)测试了心理模型能力。1907名个人和ChatGPT4等5种LLM参加了7种心理模型能力的测试,如误解和间接请求。结果表明,在识别间接请求等多项测试中, 一些LLM的分数高于人类考试。③。


这个好成绩能说明LLM在心理模型能力上比人类高吗?也许不是,因为LLM对知识的认知只是字面的。根据乔姆斯基的语言理论,人类语言的应用和交流有两个层次:一个是表面的,一个是深层的。比如一个人对你说“你好”,表面上是问候,但深度分析可能说明这个“你好”很讽刺。


正是因为人类有这种深刻的语言理解能力,所以对问题或答案有一定的不确定性,导致测试结果较低。这个实验结论告诉我们一个事实:现在算法构建的智能体在语言交流能力上相当有限,只停留在表面理解这方面。现实中,人类的交流和大脑的作用要复杂得多。为了解决这个复杂的问题,我们可以从场景中使用我们提出的SUT理论模型。(S)、客户(U)和任务(T)对问题进行三个维度的分析,并实现程序化。


最终的局限性是算法在解决问题方面的优势。毫无疑问,目前的AI在解决问题上有许多值得炫耀的成就。AlphaGo在围棋领域几乎无敌,击败了一个又一个世界冠军,选择了前向搜索的算法进行决策,并通过强化学习进行学习和评估。但是,这种狭义的AI或工具式AI在处理特定问题上的非凡能力,也许并不能说明什么。假如建立一种类似于人类智商测试标准化的智商测试工具,这种工具AI的智商水平可能不高,由于缺乏实用性。而且,这种工具AI需要大量的计算率来维持。


那人类是怎样解决问题的呢?看看一般心理学中关于解决问题的章节,你会发现,在人类解决问题的方法中,理解是非常神奇的。在最新的百科全书中,理解被描述为“突然重组事件的方式和价值,从而解决问题的方法”。在临床实验中,猩猩想吃挂在高处的香蕉,但它够不着。它走来走去,突然意识到房间里的盒子被折叠起来,最后得到了香蕉。克勒认为,格式塔心理学家主要依靠这种理解来解决人类的问题。可以说,阿基米德原理、苯环结构的发现都是理解的结果。


即便如此,我们仍然没有完全理解发生的条件、影响因素以及相关的大脑和神经机制。然而,理解的突然性和解决问题的目的非常明确。如果有一天我们发现了规律和机制,我们可能会创造一种几乎零计算能力的解决方案,因为理解并不依赖于尝试。- 错误,没有定向的逻辑判断。


辽宁师范大学梁腾飞等人在一篇综述中指出,人类对加工机制的关注是统一的。根据这一机制,人类可以根据不同的动机和需求选择有效的信息来解决问题,完成当前的任务。④。虽然我们对理解的充分认识还不够,但是这告诫我们,AI未来的发展方向可能需要更多地关注类似人类理解的能力,而不仅仅是计算能力和算法的提高。


以上,我们从视觉感知、人际交往、心理理论、问题解决四个方面分析了当前数字智能算法的局限性。我们可以看到,人类不仅高效,而且具有低成本的特点,具有以生存为主导的非准确性和智能性。学习人类这种具体的智力,很AI会有革命性的突破。



#3 很AI自己的想法


什麽是概念?自然评论2022年(Nature Review)在这篇文章中,有几十种关于人类意识的理论观点。高级理论是最有趣的观点之一。这个理论认为,当一些东西,比如视觉刺激,变成了大脑的“高级”区域(即处理和整合其他区域内容的一部分),人类就会有一个概念。也就是说,当颞叶视觉加工区域的视觉刺激低级表征受到额叶加工区域元表征的作用时,概念就会产生⑤。所以,可以认为,概念本质上是对低级信息加工过程进行更深层次加工机制的元表征。


最近我们实验室完成的一项关于感觉信息矛盾的实验,也证明了这种高级理论的概念。实验中,受试者通过旋转平台获取本体感觉的方向信息,并通过VR获取视觉方向信息。当这两个方向的信息发生冲突时,通过脑功能链接技术,我们发现额叶等先进的认知加工区域会加强颞叶视觉信息的加工,对枕叶产生抑制作用,导致受试者出现“视觉优先”现象,即受试者根据视觉方向信息判断方向。


为什么会有“视觉优先”?这可以从人类进化的角度来分析。直立行走是人类进化的关键点。因为直立行走,大部分人类的外部信息(约80%)都是通过视觉获得的。这显然有利于人类发现食物和天敌,从而获得更多的生存机会。综上所述,根据我们的实验结果, 概念是高级加工机制对低级加工机制的整合调整机制,而这种整合调整机制是人类数百万年进化的结果。


基于概念高级理论的基本框架,我们可以进一步构建非常AI本身的概念。这种AI概念会有不同的阶级,就像金字塔结构一样。较低阶级的信息处理受到更高层次信息处理系统的整合和调控。这种整合和调控的原则应该是基于人类智能化的规则。例如,正如我们的实验所证明的,当个体感觉信息与视觉信息发生冲突时,应遵循“视觉优先”的原则。



#4 结论


结论非常明确。如果一直依靠硬件开发或算法优化的数字智能,AI的开发就会走向死胡同。然而,基于类人脑智能的研究,赋予非常AI的人类智能和概念将带来革命性的突破。零计算能力不再是理想,人类和非常AI在同一个社会共存共荣也不再是乌托邦的猜测。


如果是这样的话,回到我们最初的问题,我们可以说:“借助AI,人类可以有能力达到康德认识的‘彼岸’。”


最后,我想强调,虽然我们在本文中引用了一些测试数据作为观点的证明,但我们的观点仍然是模糊的。我们希望与我们的同事进行更多、更多的实验研究,以进一步验证或反驳我们的观点。MI·栏目


参考文献:


①[美] 斯图尔特·罗素着,AI 大一新生:破解人机共存的密码-人类最后一个大问题[M]. 张羿译. 北京:2020年中信出版社.


②[美] 霍尔德·霍恩伯特,机器视觉[M]. 王亮等译. 北京: 2014年中国青年出版社.


③Strachan, J.W.A., Albergo, D., Borghini, G. et al. Testing Theory of Mind in Large Language Models and Humans[J]. Nature Human Behaviour, 2024: 5.


④梁腾飞等. 在感知场景和工作记忆表征中注意选择:一个统一的角度[J]. 2018(26)心理科学进步:625-635.


⑤Seth, A.K., Bayne, T. Theories of Consciousness[J]. Nature Reviews Neuroscience, 2022(23):43-452.


本文来源于微信公众号“复旦商业知识”(ID:BKfudan),作家:葛列众,编辑:刘蕊绮,36氪经授权发布。


本文仅代表作者观点,版权归原创者所有,如需转载请在文中注明来源及作者名字。

免责声明:本文系转载编辑文章,仅作分享之用。如分享内容、图片侵犯到您的版权或非授权发布,请及时与我们联系进行审核处理或删除,您可以发送材料至邮箱:service@tojoy.com