Hintonton教父:我非常支持AI替代人类。

2024-06-19

AI教父」Geoffrey 在最近的一次采访中,Hinton表达了他对AI智能的理解——LLM不是一个简单的统计模型,他已经有了理解的能力。与此同时,网友们翻出了去年12月的情况「过期」录像,惊奇地发现Hinton早就发现了。「叛变」那么,居然对非常AI替代人类的未来表示支持。



最近,半退休「AI教父」Geoffrey Hinton在各种采访中频繁出现,导出他对ASI的各种言论和看法,甚至只是谈论职业趣闻,都能引起网友的热烈讨论。


不到一个月前,他便揭露了自己的徒弟Ilya在暑假里受够了炸薯条的工作,结果投靠了自己的实验室经验。


尽管这些演讲和采访内容各不相同,但Hinton一直没有忘记——提醒我们注意AGI安全和快速发展的智能,并预测它们将取代人类。「赛博朋克」将来。


对AI来说,Hinton的想法比爱情要复杂得多。


在神经网络「坐冷板凳」在那些日子里,他守护着自己的实验室和两个研究生「不离不弃」,终于到了深入学习大放异彩的时代。


Hinton在2013年加入谷歌之后,变成了谷歌「教父」,一边看着自己的孩子AI快速成长,一边逐渐担心自己的孩子。「青少年最终成为恶龙」。最终,他选择了与自己创造的世界搏斗,过着致力于警告AI安全的退休生活。


AI不是统计技巧,而是理解能力。


BNN彭博社于6月15日独家采访了Hinton最近的公开露面。


在采访中,Hinton输出「有理解AI的能力」Reddit社区的观点引起了广泛的讨论。


如果「理解」这意味着LLM能否在某个概念上建立一个复杂的内在表达,那么当然可以。假如「理解」这意味着LLM能否用和人类一样的方式理解概念,那么答案是否定的(否则模型在诗歌方面不会这么优秀,算术能力也不会这么差)。



毕竟,「你能理解AI吗?」,这一问题不仅模糊,而且在社区中也存在着巨大的争议和矛盾。


Hinton坚决反驳了一种流行的观点,即LLM只是一种统计技巧,并不能真正理解自然语言的含义。


这是完全错误的,他指出。类似「词袋」(bag of words)或是N元组(N-gram)这类曾经的语言模型,内部保留了一份高概率成绩的单词组合表,的确依赖于统计概率。


在这里,作为英国人,Hinton很自然地以国菜为例。


举例来说,会显示在单词表中,「鱼」和「薯条」经常在一起。所以模型可以看到「鱼」这个词,自然会预测下一个词是什么?「薯条」,没有考虑前后文。



正因为如此,以前的统计语言模型在自动补充功能方面表现不佳。


但是现在LLM的工作原理已经完全不同了。现在,模型预测下一个单词的方法就是理解你到目前为止所说的话。


比如LLM要想回答人类的问题,首先要明白问题的意思,否则答案的第一个字根本无法预测。从这个角度来看,单词预测任务(next token prediction)相当于逼迫LLM发展理解能力。


在Hinton的话语中,他也相信Scaling。 Law的出现。AI最终会变得比人类更智能,随着模型的逐步扩展和更多Transformer这样的技术突破,这只是时间问题。


主持人问他,技术变得更聪明一定会带来风险吗?


Hinton的回复一针见血——「您可以列出多少例子,表明更聪明的人被不太聪明的控制?」「拜登当选后就不再有了吧?」


他提到,朋友Yannn LeCun的观点与自己不同,认为AI很安全。但是Hinton的论点是,AI已经达到了构建智能体的目的。(agnet)程度,能独立设定目标。


这些目标将驱动智能身体获得更多的控制权,希望防止破坏,建立自我保护。在一定程度上,这是一种自我利益,也许是进化的开始。


那人类呢?


Hinton推测,如果AI开始进化,最强的一方获胜,人类就会被遗忘,被粉碎(原句:left in the dust)。AI将从孩子变成我们的父母,接管一切。


这个场景听起来确实是科幻小说的场景,但是对于Hinton是认真的,「这听起来不像是科幻小说,而是一种客观的威胁。」


用AI代替人类是很好的


Hinton在上面彭博的最新采访中谈到了AI替代人类的可能性。


Reddit网友随后翻出了一段去年12月的采访视频,同样涉及到「AI取代人类」话题,但是这次,Hinton的观点更加令人惊讶。——


他声称自己实际上支持AI!



这件事源于采访最后一位观众提出的问题,原来的问题是这样的:


「如果一个超级智能AI摧毁了人类,但客观上创造了一个意识层面上更好的物种,你个人是支持还是反对这个结果?如果你反对,你建议在面对超级智能AI时用什么方法来保持人类意识的出现或主导地位?」


下一步,Hinton用平静的语气回答:「事实上,我是支持的,但是我认为反对是更明智的说法。」


面试官说,你开始谈谈吗?


但是Hinton只是非常谨慎地说了一句话,「每个人都不喜欢被取代」。


采访者继续询问原因,Hinton首先叠甲,「人有很多好的方面,也有很多不太好的方面。」。


后来给出了一个发人深省的解释:「目前,我们不知道什么是最好的智能方法。显然,从人的角度来看,一切都与人有关。但是有一天,我们可能会这样做。『人文主义』看起来像是一个类似种族主义的概念。」


在Reddit上,这段对话也是一石激起千层浪。



发帖的博主对Hinton的激进态度感到非常惊讶,当他被要求解释时,即使他很清楚,他似乎也非常坚定。「表示反对是更明智的说法。」。


有些人严厉批评,认为他不顾人类这一物种的生存和整体福祉,「消极悲观」、「虚无主义」表现。归根结底,人都没了, 这么先进的AI技术有什么用?


「很难想像比这更愤世嫉俗的行为。」


「我认为很多未来主义者都在讽刺人文主义的价值,希望人类因素在任何可能的情况下都能从中获得。『方程』移位走。」


然而,也有支持和理解的声音。我觉得Hinton不是负面的悲观,也不是讨厌人类,而是清醒地认识到一个现实——人类不是创造的巅峰。


进化将继续,更好的物种必然会出现,他只是以一种更加开放、坦率的心态接受了这一事实。



参考资料

https://www.youtube.com/watch?v=Yhg7iWPo7Vc&t=3327s


https://www.youtube.com/watch?v=g18944_Lhmhj


本文来自微信微信官方账号“新智元”(ID:AI_era),作者:乔杨 好困 ,36氪经授权发布。


本文仅代表作者观点,版权归原创者所有,如需转载请在文中注明来源及作者名字。

免责声明:本文系转载编辑文章,仅作分享之用。如分享内容、图片侵犯到您的版权或非授权发布,请及时与我们联系进行审核处理或删除,您可以发送材料至邮箱:service@tojoy.com