投靠马斯克克的OpenAI泄密者
白交 衡宇 发自 凹非寺量子位 | 公众号 QbitAI
刚刚被OpenAI开除的泄密者,光速投靠马斯克。
当事人Pavel Izmailov(以下简称小P)是Ilya的盟友之一,在Ilya领导的超级对齐团队中工作过。
半个月前,小P被指疑似泄露Q*相关秘密,被解雇。尽管不清楚他泄露了什么,但当时闹得沸沸扬扬。
说时迟那时快,现在,他的推特个人介绍,已大张旗鼓地写道:
研究员@xai

不要说老马招人快,除了小P之外,很多优秀的人才最近都被马斯克带进了手下。
看到热闹的网友炸开了锅。很多人称赞他,称他干得漂亮:
还有一些人不喜欢死亡,认为雇佣泄露机密信息的人,这种行为相当于捡破烂。
并且最近xai的表现-包括Grok的发布。 包括1.5V在内,狠狠刷了一波存在感,不禁让人叹为观止:
与OpenAI相比,xAI将成为游戏的主要参与者。、Anthropic分庭抗礼。
雇用OpenAI开除的泄密者。
事情就是这样,有一位博主非常关注大模型领域的新事物,有一个很大的发现:
马斯克旗下xAI的新员工,可不少啊??
而且还有几个人的研究方向与OpenAI最神秘的Q*算法有关,看来马斯克就是Q*的真正教徒。
具体来说,哪些人刚刚选择了xAI而栖息?
最引人注目的是我们开头提到的小P。
他也是纽约大学的CILVR团队成员,我透露2025年秋天将加入纽约大学Tandon。 CSE、Courant CS担任助理教授。
半个月前,他的个人页面上还写着“在OpenAI做大模型推理”。
半个月后,时过境迁。
但是小P的推特置顶仍然没有改变,是超级对齐团队的第一篇论文,小P就是这篇论文的作者。
去年7月,OpenAI是OpenAI成立的三大安全团队之一,以应对不同时间尺度上大模型可能出现的安全问题。
对齐团队负责遥远的未来,为超越人类的超级智能安全奠定基础,由Ilya Sutskever和Jan Leike领导。
说起来,虽然OpenAI似乎非常重视安全,但它内部对AI安全开发的巨大矛盾已经不是什么秘密了。
这一矛盾甚至被称为去年11月OpenAI股东大会宫斗大戏的主要原因。
网络爆炸Ilya Sutskever之所以成为“政变”的领导者,是因为他看到了一些让他感到不安的东西。
而且Ilya带领的这支超级对齐队,很多成员也站在Ilya这里,在后来支持奥特曼的比心接龙活动中,这支超级对齐队员也基本上保持了沉默。
然而,宫廷斗争平息后,Ilya似乎在OpenAI蒸发,引起了外界的谣言,但他再也没有公开露面,甚至没有在网上澄清或辟谣。
所以,很对齐团队现在是什么情况,我们也不知道。
作为一名非常对齐的团队成员,Ilya下属,小P半个月前从OpenAI毕业,被网友猜测是奥特曼的“秋后算账”。
人才啊,他连夜投靠马斯克。
虽然Q*的全貌在外面还不清楚,但各种迹象表明,它致力于将大模型与强化学习、优化算法相结合,提高AI推理能力。
以下几位新加入xAI的人才研究内容,除了最八卦点小P外,或多或少都与之相关。
Qian Huang,现在还是斯坦福大学的博士生。
从去年夏天开始,Qian Huang在Google 目前推特上已注明了DeepMind工作。@xai,暂时不知道该担任什么职务。
但是从GitHub个人中心可以看出,她的研究方向是把机器推理和人类推理结合起来,特别是新知识的合理性、可解释性和可扩展性。

Eric Zelikman,斯坦福博士在读生,推特上注明“study why @xai”。
此前,他曾在Google研究所和微软研究所呆过一段时间。
他在个人中心说:“我痴迷于算法(以及是否)能学到有价值的表达和推理。我正在xAI研究这件事。”
他的团队今年三月推出了Quiet-Star算法,的确也是Q*,让大模型学会独立思考。
Aman Madaan,卡内基梅隆大学语言技术研究所博士。
他的研究领域包括大型语言模型、反馈驱动的生成、代码生成和自然语言推理的交叉领域。研究的主题是利用推理时间计算(Inference-Time Compute)提高推理能力(Reasoning)。
在攻读博士学位期间,Aman曾担任谷歌大脑和艾伦人工智能研究所的研究人员和合作者;在此之前,他还是Oracle的主要技术人员。
添加Pavel 从那以后,包括Izmailov在内的几名新员工的技术人才版图已经扩大到34人(不包括马斯克本人),比起起初,12人的创始团队增加了大约两倍。
新成员中,共有7名华人,加上5名创始团队成员,从此共有12名成员。
Xiao Sun,以前曾经在Meta、在耶鲁、北大的校友中担任IBM,博士毕业。
Ting Chen,在此之前,谷歌DeepMind、本科毕业于北邮,谷歌大脑任职。
Juntang Zhuang,以前在OpenAI工作过,DALL-3、GPT-四是核心推动者,本科毕业于清华,硕士毕业于耶鲁。
Xuechen Li,本人毕业于斯坦福,是羊驼Alpaca系列大型模型的关键推动者。
Lianmin Zheng,UC伯克利计算机博士,小羊驼Vicuna、Chatbot 创建者Arena。
Qian Huang,在天津南开中学毕业的斯坦福博士生。
Haotian Liu,本科毕业于浙江大学的威斯康星大学麦迪逊分校,LLaVA一作。
从机构分布来看,主要集中在谷歌、斯坦福、Meta、OpenAI、其他机构,如微软,都有丰富的大模型训练经验, 比如GPT系列,大大小小的羊驼系列,以及与谷歌Meta相关的大模型。
就加入时间而言,更多的是集中在今年2-3月,平均每5天就有13名新成员加入。去年8-10月只有5人加入。
而且如果结合相应Grok的进展,还可以看到马斯克xAI每个阶段的招聘计划。
例如,今年三月二十九日,马斯克突然发布了Grok-1.5,前后文长度飙升,从最初的8192增加到128k,与GPT-4持平。
把时间推回一个月(今年2月),OpenAI前员工Juntang 加入xAI的Zhuang。在OpenAI上,他创造了GPT-4 Turbo支持长前后文能力128k的算法。
还有今年4月15日,Grok-1.5V多模式模式发布模式,除了文本信息之外,它还可以处理各种视觉信息,包括图表、屏幕截图和照片。
今年三月,LLaVA作为Haotiann。 Liu刚刚加入。LLaVA是端到端训练的多模式模型,展示了类似GPT-4V的能力。新版本的LLaVA-1.5 在 11 SoTA实现了一个标准。
那么现在不妨大胆地想象一下, 新一波人才引进,Grok可能会有什么样的新升级?
网民:不管怎样,Grok-1.5在哪里(还没有开源)?
但不管怎么说,根据马斯克之前提到的人才标准,这位网友说出了“真相”:
大家都说老马的大模型公司都是人才。事实上,马斯克根本不在乎你的才华。人们说,只要你能每周工作80个小时,你就可以加入他们。
80个小时?!
量子位捏指一算,那不就是一周一天工作11.5小时吗?
不要说智力,这份工作从体力上我们做不到。
参考链接:[1]https://twitter.com/Pavel_Izmailov[2]https://twitter.com/jam3scampbell/status/1786149919041970683[3]https://x.ai/about[4]https://x.com/emollick/status/1787593669618393299
本文来自微信微信官方账号“量子位”(ID:QbitAI),作者:关注前沿技术,授权发布36氪。
本文仅代表作者观点,版权归原创者所有,如需转载请在文中注明来源及作者名字。
免责声明:本文系转载编辑文章,仅作分享之用。如分享内容、图片侵犯到您的版权或非授权发布,请及时与我们联系进行审核处理或删除,您可以发送材料至邮箱:service@tojoy.com




