Recursive Superintelligence(RSI),不到30人,刚从隐身状态走出来,就拿到6.5亿美元融资(约44亿元人民币),估值46.5亿美元(约316亿元人民币)。
公司名字就点明了:Recursive Superintelligence,AI自我改进的闭环,直到超级智能。
他们给出的路线图中的第一步,是先训练一个具备“50000名博士”能力的系统,自动化AI科学研究本身。
预训练Scaling Law仍然重要,但如果只靠更多数据、更多算力、更多参数,边际收益已经没有过去那么陡。
RSI押的就是其中最激进的一条,recursive self-improvement,递归式自我改进。
过去,AI研发的循环大体还是人类主导。研究员提出想法,工程师写实验,团队跑训练,评估模型,再根据结果调下一轮方向。
它们设想中的系统,不只是回答问题,也不只是帮人写代码。它要能发现自己的能力短板,设计新的实验,写新的benchmark,然后主动重写自己的代码库,让下一版系统更强。
传统AI优化像是在固定考卷上刷分,考到100分就算到头。RSI要的是另一条路:像生物进化一样,永远不停下来,永远有新发明。
如果你是学术研究者且超前于时代,你最终会被称作远见者。但如果你是创业者且超前于时代,你的公司就死了。
他是NLP领域早期神经网络派代表人物之一。2010年,他试图把一篇神经网络论文投给NLP顶会,结果被拒。审稿人的理由是神经网络没用,你为什么要把这玩意投给NLP会议?
Socher判断,AI领域正在触及对数级收益递减。你需要增加一两个数量级的数据,却只得到微小的改进。
David Silver的Ineffable Intelligence种子轮拿了11亿美元,估值51亿美元。Ilya Sutskever的SSI,估值未披露。Yann LeCun的AMI Labs,募资10亿美元。
顶级科学家集体出走、资本集体押注,已经成为2025年以来AI领域最明确的结构性浪潮。
独角兽门槛是10亿美元估值,RSI首轮估值46.5亿美元,相当于8位联创平均每人值0.58个独角兽。
Richard Socher,吴恩达在斯坦福的博士生,ImageNet和Glove作者,谷歌学术引用量超过24万次。在创立Recursive之前,他创办了MetaMind并被Salesforce收购,后来还做出了估值15亿美元的AI搜索引擎You.com。
田渊栋,Meta FAIR前研究科学家总监,长期做强化学习、基础模型效率和神经网络理解。更早之前,他还做过ELF OpenGo,把AlphaZero式训练重新开源实现到围棋场景里;最近几年,他的研究线又转向Llama推理、长序列加速、低成本训练等更贴近大模型系统瓶颈的问题。
施天麟是清华姚班校友,Cresta联合创始人之一,Cresta从斯坦福AI实验室起步,2019年就把Transformer模型用到实时客服Agent Assist里。
Tim Rocktäschel的是开放式智能和安全循环专家。他是UCL人工智能教授,也曾在Google DeepMind担任开放式研究方向负责人,研究重点就是AGI、open-endedness和self-improvement。他和合作者把安全红队问题改写成开放式搜索Rainbow Teaming:不靠人手列完攻击方式,而是让系统持续生成更多样、更有效的对抗提示。现在几乎所有的AI安全团队都在用
Alexey Dosovitskiy是Vision Transformer作者之一,在2020年率先把Transformer直接用到图像patch序列上,证明视觉任务不一定非要卷积网络做底座。
Josh Tobin是OpenAI早期成员,OpenAI Agents Research Team负责人之一;
Caiming Xiong曾在Salesforce负责AI Research和Applied AI,和Socher长期共事,也共同署名过CTRL等可控文本生成工作。
Jeff Clune的研究和RSI路线高度重合,他长期研究开放式进化、AI-generating algorithms和AI安全,也是Darwin Gödel Machine论文作者之一。那篇论文讨论的正是让AI系统修改自身代码、再用benchmark验证改进是否有效。
8个人分别对应强化学习和大模型效率、开放式算法、安全红队、视觉Transformer、智能体产品化、企业AI落地、创业组织和自我改进研究。
8位联创,再加少量创始团队,RSI总人数不超过30人,Socher在采访中还特别强调:
[2] https://www.gv.com/news/recursive-superintelligence-self-improving-ai
量子位 QbitAI