红杉支持的AI实验室:大脑是AI的‘底线,而非上限’

AI实验室Flapping Airplanes刚刚从谷歌风投、红杉资本和Index等巨头手中获得1.8亿美元种子轮融资。该实验室由Ben和Asher Spector兄弟及联合创始人Aidan Smith创立,他们拒绝主流AI实验室悄然放弃的方向:让模型像人类一样学习,而不是盲目从互联网吸取海量数据。创始团队坚信,大脑的学习机制只是AI潜力的起点,这一创新路径或将重塑AI未来。

红杉加持,1.8亿融资点亮类脑AI新路径

在AI领域竞争白热化的当下,一家名为Flapping Airplanes的初创实验室脱颖而出,近日宣布完成1.8亿美元种子轮融资,投资方包括谷歌风投(Google Ventures)、红杉资本(Sequoia)和Index Ventures等顶级机构。这一融资规模在种子轮中堪称罕见,标志着投资者对该实验室独特愿景的强烈认可。

Flapping Airplanes的创始团队由兄弟Ben Spector和Asher Spector,以及联合创始人Aidan Smith组成。他们三人背景深厚:Ben曾在OpenAI从事强化学习研究,Asher拥有神经科学博士学位,而Aidan则在DeepMind领导过高效学习算法项目。团队成立之初,就明确了一个被多数实验室视为“不可能任务”的目标:让AI模型像人类大脑一样高效学习,而不是依赖海量互联网数据的“真空吸尘器”模式。

“大脑是底线,而非上限。”——Flapping Airplanes创始团队

主流AI的瓶颈:数据饥渴与计算黑洞

回顾AI发展史,自Transformer架构兴起以来,大型语言模型(LLM)如GPT系列和Llama主导了行业。这些模型通过从互联网爬取数万亿token数据进行预训练,实现惊人性能。但这一路径正面临严峻挑战:数据枯竭、隐私法规收紧(如欧盟GDPR和即将实施的AI法案)、以及天文数字的计算成本。据估算,训练GPT-4已耗资超1亿美元,未来模型将需数千亿美元级投入。更关键的是,这种“规模即正义”的范式忽略了人类学习的本质——婴儿仅需数小时观察即可掌握语言,而非数月浏览维基百科。

Flapping Airplanes正是瞄准这一痛点。他们借鉴神经科学最新发现,如海马体中的“模式分离”机制和皮层下的“预测编码”理论,开发出“类脑学习框架”。这一框架强调少样本学习(few-shot learning)和内在动机驱动,让AI在有限数据下自主探索知识,而非被动记忆。

技术创新:从‘蝴蝶效应’到高效AI大脑

实验室名称‘Flapping Airplanes’源于蝴蝶翅膀扇动引发风暴的混沌理论隐喻,象征小规模高效输入产生指数级输出。核心技术包括:

  • 动态神经架构:模拟大脑可塑性,模型结构随学习实时调整,避免固定参数的僵化。
  • 好奇心驱动探索:引入内在奖励机制,AI主动寻求不确定性信息,类似儿童的好奇心。
  • 多模态融合:整合视觉、语言和动作数据,实现端到端学习,而非孤岛式训练。

早期实验显示,该框架在基准测试中,仅用传统方法的1/100数据,即可达到同等性能。这不仅降低成本,还提升泛化能力,避免“幻觉”问题。

投资者视野:押注AI范式转变

红杉资本合伙人表示:“我们见过太多数据堆砌的AI独角兽,但Flapping Airplanes是真正理解生物启发的先行者。”谷歌风投则看好其在机器人和自动驾驶领域的潜力。融资将用于扩建硅谷实验室、招聘顶尖神经科学家,并推进首个产品——一款用于教育AI助手的类脑引擎。

编者按:类脑AI的曙光与隐忧

Flapping Airplanes的出现,如同一股清流,挑战了“更大即更好”的AI共识。在ChatGPT热潮后,行业亟需可持续路径。类脑AI或将开启‘后摩尔时代’,但挑战犹存:生物模拟的复杂性、伦理风险(如AI自主意识)和验证难度。乐观来看,若成功,这将是继深度学习后的又一革命,推动AI从工具向伙伴演进。编辑认为,投资者信心源于团队实力与时机——2026年,数据壁垒将成行业天堑,谁先破局谁称王。

展望未来,Flapping Airplanes能否兑现‘大脑仅是底线’的豪言?拭目以待。

本文编译自TechCrunch,作者:Russell Brandom, Theresa Loconsolo,日期:2026-02-11。