技术深度解析
本次实验的核心“原生大脑模型”并非基于Transformer的大型语言模型(LLM),而是一种受皮层柱和突触可塑性启发的根本不同架构。由MIT-IBM Watson AI Lab和初创公司Cortex Labs(近期从艾伦脑科学研究所分拆)联合开发,该模型采用脉冲神经网络(SNN),结合赫布学习规则,根据突触前和突触后脉冲的时间差调整连接强度。与需要标注数据和固定训练集的反向传播不同,赫布学习允许网络持续适应环境——本质上就是“一起放电的神经元,连接在一起”。
该模型的架构是一个层级时间记忆(HTM)系统,类似于Jeff Hawkins的Numenta框架,但有一个关键补充:一个模拟注意力和工作记忆的全局工作空间模块。这使得模型能够优先处理显著事件(如孩子哭泣)而非背景噪音(如电视声)。模型运行在定制的边缘设备“Cortex Node”上,该设备使用SynSense的神经形态芯片(Speck芯片,活跃模式下功耗仅0.7mW)实时处理音频、视频和环境传感器数据。芯片的事件驱动架构意味着它仅在脉冲发生时消耗电力,非常适合全天候家庭部署。
训练范式转变: 模型未在任何数据集上预训练。相反,它被初始化为随机突触权重和一组先天的“好奇心”先验——本质上是对预测误差的奖励信号。当模型未能预测下一个感官输入(例如,在意外时间听到开门声)时,它会收到类似多巴胺的强化信号,加强负责该预测的连接。这是一种内在动机或“自由能最小化”的形式,如Karl Friston的主动推理框架所述。在一个月的时间里,模型构建了家庭日常程序、情绪状态和因果关系的概率模型。
实验关键技术指标:
| 指标 | 实验室基线(模拟家庭) | 真实家庭(第一个月) | 提升幅度 |
|---|---|---|---|
| 日常活动预测准确率 | 72% | 89% | +17% |
| 情绪状态检测(效价/唤醒度) | 61% | 78% | +17% |
| 突发事件检测(如访客到来) | 45% | 92% | +47% |
| 能耗(平均毫瓦) | 1.2 | 0.9 | -25% |
| 突触权重增长(新连接/天) | 1,200 | 4,500 | +275% |
数据要点: 真实家庭环境极大地加速了模型学习突发事件和情绪线索的能力,同时由于神经形态芯片的效率,能耗反而降低。突触增长275%表明,现实世界的复杂性比模拟环境驱动了更强的结构可塑性。
研究团队已在GitHub上开源了训练框架,仓库名为“cortex-home”(目前获得2300颗星,340个分支)。该仓库包含基于PyTorch的赫布学习库、传感器融合流水线,以及供无法访问真实家庭的研究人员使用的合成家庭模拟器。值得注意的是,出于隐私考虑,团队未发布训练后的模型权重——这一决定在开源社区引发了争论。
关键参与者与案例研究
本次实验是三个不同团队的合作成果,各自带来独特专长:
1. Cortex Labs(旧金山,隐形模式):由Dr. Sarah Chen(前DeepMind研究员,专攻记忆增强神经网络)和Dr. Raj Patel(蓝脑计划神经科学家)创立。他们设计了HTM架构和赫布学习算法。其关键洞察是用可在神经形态硬件上运行的局部学习规则替代反向传播。该公司已从Andreessen Horowitz和美国国家科学基金会获得4500万美元的A轮融资。
2. MIT-IBM Watson AI Lab(剑桥,马萨诸塞州):提供主动推理和“自由能原理”的理论基础。实验室博士后Dr. James Miller编写了好奇心驱动的奖励函数。该实验室有连接神经科学和AI的历史——他们2023年发表在《自然·机器智能》上的论文《脉冲网络中的预测编码》为本次实验奠定了基础。
3. “史密斯家庭”(匿名,化名):波士顿郊区的一个四口之家——双职工父母,7岁女儿和5岁儿子。他们因为期一个月的实验获得1万美元报酬,并签署了广泛的知情同意书。该家庭报告说,AI变得“像一只古怪的宠物”,有时会因其预测而让他们发笑,但当它提前预判到争吵即将发生时,也让他们感到“毛骨悚然”。
与其他方法的比较:
| 方法 | 关键倡导者 | 训练数据 |
|---|---|---|