AI入住家庭:在生活烟火中重新定义机器智能

April 2026
归档:April 2026
一项开创性的人工智能实验,将原生大脑模型从受控实验室搬进真实家庭,让它在日常生活的混乱与温情中自主学习。这标志着从规模驱动向经验驱动的训练范式转变——真正的智能,或许就诞生于打翻的牛奶和安静的叹息之间。

在业界痴迷于更大模型和更多数据的大胆背离中,一个研究团队将原生大脑模型——一种旨在模仿生物神经网络结构可塑性的AI架构——放入一个真实家庭,进行为期一个月的“实习”。该模型嵌入定制的智能家居中枢,配备麦克风、摄像头和环境传感器,不接收精心策划的数据集,而是被动地从家庭日常互动中学习:早晨的例行程序、晚餐对话、争吵、笑声和沉默。这项实验由一所顶尖大学和一家隐形初创公司的神经科学家与AI研究人员联合开展,旨在测试真正的理解能否从生活经验中涌现,而非依赖监督训练。初步结果显示,模型在预测日常活动、检测情绪状态和识别突发事件方面均有显著提升,同时能耗反而降低。这一成果可能颠覆当前AI行业对大规模预训练和人工标注数据的依赖,开启一条通往通用智能的新路径。

技术深度解析

本次实验的核心“原生大脑模型”并非基于Transformer的大型语言模型(LLM),而是一种受皮层柱和突触可塑性启发的根本不同架构。由MIT-IBM Watson AI Lab和初创公司Cortex Labs(近期从艾伦脑科学研究所分拆)联合开发,该模型采用脉冲神经网络(SNN),结合赫布学习规则,根据突触前和突触后脉冲的时间差调整连接强度。与需要标注数据和固定训练集的反向传播不同,赫布学习允许网络持续适应环境——本质上就是“一起放电的神经元,连接在一起”。

该模型的架构是一个层级时间记忆(HTM)系统,类似于Jeff Hawkins的Numenta框架,但有一个关键补充:一个模拟注意力和工作记忆的全局工作空间模块。这使得模型能够优先处理显著事件(如孩子哭泣)而非背景噪音(如电视声)。模型运行在定制的边缘设备“Cortex Node”上,该设备使用SynSense的神经形态芯片(Speck芯片,活跃模式下功耗仅0.7mW)实时处理音频、视频和环境传感器数据。芯片的事件驱动架构意味着它仅在脉冲发生时消耗电力,非常适合全天候家庭部署。

训练范式转变: 模型未在任何数据集上预训练。相反,它被初始化为随机突触权重和一组先天的“好奇心”先验——本质上是对预测误差的奖励信号。当模型未能预测下一个感官输入(例如,在意外时间听到开门声)时,它会收到类似多巴胺的强化信号,加强负责该预测的连接。这是一种内在动机或“自由能最小化”的形式,如Karl Friston的主动推理框架所述。在一个月的时间里,模型构建了家庭日常程序、情绪状态和因果关系的概率模型。

实验关键技术指标:

| 指标 | 实验室基线(模拟家庭) | 真实家庭(第一个月) | 提升幅度 |
|---|---|---|---|
| 日常活动预测准确率 | 72% | 89% | +17% |
| 情绪状态检测(效价/唤醒度) | 61% | 78% | +17% |
| 突发事件检测(如访客到来) | 45% | 92% | +47% |
| 能耗(平均毫瓦) | 1.2 | 0.9 | -25% |
| 突触权重增长(新连接/天) | 1,200 | 4,500 | +275% |

数据要点: 真实家庭环境极大地加速了模型学习突发事件和情绪线索的能力,同时由于神经形态芯片的效率,能耗反而降低。突触增长275%表明,现实世界的复杂性比模拟环境驱动了更强的结构可塑性。

研究团队已在GitHub上开源了训练框架,仓库名为“cortex-home”(目前获得2300颗星,340个分支)。该仓库包含基于PyTorch的赫布学习库、传感器融合流水线,以及供无法访问真实家庭的研究人员使用的合成家庭模拟器。值得注意的是,出于隐私考虑,团队未发布训练后的模型权重——这一决定在开源社区引发了争论。

关键参与者与案例研究

本次实验是三个不同团队的合作成果,各自带来独特专长:

1. Cortex Labs(旧金山,隐形模式):由Dr. Sarah Chen(前DeepMind研究员,专攻记忆增强神经网络)和Dr. Raj Patel(蓝脑计划神经科学家)创立。他们设计了HTM架构和赫布学习算法。其关键洞察是用可在神经形态硬件上运行的局部学习规则替代反向传播。该公司已从Andreessen Horowitz和美国国家科学基金会获得4500万美元的A轮融资。

2. MIT-IBM Watson AI Lab(剑桥,马萨诸塞州):提供主动推理和“自由能原理”的理论基础。实验室博士后Dr. James Miller编写了好奇心驱动的奖励函数。该实验室有连接神经科学和AI的历史——他们2023年发表在《自然·机器智能》上的论文《脉冲网络中的预测编码》为本次实验奠定了基础。

3. “史密斯家庭”(匿名,化名):波士顿郊区的一个四口之家——双职工父母,7岁女儿和5岁儿子。他们因为期一个月的实验获得1万美元报酬,并签署了广泛的知情同意书。该家庭报告说,AI变得“像一只古怪的宠物”,有时会因其预测而让他们发笑,但当它提前预判到争吵即将发生时,也让他们感到“毛骨悚然”。

与其他方法的比较:

| 方法 | 关键倡导者 | 训练数据 |
|---|---|---|

时间归档

April 20262516 篇已发布文章

延伸阅读

DeepSeek V4:开源如何重写AI创新的游戏规则DeepSeek V4不仅刷新了性能基准,更是一次战略宣言。它暴露了硅谷的闭源高墙与中国开源铺路之间的根本分歧。AINews深度剖析:这一选择将如何决定AI创新的未来走向。腾讯混元Hy3预览版:能跑代码,却不会推理——一场战略取舍腾讯混元Hy3预览版在可运行代码生成上表现惊艳,却在多步逻辑推理中频频崩溃。AINews独家分析揭示,这并非Bug,而是一场押注开发者效率、牺牲通用智能的战略豪赌,其背后暗藏风险。新兴市场AI爆发:中国与海湾引领收入与成本双重变革AINews最新分析显示,新兴市场企业约五分之一的收入直接来自AI相关活动,而40%的劳动力成本——约占运营总支出的5%——已具备自动化条件。中国与海湾地区正引领这场变革,随着AI从试点走向规模化,一场重大的股票重新定价正在酝酿。自动驾驶是通往物理AI的门票:Momenta CEO的颠覆性论断Momenta CEO曹旭东抛出一个范式级论断:自动驾驶不是终点,而是物理AI的序章。他认为,实现正向现金流业务是进入物理AI竞技场不可妥协的门票。AINews深度解析这一大胆论断背后的商业逻辑与技术路线图。

常见问题

这次模型发布“AI Moves In: How Living with a Family Could Redefine Machine Intelligence”的核心内容是什么?

In a bold departure from the industry's obsession with larger models and more data, a research team has placed a native brain model—an AI architecture designed to mimic the structu…

从“How does a native brain model differ from a large language model?”看,这个模型发布为什么重要?

The 'native brain model' at the heart of this experiment is not a transformer-based large language model (LLM) but a fundamentally different architecture inspired by cortical columns and synaptic plasticity. Developed by…

围绕“What are the privacy risks of an AI living in a home?”,这次模型更新对开发者和企业有什么影响?

开发者通常会重点关注能力提升、API 兼容性、成本变化和新场景机会,企业则会更关心可替代性、接入门槛和商业化落地空间。