技术深潜
核心的技术挑战在于,如何从概率性输出转向经过校准的不确定性估计。当前的多模态模型,如GPT-4V、Claude 3和Gemini Pro,通过从学习到的分布中采样来生成响应,最终给出一个单一的、高置信度的答案。它们缺乏内在的架构来表达对其自身跨模态推理过程的怀疑。
更先进的方法正在涌现。贝叶斯神经网络(BNNs)和蒙特卡洛Dropout技术,尽管计算成本高昂,但能让模型产生一个可能的输出分布,而非单一的点估计。该分布的方差可以标示不确定性。对于视觉-语言任务,研究人员正在开发证据深度学习框架,模型不仅预测答案,还预测一个关于可能答案的高阶分布(例如狄利克雷分布)的参数,从而直接量化认知(模型)不确定性。
一个前景广阔的开源项目是GitHub上的Laplace Redux库。该仓库提供了为基于Transformer的视觉-语言模型实施拉普拉斯近似法的工具——这是一种用于估计大型神经网络训练后不确定性的方法。它允许开发者为BLIP-2或LLaVA等现有模型添加不确定性估计,而无需完全重新训练,尽管需要在准确性上做出权衡。另一个关键仓库是谷歌维护的Uncertainty Baselines,它为不同任务的各种不确定性估计方法提供了基准测试和实现,有助于标准化评估。
技术难点在于多模态的“接地”。一个模型可能对图像中的物体(一只“狗”)很确定,对文本事实(“狗是哺乳动物”)也很确定,但对其所建立的隐含联系(“这只狗因其姿势显得焦虑”,这是一个无法验证的主观主张)却高度不确定。量化这些融合模态中的不确定性,需要新颖的注意力机制来追踪每个模态输入的来源和置信度。
| 不确定性量化方法 | 计算开销 | 可解释性 | 最佳适用场景 |
|---|---|---|---|
| 蒙特卡洛Dropout | 高(需要多次前向传播) | 中等 | 研究、小规模部署 |
| 深度集成 | 非常高(多个训练好的模型) | 高 | 高风险应用(如医疗) |
| 证据深度学习 | 低-中等(单次前向传播) | 低 | 实时系统、边缘计算 |
| 拉普拉斯近似 | 低(事后处理) | 中等 | 为预训练模型添加不确定性 |
数据要点: 没有单一的技术解决方案占主导地位;选择需要在计算成本、不确定性估计的准确性和实现的简易性之间进行直接权衡。对于可扩展的商业MLLM,目前证据学习或拉普拉斯近似等低开销方法是最可行的,尽管在校准质量上可能存在妥协。
关键参与者与案例研究
针对隐蔽幻觉问题的战略应对,正在重塑竞争格局。OpenAI正通过其o1模型系列采取一种封闭的、系统性的方法,强调过程监督和“思维链”以减少推理错误。虽然未明确量化不确定性,但其目标是使模型的推理更可靠,更不易产生细微的虚构。相比之下,Anthropic的宪法AI和对可解释性的关注,则是直接针对信任市场的布局。他们的模型被设计得更为谨慎,并开始为边界查询加入诸如“我不完全确定,但……”之类的短语。
Google DeepMind正通过Chinchilla和Gemma等项目大力投资基础研究,探索可靠知识的缩放定律。他们的Gemini模型展示了先进的多模态理解能力,但该公司最重要的赌注可能在于SAFE(搜索增强事实性评估器),这是一个用于事实核查长篇幅模型输出的自动化框架——一个直接针对验证负担问题的工具。
初创公司则在验证层开辟利基市场。Credo AI和Arthur AI提供平台来监控生产环境中的模型输出,基于数据漂移和异常检测来标记潜在的幻觉。Scale AI和Labelbox正将其数据标注服务转向创建“对抗性验证数据集”,旨在对模型置信度进行压力测试。
一个关键的案例研究在医学影像AI领域。像Paige.ai和Butterfly Network这样的公司正在集成MLLM,以根据扫描图像生成诊断报告。在这里,一个隐蔽的幻觉——对一个细微伪影看似合理但错误的提及——可能带来严重后果。这些公司正引领集成方法和人在回路置信度阈值的采用,即任何不确定性分数超过特定水平的输出都会被自动标记,交由人类专家复审。