技术深度解析
Dokis的运作基于一个核心原则:通过确定性数据流强制执行溯源。传统的RAG流水线遵循线性路径:查询 → 检索器获取文档 → LLM利用检索到的上下文合成答案。验证(如果进行的话)是一个独立的事后步骤。Dokis将此重新架构为一个带标签的多阶段流水线,数据若缺少溯源元数据则无法向前推进。
其核心架构包含三个关键组件:
1. 溯源感知的检索器封装器:标准检索器(如使用Chroma、Pinecone或Weaviate的检索器)被封装起来,使其输出的不仅是文档块,还附带不可变的加密哈希值(例如使用SHA-256)和元数据(来源ID、块索引、检索分数)。这为源材料创建了一个*可验证的声明*。
2. 证明层:这是Dokis新颖的中间件。在将检索到的数据块传递给LLM之前,该层会根据可信存储(如原始向量数据库)验证哈希值的完整性,并将数据块打包成一个结构化的、防篡改的上下文块。随后构建的LLM提示词会*强制要求*模型在响应中必须使用预定义的标记(例如`[source:hash_abc123]`)明确引用这些带标签的数据块。
3. 运行时合规检查器:在LLM生成响应后,一个轻量级的、基于规则的解析器(而非另一个LLM)会扫描输出,查找所需的来源标记。答案中任何缺少有效、已证明来源标记的声明,都会立即触发失败或回退机制(例如请求重新生成),从而防止未经归属的信息被当作事实呈现。
这种方法利用确定性解析和加密哈希进行验证,而非依赖概率性的LLM推理。在GitHub上,`dokis-core`仓库在头三个月就获得了超过2.8k星标,它提供了基础库。另一个配套仓库`dokis-adapters`展示了如何与LangChain、LlamaIndex等流行LLM框架集成,演示了如何将证明层注入现有链中。
早期采用者的性能基准测试显示出引人注目的优势:
| 验证方法 | 增加的延迟(p95) | 每次查询增加的成本 | 幻觉率(未验证声明) |
| :--- | :--- | :--- | :--- |
| 二次LLM验证(例如GPT-4) | 1200 - 2500 毫秒 | 0.03 - 0.06 美元 | 3-7%* |
| Dokis运行时强制验证 | 15 - 45 毫秒 | ~0.0001 美元 | <0.5% |
| 无验证 | 0 毫秒 | 0.00 美元 | 15-25% |
*二次LLM本身也可能产生幻觉或遗漏归属。
数据启示:数据揭示了Dokis的核心价值主张:它将验证带来的延迟开销降低了两个数量级,将其成本削减至近乎为零,同时实现了比其旨在取代的基于LLM的验证方法更低的未验证声明率。这使得严格的溯源对于实时应用而言,在经济和技术上都变得可行。
关键参与者与案例研究
Dokis的开发由一群来自基础设施初创公司的AI工程师和研究人员组成的联盟主导,其中Cohere和Anyscale等公司的前员工作出了重要贡献,他们拥有应对生产环境RAG陷阱的第一手经验。虽然背后没有单一的巨头公司支持,但其采用正受到垂直监管领域企业的推动。
早期案例研究:
1. FinLegal AI:一家构建合同分析工具的法律科技初创公司已将Dokis集成到其流水线中。对于其AI提供的每一条条款解释,系统都会输出一个可点击的审计追踪,直接链接到源合同中的确切句子。这对于满足法律合规性和职业责任保险要求至关重要。
2. 一家大型医药研究门户网站正在试点使用Dokos为其内部药物相互作用问答系统提供支持。通过保证所有安全信息都可追溯到特定的、版本化的医学数据库,他们旨在降低早期研究支持中的监管风险。
Dokis进入了一个专注于RAG可观测性和评估的竞争格局:
| 解决方案 | 主要方法 | 优势 | 劣势 |
| :--- | :--- | :--- | :--- |
| Dokis | 运行时强制与证明 | 确定性、低延迟、高完整性保证 | 需要重新设计流水线;对于创造性任务灵活性较低 |
| Arize Phoenix / TruLens | 事后评估与追踪 | 非常适合监控和调试现有流水线 | 验证是观察性的,而非预防性的;在生成后增加延迟 |
| LLM即法官(例如使用GPT-4) | 二次LLM验证 | 灵活,可以处理细微的归属问题 | 昂贵、缓慢,并引入了第二个不可靠的组件 |
| 自引用微调(例如GopherCite) | 模型训练 | 可集成到模型行为中 | 需要大量训练;训练后无法适应新的知识库 |
行业影响与未来展望:Dokis的出现,标志着AI工程界对“可信性”的追求从软性评估转向硬性约束。它并非要取代所有的事后评估工具,而是为那些需要“证据链”而非“置信度分数”的场景提供了基础设施级的解决方案。其挑战在于,强制性的引用格式可能限制LLM在需要高度创造性合成或非文本数据(如图表、代码)场景下的表达能力。未来,Dokis的演进方向可能包括支持更灵活的归属模式、与更广泛的AI代理框架集成,以及探索在模型训练阶段就植入类似溯源意识的混合方法。对于整个行业而言,Dokis范式促使我们重新思考:构建可信AI,究竟应该更多地依赖更聪明的模型,还是更严谨的系统?