AI信任被劫持:谷歌广告与Claude聊天如何联手传播Mac恶意软件

Hacker News May 2026
来源:Hacker NewsClaude.ai归档:May 2026
一场精心策划的恶意软件攻击正利用谷歌广告和Claude.ai聊天界面,将矛头指向Mac用户。攻击者通过劫持用户对AI平台的天然信任,创造了一种全新的社会工程学攻击向量——「AI信任劫持」,它绕过了传统安全防线,并利用了用户赖以安全交互的基础设施。

新一轮恶意软件攻击正在利用用户对AI平台的信任,通过一场多阶段的社会工程学活动,专门针对Mac用户。攻击者购买谷歌广告,模仿合法软件下载页面,将受害者重定向至逼真的虚假网站。然而,此次攻击的关键创新在于,利用Claude.ai的聊天界面作为恶意载荷的投递机制。一旦用户与看似正常的AI对话交互,恶意软件便会悄然注入其系统。这标志着一种范式转变:攻击者不再使用AI生成恶意代码,而是将AI的界面本身用作受信任的感染通道。该攻击利用了「AI交互天然安全」这一认知偏差,将原本用于提升效率的工具,变成了攻破用户心理防线的武器。

技术深度剖析

该攻击链堪称多向量社会工程学的教科书级案例,融合了恶意广告、UI伪造和AI信任利用。其技术架构并非特别复杂,但精妙之处在于每一步都精准操控了用户心理。

第一阶段:谷歌广告投毒
攻击者针对“Loom下载”或“Notion安装程序”等高流量关键词购买谷歌广告。这些广告采用域名抢注技术——例如 `loom-download[.]com` 或 `notion-setup[.]pro`——并通过先托管一个良性着陆页来通过谷歌的广告审核。审核通过后,广告会重定向至一个恶意页面,该页面完美模仿了合法软件的下载界面。页面使用了相同的CSS、Logo和布局,但下载按钮触发的 `.dmg` 文件并非真正的应用程序。

第二阶段:虚假安装程序
下载的 `.dmg` 文件包含一个Mach-O二进制文件,看似合法的安装程序,实则为恶意软件投放器。执行时,它会进行一系列检查以规避沙箱检测:检查是否存在 `lldb` 或 `dtrace` 等常见分析工具,验证系统区域设置,并随机延迟30-120秒以逃避自动化分析。如果环境看似安全,则进入下一阶段。

第三阶段:Claude.ai界面劫持
这是本次攻击的新颖之处。投放器会打开一个本地Claude.ai实例(或一个模拟其界面的WebView),并注入一个精心构造的提示,使其看似正常的用户查询。实际上,该提示包含编码后的JavaScript,利用聊天界面的消息渲染管道进行攻击。恶意载荷以看似无害的AI回复形式呈现——一个“实用工具”或“安全更新”的链接——用户点击后,便会下载真正的恶意软件(后门或信息窃取器)。用户看到熟悉的Claude界面和看似合法的回复,便会毫无戒心地点击。

技术机制
该攻击利用了Claude.ai网页界面通过WebSocket连接进行实时消息流传输的特性。投放器会打开一个无头浏览器(通过Puppeteer或自定义WebView),使用窃取或生成的会话令牌进行身份验证。然后,它发送一条预先构造的消息,其中包含一个隐藏的iFrame或 `data:` URI,用于加载恶意软件。由于消息看似来自AI,浏览器的同源策略会将其视为受信任内容。这并非Claude代码中的漏洞,而是一种设计层面的信任假设:平台假定所有来自AI的消息都是安全的,但并未验证这些消息被渲染时的上下文。

相关开源工具
- Puppeteer Extra:一款流行的无头浏览器自动化工具(GitHub: `puppeteer/puppeteer-extra`,约20k星标),攻击者可能用它来编写与Claude交互的脚本。
- GoPhish:一款开源钓鱼框架(GitHub: `gophish/gophish`,约12k星标),可被改造用于AI界面伪造。
- Bettercap:一款网络攻击框架(GitHub: `bettercap/bettercap`,约18k星标),可用于中间人攻击,向合法AI会话中注入恶意内容。

数据表格:攻击阶段 vs. 检测难度
| 攻击阶段 | 技术手段 | 检测难度 | 常见防御措施 |
|---|---|---|---|
| 谷歌广告 | 恶意广告 | 低(绕过广告审核) | 广告拦截器、URL信誉 |
| 虚假下载页面 | 域名抢注 + UI伪造 | 中等 | 浏览器安全扩展 |
| 投放器二进制文件 | Mach-O规避 | 高(多态性) | 端点检测(EDR) |
| Claude界面劫持 | 信任利用 | 极高 | 行为分析 |

数据要点: Claude界面劫持阶段最难检测,因为它利用的是信任关系而非技术漏洞。传统的基于签名或异常的检测系统对此向量完全无效。

关键参与者与案例研究

Anthropic (Claude.ai)
Anthropic是此次被利用的主要平台。该公司的安全策略一直侧重于防止AI生成有害内容(例如越狱、虚假信息),但并未解决界面本身被用作投递机制的风险。这是其威胁模型中的一个盲点。Anthropic尚未就此次特定攻击活动公开发表评论,但据称内部安全团队正在调查其聊天API的攻击面。

谷歌(广告)
谷歌的广告平台是初始入口点。尽管谷歌每年在广告安全上投入50亿美元,恶意广告问题依然顽固存在。2024年,谷歌移除了34亿条不良广告,但复杂攻击活动的数量仍在持续增长。此次攻击凸显了自动化广告审核系统的局限性——它们无法检测依赖于上下文的恶意行为。

Mac用户
受害者群体尤其值得关注。由于平台历史上相对安全,Mac用户的安全意识普遍较低,这使得他们成为此类攻击的理想目标。

更多来自 Hacker News

沙虫病毒Shai-Hulud:令牌撤销即机器自毁,网络攻击进入纯毁灭时代网络安全界因Shai-Hulud的出现而震动。这款新型恶意软件利用的正是本应保障安全的机制——令牌撤销。与传统勒索软件加密数据索要赎金不同,Shai-Hulud在系统中植入一个恶意的OAuth或API令牌。当管理员或用户撤销该令牌(标准安全LLM效率悖论:AI编程工具为何让开发者阵营分裂关于大型语言模型(LLM)是否真正提升软件工程生产力的争论已白热化。一方是资深后端工程师,他报告称团队使用GitHub Copilot和Cursor等工具后,在样板代码生成、调试速度和文档编写方面取得了可衡量的进步。另一方则是技术舆论风向标AI时代,为何学编程反而更重要?GitHub Copilot、Amazon CodeWhisperer 和 OpenAI 的 ChatGPT 等 AI 代码生成器的崛起,引发了一场争论:学习编程还有价值吗?根据 AINews 的分析,答案是响亮的“是”——但理由与以往不同查看来源专题页Hacker News 已收录 3260 篇文章

相关专题

Claude.ai34 篇相关文章

时间归档

May 20261233 篇已发布文章

延伸阅读

Mistral AI NPM劫持事件:AI供应链安全的终极警钟Mistral AI官方TypeScript客户端NPM包遭恶意篡改,暴露了AI生态系统中一个日益危险的盲区:连接开发者与大语言模型的工具正成为黑客的首要攻击目标。这起事件是一个严厉的警告——AI供应链安全再也不能被当作事后补救的附属品。Canvas数据泄露与DeepSeek V4 Flash:AI信任危机遭遇速度突破Canvas遭遇重大数据泄露,用户私密项目文件及API密钥外泄,引发AI平台安全性质疑。与此同时,DeepSeek V4 Flash实现4.3倍推理速度提升,有望大幅降低成本。AINews深度剖析这两起事件如何揭示一个核心矛盾:技术飞跃必须GPT-5.5与GPT-5.5-Cyber:OpenAI重新定义AI,将其打造为关键基础设施的安全基石OpenAI发布GPT-5.5及其网络安全变体GPT-5.5-Cyber,标志着AI从通用型向领域专用安全智能的根本性转变。这些模型专为关键基础设施设计,将高级推理与实时威胁情报深度融合,实现可扩展、可信的访问控制。本文将从架构、竞争格局及一条推文代价20万美元:AI Agent对社交信号的致命信任一条看似无害的推文,让一个AI Agent在数秒内损失20万美元。这不是代码漏洞,而是一场针对Agent推理层的精准社会工程攻击,暴露了自主系统处理社交信号时的根本缺陷。

常见问题

这次模型发布“AI Trust Hijacked: How Google Ads and Claude Chat Spread Mac Malware”的核心内容是什么?

A new wave of malware attacks is exploiting the trust users place in AI platforms, specifically targeting Mac users through a multi-stage social engineering campaign. Attackers pur…

从“How to protect Mac from AI interface malware”看,这个模型发布为什么重要?

The attack chain is a masterclass in multi-vector social engineering, combining malvertising, UI spoofing, and AI trust exploitation. The technical architecture is not particularly complex, but its elegance lies in the p…

围绕“Claude.ai security vulnerabilities 2025”,这次模型更新对开发者和企业有什么影响?

开发者通常会重点关注能力提升、API 兼容性、成本变化和新场景机会,企业则会更关心可替代性、接入门槛和商业化落地空间。