安全公司LayerX披露一种名为“字体渲染攻击”的新漏洞,黑客可通过自定义字体和CSS样式在网页中伪装恶意指令,误导AI工具生成错误安全评估。受影响平台包括ChatGPT、Claude与微软Copilot等主流AI助手。攻击机制利用字体映射与视觉控制,使AI读取到混淆内容而判定为“安全”,但实际向用户展示的代码可能包含反向连接等高危命令。LayerX已于2025年12月向多家厂商报告该漏洞,仅微软积极响应并完成修复。谷歌与部分厂商则认为该攻击依赖社会工程学,未进一步处理。专家建议,用户在依赖AI审核网页脚本时仍应加强人工验证,以防隐蔽安全风险。