Anthropic 宣布推出 AI 代码审计工具 Code Review,以应对生成式编码(“Vibe Coding”)带来的逻辑漏洞与安全隐患。该工具已集成至 Claude Code,并率先向 Claude for Teams 与 Enterprise 用户开放。Anthropic 产品负责人 Cat Wu 表示,AI 编程导致拉取请求急剧增多,Code Review 旨在通过自动化专家级评估提升审核效率。其主要功能包括逻辑错误深度检测、分级风险标识、多智能体协作分析以及 GitHub 原生集成,可在拉取请求中提供具体修复建议。目前,Uber、Salesforce、Accenture 等企业已开始应用该工具。每次审查成本约 15 至 25 美元,定位面向需要高质量、低 Bug 交付的企业开发场景。