Anthropic正式发布Claude Code代码评审功能
mp.weixin.qq.com
Anthropic 近期为其 AI 开发工具 Claude Code 推出“代码评审(Code Review)”功能,该功能采用多 Agent 协作模式,旨在实现对代码逻辑、安全漏洞及潜在 Bug 的深度自动化审核。
在开发者提交 Pull Request(PR)时,Claude Code 会启动多个并行的 AI 智能体,分别从代码规范、逻辑冲突和安全风险等不同维度进行专项检查。通过智能体之间的相互验证,系统能够有效过滤误报,并根据问题的严重程度进行分级标注。
Anthropic内部测试结果显示,实施该功能后,包含实质性评审意见的PR比例从16%暴涨至54%。在1000行以上的大型PR中,84%的代码被检测出问题,平均每份PR包含7.5个Bug。即便是不易引起重视的小型PR(少于50行),也有31%被发现潜在风险。工程师对评审结果的认可度超过99%,误报率低于1%。
mp.weixin.qq.com