Skip to main content

Anthropic正式发布Claude Code代码评审功能Anthropic 近期为其 AI 开发工具 Claude Code 推出“代码评审(Code Review)”功能,该功能采用多 Agent 协作模式,旨在实现对代码逻辑、安全漏洞及潜在 Bug 的深度自动化审核

  1. Anthropic正式发布Claude Code代码评审功能
    Anthropic 近期为其 AI 开发工具 Claude Code 推出“代码评审(Code Review)”功能,该功能采用多 Agent 协作模式,旨在实现对代码逻辑、安全漏洞及潜在 Bug 的深度自动化审核。

    在开发者提交 Pull Request(PR)时,Claude Code 会启动多个并行的 AI 智能体,分别从代码规范、逻辑冲突和安全风险等不同维度进行专项检查。通过智能体之间的相互验证,系统能够有效过滤误报,并根据问题的严重程度进行分级标注。

    Anthropic内部测试结果显示,实施该功能后,包含实质性评审意见的PR比例从16%暴涨至54%。在1000行以上的大型PR中,84%的代码被检测出问题,平均每份PR包含7.5个Bug。即便是不易引起重视的小型PR(少于50行),也有31%被发现潜在风险。工程师对评审结果的认可度超过99%,误报率低于1%。

    mp.weixin.qq.com