2026 年 2 月 5 日,Anthropic 宣布推出 Claude Opus 4.6,称其相较 Opus 4.5 提升了编码能力与长链路自主任务表现,强调更强的规划能力、更适配大型代码库的稳定性,以及更好的代码审查与调试能力;同时在 Opus 系列中首次提供 1M token 上下文窗口(beta)。
Anthropic
2026年2月5日,OpenAI发布GPT-5.3-Codex,称其为目前最强的代理式编码模型:把GPT-5.2-Codex的前沿编码能力与GPT-5.2的推理与专业知识合并到同一模型,并在Codex使用场景下提速25%。OpenAI表示,该模型面向需要研究、工具调用与复杂执行的长周期任务,工作过程中可被用户实时介入与引导而不丢失上下文。
官方披露的基准结果显示,GPT-5.3-Codex在SWE-Bench Pro(Public)为56.8%,Terminal-Bench 2.0为77.3%,OSWorld-Verified为64.7%,GDPval(胜或平)为70.9%;同时给出网络安全CTF 77.6%与SWE-Lancer IC Diamond 81.4%等指标。OpenAI注明文中评测均以xhigh推理力度运行。除代码生成与评审外,覆盖调试、部署、监控、撰写PRD、文案编辑、用户研究、测试与指标分析等软件生命周期工作,并可产出演示文稿、表格等知识型交付物。
OpenAI
【独家|接近长鑫存储人士:惠普等PC厂商目前并未开始针对长鑫的产品认证】财联社2月5日电,日前,有媒体报道称惠普已开始对中国存储芯片制造商长鑫存储(CXMT)的产品进行认证,以准备更多供应替代方案。有接近长鑫存储人士向财联社记者表示,惠普等PC厂商目前并未开始上述针对长鑫存储的产品认证。长鑫存储目前正处于IPO申报过程中,在其申报文件中亦未披露相关海外业务计划。
美团公告:公司拟以7.17亿美元收购中国大陆领先的生鲜电商企业叮咚的全部已发行股份。
根据协议,转让方可从目标集团提取不超过2.8亿美元的资金,但需确保目标集团净现金不低于1.5亿美元。此次收购将使目标公司成为美团的间接全资附属公司,其财务业绩将并入美团的财务报表。
根据协议,转让方可从目标集团提取不超过2.8亿美元的资金,但需确保目标集团净现金不低于1.5亿美元。此次收购将使目标公司成为美团的间接全资附属公司,其财务业绩将并入美团的财务报表。
另外,北京方面已要求航运公司考虑在不显著增加成本的基础上,将货物运输改道至其他港口。
同时中国海关正在加强对巴拿马进口商品(香蕉和咖啡等)的检查。
source
根据我们最新的渠道调研,甲骨文(Oracle)需要采购约300万块GPU(及其他IT设备)以支持其与OpenAI的现有协议,股权和债务投资者均已对甲骨文能否为此扩建项目融资提出质疑——这一点从其信用违约互换(CDS)利差扩大以及股票/债券承压中可见一斑。假设单兆瓦(MW)IT设备配置成本保守估计为3000万美元,这意味着约1560亿美元的资本支出需求,加之市场对OpenAI能否履行其1.4万亿美元多年期承诺的疑虑,已导致多家美国银行收缩对甲骨文相关数据中心项目的贷款。
此外,渠道调研显示,多家私营运营商正在洽谈的甲骨文数据中心租约难以获得融资,进而导致甲骨文无法通过租赁模式获取数据中心容量。在仍愿意提供贷款的美国银行中,调研表明甲骨文相关数据中心项目的借款利差已扩大至非投资级水平(即当前SOFR+300-450基点,而9月份为SOFR+225-250基点)。
随着运营商借款成本上升,美国私营运营商对100兆瓦以上甲骨文数据中心的租赁已放缓,市场正在消化当前甲骨文的融资需求。重要的是,渠道调研显示亚洲银行仍愿意向承接甲骨文租约的数据中心运营商提供贷款(利率较历史水平略有溢价),因为这些银行希望增加对AI领域的风险敞口,这为甲骨文在国际市场扩张以支持增量剩余履约义务(RPO)提供了路径。
然而,美国融资渠道的收缩引发了质疑:若甲骨文持续难以获得美国数据中心容量以支持OCI客户合同,其在美国市场能否继续保持收入(RPO)增长?
面对此类资本需求,渠道调研显示甲骨文现要求客户预付40%的定金,以对冲增量收入(RPO)增长带来的额外资本支出。此外,调研表明甲骨文正在评估多种应对融资问题的路径,包括:1)裁员2-3万名员工,可能产生约80-100亿美元的增量自由现金流;2)资产剥离(可能包括Cerner业务),以降低债务负担;3)供应商融资。
TD Cowen
今日美股AI应用软件股再遭重挫, Applovin 跌近14%, Unity Software 跌超8%, Palantir 跌超5%。
摩根大通分析师奥格(Toby Ogg)表示:“目前的市场环境不仅是‘有罪推定’,软件行业甚至正处于‘未审先判’的境地。”
摩根大通分析师奥格(Toby Ogg)表示:“目前的市场环境不仅是‘有罪推定’,软件行业甚至正处于‘未审先判’的境地。”
投资界在一家头部美元基金沟通会上获悉——该机构在2025年底以500亿美金(约3500亿人民币)的估值,低调卖出了手中部分小红书的老股。
去年彭博社披露,金沙江创投旗下GSR IV基金截至2025年3月底的投资组合报告,可推算出小红书整体估值为260亿美元。此后同一基金截至当年6月底的投资组合文件显示,小红书的估值达到310亿美元。
去年彭博社披露,金沙江创投旗下GSR IV基金截至2025年3月底的投资组合报告,可推算出小红书整体估值为260亿美元。此后同一基金截至当年6月底的投资组合文件显示,小红书的估值达到310亿美元。
2月4日,自业内知情人士处了解到,上周,马斯克团队对包括TCL中环、晶科能源、晶盛机电等中国光伏企业进行了调研,对此,相关公司并未向直接回应上述消息的真实性。稍早前,晶科能源接线工作人员公开回应称,公司近期确实与马斯克团队相关考察团有过接触。此外,了解到,更早前,马斯克团队还对部分光伏设备商进行了调研。
来源:界面新闻
来源:界面新闻
ChatGPT 中 GPT-5.2 Thinking 的推理强度参数疑似下调
有用户注意到,OpenAI 旗下 ChatGPT 中 GPT-5.2 Thinking 模式的 “Juice(reasoning effort)” 参数显示发生变化,不同订阅方案对应的推理强度上限出现整体下调迹象。
在 ChatGPT Plus 与 Business 方案中,Standard 档位的 Juice 值由 64 调整为 32,Extended 档位由 256 调整为 128,两者均为原数值的一半。在 ChatGPT Pro 方案中,多个档位出现调整:Light 从 16 降至 8;Standard 从原先的 64 调整为 16 或 32(具体显示存在差异);Extended 从 256 调整为 128;Heavy 档位仍显示为 512,未见变化。
这实际上最早在linux.do的半个多月前的帖子就被提到过
近期又在X被提到
这实际上远早于GPT-5.2 系列模型推理速度提升 40%这件事.
有用户注意到,OpenAI 旗下 ChatGPT 中 GPT-5.2 Thinking 模式的 “Juice(reasoning effort)” 参数显示发生变化,不同订阅方案对应的推理强度上限出现整体下调迹象。
在 ChatGPT Plus 与 Business 方案中,Standard 档位的 Juice 值由 64 调整为 32,Extended 档位由 256 调整为 128,两者均为原数值的一半。在 ChatGPT Pro 方案中,多个档位出现调整:Light 从 16 降至 8;Standard 从原先的 64 调整为 16 或 32(具体显示存在差异);Extended 从 256 调整为 128;Heavy 档位仍显示为 512,未见变化。
这实际上最早在linux.do的半个多月前的帖子就被提到过
近期又在X被提到
这实际上远早于GPT-5.2 系列模型推理速度提升 40%这件事.
Apple 发布 Xcode 26.3,引入“智能体编码”并集成 Codex
Xcode 26.3 支持多种第三方编码代理接入,包括 Anthropic 的 Claude Agent 以及 Codex。这些代理可在开发过程中拆解任务、理解项目结构,并根据开发目标作出决策,而不再局限于被动代码补全。Xcode 26.3 目前已作为 Release Candidate 向 Apple 开发者计划成员开放,正式版本将于近期通过 App Store 推出。
Apple
Xcode 26.3 支持多种第三方编码代理接入,包括 Anthropic 的 Claude Agent 以及 Codex。这些代理可在开发过程中拆解任务、理解项目结构,并根据开发目标作出决策,而不再局限于被动代码补全。Xcode 26.3 目前已作为 Release Candidate 向 Apple 开发者计划成员开放,正式版本将于近期通过 App Store 推出。
Apple
OpenAI 宣布 GPT-5.2 系列模型推理速度提升 40%
OpenAI 开发者官方账号 OpenAI Developers 发布消息称,GPT-5.2 与 GPT-5.2-Codex 两款模型在不更换模型结构与参数权重的前提下,实现了约 40% 的整体速度提升。此次性能提升主要来源于对推理堆栈(inference stack)的系统级优化,覆盖所有 API 客户。官方强调,这一更新不涉及模型再训练或权重调整,模型能力保持不变。
来源
OpenAI 开发者官方账号 OpenAI Developers 发布消息称,GPT-5.2 与 GPT-5.2-Codex 两款模型在不更换模型结构与参数权重的前提下,实现了约 40% 的整体速度提升。此次性能提升主要来源于对推理堆栈(inference stack)的系统级优化,覆盖所有 API 客户。官方强调,这一更新不涉及模型再训练或权重调整,模型能力保持不变。
来源