LoopDNS 综合资讯---简洁,及时,快速,准确


频道: @DNSPODT

电报讨论组: @LoopDNS

撤稿流程: https://t.me/loopdns/107752
OpenAI 发布 GPT-5.4 mini 与 nano

OpenAI 周二正式推出 GPT-5.4 mini 和 GPT-5.4 nano 两款轻量级模型,旨在进一步降低企业级 AI 应用的成本并提升响应速度。作为 GPT-5.4 旗舰系列的新成员,这两款模型被定位为“迄今为止性能最强的强力小模型”,重点优化了编程(Coding)、计算机辅助操作(Computer Use)以及多模态理解能力。

​GPT-5.4 mini 在性能上显著超越了前代 mini 模型,运行速度提升超过 2 倍,且在多项基准测试中已逼近 GPT-5.4 旗舰版水平。与此同时,GPT-5.4 nano 成为 OpenAI 历史上成本最低的模型,主要针对高频、低延迟的简单任务,如数据分类、提取和实时子代理(Sub-agents)协作。

​OpenAI 表示,新模型的发布反映了开发者工作流的转变,即从“单一模型处理所有任务”转向“分层协作模式”:由大模型负责逻辑判断和规划,而由 mini 或 nano 模型负责快速、大规模地执行具体子任务。在定价方面,GPT-5.4 mini 每百万输入代币(Input tokens)费用为 0.75 美元,而 nano 版本的起售价仅为 0.20 美元。目前,GPT-5.4 mini 已在 API、ChatGPT 及 Codex 平台同步上线。

Introducing GPT-5.4 mini and nano
特朗普的国家反恐中心主任乔·肯特在X上宣布已决定辞职,他表示“无法良心上支持目前对伊朗的战争。伊朗并未对我国构成迫在眉睫的威胁,很明显,我们发动这场战争是受以色列及其在美国的强大游说团体的压力所致。”

来源:加美财经 / joekent16jan19
中国国家超级计算中心(天津)疑似发生大规模科研数据泄露

近日,境外某论坛出现针对中国国家超级计算中心(天津)的数据泄露公告。发布者声称获取了超过10PB的科研资料,涵盖航空航天、军事科研、核聚变模拟及生物信息等核心领域。初步分析显示,泄露内容包含多项敏感研究,如武器系统对装甲目标的毁伤效果模拟、隐身性能优化算法及气动计算系统数据。

据了解,这些数据涉及AVIC、COMAC及多所重点防务院校。样本中存在标记为机密的科研文档,反映了受影响单位在超算中心存储的模拟实验与测试结果。目前泄露者正通过虚拟货币(XMR)出售数据访问权限,并提供样本供潜在买家验证。相关信息的完整性与真实性仍需进一步技术评估。

来源:NetAskari / lxghost1989
彭博:中国据悉近期加强了对红筹公司赴港上市的监管审查

​知情人士称,近期监管部门在与多家拟上市企业沟通中,建议企业拆除红筹结构并使用境内主体寻求香港上市。如果坚持使用红筹结构,需解释并证明红筹结构的必要性。其中一位知情人士表示,此安排也意在防止资本外流。
英国海事贸易行动处 (UKMTO) 表示,一艘油轮在阿曼湾富查伊拉附近抛锚时,遭到“不明弹丸”袭击。

据英国海事组织称,事故造成的损失轻微,无人受伤,也没有对环境造成影响。

CSO报告称,调查显示,该油轮可能遭到附近拦截物坠落的碎片袭击。该油轮结构轻微受损,但所有船员均已确认安全。英国海事组织已将此事件重新归类为可疑活动。

www.ukmto.org/recent-incidents
Q:英伟达在 OCS 领域的布局和未来规划是怎样的?

A:英伟达计划在2028 年推出的下一代 Feynman 产品中,采用Dragonfly 网络架构与 OCS 相结合的全新网络架构,替代当前的分层网络,实现网络拓扑的可重构配置,该架构思路接近谷歌目前在用的 3D Torus 架构,主要用于解决当前 Clos 层级网络在超大规模 AI 集群中连接复杂、成本高昂的问题。如果 Dragonfly 架构在 2028 年实现普及,将为 OCS 打开巨大的市场空间。英伟达已多次通过研究报告阐述 OCS+Dragonfly 架构对未来 AI 网络的显著提升作用,近期发布的 OCS 相关报告也体现出其长期技术积累,正等待合适的产品代际落地应用。

Q:针对 OCS(光交换系统)的不同技术路线,目前市场主流厂商的布局策略是怎样的?

A:当前 OCS 主流技术路线主要分为MEMS、硅基液晶、光波导三类。英伟达明确主推光波导方案,该方案切换速度更快,更适配未来 AI Scale-up、内存池化等核心场景,长期增长潜力巨大。而 Lumentum、Coherent 等厂商则聚焦 MEMS 或硅基液晶成熟方案,优先把现有路线的性能与产能做扎实,先满足当前数据中心里对切换速度要求不高的存量替换场景,例如 PCI 互联、网络重排、故障恢复等。Lumentum、Coherent 目前并未启动光波导技术研发,而是选择深耕自身优势领域。

Q:内存池化技术对 OCS 的需求将产生何种影响?该技术的落地进度和技术挑战是什么?

A:内存池化技术会大幅拉升 OCS 的需求,其对 OCS 的配比需求甚至可能比 AI Scale-up 场景高出1–2 倍,因为存储数据的交换频次更高、带宽需求也更大。内存池化对 OCS 提出了超高切换速度、超低时延的要求,同时对系统架构、配套软件以及 OCS 硬件都有极高标准,整体开发与测试工作量巨大,落地进度仍高度依赖技术成熟度与实际场景验证。


OCS专家交流纪要
中国商务部国际贸易谈判代表兼副部长李成钢16日说,过去的一天半时间,中美双方团队进行了深入、坦诚、建设性的磋商。通过这次的磋商,双方已经就一些议题取得了初步共识,下一步我们将继续保持磋商进程。

来源:金融界
郭明祺:我的最新产业调查显示,Nvidia投资Groq后,LPU出货规划大幅上修。2026-2027年LPU共出货预估约400-500万颗(2026约30-40%、2027约60-70%),相较过去年度出货量,将出现10倍以上的数量级成长。

LPU需求快速成长主要来自两项因素:
(1)与Nvidia生态系(如CUDA)高度整合,大幅降低应用开发与部署门槛。
(2)超低延迟推理需求快速增加,包括AI agents(如coding agents)以及正在兴起的real-time、consumer-facing与physical-AI等类型应用。

为维持推论decode阶段的超低延迟优势,并因应长文本推理带动的KV cache需求快速成长,Nvidia预计将每机柜LPU数量由目前64颗提升至256颗,以扩大内存容量并维持超低延迟效能。新架构机柜预计于4Q26-1Q27量产,2026与2027年机柜出货量分别约300-500与15,000-20,000个。

Nvidia生态整合LPU的三个关键观察重点:
(1)网络架构:NVLink Fusion与RealScale的机柜互联。
(2)开发者接口:Nvidia NIM是否让开发者在部署时无需区分GPU与LPU。
(3)编译整合:TensorRT-LLM是否支持LPU的compile-first架构。

LPU/LPX机柜量产亦对PCB产业有重要意义,关键PCB供应商沪电股份扮演核心角色。LPU/LPX机柜是首度大规模采用CCL M9材料的应用。若顺利量产,不仅意味着LPU方案的数量级成长将在2027年为沪电股份*带来显著贡献,也代表该公司突破高层板石英布加工技术门槛,有望带动PCB产业展开新一轮成长周期。

*不构成投资建议。
据知情人士透露,华虹集团旗下芯片代工企业华力微电子正在其上海工厂筹备7纳米芯片制造工艺。

另一位消息人士称,华力在华虹六厂对 7 纳米芯片的研发始于去年,并得到了包括 HW 支持的芯片设备公司 SiCarrier 在内的国内设备供应商支持。SiCarrier 去年曾在深圳一处设施测试其设备。

一位消息人士表示, 中国图形处理器设计公司 Biren 正在使用华力的 7 纳米产线进行 tape-out (版图最终确认),壁仞科技于 2023 年被列入美国贸易黑名单,随后不久便失去了与台积电的代工服务接触。

Reuters
特朗普:由于中东冲突,或推迟访华行程

特朗普接受《金融时报》采访时说:“我们可能会推迟。”,他说:“我认为中国也应该提供帮助,因为中国90%的石油都从霍尔木兹海峡而来。”

来源:俄星社
智谱补齐长链路 Agent 的高速模型位 GLM-5-Turbo

GLM-5-Turbo 重点强化了工具调用、复杂指令拆解、定时与持续性任务,以及高吞吐长链路执行能力。官方文档同时给出的规格是 200K 上下文、128K 最大输出,仅支持文本输入输出,并支持 Function Call、结构化输出、上下文缓存和 MCP 接入。

GLM-5-Turbo 已进入官方价格表,输入价格为每百万 tokens 1.2 美元,缓存输入 0.24 美元,输出 4.0 美元,缓存存储限时免费。套餐侧则显示 Max 已支持该模型,Pro 预计在 3 月底支持,Lite 预计在 4 月内支持。按这一节奏看,智谱正在把 GLM-5 系列进一步拆分为旗舰推理与高吞吐 Agent 执行两个更清晰的产品层级。

z.ai
20260315复盘

地缘:
截止3月15日,中东石油减产量已达32%,天然气已达29%。
国际能源署表示,创纪录规模的石油储备释放将立即供应亚洲,以弥补因伊朗战事相关中断而损失的原油供应。

周期:
巴林启动全球最大铝冶炼厂减产计划。
美国大型PO装置发生储罐火灾,全球供应不确定性上升。

人工智能:
美国商务部撤回一项监管草案,该草案规定未经美国政府批准禁止向全球任何地区出口人工智能芯片。
卖方:英伟达已启动测试M10级CCL材料,计划应用于Kyber架构正交背板及Rubin Ultra/Feynman交换板。计划26Q1初次送样-26Q2测试结果-27H2量产。

快递:
卖方:义乌春节后淡季涨派费,向多省传导,末端弹性约0.26元/票,利润弹性明显。
中美巴黎首日会谈“相当稳定”,讨论了农产品等问题

据两位知情消息人士透露,中美两国高级经济官员周日在巴黎举行的会谈“相当稳定”,双方讨论了农业、关键矿产和贸易管理等可能达成共识的领域,供两国元首在北京会晤时考虑。

来源:路透社
政府网站显示,美国商务部撤回关于AI芯片出口的拟议规则

美国商务部撤回了一项关于人工智能芯片出口的计划规则。信息和监管事务办公室网站上在2月26日发布了“人工智能行动计划实施”规则的通知,称该规则正在等待审查。通知目前已被撤回。

此次撤回标志着,特朗普政府在撤销并取代拜登政府2025年1月发布的AI芯片出口框架方面再次出现倒退。

来源:Business Today
NVIDIA 推出 NVILA-8B-HD-Video,瞄准 4K 长视频理解
NVIDIA 已上线 NVILA-8B-HD-Video。这是一款 8B 参数的多模态大模型,面向高分辨率长视频理解与问答任务。官方模型卡显示,它可处理最高 4K 分辨率、最长 1K 帧的视频输入,并以文本形式输出结果;模型同时注明仅供研究与开发使用。这个模型建立在 AutoGaze 和 NVILA-Lite-8B 之上。核心做法是在进入视觉编码器或语言模型之前,先去掉视频中的冗余 patch。按照 NVIDIA 给出的说明,AutoGaze 最多可将视频 token 数压缩 100 倍,并将 ViT 和 LLM 的延迟分别最多降低 19 倍和 10 倍,从而把 4K、1K 帧级别的视频理解推进到更可部署的效率区间。

论文摘要显示,配合 AutoGaze 后的模型在 VideoMME 上达到 67.0%,并在论文同时提出的 HLVid 基准上取得了比基线高 10.1%、比此前最佳模型高 4.5% 的结果。对行业而言,这类模型的意义不在于单纯“支持视频输入”,而在于开源视频理解系统开始向更长时长、更高分辨率和更细节密度的视频场景推进。

huggingface
The Kobeissi Letter
BREAKING: President Trump says the US just carried out "one of the most powerful bombing raids in the history of the Middle East" targeting Iran's Kharg Island. Trump also threatens to "wipe out" Iran's oil infrastructure on the island if Iran interferes…
特朗普称美国刚刚对伊朗的石油出口枢纽哈格岛发动了"中东历史上最猛烈的轰炸袭击之一"。

特朗普还威胁称,如果伊朗干扰"自由安全的航行",将"彻底摧毁"该岛上的伊朗石油基础设施。
英伟达据报五年拟投260亿美元,加码开放权重AI模型

3月11日,WIRED援引英伟达2025年财务文件并称获得公司高管确认,英伟达计划在未来五年投入约260亿美元,用于建设开放权重AI模型。这意味着,这家原本以GPU和AI基础设施见长的公司,正在把业务重心进一步向模型层延伸。

从英伟达近几个月的官方披露看,这一方向并非临时起意。公司在截至2026年1月25日的10-K年报中写道,近期已加快推出包括Nemotron和Cosmos在内的开放AI模型平台;同一份年报还显示,英伟达2026财年研发支出为184.97亿美元,同比增长43%,多年度云服务承诺达到270亿美元,相关能力将用于支持研发。

wired
Exchange Commission (SEC)
Back to Top