LoopDNS 综合资讯---简洁,及时,快速,准确


频道: @DNSPODT

电报讨论组: @LoopDNS

撤稿流程: https://t.me/loopdns/107752
OpenAI发布报告:严厉打击利用AI进行恶意活动的网络

OpenAI最新发布的《应对恶意利用AI行为》报告显示,自2024年初以来,该公司已成功识别并关停了超过40个违反其使用政策的恶意网络。这些网络涉及来自俄罗斯、中国、伊朗及朝鲜等背景的组织,其活动范围涵盖了编写恶意代码、翻译钓鱼邮件以及开展秘密影响力行动。调查发现,这些攻击者主要将AI作为提高现有攻击流程效率的工具,而非开发全新的攻击手段。

来源:OpenAI
速报:Google Nano Banana 2 生图模型已出现在 Gemini / AI Studio 中
Cloudflare 开源重写 Next.js 的 Vite 兼容实现的 vinext 框架

Cloudflare 推出了一项实验性开源项目 vinext,该项目利用人工智能在短短一周内基本重写了流行 React 框架 Next.js 的核心功能,实现了构建速度最高提升 4.4 倍、客户端 JavaScript 包体积压缩高达 57% 的显著性能优势,并可一键部署到 Cloudflare 的无服务器 Workers 平台。

据 Cloudflare 内部披露,这项工作由一名工程师主导,与 Anthropic 的 Claude 大模型协作完成,整个 AI 计算成本仅约 1100 美元。该公司将其视为 2026 年 AI 驱动软件重构能力的一个极端案例——过去需要数月工程投入和深度平台定制的工作,如今可在几天内以极低边际成本完成原型。

vinext 目前已覆盖 Next.js 约 94% 的公开 API 表面,包括 App Router 与 Pages Router、服务器端渲染(SSR)、React Server Components(RSC)、Server Actions、中间件、缓存机制以及流式响应等关键特性。与传统适配方案(如 OpenNext)不同,vinext 并未封装或桥接 Next.js 自有的 Turbopack 工具链,而是直接基于 Vite(目前驱动 Astro、SvelteKit、Nuxt、Remix 等主流框架的通用构建工具)从头实现 Next.js 的运行时行为。


Cloudflare Blog
SK hynix 与闪迪启动下一代存储器“HBF”的全球标准化进程

作为全栈式人工智能存储解决方案的领军者,SK海力士正与闪迪及开放计算项目(OCP)共同推动 HBF(High Bandwidth Flash)技术的全球标准化进程。

HBF 是连接HBM(高带宽内存)与SSD(固态硬盘)的全新存储层。HBF 技术可以弥合 HBM 的高性能与 SSD 的高容量之间的鸿沟,同时满足 AI 推理所需的容量扩展与电力效率。HBM 负责处理高带宽层级的需求,而 HBF 技术在架构中充当支撑层(supporting layer)。

sk hynix
竹新社
OpenAI发表2026年2月版反滥用报告,收录电诈、社工谍报、网络水军等7个案例。 案例七为一名中国“网络特战”人员,要求ChatGPT帮他改工作报告。其2025年10月在Blogspot、Pixiv、X、YouTube上张贴了反高市早苗的图文。行动起因是10月9日高市作为“支援南蒙古议员联盟”主席作论坛演讲。该人最初还曾试图让ChatGPT起草水军方案,但ChatGPT拒绝,他便转用其他AI实施;行动结束让ChatGPT写总结报告时,没有再提及内蒙问题。 他让ChatGPT写的其他工作月报中还提及:设…
OpenAI发表2026年2月版反滥用报告,收录电诈、社工谍报、网络水军等7个案例。
案例七为一名中国“网络特战”人员,要求ChatGPT帮他改工作报告。其2025年10月在Blogspot、Pixiv、X、YouTube上张贴了反高市早苗的图文。行动起因是10月9日高市作为“支援南蒙古议员联盟”主席作论坛演讲。该人最初还曾试图让ChatGPT起草水军方案,但ChatGPT拒绝,他便转用其他AI实施;行动结束让ChatGPT写总结报告时,没有再提及内蒙问题。
他让ChatGPT写的其他工作月报中还提及:设立“精日展览馆”网站、攻击“李老师不是你老师”、造谣“界立建讣告”,以及在Twitter上与惠波骂战使其被封号、在Bluesky抢注惠波蔡霞账号等。
其他月报还提及:“本省的网络特战部门有300名操作员”“试验了DeepSeek-R1、Qwen2.5、YOLOv8等模型”“在200家西方平台上发帖50000篇,其中150篇收到了超过300转评”等。
报告文件
20260225复盘

人工智能:
1. 卖方:Cpo调整系市场误读花旗预测,实际上调了scale up的预测数量。
2. 卖方:GTC可能发布的新芯片为LPU芯片,主要用于推理,采用PCB板为高多层板,M9的Q布方案。
3. 欧盟知名云计算服务提供商 Hetzner从4月1日起云服务器涨价37%。

半导体:
1. 外媒报道:中国计划将先进芯片产量从目前不足2万片提升至1-2年后的10万片,到2030年再增加50万片产能的更高目标。
2. 卖方:存储扩产预期上修,从10-12万上修到15万以上。设备大订单即将落地。
3. 传闻日本测试机进入国内大厂有一定限制。
4. 卖方:国内头部的光模块企业都在寻求封装厂合作或者并购机会,CPO工艺从精密制造转向半导体工艺不可避免,CPO重估先进封装刚开始。
5. 卖方:下一代NV架构将会启用混合键合工艺,混合键合工艺及3D IC有望正式迎来产业渗透。

锂:
津巴布韦矿业部宣布立即暂停所有原矿及锂精矿出口,包括含在途货物。

氧化钇:
海内外价差80倍,历史罕见,短期中日对立基本无反转可能。

航运:
现货运价逼近20w/d,Sinokor仍在扩大收购VLCC规模,控制运力约17%。印度或转向更长途的美油采购。美伊局势或短期内增加3%左右的合规需求。

地产:
1. 16日-22日周度总结:挂牌量延续下降,各线房价环比回升。
美国贸易代表:没有计划在特朗普访华前提高中国商品关税

美国贸易代表格里尔周三表示,特朗普总统计划于未来数周内访华,目前政府无意将针对中国商品的关税从当前水平上调。

来源:经济日报
微软:测个毛线直接发了

微软下的Xbox手机应用在今晚近两点前推送了数条意义不明的测试通知,目前根据reddit帖子情况应该是大部分用户都收到来自微软的垃圾推送了。

小编:总不能是上司斯宾塞要走了拿全球用户手机放烟花欢送吧?

#快讯 #微软 #Xbox
OVHcloud 将于 2026 年 4 月起对部分产品续费涨价

今日 OVHcloud 发给客户的通知邮件:OVHcloud 将对部分 VPS 与 Additional IPv4(额外 IPv4)进行价格更新;若订阅的续费日期在 2026 年 4 月 1 日(含)之后,新价格将从该次续费起生效。

本次调价包含:
VPS 2026 系列(VPS-1 至 VPS-6)及 Local Zones 的 VPS
Additional IPv4 地址(/32)
Rise / Advance / Game / Scale / High Grade 的部分型号

注:实际价格以您账户控制台/报价单为准,且可能因地区、币种与税制不同而有差异。

Kimsufi 与 So You Start 服务器系列不在本次调价范围内

OVHcloud 解释称,近几个月关键硬件组件成本上升,主要受到计算需求、AI 与数据密集型工作负载增长,以及关键硬件(尤其 RAM 与 NAND)全球产能受限等因素影响。公司表示将持续进行成本优化,并继续投入自建基础设施、供应链多元化与长期产能规划,以适配 AI/GPU 工作负载带来的平台建设变化;同时强调本次调整不会影响服务性能、可用性与支持等级。

邮件同时说明,本次价格更新将影响所有客户(包括个人用户)。根据《通用服务条款》,客户在收到通知后的 30 天内可无费用取消服务;如为个人用户,该期限延长至 4 个月。若处于合约承诺期内,则该终止权仅在承诺期结束时适用。
Qwen 发布 Qwen3.5 发布了一批变体模型

Qwen 团队在 2026-02-24 更新了 Qwen3.5 仓库,宣布新增开源发布 Qwen3.5-122B-A10B、Qwen3.5-35B-A3B 与 Qwen3.5-27B,并提示通过 Hugging Face Hub 或 ModelScope 的模型卡查看权重与使用信息。

Hugging Face 的 Qwen3.5 Collection 已收录上述模型与相关条目;单个模型卡也给出了以 Transformers 格式分发、并与 vLLM、SGLang 等推理框架兼容的说明。

在此之前,Qwen3.5 首批发布发生在 2026-02-16,首个开源权重型号为 Qwen3.5-397B-A17B;官方博客提供了该系列的整体定位与技术说明。

huggingface
Anthropic 指控三家中国 AI 实验室“蒸馏”Claude 引发规模与定性争议

2 月 23 日,Anthropic 发布公告称,其发现 DeepSeek、Moonshot 与 MiniMax 通过约 2.4 万个“欺诈账户”与代理服务,在违反服务条款与区域访问限制的情况下,与 Claude 发生超过 1600 万次 exchanges,用于“非法提取”Claude 的能力以改进自家模型。

但博主 Theo 通过数据对比、技术逻辑拆解以及行业常识严厉驳斥了 Anthropic 报告,公告指控 DeepSeek 进行了 15 万次交互。Theo 指出,对于一家顶级 AI 实验室,这通常仅相当于几次常规的基准测试(Benchmark)流量;即便是他个人的小型初创公司,单日合法流量都超过 16 万次。用 15 万次数据“克隆”或“训练”模型在技术上几无可能。

博主 Theo还称 MiniMax 被指控的 1300 万次交互,极有可能是因为使用了 Agent 或工具调用(Tool Use)。一个复杂的 Agent 任务(如代码生成)在后台可能自动触发数十次交互。因此,这可能只是正常的产品集成或测试流量,而非针对性的“数据窃取”。

来源:
anthropic Detecting and preventing distillation attacks
Youtube Theo 频道
魅族手机或将成为历史:业务实质性停摆,3月正式退市

界面新闻从多位知情人士处独家获悉,魅族手机业务已经实质性停摆,将于2026年3月正式退市

此外,魅族旗下FlymeAuto车机业务将独立运营,魅族品牌或将继续保留在吉利体系内。界面新闻独家获悉,星纪魅族的飞书大群目前还剩1000多人,但有不少员工已提出离职,少量员工已转岗至吉利体系内的极氪汽车。

2026年1月,星纪魅族集团中国区CMO万志强在一场活动上表示,内存的大幅上涨对手机商业计划是巨大的冲击,魅族22 Air将取消上市计划。他在当时透露,魅族23仍将在2026年发布。但据界面新闻了解,该项目已经不再实质性推进。

有接近魅族的人士透露,从去年4月开始,魅族已经有很多供应商的款项无法正常结算,至今仍有大量欠款已成为坏账,“魅族的结局大概率是申请破产。”

截至发稿,星纪魅族方面尚未对此作出回应。

消息来源: 界面新闻
三星终结 2D NAND 时代,华城 12 号线转为 1c DRAM 后端工艺产线

三星电子将停止其华城工厂第 12 生产线的 2D NAND 闪存生产。该生产线将转为生产瓶颈严重的 1c DRAM 后端工艺产线。

据业界 25 日消息,三星电子最早将于 3 月停止该生产线的运行。之后,计划将其改造为专注于 DRAM 布线等前道工艺后半段的产线。华城 12 号线的月产能以 12 英寸晶圆计算,约为 8 万至 10 万片。据悉,三星电子从去年起就已向客户通报了终止生产的计划。

View original post
CIA曾秘密警告库克等科技高管:中国或于2027年前对台动武

据《纽约时报》调查报道,2023年7月,苹果CEO库克、英伟达CEO黄仁勋、AMD CEO苏姿丰等科技高管曾在硅谷参加一场CIA机密简报会,会上CIA局长与国家情报总监就中国对台军事计划进行了情报通报。此次会议由时任商务部长雷蒙多推动,旨在促使科技业正视台海风险,加速芯片供应链向美国本土转移。

报道指出,台积电生产了全球约九成最先进芯片,美国对台湾半导体的高度依赖被视为重大安全隐患。此后,美国通过《芯片与科学法案》推动本土制造,苹果亦承诺在美投资千亿美元,台积电已规划约1650亿美元的美国投资计划,但其最先进制程短期内仍将留在台湾。

来源:MacRumors / The New York Times
20260225 半导体设备更新

节后产业链反馈两存下单节奏加快,3月开始预计有大单落地。根据我们近期对产业链的深度调研,无论是先进逻辑制程还是存储芯片扩产,产业端均在稳步推进。部分前期态度审慎的设备供应商,目前对后续订单和扩产的预期边际更为乐观。此前市场普遍预期两存扩产10-12万片,目前来看大概率超过15万片。


上海发布楼市“沪七条” 进一步调减住房限购政策:
1.缩短非沪籍居民购买外环内住房所需缴纳社保或个税年限;
2.社保/个税缴满3年的非沪籍居民可在外环内增购1套住房;
3.持居住证满5年可在本市购买住房;
4.提高住房公积金最高贷款额度,将缴存人家庭购买首套住房的公积金贷款最高额度从160万元提高至240万;
5.已使用过公积金贷款的本市缴存人家庭,在本市无住房或仅有1套住房、且当前已结清住房公积金贷款的,在本市再次购房时可申请公积金贷款;
6.对多子女家庭购买第二套住房的,最高贷款额度在本市最高贷款额度基础上上浮20%;
7.本市户籍居民家庭中的子女成年后,购买住房属于成年子女家庭唯一住房的,暂免征收个人住房房产税。


来源:新浪财经
【广发军工&化工】 LPU架构或为继CPX架构后英伟达布局PD分离的核心棋子,重视LPU架构带来的潜在PCB架构的变化

2025年底,英伟达(Nvidia)宣布与AI芯片初创公司Groq达成协议,斥资200亿美金获取其技术非独家许可并吸纳其核心团队。Groq代表了目前最先进的 LPU(Language Processing Unit,语言处理单元) 架构,英伟达此举核心是为了布局AI的推理算力部分。

大体思路为LPU利用天然的Decode优势,此前的CPX架构负责高效Prefill,以完成高效的PD分离:
(1)LPU的Decode优势:LPU可以理解为专为 推理部分 设计的ASIC,核心是#追求极致的低延迟和高吞吐量。其采用大容量片上的SRAM架构直接集成在芯片上,即仓库就在生产线旁,数据访问延迟远快于传统GPU架构;同时LPU的确定性执行架构将整个计算和芯片间通信的步骤精确规划到时钟周期,形成一个像传送带一样的"静态时序",保证稳定的高吞吐量。

(2)此前发布的CPX架构拥有强Prefill效率:Prefill阶段是计算密集型(Compute-bound)任务,对内存带宽需求很低,其单卡配备了128GB的GDDR7显存,FP4精度下的算力能达到30 PFLOPS。其核心是针对内存、互联等传统GPU高需求部分做减法,而在针对Prefill的算力部分做加法,专注NVFP4。

针对LPU架构,参考此前NVL144 CPX版本的大体Tray设计思路,无缆化或仍为新一代机柜的核心设计语言,重视LPU架构带来的潜在PCB架构的变化。
Back to Top