LoopDNS 综合资讯---简洁,及时,快速,准确


频道: @DNSPODT

电报讨论组: @LoopDNS

撤稿流程: https://t.me/loopdns/107752
@fxtrader The Chinese government floods X search results with porn whenever there is political unrest—to prevent their citizens from finding out real-time information.

This has been a difficult problem to solve but we are aware & working on it. origin source
Google Genie 3世界模型开始向美国Google AI Ultra用户开放体验

2026年1月29日,Google在官方博客宣布推出Project Genie(实验性研究原型),并称已开始在美国向Google AI Ultra订阅用户(18岁以上)逐步开放访问,用于创建、探索并混搭重制交互式世界。

此次开放的主要是Google Labs里的Project Genie网页原型(体验入口)Project Genie由Genie 3驱动,并结合Nano Banana Pro与Gemini提供生成与交互能力。文字或上传/生成图片“勾勒世界”(可在进入前预览并微调画面,支持第一/第三人称视角等设置)、在世界中实时探索(移动时实时生成前方路径并可调镜头)、以及基于他人作品的提示词进行“重制/再创作”,并可下载探索视频。

生成世界可能不够逼真或不完全符合提示词/物理规律;角色控制可能出现延迟;单次生成/体验时长目前限制为60秒;此外,Genie 3在2025年8月公布的一些能力(例如可用文本触发的世界事件)尚未被纳入Project Genie原型。
google blog
Google DeepMind 发布 AlphaGenome

2026年1月28日,Google DeepMind 在《Nature》发表论文《Advancing regulatory variant effect prediction with AlphaGenome》(DOI:10.1038/s41586-025-10014-0),并在官方博客更新中给出模型获取入口与代码资源;AlphaGenome 早在2025年6月25日已通过非商业研究用途的API提供预览访问。

AlphaGenome 的核心定位是统一的DNA序列模型:输入最长可达100万碱基对(1 Mb)的DNA序列,在单碱基分辨率下输出上千条功能基因组预测轨迹,并可通过对比突变序列与参考序列的预测差异,对变异影响进行评分。

论文摘要列出的预测模态覆盖基因表达、转录起始、染色质可及性、组蛋白修饰、转录因子结合、染色质接触图谱,以及剪接位点使用与剪接连接(splice junction)坐标/强度等;作者称其目标是缓解既有方法在长序列上下文与高分辨率预测之间的取舍。

开放与使用方式方面,DeepMind 在 GitHub 发布了配套研究代码(含JAX实现与API实现),代码采用 Apache-2.0 许可;预训练权重可在 Kaggle 或 Hugging Face 下载,但需接受非商业模型条款。仓库同时提示本地运行对算力要求较高(例如建议使用H100级别GPU)。

在评测结果上,论文报告:在变异效应预测的26项评估中,AlphaGenome 有25项达到或超过“最强外部模型”的表现;并展示了其在TAL1致癌基因附近的临床相关变异机制复现能力。训练数据方面,DeepMind 表示模型使用了多个公共联盟数据资源(包括 ENCODE、GTEx、4D Nucleome、FANTOM5 等),覆盖人类与小鼠多种细胞类型/组织的调控相关测量信号;其应用重点指向占基因组大部分的非编码调控区域(常被描述为约98%)。

外部反馈与限制方面,多位专家在 Science Media Centre 的评论中强调:模型在若干任务上表现突出,但细胞类型特异性调控仍是挑战,且目前并不适合直接用于临床患者决策;媒体报道也提示其仍需要实验验证、并受训练物种范围等因素限制。

STAT 报道称,AlphaGenome 自2025年6月上线预览以来,已有接近3000名来自160个国家的科研人员通过API进行非商业研究使用,API日调用量约100万次(DeepMind在发布会上对媒体披露)。

Google Deepmind
Qwen 开源 Qwen3-ASR 与 Qwen3-ForcedAligner

Qwen 团队在 2026 年 1 月 29 日宣布开源 Qwen3-ASR 系列(1.7B、0.6B)及 Qwen3-ForcedAligner-0.6B,并在 GitHub 提供代码与推理/部署示例;模型权重同步发布到 Hugging Face/ModelScope,项目采用 Apache-2.0 许可证。

Qwen3-ASR 将语种识别与 ASR 合并为单模型“all-in-one”流程:官方说明其覆盖 52 个语种与方言,其中包括 30 种语言与 22 种中文口音/方言;推理侧同时支持离线与流式,并面向语音、歌唱及带 BGM 的歌声等音频类型。

配套的 Qwen3-ForcedAligner-0.6B 采用非自回归(NAR)时间戳预测方式,用于文本-语音对的强制对齐;官方给出的语种覆盖为 11 种语言,并宣称其时间戳精度在评测中优于多种主流强制对齐方案。效率指标方面,技术报告给出的示例为:Qwen3-ASR-0.6B 在 128 并发下可实现“1 秒转写 2000 秒语音”,平均首 Token 延迟(TTFT)最低 92ms;同时报告与仓库将 1.7B 版本描述为开源模型中的 SOTA,并称其可对标最强商业 API(均为自述评测结论)。

工具链方面,仓库提供 qwen-asr PyPI 包(Transformers 与 vLLM 两种后端)、本地 Gradio Web UI 与浏览器麦克风流式 Demo、以及 Docker 镜像与 vLLM 服务化命令封装,目标是覆盖批处理、高并发与在线服务场景。


huggingface
竹新社
台湾,教育部常务次长朱俊彰1月30日表示,抖音、小红书、微信、微博、百度云盘等App已被数发部认定有信息安全风险,且危害儿少身心健康。除数发部已采取的禁止校园公务设备下载使用、中小学TANet阻断上述服务的措施外,教育部所属机关学校iTaiwan无线网也将阻断上述服务。 目前,台湾中小学TANet的过滤机制均为DNS阻断,用户在浏览器设置DoH即会失效。去年12月警方在全台阻断小红书域名解析,也仅影响了其网页加载,App仍可照常使用。 (中华民国教育部)
台湾,教育部常务次长朱俊彰1月30日表示,抖音、小红书、微信、微博、百度云盘等App已被数发部认定有信息安全风险,且危害儿少身心健康。除数发部已采取的禁止校园公务设备下载使用、中小学TANet阻断上述服务的措施外,教育部所属机关学校iTaiwan无线网也将阻断上述服务。
目前,台湾中小学TANet的过滤机制均为DNS阻断,用户在浏览器设置DoH即会失效。去年12月警方在全台阻断小红书域名解析,也仅影响了其网页加载,App仍可照常使用。
预测市场Polymarket最新显示,沃什被特朗普提名为美联储新主席的概率飙升至95%。

沃什长期以偏鹰派立场著称,这一预期迅速推升美元和美债收益率,并对商品价格形成压制。内外盘期货普遍下行,贵金属成为跌幅最为集中的品种。

沃什曾在近期的一场深度访谈中直言,通胀是美联储的责任,不能归咎于外界因素。他给出的改革方案并非推倒重来,而是主张美联储需要"复兴"而非"革命"。针对高利率困境,沃什认为,可以通过缩表换取低利率空间。"如果我们让印钞机安静一点,利率其实可以更低。"

wallstreetcn.com/articles/3761461
LoopDNS资讯播报
GitHub热门B站API bilibili-API-collect 项目收到律师函后宣布永久关停 1月28日,GitHub 仓库 SocialSisterYi/bilibili-API-collect(哔哩哔哩 API 收集整理)维护者在 README 中公告称:已收到“B站委托的律师事务所”发出的律师函警告邮件,指控该项目对哔哩哔哩平台“非公开 API 接口及其调用逻辑、参数结构、访问控制及安全认证机制”进行系统性收集整理并向公众传播,构成侵权;仓库即日起停止维护并删除相关文档及源代码。 GitHub…
后续:BiliBili法务部门要求彻底清除GitHub项目历史记录

在1月28日宣布永久关停后,GitHub上的bilibili-API-collect项目继续受到B站法务部门的关注。根据1月30日发出的律师函,B站指出尽管项目已归档为只读状态,但通过代码变更历史(diff)等方式,侵权内容仍可能被恢复。法务部门要求项目方彻底删除所有相关代码及历史记录,确保无法恢复。若未能满足此要求,B站将继续采取法律措施。
巴拿马最高法院宣布,长江和记实业子公司和记港口持有的巴拿马运河两端主要港口(巴尔博亚港和克里斯托瓦尔港)的特许权违宪。

巴拿马审计长诉讼指控政府审计存在违规行为。

法院声明称,裁决经过“广泛的审议和讨论”。巴拿马将对上述港口进行招标。

长和股价一度跌超5%。

来源:FT
监管通报某基金公司违规销售:责令改正并暂停新发 追究总经理等相关负责人责任

近日监管发布机构监管通报称,某基金公司管理的基金产品单日申购量超百亿,涉嫌违规销售,经核查,基金公司与不具备基金销售业务资格和基金从业资格的互联网“大V”开展营销合作,向其支付大额广告费,以互联网“大V”在平台上预告某日(将)大额购入D基金公司的A产品为噱头,利用互联网“大V”的流量和影响力鼓动投资者跟进购买A产品,诱导风险承受能力不匹配的投资者购买中高风险产品。经查,公司未对投资者充分揭示风险,投资者适当性管理不到位,违法相关法律法规,监管对该公司采取责令改正并暂停受理公募基金产品注册的监管措施,同步追究公司总经理、督察长、互联网业务部门负责人等责任人员责任。
闪迪:我们正与 NV­I­D­IA 及其客户沟通配置问题。目前这一需求还没计入我们的预测中。初步预估,到2027年这可能带来额外 75-100 EB 的需求,次年可能翻倍。这再次证明 NA­ND 在 AI 架构中的核心地位。
23:23财联社1月29日电,正在交易中的沪金、沪银期货夜盘出现短时大幅跳水行情,一度分别下探6%、4%。
产业发展,总书记强调不能喜新厌旧

在省部级主要领导干部学习贯彻党的二十届四中全会精神专题研讨班开班式上,习近平强调,产业发展不能一哄而上、跟风冒进,更不能喜新厌旧、把传统产业优势丢掉。

在2025年底召开的中央经济工作会议上,习近平指出:“一些地方不顾实际,盲目追风口。看别人搞芯片,自己也搞。看别人搞‘新三样’,自己也不甘落后。”针对一些现象,总书记打了个形象的比方,“生物有多样性,地区有差异性,有老年人,有青年人,有的年幼有的年长,为什么都选择干一样的活呢?”
谷歌开源 LiteRT

面向边缘/终端设备的高性能机器学习与生成式 AI 部署框架,强调“转换(conversion)—运行时(runtime)—优化(optimization)”一体化工作流,并把重点放在端侧推理性能与硬件加速落地。LiteRT 的定位并非“从零重写”,而是 TensorFlow Lite(TFLite)的更名与演进路线:Google 在 2024 年 9 月明确表示,LiteRT 是 TFLite 的新名称,目标是更贴近多框架生态(PyTorch/JAX/Keras 等),同时对既有应用尽量“低扰动”。文件格式层面也保持兼容:.tflite 扩展名与 FlatBuffer 格式不变,原有 .tflite 模型可由 LiteRT 读取。

LiteRT 2.x 将重心从传统的 Interpreter(解释器式执行)推向 CompiledModel(编译式/硬件感知执行)API:官方文档将其定义为“现代标准”的端侧推理接口,优先承载新的性能特性与加速能力;其核心机制包括自动选择 CPU/GPU/NPU 后端、异步执行,以及更高效的 I/O 缓冲管理(面向端到端延迟而非仅算子吞吐)。

在 GPU 侧,Google 在 2026 年 1 月 28 日的更新中宣布:此前在 Google I/O 2025 预告的“高级加速能力”已进入 LiteRT 生产栈并对开发者可用;GPU 引擎以 ML Drift 为核心,覆盖 OpenCL / OpenGL / Metal / WebGPU,目标是让同一套推理逻辑跨 Android、iOS、桌面与 Web 平台更一致。官方给出的量化口径是:相较旧版 TFLite GPU delegate,LiteRT GPU 平均可实现约 1.4× 性能提升;并通过“异步执行 + 零拷贝 buffer 互操作”降低 CPU 介入和内存搬运带来的系统级开销,特定场景宣称最高可到约 2× 的端到端加速。

NPU 侧,LiteRT 把“端侧碎片化”作为主要工程问题:不同 SoC 的编译器/运行时差异会迫使应用层处理大量适配。Google 的描述是,LiteRT 提供统一 NPU 部署工作流以抽象底层厂商 SDK,并提供 AOT(可选的预编译)与 JIT(端上编译)两种策略;同时保持失败回退到 GPU/CPU 的路径。2026 年 1 月的官方文章还指出,面向 MediaTek 与 Qualcomm 的首批“生产级”NPU 集成已可用,并给出“最高可达 CPU 100×、GPU 10×”这类性能宣称(需注意这通常依赖模型结构、算子覆盖与具体硬件)。

在“模型来源”上,LiteRT 明确把自己定位为多框架端侧推理栈:官方文档写明支持从 PyTorch、TensorFlow、JAX 转换到 .tflite 或 .litertlm;GitHub 仓库也给出两条典型路径——经典模型通过 Torch Converter 转成 .tflite 并配合量化工具做资源约束优化;LLM 路线则通过 Generative Torch API 重新表述/转换,再接入 LiteRT-LM 进行端侧推理与编排。

从工程成熟度看,GitHub Release 显示 LiteRT v2.1.0 被标注为“beta release”,并声称 API 已稳定且达到与 TensorFlow Lite 的功能对齐(feature parity),同时把 GPU/NPU 加速作为关键增量:运行时侧加入自定义算子支持(custom op dispatcher)、CMake 构建、预编译 C++ SDK(libLiteRt.so)、以及 CompiledModel 的 Profiler/ErrorReporter/ResizeInputTensor 等接口;GPU 侧扩大 WebGPU/Dawn 与 OpenCL 覆盖,并为 Metal/WebGPU 增加异步执行。Release 文案同时“官方推荐开发者开始迁移到 LiteRT”。

Github
月之暗面开源 Kimi K2.5,并发布Kimi Agent SDK

1月27日,月之暗面(Kimi)发布并开源新一代模型 Kimi K2.5,并称已在 kimi.com、Kimi App、Kimi API 等渠道上线。可理解文本、图像与视频,并引入 Agent Swarm(智能体集群)来并行拆解和执行复杂任务。

从 Hugging Face 模型卡披露的信息看,K2.5 为 MoE 架构,总参数 1T、激活参数 32B,384 个专家、每 token 选择 8 个专家;上下文长度 256K;并使用 MoonViT 视觉编码器(约 4 亿参数)。模型卡同时给出多项推理/视觉/代码/检索类基准成绩,并包含“原生 INT4 量化”和部署建议(vLLM、SGLang、KTransformers 等),并注明“视频内容对话”在第三方部署下仍属实验能力、目前仅官方 API 支持。

开源协议方面,Hugging Face 显示为 modified MIT;其中一项“修改”条款要求:若模型(或其衍生作品)用于月活超过 1 亿或月营收超过 2000 万美元的商业产品/服务,需要在该产品/服务界面显著展示 “Kimi K2.5”。

价格方面: kimi-k2.5 缓存命中输入 ¥0.70/1M tokens、输入 ¥4.00/1M tokens、输出 ¥21.00/1M tokens,并标注上下文 262,144 tokens。同时 MoonshotAI 在 GitHub 发布并开源 Kimi Agent SDK,定位为一组多语言库,用编程方式调用 Kimi Code(Kimi CLI)的智能体运行时,面向产品集成、自动化与自定义工具开发。

huggingface
LoopDNS资讯播报
“十四五”以来我国水库安全状况持续改善 记者从水利部了解到,“十四五”以来,全国水库运行管理水平大幅提升,水库安全状况持续改善。“十四五”期间,我国调度运用大中型水库,拦蓄洪水5591亿立方米,实现了大江大河重要堤防无一决口、连续4年各类水库无一垮坝,洪涝灾害损失占国内生产总值的比例由“十三五”的年均0.28%下降至0.17%。“十四五”期间,我国集中力量实施了17998座病险水库除险加固,强化水库库容管理,推进水库清淤,严肃查处侵占库容、影响防洪安全等行为,水库功能有效恢复。目前,水利部正在推进安全大…
“十四五”期间全国重污染天数减少25% 环境持续向好

记者从28日召开的生态环境部发布会上了解到,经过五年不懈努力,全国PM2.5浓度累计下降20%,重污染天数减少25%,全国各项环境监测指数显著提升,持续向好。“十四五”期间,全国PM2.5浓度累计下降20%,优良天数比例创有监测以来最好水平,重污染天数减少25%;全国地表水Ⅰ—Ⅲ类水质断面比例累计上升8个百分点,长江干流连续6年、黄河干流连续4年全线水质稳定保持Ⅱ类,太湖连续2年水质达到Ⅲ类;近岸海域水质优良比例较2020年提高7.5个百分点,主要污染物排放总量持续下降。实现空气质量、水环境质量、城乡人居环境“三个明显改善”和重污染天气、劣Ⅴ类断面、城市黑臭水体“三个基本消除”,人民群众生态环境满意度连续4年超过90%,生态环境获得感、幸福感、安全感进一步增强。

消息来源: 央视新闻
Back to Top