返回往期
2026年2月16日星期一
8 点要闻3 分钟阅读

今日要闻

1

OpenClaw被演示沙盒逃逸并达成0点击RCE

AI安全Agent提示注入

安全研究者在OpenClaw 2026.2.14版复现了一条“混淆副官”链路:攻击者通过邮件植入多层提示注入,先诱导被沙盒隔离的Gmail子代理转发payload,再让主代理误判为user指令。即便启用Opus 4.6、内容标签、安全警告与双LLM串联,主代理仍执行克隆恶意仓库、重启网关等操作,加载未授权插件并最终实现0点击RCE,暴露跨代理消息传递中的信任边界缺口。

阅读原文
2

奥尔特曼称印度ChatGPT周活1亿,AI Impact Summit开幕

市场数据出海政策与产业

印度AI Impact Summit于2月16日在新德里开幕(2月16–20),谷歌CEO皮查伊、OpenAI CEO奥尔特曼、Anthropic CEO阿莫代与NVIDIA CEO黄仁勋等出席。奥尔特曼称印度拥有1亿ChatGPT周活用户,为OpenAI第二大市场,并表示学生用户占比最高。报道还提到OpenAI为价格敏感市场推出低价ChatGPT Go,并计划加深与印度政府及本地伙伴合作、扩大团队,以推动教育与中小企业场景的采用。

阅读原文
3

NPR主播起诉Google:NotebookLM疑似克隆其播客声线

法律合规语音AI

NPR前主持人David Greene对Google提起诉讼,指其在NotebookLM提供的AI播客男声与本人声线高度相似,认为Google未经许可复制其声音这一“核心身份标识”,造成超出经济损失的个人伤害。Google否认相关指控,但Greene的同事与朋友称两者几乎难以区分。事件再次把“合成语音是否构成可保护的个人权利”、产品上线前的授权与告知义务、以及平台对可模仿声纹的风控标准推到法律与合规焦点。

阅读原文
4

Z.ai发布744B MoE的GLM-5,SWE-bench Verified 77.8%

大模型企业应用评测

Z.ai发布大模型GLM-5:7440亿参数MoE、400亿激活参数,预训练数据规模达28.5万亿token,并强调面向“真实办公任务”的工具化输出能力,可生成Word/PDF/Excel等结构化文件。报道披露其在Humanity's Last Exam得分30.5,启用工具后达50.4;在SWE-bench Verified代码修复基准为77.8。公司还介绍异步强化学习基础设施Slime,用于提升后训练效率与工程化落地表现。

阅读原文
5

字节跳动发布Doubao 2.0,称推理成本降低约10倍

大模型成本中国市场

字节跳动于2月15日发布升级模型Doubao 2.0,定位面向“代理时代”的推理与多步任务执行,并宣称其能力可对标GPT 5.2与Gemini 3 Pro等产品,同时将使用成本降低约10倍,以适配大规模推理与复杂生成任务。报道援引QuestMobile数据称,Doubao在中国AI聊天应用中周活约1.55亿,领先于DeepSeek的8160万。该版本发布被视为字节在国内模型竞争与应用侧拉新中的一次关键加码。

阅读原文
6

Bengio牵头发布2026 AI安全报告,指监管陷“证据困境”

AI治理安全

由图灵奖得主Yoshua Bengio牵头的国际专家组发布《2026 AI安全报告》,汇集30多个国家研究观点,提出AI治理面临“证据困境”:模型能力迭代速度超过传统科学观测与风险评估节奏,政策制定者在“过早干预抑制创新”与“等待充分证据错失窗口期”之间两难。报告聚焦失控风险、监管滞后与全球协作机制不足,主张在数据不完备条件下建立可迭代的治理框架与问责机制,以覆盖模型全生命周期的风险管理。

阅读原文
7

李飞飞团队提Latent Forcing,ImageNet-256 FID 18.60→9.76

生成模型扩散模型论文

李飞飞团队提出Latent Forcing,用“先潜变量、后像素”的生成顺序改造像素级扩散:早期先在潜变量上去噪建立全局语义骨架,后期再回到像素空间补全细节,从而减少高频纹理对结构建模的干扰。方法引入双时间变量机制,潜变量仅作为临时“草稿”并在生成结束后丢弃,强调不依赖预训练解码器且保持像素精度。报道给出ImageNet-256任务FID从18.60降至9.76的结果。

阅读原文
8

ICLR 2026:AdaReasoner让7B模型学会工具规划式视觉推理

多模态工具调用强化学习

ICLR 2026相关工作AdaReasoner提出“Agentic Vision”训练范式,把工具调用(如缩放、裁剪等)内化为推理能力,采用Think-Act-Observe闭环在图像中主动搜证,而非一次性读图后猜测。方法通过Tool-GRPO用强化学习优化多轮工具编排,并用ADL随机化工具名与描述,迫使模型学习工具语义而非记忆标签,提高对新工具的泛化与鲁棒性。报道称在部分复杂视觉推理任务上,7B级模型可超过GPT-5表现,并提供可复现的开源方案。

阅读原文

不要错过明天的 AI 简报

数千位专业人士的首选,用 AI Daily Brief 开启每天的工作与生活。