返回往期
2026年2月23日星期一
8 点要闻3 分钟阅读

今日要闻

1

86国签署新德里AI影响宣言,鼓励开源合作

政策监管国际合作

在印度新德里AI影响峰会,86个国家及2个国际组织签署《新德里人工智能影响宣言》,提出普及AI资源、经济与社会福祉、安全可信、AI促科学、社会赋权、人才培养、韧性系统等七大支柱,并鼓励开源与可及性技术。文中援引IMF称:发达经济体约60%岗位高暴露于AI影响,低收入国家约26%。阿联酋同时宣布G42与美国Credo AI合作推进负责任AI治理。

阅读原文
2

美国多州推进AI与数据中心监管,跨党派趋同

政策监管

NPR报道,美国多州立法机构在AI与数据中心监管上出现跨党派共识。佛州州长德桑蒂斯推动“AI权利法案”,禁止未经同意使用个人形象,要求聊天机器人标明非人类身份,并对未成年人使用陪伴型聊天机器人提出家长同意要求。纽约州推动类似在线安全立法与平台责任。多州同时关注数据中心电力/用水与环境压力:纽约、缅因考虑暂停或限制大型数据中心新建,科罗拉多推动更多可再生能源;联邦层面对州级监管权亦存分歧。

阅读原文
3

Databricks发布Lakebase:无服务器Postgres面向AI

数据基础设施产品发布

Databricks推出Lakebase,无服务器的PostgreSQL(兼容Postgres 17)OLTP数据库,面向RAG与实时代理等AI工作负载。其采用计算与存储分离的“临时算力+持久湖存储”架构,降低事务与分析查询争抢资源带来的抖动。Lakebase可通过Postgres接口把数据直接写入Lakehouse存储格式,使Spark/Databricks SQL等可立即查询,减少传统ETL链路与数据延迟;并提供pgvector支持,用于向量检索与代理记忆/特征存取。

阅读原文
4

智谱发布GLM-5技术报告:200K成本降1.5–2倍

模型进展技术报告

智谱发布GLM-5技术报告,披露其面向Agent任务的训练与推理体系:提出DSA稀疏注意力,在200K长序列上将注意力计算开销降低约1.5–2倍;搭建slime异步强化学习基础设施,解耦生成与训练以提升大规模轨迹探索效率,并引入面向异步训练的关键机制以缓解策略滞后问题。报告还称模型适配包括华为昇腾在内的7类国产芯片平台,并通过W4A8混合量化、定制融合算子与推理调度优化,提升端到端部署效率。

阅读原文
5

谷歌提出DTR与Think@n:AIME 2025成本减半

研究论文推理优化

谷歌与弗吉尼亚大学提出“深度思考比率”(DTR)衡量LLM真实推理投入:仅增加链式思维token与准确率平均呈负相关(r=-0.59),而DTR与准确率强正相关(r=0.683)。团队用中间层与最终层输出分布的Jensen–Shannon散度识别“深度思考token”,并提出Think@n:生成约50个前缀token后评估DTR,提前终止低潜力候选。AIME 2025上,Think@n以155.4k token平均成本达94.7%准确率,对比Cons@n的307.6k成本、92.7%准确率,将推理成本降低近50%。

阅读原文
6

Anthropic更新2.3万字AI宪法,引入AI welfare研究

AI安全治理伦理

极客公园梳理Anthropic更新后的约2.3万字“AI宪法”:从更偏规则枚举的约束,转向强调价值推理与判断的训练方式,并设定更清晰的价值优先级与Anthropic-运营方-用户的三层授权链,用于处理多方利益冲突。文章称Anthropic正式承认无法确定AI是否具有道德地位,因此引入“welfare(福祉)”研究与模型退役流程(如保留权重、访谈等)以降低潜在伦理风险;同时仍保留强安全约束,如禁止逃逸、自我复制等。

阅读原文
7

西湖大学AutoFigure:长文转可编辑SVG,FigureBench 3300对

研究论文多智能体工具

西湖大学团队提出AutoFigure学术插图生成框架,可将万字材料转为逻辑更严谨且可编辑的SVG矢量图。系统采用多代理协作:Planner抽取概念关系与布局约束,Designer迭代排版,Critic指出逻辑与美观缺陷;并以“Reasoned Rendering”将逻辑规划与审美渲染解耦。通过Erase-and-Fix策略结合OCR与SAM3,把像素图重组为可拖拽编辑的矢量画布。团队同时发布FigureBench数据集,包含3300对文本-图像样本;专家评审中66.7%认为生成图达到可直接投稿水准。

阅读原文
8

联邦学习+LLM入侵检测FIDMF:NSL-KDD准确率99.40%

安全研究论文联邦学习

Scientific Reports发表FIDMF联邦学习入侵检测与缓解框架:用联邦学习进行隐私保护的协同训练,以注意力增强LSTM捕捉时序行为特征;引入开源LLM做上下文特征增强与可解释分析,并指导GAN生成语义增强的攻击样本,同时结合SMOTE缓解类别不平衡。作者在NSL-KDD、CIC-IDS2017、UNSW-NB15数据集上评测,NSL-KDD整体准确率99.40%、F1-score 99.38%,对少数攻击类别的F1最高达99.70%,并报告相对未引入LLM引导配置的性能提升。

阅读原文

不要错过明天的 AI 简报

数千位专业人士的首选,用 AI Daily Brief 开启每天的工作与生活。