五角大楼将Anthropic列供应链风险并禁用Claude
美国国防部宣布立即将Anthropic认定为“供应链风险”,要求军方及其承包商停止在相关系统中使用Claude。报道指该决定与Anthropic拒绝放松“不得用于大规模监控与自主武器”的产品限制有关,引发政府强硬回应。多家防务承包商被迫改用其他模型供应商;Anthropic称将采取法律行动寻求救济。
阅读原文美国国防部宣布立即将Anthropic认定为“供应链风险”,要求军方及其承包商停止在相关系统中使用Claude。报道指该决定与Anthropic拒绝放松“不得用于大规模监控与自主武器”的产品限制有关,引发政府强硬回应。多家防务承包商被迫改用其他模型供应商;Anthropic称将采取法律行动寻求救济。
阅读原文据韩媒报道,英伟达已暂停面向中国市场的H200芯片生产,原因是出口审批条件严格、销售迟迟未形成收入且未来出货不确定。公司将台积电产能从H200转投下一代“Vera Rubin”相关产品,以降低供应链波动与组件短缺风险。报道还称英伟达现有约25万颗H200库存,若政策放宽,恢复供应链可能仍需最长3个月。
阅读原文研究者披露“Clinejection”供应链事件:攻击者在GitHub issue标题中植入提示注入内容,诱导具备工具权限的自动分诊代理执行命令。随后利用不同工作流共享的Actions缓存键实施node_modules投毒,并通过填满10GB缓存上限强制驱逐旧缓存,使高权限发布流程加载恶意依赖,进而窃取NPM发布密钥并产出被篡改的生产包。
阅读原文GitHub Security Lab开源一套AI驱动的代码安全审计框架,将审计拆解为多阶段“taskflows”,先做威胁建模与潜在问题枚举,再进行严格验证,以降低LLM幻觉与误报。该框架可通过GitHub Codespaces快速运行(需Copilot许可),面向开源社区复用。官方披露工具已在Outline、WooCommerce、Rocket.Chat等项目中识别出关键漏洞与真实CVE,覆盖授权绕过等逻辑缺陷。
阅读原文小米发布系统级AI Agent“miclaw”并开启小范围封测,基于MiMo大模型在系统权限层集成执行能力,内置50+系统级工具,由推理-执行引擎自动编排调用顺序。其“感知-关联-判断-行动”链路可结合短信、日历等个人上下文做任务规划,并通过米家协议与MCP标准把执行边界延伸到全屋IoT设备。官方还强调其具备自我演化能力,可生成工具、记忆与子代理。
阅读原文Databricks公开内部系统LogSentinel,用LLM自动完成日志/表字段的PII识别与数据治理:先为字段生成描述并构建向量检索,从标注真值集中检索相似样例做动态few-shot提示,再通过多模型编排实现路由、回退与校验钩子,降低空标签与幻觉风险。分类结果直接进入脱敏、访问控制与整改流程,并在检测到漂移或策略违规时自动生成Jira工单,使周期性合规复核由数周缩短到数小时。
阅读原文Liquid AI发布稀疏MoE模型LFM2-24B-A2B及开源桌面代理LocalCowork,主打隐私优先的本地Agent工作流,并通过MCP调用工具。模型总参数240亿、推理每token激活约20亿;在Apple M4 Max上以Q4_K_M量化GGUF运行时内存约14.5GB,工具选择平均延迟约385ms。LocalCowork离线集成75个跨14个MCP服务器工具并记录本地审计日志;测试显示单步准确率80%,但多步端到端完成率仅26%。
阅读原文腾讯混元提出HY-WU(Weight Unleashing)范式:不再依赖固定权重点,而是训练一个参数生成器,依据输入条件实时合成并挂载LoRA等适配器参数,把“静态参数记忆”转为“功能记忆”。官方称该机制可缓解个性化适配中的灾难性遗忘与任务权衡,通过动态路由减少梯度冲突;在图像编辑等任务中展示生成参数的结构一致性。研究还给出尺度规律:随生成器深度与LoRA rank提升,效果继续增强。
阅读原文InSpatio宣布并开源实时交互3D世界模型InSpatio-WorldFM,主张以原生3D表征替代2D像素预测以获得空间智能。其“显式锚点+隐式记忆”结构通过前馈重建生成空间锚点,并结合生成模型的隐式记忆,缓解长时生成的遗忘与几何坍塌,支持理论上的无限时长一致生成。团队提出从海量2D视频中提取几何与物理规律的数据放大策略,并称经蒸馏与推理优化后可在单张RTX 4090上实时运行。
阅读原文FlashAttention-4正式发布,面向NVIDIA Blackwell架构对注意力计算流水线做深度重构,以应对Tensor Core吞吐提升快于SFU与共享内存带宽的“非对称扩展”瓶颈。方案在前向中用多项式近似替代exp开销,并在反向通过TMEM中间结果复用与2-CTA MMA等设计减少共享内存流量,实现计算与IO更充分重叠。项目还采用Python版CuTe-DSL,在保留PTX级控制的同时将编译时间提升约20–30倍,并可与PyTorch FlexAttention结合快速原型化。
阅读原文数千位专业人士的首选,用 AI Daily Brief 开启每天的工作与生活。