Arm发布3nm 136核AGI CPU并押注数据中心
Arm推出首款自研量产数据中心CPU“AGI CPU”,采用台积电3nm工艺,最多136个Neoverse V3核心、最高3.7GHz、TDP约300W,并提供12通道DDR5-8800(带宽>800GB/s)、96条PCIe Gen6及CXL 3.0。Arm称其面向agentic AI的机架级性能可较最新x86系统提升一倍以上,并预计约五年内带来约150亿美元年收入;Meta为首批合作伙伴,OpenAI等亦表态支持。
阅读原文Arm推出首款自研量产数据中心CPU“AGI CPU”,采用台积电3nm工艺,最多136个Neoverse V3核心、最高3.7GHz、TDP约300W,并提供12通道DDR5-8800(带宽>800GB/s)、96条PCIe Gen6及CXL 3.0。Arm称其面向agentic AI的机架级性能可较最新x86系统提升一倍以上,并预计约五年内带来约150亿美元年收入;Meta为首批合作伙伴,OpenAI等亦表态支持。
阅读原文SK hynix确认已向美国SEC保密递交上市文件,筹备在美国发行ADR以支持AI存储扩产与全球资本布局;发行规模与时间表尚未披露。公司同时推进韩国清州M15X、龙仁半导体集群及美国印第安纳州先进封装设施建设,并表示将为长期战略投资储备超过100万亿韩元净现金。报道亦提及其近期宣布采购约79.7亿美元ASML设备,并计划推出下一代HBM4E样品,以应对AI带动的HBM需求增长。
阅读原文Google Research提出TurboQuant量化/压缩套件(含PolarQuant与QJL等),聚焦推理阶段KV cache带来的内存瓶颈。材料称其在不需要再训练的前提下,可将KV缓存内存占用最多压缩6倍,并在H100上把注意力计算速度最高提升8倍,同时支持低至3bit的压缩而尽量保持输出质量。该方法面向长上下文LLM与向量检索系统,可在既有微调模型上直接落地,减少显存需求与推理成本。
阅读原文LiteLLM在PyPI的恶意版本(含1.82.8等)被植入.pth文件,导致安装后无需显式导入、在Python进程启动时即可静默执行,窃取SSH密钥、云凭证、Kubernetes配置、数据库口令与API Key,并尝试在K8s中投放后门。材料称该库月下载量约9700万次,恶意包上线约46分钟即累计下载约4.7万次;统计还显示约88%的依赖包未做严格版本锁定,放大了传递性风险。官方已下架相关版本并建议轮换凭证、排查环境。
阅读原文GitHub更新Copilot交互数据使用政策:从4月24日起,Copilot Free、Pro与Pro+用户的交互数据将默认用于训练和改进GitHub/Microsoft体系内的AI模型,用户需在设置中主动选择退出;Copilot Business与Copilot Enterprise不受此次变更影响。材料列举的交互数据包括输入提示、模型输出、被接受/修改的代码片段及其上下文(如相关文件信息与仓库结构等),用于提升模型质量与缺陷识别能力。GitHub强调不会将该数据共享给第三方AI模型提供商或独立服务商。
阅读原文Anthropic在Claude Code中推出“Auto mode”研究预览功能,让模型可在无需逐项人工批准的情况下自动决定是否执行部分权限操作。系统会在每个动作前进行风险评估,重点拦截大规模删除、敏感数据泄露、恶意代码执行等行为,并对疑似提示注入带来的异常指令进行限制;若反复触发拦截,最终会要求用户明确授权。材料称该功能目前仅支持Claude Sonnet 4.6与Claude Opus 4.6,并建议在与生产环境隔离的沙箱中使用;同时保留跳过权限检查的高风险选项但不推荐。
阅读原文Cursor发布“self-hosted cloud agents”,允许企业把编码代理的执行Worker部署在自有基础设施内运行,从而让代码库、依赖缓存、密钥与构建产物留在内网环境中,满足合规与安全需求。架构上,Worker通过HTTPS出站连接到Cursor云端进行编排,无需开放入站端口或配置复杂VPN。官方提供面向Kubernetes的Helm部署方式及舰队管理API,支持扩展到大量Worker并统一管理。该能力面向需要代理运行测试、访问内部网络端点与CI/CD资源的企业场景。
阅读原文JetBrains宣布推出Central平台,用于管理AI编码代理、提供云端执行基础设施并实现跨项目共享上下文;其组成包括预览中的Air IDE与JetBrains Console,后者支持令牌管理与AI使用分析,预计2026年第二季度开放早期访问。Central定位为代理驱动软件开发的控制与执行层,可接入JetBrains及外部生态代理,并提供策略、身份权限、可观测性、审计与成本归因等治理能力。与此同时,JetBrains表示将逐步停用协作编程功能Code With Me:2026.1为最后一个官方支持版本,插件支持将延续到2027年第一季度。
阅读原文美团在Hugging Face发布并开源LongCat-Next原生多模态大模型,参数规模约740亿,宣称以统一离散token空间同时建模文本、图像与音频。材料介绍其采用DiNA(Discrete Native Autoregression Paradigm)统一范式,并结合离散视觉表示与原生分辨率视觉Transformer等组件,实现图像理解与生成、语音识别、语音到语音转换及定制化语音克隆等能力。模型以MIT许可证开放,便于研究与工程集成;同时文档提示使用方需自行评估准确性、安全与合规风险。
阅读原文Google DeepMind发布音乐生成模型Lyria 3与Lyria 3 Pro更新,强调更强的结构控制能力,可生成最长约3分钟的音乐,并支持用自然语言指定段落结构(如intro、verse、chorus、bridge等)。材料称模型已在Vertex AI以public preview形式提供,并在AI Studio等开发者入口开放试用;所有输出嵌入SynthID不可感知水印,用于标识AI生成音频并强化可追溯性。官方同时提到会通过策略与过滤降低对特定艺人风格的直接模仿风险,面向视频制作与创作工具链集成。
阅读原文数千位专业人士的首选,用 AI Daily Brief 开启每天的工作与生活。