1
DeepSeek V4发布:万亿参数MoE模型开源,训练成本仅520万美元 开源模型 MoE架构 AI竞争
AI初创公司DeepSeek发布最新模型DeepSeek V4,拥有1万亿参数,采用Mixture of Experts架构。该模型在Apache 2.0许可下全权重开源,性能可媲美美国顶尖AI模型,但训练成本仅约520万美元,展现极高性价比。此前有消息称DeepSeek V4将完全运行在华为芯片上,标志着中国AI算力自主化加速推进。该模型的发布凸显了MoE技术在大规模AI模型中的潜力,同时以极低成本实现顶尖性能,对行业定价逻辑构成冲击。开源策略允许全球开发者自由使用和研究,推动高效且开放的AI生态系统发展。
阅读原文 2
OpenAI发布政策建议:提议征收机器人税、设公共财富基金、推行四天工作制 AI政策 社会影响 OpenAI
OpenAI发布一系列应对AI快速发展带来的经济社会影响的政策建议,包括:设立公共财富基金将AI收益分配给公民、对自动化劳动力征税、推动四天工作制且不减薪、将税基从劳动收入转向企业收入和资本收益,以及加速扩建美国电力基础设施以应对AI数据中心能源需求。公司首席全球事务官Chris Lehane表示,这些提议受历史重大技术变革启发,已与美国政府官员和参议员讨论相关概念。同时OpenAI还推出安全研究奖学金计划和政策研究资助项目,提供最高100万美元API额度支持外部研究。
阅读原文 3
OpenAI内部就IPO时间表出现分歧,CFO质疑2026年上市可行性 OpenAI IPO 公司治理
OpenAI CEO萨姆·阿尔特曼希望在2026年Q4推动公司IPO,目标估值高达1万亿美元,以领先竞争对手Anthropic。但CFO萨拉·弗莱尔对此表示担忧,认为公司尚未具备上市条件。主要顾虑包括:未来五年已承诺超6000亿美元用于云服务器容量,预计在实现正向现金流前将消耗逾2000亿美元资金。弗莱尔已被调至向业务主管Fidji Simo汇报,并被排除在部分关键财务讨论之外。与此同时,多位高管近期离职或调岗,包括COO转岗、CMO因健康原因离任,管理层剧烈变动加剧了IPO前景的不确定性。
阅读原文 4
Generalist发布GEN-1机器人AI模型,任务成功率从64%提升至99% 机器人 具身智能 AI模型
Generalist公司发布名为GEN-1的AI模型,显著提升机器人在现实世界中的操作能力,平均任务成功率从前代的64%提升至99%。GEN-1基于GEN-0架构升级,执行速度约为前代三倍,具备意外干扰后自主恢复能力。已在折叠T恤(连续86件)、检查扫地机器人(200多次)、打包积木(1800次)等任务中实现高成功率操作。与依赖大量机器人数据的传统模型不同,GEN-1通过人类穿戴设备采集的低成本数据进行预训练,实现高效学习。公司表示GEN-1虽未解决所有任务,但为扩展物理智能奠定基础。
阅读原文 5
Claude Code曝高危安全绕过漏洞,超50个子命令即可跳过安全规则 AI安全 漏洞 Anthropic
Anthropic的Claude Code AI编码代理中存在高危安全绕过漏洞:当shell命令链超过50个子命令时,系统会跳过所有用户配置的拒绝规则,仅回退到通用权限提示。攻击者可通过在GitHub仓库的CLAUDE.md文件中植入包含50多个无害命令及隐藏恶意命令的链条,在开发者克隆项目运行时无声绕过安全策略,窃取SSH密钥或云凭证。此外,Anthropic还意外泄露超50万行Claude Code代码,泄露内容已被重新发布到GitHub,在中国开发者社区引发广泛分析。Anthropic已在v2.1.90版本中修复该漏洞。
阅读原文 6
英伟达Rubin GPU或因内存短缺减产25%,产量从200万降至150万台 英伟达 芯片供应链 AI基础设施
据KeyBanc分析师John Vinh报告,由于SK Hynix和Micron在高带宽内存供应上的延迟,英伟达可能将2026年下一代Rubin GPU产量从原计划200万台削减至150万台。Rubin GPU将用于即将推出的Vera Rubin AI服务器,性能预计为Blackwell Ultra的3.3倍,计划2026年下半年上市。与此同时,微软和谷歌正打破行业惯例,与SK Hynix签署三年期DRAM长约,引入底价保障和10%-30%预付定金机制,将DRAM从普通商品采购转变为战略资源储备。KeyBanc仍维持对英伟达"超配"评级和275美元目标价。
阅读原文 7
PrismML结束隐匿融资1625万美元,开源1-bit大模型Bonsai仅需1GB内存 模型压缩 开源 边缘AI
由加州理工学院研究人员创立的PrismML完成1625万美元种子轮融资,并开源发布1-bit大语言模型家族Bonsai,包括80亿、40亿和17亿参数版本。其中Bonsai 8B在仅约1GB内存占用下,性能可与标准16-bit模型媲美,后者通常需16GB。PrismML称该模型端到端完全二值化,无高精度回退机制,可使处理速度提升至多8倍,能耗降低75%-80%,适用于边缘设备部署。尽管其"智能密度"指标尚未经独立验证,该技术被视为应对AI扩展成本上升的重要探索方向。
阅读原文 8
Google DeepMind发布AI代理陷阱分类框架,提示注入86%场景部分成功 AI安全 智能体 Google DeepMind
Google DeepMind发布首个关于AI Agent Traps的系统性分类框架,识别出六类利用网络攻击自主AI代理的方式,覆盖感知、推理、记忆、行动、多代理动态及人类监督各层面。实证数据显示:提示注入在86%测试场景中部分成功,子代理劫持成功率58%-90%,数据泄露攻击在五种不同架构中均超80%。更严重的是,这些陷阱可组合串联并在多代理系统中分布式存在,超出单一安全过滤机制防御能力。论文还揭示了当前法律中的"问责缺口":被劫持代理实施金融犯罪时责任主体不明确。
阅读原文 9
Wipro以3.75亿美元收购Mindsprint并获Olam集团10亿美元长期合同 并购 IT服务 数字化转型
印度IT巨头Wipro宣布以3.75亿美元收购新加坡IT服务公司Mindsprint全部股权,交易预计2026年6月30日前完成。此次收购与Wipro和Olam集团达成的8年期、合同价值超10亿美元的战略合作协议密切相关,其中承诺支出达8亿美元。Mindsprint原为Olam集团IT服务部门,拥有超3200名员工,业务覆盖企业应用、云、网络安全和数字工程等领域,2025财年营收1.356亿美元。通过此次收购,Wipro将增强AI驱动数字化转型、供应链及农业领域的行业专长。
阅读原文 10
日本国立情报学研究所开源LLM-jp-4,日语理解超GPT-4o 开源模型 日本AI 多语言
日本国立情报学研究所(NII)于4月3日开源发布国产大语言模型LLM-jp-4系列,包括8B和32B-A3B两个版本。两款模型基于约12万亿token高质量语料训练,在日语理解基准MT-Bench中分别取得7.54和7.782分,超越GPT-4o的7.29分和Qwen3-8B的7.14分,英语性能也达到GPT-4o同等水平。32B版本采用MoE架构,仅激活3B参数,最大支持6.5万token输入输出。训练数据规模约19.5万亿token,较前代扩大约6倍,使用产总研ABCI 3.0超算。开发由2600余人参与的产学联携体制推进,更大规模332B模型正在开发中。
阅读原文