返回往期
2026年1月21日星期三
9 点要闻3 分钟阅读

今日要闻

1

Humans&获4.8亿美元种子轮,估值45亿美元

融资初创公司

路透社披露,AI初创Humans&完成4.8亿美元种子轮融资,投前估值约45亿美元。公司由前OpenAI、Alphabet与xAI研究人员创立,称资金将用于推进生成式AI模型研发与团队扩张。该轮被描述为近年罕见的大额种子轮之一,凸显资金正向头部人才与前沿路线集中。报道未披露主要投资方、模型参数或API时间表,外界将关注其技术落地与商业化节奏。在算力成本高企背景下,后续资金使用效率亦将被审视更为关键。

阅读原文
2

ServiceNow与OpenAI签三年协议集成GPT-5.2

企业软件合作

CNBC称,ServiceNow与OpenAI签署为期三年的合作协议,将GPT-5.2集成进其企业工作流平台。双方未披露财务条款,合作覆盖AI代理与语音能力,目标是加快客户在客服、IT与业务流程中的自动化。ServiceNow近年通过收购Moveworks等补齐代理能力,并继续推进对Armis与Veza的并购,强调打造“AI控制塔”。这类深度绑定前沿模型的合作,正把企业软件竞争焦点推向代理编排与数据入口。

阅读原文
3

阶跃星辰开源Step3-VL-10B,披露1.2T训练数据

开源模型多模态

阶跃星辰开源视觉语言模型Step3-VL-10B,参数规模10B,面向视觉理解、OCR与多模态推理。官方称引入PaCoRe并行协调推理机制,并结合大规模强化学习提升复杂场景感知与逻辑一致性。模型以全参数端到端方式在1.2T高质量数据上联合预训练,已发布权重与部署说明,便于开发者二次开发。该模型定位以较低算力获得接近更大模型的效果,瞄准端侧与云端多模态Agent底座。官方同时强调10B规模有利于降低部署成本与推理延迟。

阅读原文
4

Liquid AI开源LFM2.5-1.2B-Thinking,端侧占用<900MB

端侧推理开源模型

Liquid AI发布并开源LFM2.5-1.2B-Thinking,小型推理模型面向设备端,内存占用低于900MB,可在手机等边缘设备离线运行。官方称其在数学、工具使用与编程等任务上优于Qwen3-1.7B的thinking模式,并把循环式错误率降至0.36%。项目已获Ollama等生态支持,Hugging Face下载量称超过600万。其训练采用课程式强化学习与模型合并策略,强调减少“doom looping”现象并提升稳定性。

阅读原文
5

AgentCPM开源两款代理模型:Explore 4B与Report 8B

AI Agent开源

清华大学NLP实验室、中国人民大学、ModelBest与OpenBMB社区联合开源AgentCPM智能体基础设施,并发布Explore与Report两款模型。Explore为4B轻量代理模型,官方称在GAIA、HLE等长视野代理基准上取得SOTA,适合端侧部署。Report基于MiniCPM4.1-8B,可在本地离线生成长篇专业报告,代码与工具链以Apache-2.0协议开放。项目强调自托管与安全,提供可复用的Agent训练部署底座。

阅读原文
6

Amazon Bedrock知识库上线多模态检索,覆盖音视频RAG

云服务RAG多模态

AWS宣布Amazon Bedrock Knowledge Bases上线多模态检索能力,原生支持文本、图像、音频与视频的RAG工作流。新功能基于Amazon Nova多模态嵌入,将不同媒体编码到共享向量空间,实现跨模态召回。官方同时提供把多媒体转为带时间戳文本表示的自动化路径,便于合规与长内容搜索,并以托管方式覆盖摄取、分块、嵌入与向量存储。对企业而言,这减少了自建多媒体预处理流水线与多套索引的工程成本。

阅读原文
7

月之暗面估值传48亿美元,新万亿模型启动API内测

融资大模型

媒体称月之暗面(Kimi)在新一轮融资后估值约48亿美元,并披露账面现金超100亿元人民币,资金将用于算力集群扩容与下一代模型研发。报道同时称公司正筹备万亿参数新模型,重点提升多模态、Agent与AI编程能力,并引入线性注意力机制“Delta Attention”。材料提到新模型API已启动内测,面向企业认证用户开放申请;具体发布时间与价格仍待官方确认。相关信息多为市场传闻与媒体转述,若无后续公告应视为计划而非既成事实。

阅读原文
8

马斯克开源𝕏推荐算法,改用Grok Transformer评分器

开源推荐系统

爱范儿称,马斯克宣布开源𝕏平台重构后的推荐算法,核心流程由基于Grok的Transformer模型驱动,强调“零人工特征工程”。公开材料将推荐拆为召回与评分两阶段,并对点赞、转发、拉黑等行为设定权重与过滤器,以平衡相关性与多样性。代码开放后,外部研究者可更直接审视流量分发逻辑与潜在偏置,但实际部署策略仍由平台控制。材料称平台将持续迭代算法并定期更新仓库,透明度提升或影响广告与内容治理讨论并进一步把流量规则走向公开。

阅读原文
9

DeepSeek更新FlashMLA代码,MODEL1线索指向新架构

研发动态开源项目

DeepSeek在FlashMLA代码库更新中出现“MODEL1”线索:本次提交涉及114个文件,28处提及MODEL1,并与V32并列。外界据此推测MODEL1可能不是DeepSeek-V3.2的小版本,而是新架构尝试,差异集中在KV缓存布局、稀疏性处理与FP8解码等内存优化细节。当前信息仅来自代码变更,模型是否发布及其能力仍需官方确认。这类‘从仓库看路线’的信号,也显示国内模型团队正把效率优化放在更靠前位置。

阅读原文

不要错过明天的 AI 简报

数千位专业人士的首选,用 AI Daily Brief 开启每天的工作与生活。