工具发布·11 天前
HuggingFace Transformers 发布 v5.8.0,主要新增 DeepSeek-V4 和 Gemma 4 Assistant 两个模型架构。DeepSeek-V4 是 DeepSeek 的新一代 MoE 模型,架构上弃用 MLA 改用混合局部+长程注意力,将残差连接替换为流形约束超连接(mHC),并在前几层 MoE 使用静态 token-id→expert-id 哈希表做引导。Gemma 4 Assistant 是一个纯文本小模型,专为 Gemma 4 做投机解码(MTP 方法),全模型共享 KV cache,跳过预填充阶段,并引入交叉注意力以利用目标模型的上下文。该版本无已知破坏性变更。
大模型·12 天前
OpenAI 发布 GPT-5.5 Instant,作为 ChatGPT 的默认模型更新。核心改进包括:回答准确度提升、幻觉率降低、以及更强的个性化控制能力。用户可更精细地调节模型输出风格与偏好。该版本未提及架构变化或推理效率优化,属于模型能力层面的渐进式升级。
大模型·12 天前
OpenAI 于 2026-05-05 发布 GPT-5.5 Instant 系统卡(System Card),这是 GPT-5.5 系列的低延迟变体。系统卡详细说明了模型架构优化、安全评估结果以及部署配置。核心改进集中在推理路径的延迟优化,通过架构级剪枝和注意力机制调整实现更快的 token 生成速度。系统卡还披露了红队测试结果、偏见评估以及使用限制。未提及具体延迟数字或基准测试对比。