Anyscale 为其托管 Ray 平台新增了完全持久化的 Cluster Dashboard 和 Actor Dashboard。传统 Ray 仪表盘仅在集群运行时可用,一旦作业结束或集群关闭,历史状态即丢失。新方案将仪表盘数据持久化存储,用户可在作业完成后回溯查看集群资源使用曲线、Actor 生命周期、任务分布等关键指标,无需重新运行作业即可进行事后调试。技术核心是将 Ray 的运行时指标导出到外部存储后端,并通过独立于集群生命周期的 Web 服务提供查询接口。
动态图连通性是图算法基础问题。现有理论方案(per-vertex线性草图)可将空间降至Θ(V log² V),与边数无关,但实际中每个顶点草图需数千字节,仅在极稠密图上才划算。本文发现稀疏真实图常含稠密核心,提出混合草图法:对稠密核心用草图压缩,对稀疏外围无损存储。新算法HybridSCALE在完全动态和半流式场景下空间复杂度为O(min{V+E, V log V log(2+E/V)}),在稀疏图上匹配无损界,稠密图上匹配草图界。核心组件BalloonSketch是一种新l0采样器,将per-vertex草图大小降低最多8倍。HybridSCALE是首个在真实图上节省空间的草图动态连通系统,相比无损基线在稀疏图(平均度<10)上节省最多15%空间,在稠密图(平均度>1000)上节省最多60%。
Anyscale 发布博客,介绍如何用 Ray 构建可扩展的多模态数据管道。核心挑战在于图像、视频、音频、文本等异构数据需要不同的解码、清洗、增强逻辑,且数据量远超单机内存。文章提出基于 Ray Data 的架构:用 map/groupby/flat_map 等算子表达 ETL 流程,利用 Ray 的分布式对象存储和自动弹性调度处理 PB 级数据。关键设计包括:将 I/O 密集型解码与 GPU 密集型增强分离为不同 stage,通过 lazy 执行和 checkpoint 避免重复计算,以及用 Ray 的 actor 池管理外部 API 调用限流。
阿里云AIDC发布Ovis2.6-80B-A3B多模态大模型,将LLM骨干升级为Mixture-of-Experts(MoE)架构,总参数80B但推理时仅激活约3B参数,大幅降低服务成本。模型支持64K上下文窗口和2880×2880高分辨率图像输入,新增"Think with Image"能力——模型可在Chain-of-Thought推理过程中主动调用裁剪、旋转等视觉工具对图像区域进行多轮自反思分析,提升复杂视觉任务的准确率。此外,OCR、文档和图表理解能力得到强化,特别适合长文档问答场景。
Claude Code 在 v2.1.139 版本中引入 /goal 命令,允许用户设定一个完成条件(如"所有测试通过且 PR 就绪"),然后 Claude 会在后台持续运行直到目标达成。本次更新包含 104 个变更,核心是让 Claude Code 从同步交互转向异步执行。新增的 claude agents 视图可展示所有运行中的会话状态:工作中、等待用户、或已完成。这是 Claude Code 首个真正意义上的"发后即忘"循环,用户可同时发起多个目标任务,稍后回来检查结果。
Hugging Face 联合创始人发帖称,在 iPhone 上通过 AI Desktop 98 应用本地运行 Qwen 3.6 27B 模型(开启飞行模式),其编码能力接近 Claude Opus 在 Claude Code 中的表现。该应用支持在 iOS 设备上离线运行大模型,无需联网即可完成复杂编程任务。目前尚不清楚具体评测基准和量化精度,但这一对比暗示小参数本地模型在特定场景下已逼近云端顶级模型。
ClickHouse Cloud 重新设计了 Kubernetes 集群的扩缩容机制,提出 Make-Before-Break 策略。传统 Kubernetes Deployment 滚动更新采用先删旧 Pod 再建新 Pod(Break-Before-Make)的方式,在垂直扩缩容场景下会导致较长的不可用窗口。新方案先创建新 Pod 并完成数据预热,待新 Pod 就绪后再摘除旧 Pod,将切换延迟从分钟级降至亚秒级。核心改动包括:StatefulSet 配合自定义控制器实现双 Pod 共存、数据目录软链接切换、以及协调器层面的 Quorum 感知流量迁移。
Google 在 Gemini API 中推出 Event-Driven Webhooks,一种基于推送的通知机制,用于替代传统轮询(polling)方式。对于长时间运行的推理任务(如视频理解、代码生成),客户端无需反复轮询任务状态,而是由服务端在任务完成时主动推送结果。该机制降低了客户端与服务端之间的无效请求开销,减少了端到端延迟,并简化了客户端的状态管理逻辑。
ClickHouse 宣布在日本市场正式提供 AI 可观测性平台 Langfuse 的托管服务。Langfuse 是面向 AI 代理(Agent)的监控与调试平台,用于追踪 LLM 调用、延迟、Token 消耗和 Agent 行为。此次合作将 Langfuse 的追踪数据存储在 ClickHouse 上,利用其列式存储和实时分析能力处理 AI 工作负载产生的高基数、高吞吐日志。双方定位为"下一代 AI 数据栈",整合了实时数据平台与 AI Agent 运维监控。
ClickHouse 官方博客介绍了异步数据插入(Asynchronous Data Inserts)功能,将数据批处理逻辑从客户端迁移到服务端。传统上,用户需要在客户端手动攒批(batch)再写入,以平衡写入吞吐与实时性。异步插入模式下,客户端直接发送单条或小批量数据,服务端在后台按配置的时间窗口或缓冲区大小自动合并后写入存储引擎。该功能简化了客户端逻辑,降低了写入延迟抖动,但引入了数据可见性延迟和丢数据风险(服务端崩溃时未刷盘的缓冲数据可能丢失)。
Google 在 Cloud Next 大会上宣布推出第八代 TPU 的两款专用芯片,分别针对推理和训练场景优化,定位为"Agent 时代"的基础设施。这是 Google 首次在同一代 TPU 中推出两款不同规格的芯片,表明其正在从通用加速器向场景专用芯片演进。目前官方尚未公布具体算力、显存容量、互联带宽等关键参数,也未说明是否兼容现有 TPU v5 的 Pod 拓扑。
Anyscale 发布了 Agent Skills,一套面向 Ray 上 AI 工作负载的开发工具,旨在加速构建、调试和优化流程。核心能力包括自动性能分析、分布式任务追踪和智能错误定位,帮助工程师更快定位 Ray 集群中的瓶颈与异常。该工具直接集成到 Ray 生态中,降低了分布式 AI 应用的运维复杂度。