推理引擎·更新于 2026/04/23 08:20
Transformers v5.6.1 紧急修复 Flash Attention 路径崩溃
Hugging Face Transformers 发布 v5.6.1 补丁版本,紧急修复 Flash Attention 路径中的 AttributeError。问题出在 flash_attention_forward 函数中 s_aux 参数可能为 None 时未做保护,导致推理/训练流程崩溃。该 bug 由社区贡献者 @jamesbraza 定位并提交 PR #45589 修复。v5.6.1 为纯 bugfix 补丁,无 API 变更或破坏性改动。
速读
Transformers v5.6.1 紧急修复因 s_aux=None 导致的 Flash Attention 崩溃问题
相关源 (1)
- Transformers Releases · 2026/4/23 08:20:03https://github.com/huggingface/transformers/releases/tag/v5.6.1