推理引擎·24 天前Transformers v5.6.1 紧急修复 Flash Attention 路径崩溃Hugging Face Transformers 发布 v5.6.1 补丁版本,紧急修复 Flash Attention 路径中的 AttributeError。问题出在 flash_attention_forward 函数中 s_aux 参数可能为 None 时未做保护,导致推理/训练流程崩溃。该 bug 由社区贡献者 @jamesbraza 定位并提交 PR #45589 修复。v5.6.1 为纯 bugfix 补丁,无 API 变更或破坏性改动。›1 条相关源