Transformer注意力沉没:利用、解释与缓解综述

深度2026年4月15日229 分钟阅读
研究发现注意力沉没现象会严重影响Transformer的训练推理动态并加剧幻觉问题,本文为理解和应对这一挑战提供了全面指导。该综述适合从事Transformer架构研究、自然语言处理及模型可解释性工作的研究人员阅读。

觉得有用?分享给更多人

获取每周 AI 工具精选

工具推荐、实战教程和生态洞察,每周更新。

相关文章

Unweight 是 Cloudflare 开发的 LLM 权重无损压缩系统,通过 Huffman 编码压缩指数字节,在 H100 GPU 上实现 15-22% 的模型体积缩减。系统提供四种执行流水线,根据工作负载动态选择最优解压策略,减少内存带宽压力,提升推理效率。

深度·4月17日·8 分钟

Claude Opus 4.7 在 SWE-Bench Pro 等多项编码基准测试中提升显著,最高达 11 分。模型支持高达 2576 像素的长边图像输入,视觉能力大幅增强。尽管新分词器可能导致 token 使用量增加 35%,但推理效率的提升使整体 token 成本仍可能下降一半。

深度Latent Space·4月17日·4 分钟

评论