OpenAI以稀疏电路方法解读神经网络推理机制
深度OpenAI2025-11-13T10:00:00+00:001 分钟阅读
OpenAI 正在探索机制可解释性(mechanistic interpretability),以理解神经网络如何进行推理。我们提出的全新稀疏模型方法,可能让 AI 系统更加透明,并支持更安全、更可靠的行为。
原文链接:https://openai.com/index/understanding-neural-networks-through-sparse-circuits