大语言模型自我改进的极限:奇点不会靠统计学习到来
深度2026年4月28日5 分钟阅读
本文以严格的数学形式证明了:大语言模型(LLM)在缺乏持续外部数据源的情况下进行递归自我训练,必然导致模型崩溃——熵衰减与方差放大。这个结论对“AI奇点”叙事构成了根本性挑战:要想突破极限,必须引入基于算法概率的符号性模型合成。
本文编译自 On the Limits of Self-Improving in Large Language Models: The Singularity Is Not Near Without Symbolic Model Synthesis,版权归原作者所有。
觉得有用?分享给更多人