LiteLLM 被黑:4.7 万次恶意包下载

深度Simon Willison2026年3月25日2 分钟阅读
Daniel Hnyk 用 BigQuery PyPI 数据集查出,被黑的 LiteLLM 包在 PyPI 上存活 46 分钟期间被下载了 46,996 次。他还发现 2,337 个依赖 LiteLLM 的包中,88% 没有正确锁定版本,导致自动拉取了恶意版本。

2026 年 3 月 25 日,Daniel Hnyk 发布了一篇博客文章,分析了近期 LiteLLM 包被黑事件的影响范围。

他利用 BigQuery PyPI 数据集 统计了被利用的 LiteLLM 包 在 PyPI 上存活 46 分钟期间的下载量。结果显示,两个受影响的版本(1.82.7 和 1.82.8)总共被下载了 46,996 次。

此外,Hnyk 还识别出 2,337 个依赖 LiteLLM 的包。其中 88% 的包没有通过版本锁定来避免拉取到被黑的版本,这意味着这些项目在依赖更新时会自动引入恶意代码。

这篇链接帖子由 Simon Willison 于 2026 年 3 月 25 日下午 5:21 发布。

标签:packaging, pypi, python, security, supply-chain

月度简报

赞助 10 美元/月,即可获得当月最重要的 LLM 发展动态精选邮件摘要。

付费让我少发点!

赞助并订阅

本文编译自 LiteLLM Hack: Were You One of the 47,000?,版权归原作者所有。

觉得有用?分享给更多人

获取每周 AI 工具精选

工具推荐、实战教程和生态洞察,每周更新。

相关文章

Simon Willison 正在重构 LLM Python 库的抽象层,以支持服务器端工具执行等新功能。他利用 Claude Code 分析了四大 LLM 提供商的客户端库,生成了用于测试的 curl 命令和 JSON 输出。这些调研材料已开源,旨在帮助设计更通用的 API 抽象。

深度Simon Willison·4月5日·1 分钟

智能体技能——包含程序性知识和可执行资源的结构化包,供智能体在推理时动态加载——已成为增强 LLM 智能体的可靠机制。然而,推理时技能增强存在根本性限制:检索噪声引入无关指导,注入的技能内容带来大量 token 开销,而模型从未真正习得它所遵循的知识。我们提出一个问题:技能是否可以被内化到模型参数中,使其在无需任何运行时技能检索的情况下实现零样本自主行为?我们提出 Skill0,一个专为技能内化设计的上下文强化学习框架。Skill0 引入了一种训练时课程,从提供完整技能上下文开始,逐步撤除。技能按类别离线分组,并与交互历史一起渲染为紧凑的视觉上下文,教授模型工具调用和多轮任务完成。动态课程机制…

深度·4月5日·17 分钟

评论