S
SkillNav

AI 正在重塑开发者技术选型:Octoverse 数据给出明确信号

深度GitHub2026-02-19T17:00:00+00:008 分钟阅读
AI 正在重塑开发者技术选型:Octoverse 数据给出明确信号

你有没有过这种感觉:某个感官触发会在一瞬间把你拉回人生中的某个时刻?对我来说,那就是 Icy Hot。只要闻到一点味道,我就仿佛回到了部队清晨 5 点集合的时候。肩膀会紧绷,身体会自动进入状态。它不讲逻辑,这就是记忆的工作方式。我们会把“经历”和“周边线索”建立起强关联,这些模式会被编码进大脑,在当下过去很久之后仍持续影响我们的行为。

随着 AI 成为软件构建流程里的默认组成部分,同样的模式正在整个软件生态里发生。比如,我们会把“便利”与某些特定技术绑定在一起。这些循环会影响开发者“先拿起什么工具”、决定“接下来学什么”,最终影响“哪些技术获得增长势能”。

Octoverse 2025 的数据正在实时呈现这一变化,而且趋势非常明显。

2025 年 8 月,TypeScript 首次超越 Python 和 JavaScript,成为 GitHub 上使用最多的语言。这是 headline。但更深层的信号是:AI 不只是让写代码更快,它正在改变开发者一开始就会选择哪些语言、框架和工具。

A chart showing the top 10 programming languages on GitHub from 2023 to 2025. TypeScript rises to #1 in 2025, overtaking Python and JavaScript, which move to #2 and #3 respectively. Other top languages include Java, C#, PHP, Shell, C++, HCL, and Go. The chart tracks ranking changes over time on a dark background with colored lines representing each language.

“便利性循环”如何让记忆变成行为

当一项任务或流程进展顺畅时,大脑会记住它。便利会捕获注意力,低摩擦会沉淀为偏好——而当偏好在大规模人群中出现时,就足以推动生态迁移。

GitHub 上 80% 的新开发者在第一周就会使用 Copilot。 这种早期体验会重设他们对“容易”的基准线。

当 AI 能处理样板代码和高错率语法时,选择“强大但复杂”语言的代价就会大幅下降。开发者不再回避高开销工具,而是更倾向按实际效用做选择。语言采用数据已经体现了这一行为变化:

最后这一点很关键。并不是我们突然爱上了 Bash,而是 AI 吸收了让 Shell 脚本“难用”的那部分摩擦。于是我们能在不承担传统成本的情况下,用更合适的工具完成对应任务。

这正是 Octoverse 真正告诉我们的:开发者的技术选择,正在向“与当前工具链配合更好”的技术倾斜。

这次迁移背后的技术原因

AI 在强类型语言上表现更好,是有非常具体的技术原因的。

强类型语言给 AI 提供了更明确的约束。在 JavaScript 里,一个变量可能是什么都行;在 TypeScript 里,声明 x: string 就立刻排除了所有非字符串操作。这个约束非常重要。约束越清晰,AI 越容易生成更可靠、上下文更正确的代码,而开发者也会对这种可靠性做出反馈。

如果再看 GitHub 上 AI 模型集成的规模,这种效应还在叠加:目前已有超过 110 万个公开仓库在使用 LLM SDK。这不是边缘试验,而是主流采用;并且采用正在向那些与 AI 配合效果更好的语言和框架集中。

A line and area chart titled ‘Cumulative count of public projects using generative AI model SDKs,’ showing rapid growth from 2021 to 2025. The curve starts near zero and climbs steeply to over 1.1 million repositories by 2025, illustrating the widespread adoption of LLM and AI model SDKs. The chart features a purple-to-pink gradient fill on a dark background with geometric ribbons on the left.

快速迭代,同时不破坏你的架构

AI 工具正在以前所未有的方式放大开发者生产力。真正的问题是:如何有策略地使用它们。拿到最佳结果的团队并不是在对抗“便利性循环”,而是把工作流设计为“既能利用这种循环,又能守住关键架构标准”。

给开发者和团队

先建立模式,再让 AI 生成。 AI 很擅长遵循已有模式,但不擅长凭空发明清晰结构。如果你先把前几个 endpoint 或组件按高质量结构定义好,Copilot 往往会沿着这些模式继续生成。好地基可以规模化,差地基只会被放大。

把类型系统当护栏,而不是拐杖。 TypeScript 能减少错误,但“通过类型检查”不等于“业务逻辑正确”。应把类型用于约束合法代码空间,而不是作为正确性的主要信号。

对 AI 生成代码做更严格的测试,而不是更少。 因为输出“看起来对”且能通过初步检查,很容易让人过度信任。要克制这种冲动,不要跳过测试。

给工程负责人

认识到速度跃迁,并提前准备其成本。 AI 辅助开发通常可带来 20–30% 的吞吐提升。这当然是好事。但吞吐上去后,如果缺少护栏,架构漂移会更快积累。

先标准化,再扩规模。 文档化模式,发布模板仓库,把架构决策显式化。AI 工具会镜像它看到的结构。

跟踪 AI “生成了什么”,而不只看“生成了多少”。 Copilot usage metrics dashboard(Enterprise 版现已公开预览)让你看到的不只是接受率。你还能追踪组织层面的日/周活跃用户、Agent 采用比例、代码新增与删除行数,以及语言和模型使用模式。这个仪表盘回答了一个关键问题:团队到底把 AI 用得怎么样?

利用这些指标识别模式。如果某些团队 Agent 采用率高但代码质量问题多,这通常说明他们需要更好的 prompt engineering 培训,或更严格的评审标准。如果特定语言或模型与更高缺陷率相关,那就是可执行的数据线索。API 还提供用户级粒度,便于做更深分析,你可以搭建自定义 dashboard,持续跟踪对组织最关键的指标。

投资架构评审能力。 开发者效率越高,资深工程师时间不是更不值钱,而是更值钱。必须有人确保在代码更快落地时,系统整体仍保持一致性。

让架构决策显式且可访问。 AI 从上下文学习。ADRs、README、注释以及结构清晰的仓库,都会帮助 AI 生成更符合你设计原则的代码。

Octoverse 2025 对你意味着什么

你今天做的技术选择,可能正被一些你不易察觉的力量塑造:便利、习惯、AI 辅助流,以及不同技术栈引入的摩擦大小。

💡 Pro tip: 回看你最近三次技术决策:新项目选什么语言、某个功能选什么框架、日常流程选什么工具。AI 工具支持在这些选择里占了多大权重?如果你的答案是“几乎没有”,我打赌它的影响比你意识到的更大。

AI 改变的不只是写代码速度。它正在重塑“哪些工具与哪些语言组合效果最好”的生态结构。一旦这些模式固化,想逆转会变得很难。

如果你在做技术选型时不考虑 AI 兼容性,未来很可能要为摩擦买单。如果你在构建语言或框架,AI 支持更不能是事后补丁。

给你一个挑战

下次开启项目时,观察一下你会“自然地”先拿起哪些技术。也留意什么时候 AI 建议让你感觉顺滑、什么时候不顺滑。那些“顺”与“卡”的瞬间,正在把你的未来偏好编码进大脑。

你是在有意识地选择工具,还是工具正沿着“最小阻力路径”自行完成选择?

我们都在形成自己的数字版“Icy Hot”时刻。关键在于先意识到它们的存在。

作者

Andrea Griffiths

Andrea 是 GitHub 的高级开发者布道师,在开发者工具领域拥有超过十年经验。她兼具技术深度与“让先进技术更易用”的使命感。她从军队服役与建筑管理转型到软件开发,因此在“将复杂工程概念落地为可执行实践”方面有独特视角。她与威尔士伴侣、两个儿子和两只狗定居佛罗里达,并持续通过 GitHub 的全球倡议推动创新、支持开源。你可以在网上通过 @acolombiadev 找到她。

相关阅读

探索更多 GitHub 内容

Docs

Docs

掌握 GitHub 所需的一切内容,都在这里。

前往 Docs

GitHub

GitHub

在 GitHub 上构建下一代产品——这是一个让任何人在任何地方构建任何东西的平台。

开始构建

Customer stories

Customer stories

认识那些使用 GitHub 进行构建的公司与工程团队。

了解更多

The GitHub Podcast

The GitHub Podcast

收听 GitHub Podcast,这档节目聚焦 GitHub 开源开发者社区内外的话题、趋势、故事与文化。

立即收听

查看原文 ↗

相关文章

如何评估 Coding Agent 的 Skills:LangChain 实战方法
深度LangChain·3月5日
如何评估 Coding Agent 的 Skills:LangChain 实战方法

LangChain 分享了为 Codex、Claude Code、Deep Agents CLI 构建并评估 Skills 的实践经验,核心是通过可复现的任务与清晰指标验证 Skills 是否真正提升 Agent 表现。文章给出一套四步评估流程:搭建干净测试环境、定义约束任务与指标、设计并拆分 Skills、对比不同配置下的性能。实测显示,加入 Skills 后 Claude Code 任务完成率显著提升,同时借助 LangSmith 的 tracing 与评测能力可以更快定位失败原因并迭代优化。

10 分钟
GitHub 与 Andela 经验:让全球开发者真正获得 AI 机会
深度GitHub·3月5日
GitHub 与 Andela 经验:让全球开发者真正获得 AI 机会

GitHub 与 Andela 在过去两年为全球 550 万人才网络推进结构化 AI 培训,已有 3,000 名工程师通过 AI Academy 接受 GitHub Copilot 实战训练。项目将 AI 学习嵌入真实生产流程,而非脱离业务的实验,帮助开发者更快理解遗留系统、提升信心并提高效率。文章指出,AI 技能差距的本质并非能力不足,而是工具、导师与实践环境的可获得性差异。

10 分钟