S
SkillNav

我们的 2026 年负责任 AI 进展报告

资讯Google2026-02-17T22:30:00+00:004 分钟阅读
我们的 2026 年负责任 AI 进展报告

我们发布了最新的《负责任 AI 进展报告》,分享我们如何将 AI Principles 应用于产品与研究开发。

an illustration of blue and white cubes

您的浏览器不支持 audio 元素。

收听本文

本内容由 Google AI 生成。生成式 AI 仍处于实验阶段

[[duration]] 分钟

更新于 2026 年 2 月 18 日

2025 年是 AI 发展的重要转折点:AI 开始成为有帮助、具备主动性的合作伙伴,能够进行推理并与现实世界互动。随着模型愈发复杂,全球个人与企业正从“探索尝试”迈向“深度集成”,并不断找到将这些工具融入日常工作与生活的新方式。AI 的变革潜力也变得更加清晰——从 科学发现 的基础性突破、医疗健康领域的临床里程碑,到能够显著提升个人生产力的 Agent 系统崛起。

今天,我们分享最新的《负责任 AI 进展报告》。自我们开始发布该系列报告以来,负责任 AI 开发方法持续成熟,并已全面嵌入产品开发与科研生命周期。2025 年,随着模型能力不断增强、个性化程度提升并走向多模态,我们依托稳健流程开展风险测试与缓解,并进一步强化产品内置的严格安全防护。为了以 Google 的速度与规模应对这些挑战,我们将 25 年积累的用户信任洞察,与由人类专家主导、AI 自动化支持的综合测试策略结合起来。

我们的 AI Principles 是指导研究、产品开发和商业决策的核心准则。最新报告详细说明了我们如何通过覆盖整个 AI 生命周期的多层治理机制,将这些原则落到实处——从初始研究、模型开发,到上线后的监测与修复。报告还展示了我们的系统如何在动态环境中识别新兴风险,并持续进行适配。

负责任并不只是阻止有害输出,同样意味着让更多人能够广泛使用这些工具,从而最大化个人与社会收益。把握好这个平衡,我们就能确保 AI 被用于解决过去难以攻克的重大社会挑战,例如:为 7 亿人提供洪水预警解码人类基因组,以及帮助预防失明

要建立公众对这些工具的信任,离不开与政府、学术界和公民社会的深度协作。随着技术持续演进,我们将继续致力于推动行业标准建设,并向更广泛的生态系统共享研究成果与工具,促进 AI 在全球范围内改善人们的生活。

查看原文 ↗

相关文章

资讯Simon Willison·3月6日
Clinejection 攻击披露:仅靠 Issue 分诊提示词即可攻陷 Cline 生产发布流程

研究者 Adnan Khan 披露了一条针对 Cline GitHub 仓库的完整攻击链:攻击者先通过 Issue 标题中的 prompt injection 控制 AI 分诊流程,再借助 GitHub Actions 缓存投毒影响夜间发布任务。尽管分诊工作流本身不含高价值密钥,但因与发布工作流共享缓存键,最终仍导致 NPM 发布凭据可被窃取。事件后 `cline@2.3.0` 曾被匿名攻击者发布(现已撤回),所幸未造成更严重后果。

3 分钟
Copilot 代码审查突破 6000 万次,GitHub 详解 Agent 架构演进
资讯GitHub·3月5日
Copilot 代码审查突破 6000 万次,GitHub 详解 Agent 架构演进

GitHub 表示,自 2025 年 4 月推出 Copilot code review 以来,使用量已增长 10 倍,如今占 GitHub 全站代码审查的五分之一以上。团队通过持续评估闭环与 Agent 化架构优化,将“好审查”聚焦在准确性、信号强度与速度三项核心指标,并在真实生产环境中用开发者反馈和问题修复率衡量效果。当前已有超过 1.2 万家组织在每个 pull request 上自动运行该能力,GitHub 下一步将推进更深度个性化与双向交互审查体验。

8 分钟