OpenAI 开源模型 gpt-oss-120B 登陆 Together AI

现在就可以在 Together AI 的生产就绪基础设施上使用 gpt-oss-120B,享受经过验证的性能、高可靠性和全面的开发者工具。
OpenAI 今天在 Apache 2.0 许可下发布了 gpt-oss-120B 和 gpt-oss-20B。通过 Together AI 访问这些模型,旨在全球范围内降低各行业、社区和国家的 AI 部署门槛。
快速概览
- OpenAI 的新开源模型 gpt-oss-120B 和 gpt-oss-20B,基于 Apache 2.0 许可,支持无限修改和部署,现已在 Together AI 平台可用。
- 提供无服务器端点或专用端点,支持即时部署。
- 经过验证的性能和更优的经济性,在 Together 的基础设施上实现优化推理。
- 大规模高可靠性,提供 99.9% 的可用性 SLA 和全球部署。
- 全面的开发者工具,包括无限微调和完整的 AI 工程师控制权。
Together AI 的专用基础设施提供了《华盛顿邮报》在生产中部署 AI 应用所需的企业级可靠性。当像 OpenAI 开源模型这样的突破性模型可用时,Together AI 的平台确保我们能在第一天就以组织所需的性能标准部署它们。 — Nick Huber, Quora AI 生态系统负责人
OpenAI 的 gpt-oss-120B 和 gpt-oss-20B:专为推理任务打造的开源模型
OpenAI 发布的 gpt-oss-120B 和 gpt-oss-20B 是专为推理任务设计的开源模型。它们不仅仅是现有模型的放大版,而是在 Apache 2.0 许可下发布、专为推理构建的开源模型,同时保持了企业部署所需的安全标准。
开发过程体现了 OpenAI 对全球可访问性的承诺。通过在美国、欧洲和亚洲的倾听会议,他们收集反馈以确保这些模型能降低新兴市场、资源受限行业和小型组织的门槛。每个模型都经过了严格的安全训练和评估,OpenAI 在其准备框架下测试了恶意微调版本,以验证权重发布后的安全性。
模型规格:
📊 基准测试
🤖 gpt-oss-120B
🪶 gpt-oss-20B
🏛 OpenAI o3
📈 OpenAI o4-mini
推理与知识
MMLU
90.0
85.3
93.4
93.0
GPQA Diamond
80.1
71.5
83.3
81.4
Humanity’s Last Exam
19.0
17.3
24.9
17.7
竞赛数学
AIME 2024
96.6
96.0
95.2
98.7
AIME 2025
97.9
98.7
98.4
99.5
gpt-oss-120B 和 gpt-oss-20B 的变革性在于:你可以完全自由地针对专业领域进行微调,在任何地方部署,并构建拥有完整模型所有权的商业应用。
在 Together 的成熟基础设施上部署 gpt-oss-120B
OpenAI 的 gpt-oss-120B 现已在 Together AI 上以无服务器方式提供,消除了部署大型推理模型的摩擦。无需设置基础设施,没有限流,只需通过标准 API 访问,同时享受支持全球创新的性能保证和经济性。
💰
价格性能领先
- ✓ 相比专有替代方案更具经济优势
- ✓ 通过研究驱动的优化实现更快的推理
- ✓ 透明定价,无隐藏费用
🌍
大规模可靠
- ✓ 多区域部署,99.9% 可用性 SLA
- ✓ 病毒式流量高峰期间零限流
- ✓ SOC 2 合规,支持企业部署
🛠️
为 AI 工程师打造
- ✓ 统一平台中的研究级工具
- ✓ 微调、蒸馏和部署模型
- ✓ OpenAI 兼容的 API,便于迁移
Together 的前沿 AI 云专为以无妥协的性能和高可靠性部署世界最先进的 AI 模型而设计。对于此次发布,我们还与 NVIDIA 紧密合作——Together AI 和 NVIDIA 的研究与工程团队共同努力,为用户解锁更大的性能提升。当你立即开始通过我们使用 gpt-oss-120B 时,你将获得:
立即开始实验: 通过我们的 Playground 和聊天应用访问 gpt-oss-120B 测试能力,然后无缝切换到生产 API。
更优的经济性: 以每百万输入 token 0.15 美元、每百万输出 token 0.60 美元的价格部署 gpt-oss-120B。使用我们的 Batch API 进行更具成本效益的蒸馏和合成数据生成。
以经过验证的可靠性部署: 99.9% 的可用性 SLA,多区域部署,以及托管在北美 SOC 2 合规服务器上的企业级安全,确保你的智能体工作流即使在意外流量激增时也能成功完成。
无限制扩展: 从无服务器到专用集群的自动扩展,处理从原型设计到高峰流量期间全面生产的一切,无需限流。
为你的需求全面优化: 我们研究团队的创新——从 FlashAttention 到自定义内核——带来高达 50% 的成本节省和 2 倍的性能提升。将 gpt-oss-120B 作为专用端点访问以进行自定义微调,或使用我们的 Fine-Tuning API 根据你的特定用例定制模型。
这不仅仅是模型托管。Together AI 提供了一个全面的平台,旨在使像 gpt-oss-120B 这样的前沿 AI 模型从第一天起就具备生产就绪性,并提供企业应用所需的安全性、经过验证的性能和成本优势。
我们一直对 Together 快速为我们提供最新开源模型访问的能力印象深刻——通常在发布第一天——同时提供卓越的性能和成本效益。 — Nick Huber, Quora AI 生态系统负责人
实际应用与快速上手
OpenAI 的 gpt-oss-120B 和 gpt-oss-20B 解锁了跨领域的应用:
新兴市场创新: 资源受限地区的组织可以针对当地语言微调 gpt-oss-120B 和 gpt-oss-20B,并以支持可持续商业模式的成本部署。
政府数字主权: 在气隙环境中部署 gpt-oss-120B 和 gpt-oss-20B,实现完全的数据控制,同时保持经过验证的生产性能。
研究与教育: 学术机构获得 gpt-oss-120B 和 gpt-oss-20B 架构和训练方法的完全透明度——实现专有模型无法进行的研究。
企业定制: 针对专业工作流调整 gpt-oss-120B 和 gpt-oss-20B,并与现有系统集成,无需依赖供应商。
通过 Together AI 的生产 API 开始使用 gpt-oss-120B:
from together import Together
client = Together()
response = client.chat.completions.create(
model="openai/gpt-oss-120b",
messages=[],
stream=True
)
for token in response:
if hasattr(token, 'choices'):
print(token.choices[0].delta.content, end='', flush=True)
立即开始构建:
- 交互式 Playground — 在生产前测试复杂推理
- API 文档 — 集成指南和示例
- Batch API — 针对大工作负载的高性价比处理
- 微调访问 — 针对你的特定推理任务进行定制
OpenAI 开源模型,运行在 Together AI 云基础设施上
OpenAI 的 gpt-oss-120B 和 gpt-oss-20B 证明前沿 AI 可以真正开源——对所有人可访问、可无限定制、可在任何地方部署。Together AI 通过经过验证的价格性能、高可靠性和全面的工程控制,使这些模型具备生产应用所需的可操作性。
这些模型代表了强大的开源工具,使全球组织能够以完整的模型所有权和控制权进行构建、创新和创造新机会。
准备好部署 OpenAI 的开源模型了吗?
觉得有用?分享给更多人