OpenAI又开源了:推出两个能在笔记本和手机上运行的开源模型

2025-12-27 15:20:53 · 作者: AI Assistant · 浏览: 0

OpenAI近日宣布推出两款开源语言模型gpt-oss-120b与gpt-oss-20b,它们可在高端笔记本和手机上运行,性能媲美其商业模型o4-mini和o3-mini。这一举措标志着OpenAI在开源策略上的重要转变,旨在增强AI技术的可访问性和安全性。

随着人工智能技术的不断演进,OpenAI近日宣布推出两款开源语言模型:gpt-oss-120bgpt-oss-20b。这两款模型是自2019年推出GPT-2以来,OpenAI首次发布的开源权重模型,标志着其在开源策略上的重要调整。gpt-oss-120bgpt-oss-20b不仅性能接近其商业版本,还能够在消费级硬件上运行,为开发者和研究者提供了更多灵活的选择。

开源策略的转变:从保密到开放

在推出ChatGPT之后,OpenAI一度采取了更为封闭的技术策略,以保护其核心知识产权。然而,随着市场竞争的加剧和其他公司在开源领域取得显著进展,尤其是DeepSeek等开源项目的崛起,OpenAI开始重新审视其开源策略。gpt-oss-120bgpt-oss-20b的发布,是OpenAI在这一转变上的具体体现。

OpenAI总裁、创始人之一的格雷格·布罗克曼(Greg Brockman)指出,开源模型与托管模型相辅相成,为开发者提供了更丰富的工具选择。通过这一举措,OpenAI希望能够在不同用户群体中建立更广泛的技术影响力,同时推动AI前沿研究的发展。

模型性能:媲美商业版本

gpt-oss-120bgpt-oss-20b在性能上表现突出。据官方数据显示,gpt-oss-120b在核心推理基准测试中与OpenAI o4-mini几乎持平,能够在单张80GB GPU上高效运行。在竞赛编程(Codeforces)、通用问题解决(MMLU和HLE)以及工具调用(TauBench)方面,gpt-oss-120b的表现优于OpenAI o3-mini,甚至达到或超过了o4-mini的水平。

gpt-oss-20b则在常见基准测试中与OpenAI o3-mini相当,甚至在竞赛数学健康相关查询方面超过了o3-mini。其仅需16GB内存即可在边端设备上运行,这使其在移动设备上的应用前景更为广阔。

技术细节:优化与创新

gpt-oss-120bgpt-oss-20b的训练过程结合了强化学习技术,并借鉴了OpenAI的o3和其他前沿内部模型。这些模型使用预训练和后训练技术,注重推理能力、效率以及在各种部署环境中的实际可用性

两个模型都基于Transformer架构,并采用了混合专家(MoE)技术,以减少处理输入所需的激活参数数量。具体而言,gpt-oss-120b每token激活51亿参数,而gpt-oss-20b每token激活36亿参数。模型的总参数分别为1170亿210亿,这表明两者在参数规模上均处于较高水平。

此外,gpt-oss-120bgpt-oss-20b采用了交替的密集型和局部带状稀疏注意力模式,类似于GPT-3。这种设计不仅提升了模型的推理能力,还增强了其在不同设备上的运行效率。gpt-oss-120b支持长达128k上下文长度,这在自然语言处理任务中具有重要意义。

推理强度:灵活适应不同需求

为了适应不同的使用场景,gpt-oss-120bgpt-oss-20b提供了低、中、高三种推理强度。这种设计让开发者可以根据具体需求在延迟性能之间进行权衡。例如,在需要快速响应的场景下,可以选择低强度推理;而在需要更高准确性的任务中,则可以切换到高强度模式。

开发者只需在系统消息中用一句话就能设置推理强度,这种简便的操作方式大大降低了模型的使用门槛,使其更易于集成到各种应用场景中。

安全性考量:思维链与数据过滤

在安全性方面,OpenAI也做出了重要努力。gpt-oss-120bgpt-oss-20b的思维链均未接受任何直接监督,这为监控模型的不当行为、欺骗性输出和滥用风险提供了基础。然而,由于思维链可能包含幻觉信息有害内容,开发者不应在应用中直接向用户展示思维链内容,而应将其用于后台推理和分析。

为了确保模型的安全性,OpenAI在预训练阶段过滤掉了与化学、生物、放射和核相关的特定有害数据。在后训练过程中,采用了审慎对齐指令层级技术,教会模型拒绝不安全的提示词,并防御提示词注入攻击。这些措施有助于构建一个更加安全的AI生态系统。

恶意微调:OpenAI的应对策略

考虑到开源模型可能被攻击者恶意微调的风险,OpenAI采取了一系列措施进行应对。为此,公司针对生物学网络安全数据对模型进行了微调,模拟攻击者的方式,并为每个领域创建了一个特定领域的“不拒绝”版本。通过这种方式,OpenAI能够评估这些模型在不同场景下的能力水平,确保其不会被滥用。

测试结果显示,即便使用行业领先的训练堆栈进行微调,这些经过恶意微调的模型仍无法达到高能力水平。这一结果表明,OpenAI在模型安全性方面的投入取得了显著成效。

红队挑战:构建更安全的开源生态系统

为了进一步提升开源模型的安全性,OpenAI还发起了一个奖金50万美元的“红队挑战”,鼓励全球的研究人员、开发人员和爱好者帮助识别新的安全问题。这一挑战不仅有助于发现潜在的安全漏洞,还能够促进整个AI社区对开源模型安全性的关注和研究。

通过这一举措,OpenAI希望推动行业在安全训练对齐研究方面的发展,为未来的AI技术应用奠定更加坚实的基础。

行业影响:开源与闭源的平衡

OpenAI在开源策略上的调整,引发了行业对开源与闭源关系的广泛讨论。与OpenAI不同,Meta近期表示将转向更保守的闭源软件策略,并计划成立超级智能实验室,专注于开发闭源模型。这一动向表明,大型科技公司正在重新评估其在开源与闭源之间的战略选择。

在这一背景下,OpenAI的开源举措不仅有助于其在市场竞争中保持领先地位,还能够推动整个AI行业向更加开放和安全的方向发展。通过提供高质量的开源模型,OpenAI希望能够激励更多的开发者和研究者参与到AI技术的创新中。

实际应用:降低使用门槛

开源模型的发布,为新兴市场、资源受限行业小型组织提供了新的机会。通过使用这些模型,他们可以降低AI技术的使用成本,加速技术落地和应用。例如,在教育、医疗、金融等领域,开源模型可以为资源有限的机构提供更强大的AI支持。

此外,gpt-oss-120bgpt-oss-20b的高性能表现,使其在实际应用中更具竞争力。无论是企业还是个人开发者,都可以利用这些模型进行创新,推动AI技术的发展。

开源社区:创新与协作的推动力

开源模型的发布,不仅为开发者提供了更多的工具选择,还促进了创新与协作。通过开源,开发者可以更方便地访问和使用这些模型,进而进行二次开发和优化。这种开放性,有助于构建更加活跃的AI社区,推动技术的不断进步。

在这一过程中,OpenAI通过提供高质量、高性能的开源模型,为开发者和研究者创造了更多可能性。他们可以基于这些模型开发新的应用,探索AI技术的边界,甚至进行更深层次的研究。

技术趋势:AI的未来走向

随着AI技术的不断发展,开源与闭源的争论仍在继续。然而,越来越多的公司开始意识到,开源不仅可以促进技术的传播和创新,还可以提高AI系统的安全性。通过共享模型权重,开发者可以更好地理解模型的工作原理,并对其进行优化和调整。

此外,模型轻量化高效部署也成为了当前AI技术发展的重要趋势。gpt-oss-120bgpt-oss-20b的成功发布,表明企业在追求高性能的同时,也在关注模型的可部署性和实用性。这种趋势将有助于AI技术更广泛地应用于各种场景,提高技术的可及性和可用性。

未来的展望:AI与人类的协作

在未来的AI发展过程中,开源与闭源的平衡将变得更加重要。通过提供高质量的开源模型,OpenAI希望能够与其他公司和研究者共同推动AI技术的发展,使其更加安全、透明和高效。

同时,随着AI技术的不断成熟,AI与人类的协作将成为新的发展方向。开源模型的发布,为这一协作提供了更多可能性,使得AI技术能够更广泛地应用于实际任务中,提高工作效率和生活质量。

结语

OpenAI推出gpt-oss-120bgpt-oss-20b,标志着其在开源策略上的重要转变。这两款模型不仅在性能上媲美其商业版本,还在安全性、可部署性和实用性方面取得了显著进展。通过这一举措,OpenAI希望能够推动AI技术的普及和应用,为开发者和研究者提供更多的机会和选择。

在这一过程中,开源社区的作用将愈发重要。通过共享和协作,开发者可以更好地利用这些模型,推动AI技术的创新和发展。未来的AI技术将更加开放、安全和高效,为人类社会带来更多的可能性和价值。

关键字:OpenAI, gpt-oss-120b, gpt-oss-20b, 开源模型, 安全性, 推理能力, 混合专家技术, 消费级硬件, 竞赛编程, 竞赛数学