本文档反映了我们在过去两年中完善的战略,包括OpenAI内部和外部许多人的反馈。AGI的时间表仍然不确定,但我们的《宪章》将指导我们在整个人类发展过程中以人类的最大利益为出发点。
OpenAI的使命是确保通用人工智能(AGI)——我们指的是在最具经济价值的工作中超越人类的高度自主系统——造福全人类。我们将尝试直接建立安全有益的AGI,但如果我们的工作有助于其他人实现这一结果,我们也会认为我们的使命已经完成。为此,我们致力于以下原则:
广泛分布的好处
我们承诺利用我们对AGI部署的任何影响力,确保其用于造福所有人,并避免使用人工智能或AGI伤害人类或过度集中权力。
我们的首要信托义务是对人类。我们预计需要调集大量资源来完成我们的使命,但我们将始终努力采取行动,最大限度地减少员工和利益相关者之间可能损害广泛利益的利益冲突。
长期安全
我们致力于进行使AGI安全所需的研究,并推动人工智能社区广泛采用此类研究。
我们担心后期AGI发展成为一场没有时间采取足够安全预防措施的竞争性比赛。因此,如果一个价值观一致、安全意识强的项目在我们之前接近构建AGI,我们承诺停止与该项目竞争,并开始协助该项目。我们将根据具体情况制定协议,但一个典型的触发条件可能是“未来两年成功的几率甚至更大”
技术领导力
为了有效应对AGI对社会的影响,OpenAI必须处于人工智能能力的前沿——仅凭政策和安全宣传是不够的。
我们相信,在AGI之前,人工智能将产生广泛的社会影响,我们将努力在与我们的使命和专业知识直接一致的领域发挥领导作用。
我们将积极与其他研究和政策机构合作;我们寻求建立一个全球社会,共同应对AGI的全球挑战。
我们致力于提供公共产品,帮助社会走上AGI之路。如今,这包括发布我们的大部分人工智能研究,但我们预计,安全和安保问题将在未来减少我们的传统发布,同时增加共享安全、政策和标准研究的重要性。
好文章,需要你的鼓励
卢森堡大学研究团队开发的RLDP框架首次将强化学习应用于差分隐私优化,创造性地解决了AI训练中隐私保护与模型效果的矛盾。该方法如同智能教练,能动态调整隐私保护策略,在四种语言模型上实现平均5.6%的性能提升和71%的训练时间缩短,同时增强了抗隐私攻击能力,为敏感数据的AI应用开辟了新路径。
这项由北京大学人工智能研究院完成的研究,首次从数据压缩理论角度揭示了大型语言模型存在"弹性"现象——即使经过精心安全对齐,模型仍倾向于保持预训练时的行为分布。
腾讯混元团队联合北京大学提出MixGRPO技术,通过混合ODE-SDE采样策略和滑动窗口机制,将AI图像生成训练效率提升50%-71%,同时在多项人类偏好评估指标上超越现有方法。该技术采用"从难到易"的渐进优化策略,专注于图像生成早期阶段的重点优化,并引入高阶求解器进一步加速训练过程,为AI图像生成的产业化应用提供了更高效可行的解决方案。