本文档反映了我们在过去两年中完善的战略,包括OpenAI内部和外部许多人的反馈。AGI的时间表仍然不确定,但我们的《宪章》将指导我们在整个人类发展过程中以人类的最大利益为出发点。
OpenAI的使命是确保通用人工智能(AGI)——我们指的是在最具经济价值的工作中超越人类的高度自主系统——造福全人类。我们将尝试直接建立安全有益的AGI,但如果我们的工作有助于其他人实现这一结果,我们也会认为我们的使命已经完成。为此,我们致力于以下原则:
广泛分布的好处
我们承诺利用我们对AGI部署的任何影响力,确保其用于造福所有人,并避免使用人工智能或AGI伤害人类或过度集中权力。
我们的首要信托义务是对人类。我们预计需要调集大量资源来完成我们的使命,但我们将始终努力采取行动,最大限度地减少员工和利益相关者之间可能损害广泛利益的利益冲突。
长期安全
我们致力于进行使AGI安全所需的研究,并推动人工智能社区广泛采用此类研究。
我们担心后期AGI发展成为一场没有时间采取足够安全预防措施的竞争性比赛。因此,如果一个价值观一致、安全意识强的项目在我们之前接近构建AGI,我们承诺停止与该项目竞争,并开始协助该项目。我们将根据具体情况制定协议,但一个典型的触发条件可能是“未来两年成功的几率甚至更大”
技术领导力
为了有效应对AGI对社会的影响,OpenAI必须处于人工智能能力的前沿——仅凭政策和安全宣传是不够的。
我们相信,在AGI之前,人工智能将产生广泛的社会影响,我们将努力在与我们的使命和专业知识直接一致的领域发挥领导作用。
我们将积极与其他研究和政策机构合作;我们寻求建立一个全球社会,共同应对AGI的全球挑战。
我们致力于提供公共产品,帮助社会走上AGI之路。如今,这包括发布我们的大部分人工智能研究,但我们预计,安全和安保问题将在未来减少我们的传统发布,同时增加共享安全、政策和标准研究的重要性。
好文章,需要你的鼓励
OpenAI和微软宣布签署一项非约束性谅解备忘录,修订双方合作关系。随着两家公司在AI市场竞争客户并寻求新的基础设施合作伙伴,其关系日趋复杂。该协议涉及OpenAI从非营利组织向营利实体的重组计划,需要微软这一最大投资者的批准。双方表示将积极制定最终合同条款,共同致力于为所有人提供最佳AI工具。
中山大学团队针对OpenAI O1等长思考推理模型存在的"长度不和谐"问题,提出了O1-Pruner优化方法。该方法通过长度-和谐奖励机制和强化学习训练,成功将模型推理长度缩短30-40%,同时保持甚至提升准确率,显著降低了推理时间和计算成本,为高效AI推理提供了新的解决方案。
中国科技企业发布了名为R1的人形机器人,直接对标特斯拉的Optimus机器人产品。这款新型机器人代表了中国在人工智能和机器人技术领域的最新突破,展现出与国际巨头竞争的实力。R1机器人的推出标志着全球人形机器人市场竞争进一步加剧。
上海AI实验室研究团队深入调查了12种先进视觉语言模型在自动驾驶场景中的真实表现,发现这些AI系统经常在缺乏真实视觉理解的情况下生成看似合理的驾驶解释。通过DriveBench测试平台的全面评估,研究揭示了现有评估方法的重大缺陷,并为开发更可靠的AI驾驶系统提供了重要指导。