本文档反映了我们在过去两年中完善的战略,包括OpenAI内部和外部许多人的反馈。AGI的时间表仍然不确定,但我们的《宪章》将指导我们在整个人类发展过程中以人类的最大利益为出发点。
OpenAI的使命是确保通用人工智能(AGI)——我们指的是在最具经济价值的工作中超越人类的高度自主系统——造福全人类。我们将尝试直接建立安全有益的AGI,但如果我们的工作有助于其他人实现这一结果,我们也会认为我们的使命已经完成。为此,我们致力于以下原则:
广泛分布的好处
我们承诺利用我们对AGI部署的任何影响力,确保其用于造福所有人,并避免使用人工智能或AGI伤害人类或过度集中权力。
我们的首要信托义务是对人类。我们预计需要调集大量资源来完成我们的使命,但我们将始终努力采取行动,最大限度地减少员工和利益相关者之间可能损害广泛利益的利益冲突。
长期安全
我们致力于进行使AGI安全所需的研究,并推动人工智能社区广泛采用此类研究。
我们担心后期AGI发展成为一场没有时间采取足够安全预防措施的竞争性比赛。因此,如果一个价值观一致、安全意识强的项目在我们之前接近构建AGI,我们承诺停止与该项目竞争,并开始协助该项目。我们将根据具体情况制定协议,但一个典型的触发条件可能是“未来两年成功的几率甚至更大”
技术领导力
为了有效应对AGI对社会的影响,OpenAI必须处于人工智能能力的前沿——仅凭政策和安全宣传是不够的。
我们相信,在AGI之前,人工智能将产生广泛的社会影响,我们将努力在与我们的使命和专业知识直接一致的领域发挥领导作用。
我们将积极与其他研究和政策机构合作;我们寻求建立一个全球社会,共同应对AGI的全球挑战。
我们致力于提供公共产品,帮助社会走上AGI之路。如今,这包括发布我们的大部分人工智能研究,但我们预计,安全和安保问题将在未来减少我们的传统发布,同时增加共享安全、政策和标准研究的重要性。
好文章,需要你的鼓励
Anthropic发布SCONE-bench智能合约漏洞利用基准测试,评估AI代理发现和利用区块链智能合约缺陷的能力。研究显示Claude Opus 4.5等模型可从漏洞中获得460万美元收益。测试2849个合约仅需3476美元成本,发现两个零日漏洞并创造3694美元利润。研究表明AI代理利用安全漏洞的能力快速提升,每1.3个月翻倍增长,强调需要主动采用AI防御技术应对AI攻击威胁。
NVIDIA联合多所高校开发的SpaceTools系统通过双重交互强化学习方法,让AI学会协调使用多种视觉工具进行复杂空间推理。该系统在空间理解基准测试中达到最先进性能,并在真实机器人操作中实现86%成功率,代表了AI从单一功能向工具协调专家的重要转变,为未来更智能实用的AI助手奠定基础。
Spotify年度总结功能回归,在去年AI播客功能遭遇批评后,今年重新专注于用户数据深度分析。新版本引入近十项新功能,包括首个实时多人互动体验"Wrapped Party",最多可邀请9位好友比较听歌数据。此外还新增热门歌曲播放次数显示、互动歌曲测验、听歌年龄分析和听歌俱乐部等功能,让年度总结更具互动性和个性化体验。
这项研究解决了现代智能机器人面临的"行动不稳定"问题,开发出名为TACO的决策优化系统。该系统让机器人在执行任务前生成多个候选方案,然后通过伪计数估计器选择最可靠的行动,就像为机器人配备智能顾问。实验显示,真实环境中机器人成功率平均提升16%,且系统可即插即用无需重新训练,为机器人智能化发展提供了新思路。