# OpenAI首次承认:我们可能要踩刹车了
Sam Altman 又写长文了。不过这次不是融资公告,而是 OpenAI 史上首份独立原则声明——《Our Principles》。
就在 GPT-5.5 刚发布、Anthropic 的 Mythos 模型泄露引爆全球 AI 安全恐慌的这个节骨眼上,Altman 亲笔定调了五条原则:民主化、赋能、全民繁荣、韧性、适应性。
字面上看是一份企业价值观声明。但逐字精读后,会发现每一句都暗藏信号。
## 一、"关键决策不该由 AI 公司独裁"
OpenAI 首次在正式文件里写:**"关键决策应通过民主流程做出,不应仅由 AI 实验室决定。"**
问题在于——OpenAI 自己就是全球最大的 AI 实验室。这句话的自反性,细品一下很有意思。
## 二、史上首次:暗示可能暂停 AGI 开发
最炸裂的一条藏在"韧性"原则里:
> "在充分解决严重的对齐、安全或社会问题之前,我们可能需要暂停推进。"
这不是客套话。OpenAI 的 Charter 里从未有过"主动暂停"的表述。这次是第一次说:我们自己也可能踩刹车。
## 三、AI 能制造新病原体?OpenAI 首次公开承认
在韧性原则中,Altman 明确列出了两个威胁:AI 让制造新病原体更容易、网络攻击能力增强。这是 OpenAI 首次在原则文件中承认 AI 的生物武器风险级别。
## 四、"我们烧钱是有理由的"
Altman 罕见地回应了外界对 OpenAI 财务的质疑:
> "我们买海量算力但收入很少——这看起来很奇怪。但背后的信念是全民繁荣。"
他在为那个"全民都能过上好日子"的 AGI 愿景辩护。但说实话,现在的 OpenAI,收入规模确实和它的算力投入不太匹配。
## 五、承认未来可能"要安全还是要自由"
最后一条原则叫"适应性"。Altman 坦承:未来可能需要在**赋能**(给用户更多自由)和**韧性**(加强安全管控)之间做取舍。
承认"不知道答案",这本身就是一种态度。
## 配图







---
*你觉得呢?AGI 的未来,该由谁来定义?*