# OpenAI首次承认:我们可能要踩刹车了
Sam Altman 又写长文了。不过这次不是融资公告,而是 OpenAI 史上首份独立原则声明——《Our Principles》。
就在 GPT-5.5 刚发布、Anthropic 的 Mythos 模型泄露引爆全球 AI 安全恐慌的这个节骨眼上,Altman 亲笔定调了五条原则:民主化、赋能、全民繁荣、韧性、适应性。
字面上看是一份企业价值观声明。但逐字精读后,会发现每一句都暗藏信号。
## 一、"关键决策不该由 AI 公司独裁"
OpenAI 首次在正式文件里写:**"关键决策应通过民主流程做出,不应仅由 AI 实验室决定。"**
问题在于——OpenAI 自己就是全球最大的 AI 实验室。
## 二、史上首次:暗示可能暂停 AGI 开发
最炸裂的一条藏在"韧性"原则里:
> "在充分解决严重的对齐、安全或社会问题之前,我们可能需要暂停推进。"
这不是客套话。OpenAI 的 Charter 里从未有过"主动暂停"的表述。这是第一次说:我们自己也可能踩刹车。
## 三、AI 能制造新病原体?OpenAI 首次公开承认
Altman 明确列出了两个威胁:AI 让制造新病原体更容易、网络攻击能力增强。这是 OpenAI 首次在原则文件中承认 AI 的生物武器风险级别。
## 四、"我们烧钱是有理由的"
Altman 罕见地回应了外界对 OpenAI 财务的质疑:
> "我们买海量算力但收入很少——这看起来很奇怪。但背后的信念是全民繁荣。"
他在为那个"全民都能过上好日子"的 AGI 愿景辩护。
## 配图



---
*你觉得呢?AGI 的未来,该由谁来定义?*