# OpenAI首次承认:我们可能要踩刹车了

Sam Altman 又写长文了。不过这次不是融资公告,而是 OpenAI 史上首份独立原则声明——《Our Principles》。

就在 GPT-5.5 刚发布、Anthropic 的 Mythos 模型泄露引爆全球 AI 安全恐慌的这个节骨眼上,Altman 亲笔定调了五条原则:民主化、赋能、全民繁荣、韧性、适应性。

字面上看是一份企业价值观声明。但逐字精读后,会发现每一句都暗藏信号。

## 一、"关键决策不该由 AI 公司独裁"

OpenAI 首次在正式文件里写:**"关键决策应通过民主流程做出,不应仅由 AI 实验室决定。"**

问题在于——OpenAI 自己就是全球最大的 AI 实验室。这句话的自反性,细品一下很有意思。

## 二、史上首次:暗示可能暂停 AGI 开发

最炸裂的一条藏在"韧性"原则里:

> "在充分解决严重的对齐、安全或社会问题之前,我们可能需要暂停推进。"

这不是客套话。OpenAI 的 Charter 里从未有过"主动暂停"的表述。这次是第一次说:我们自己也可能踩刹车。

## 三、AI 能制造新病原体?OpenAI 首次公开承认

在韧性原则中,Altman 明确列出了两个威胁:AI 让制造新病原体更容易、网络攻击能力增强。这是 OpenAI 首次在原则文件中承认 AI 的生物武器风险级别。

## 四、"我们烧钱是有理由的"

Altman 罕见地回应了外界对 OpenAI 财务的质疑:

> "我们买海量算力但收入很少——这看起来很奇怪。但背后的信念是全民繁荣。"

他在为那个"全民都能过上好日子"的 AGI 愿景辩护。但说实话,现在的 OpenAI,收入规模确实和它的算力投入不太匹配。

## 五、承认未来可能"要安全还是要自由"

最后一条原则叫"适应性"。Altman 坦承:未来可能需要在**赋能**(给用户更多自由)和**韧性**(加强安全管控)之间做取舍。

承认"不知道答案",这本身就是一种态度。

## 配图

![T080 image 1](https://blog.fishliu.com/usr/uploads/2026/04/2789233497.png)
![T080 image 2](https://blog.fishliu.com/usr/uploads/2026/04/2314115877.png)
![T080 image 3](https://blog.fishliu.com/usr/uploads/2026/04/3744858237.png)
![T080 image 4](https://blog.fishliu.com/usr/uploads/2026/04/1839252929.png)
![T080 image 5](https://blog.fishliu.com/usr/uploads/2026/04/519848231.png)
![T080 image 6](https://blog.fishliu.com/usr/uploads/2026/04/1342483717.png)
![T080 image 7](https://blog.fishliu.com/usr/uploads/2026/04/2791650662.png)

---

*你觉得呢?AGI 的未来,该由谁来定义?*

Last modification:April 29, 2026
如果觉得我的文章对你有用,请随意赞赏