# OpenAI首次承认:我们可能要踩刹车了

Sam Altman 又写长文了。不过这次不是融资公告,而是 OpenAI 史上首份独立原则声明——《Our Principles》。

就在 GPT-5.5 刚发布、Anthropic 的 Mythos 模型泄露引爆全球 AI 安全恐慌的这个节骨眼上,Altman 亲笔定调了五条原则:民主化、赋能、全民繁荣、韧性、适应性。

字面上看是一份企业价值观声明。但逐字精读后,会发现每一句都暗藏信号。

## 一、"关键决策不该由 AI 公司独裁"

OpenAI 首次在正式文件里写:**"关键决策应通过民主流程做出,不应仅由 AI 实验室决定。"**

问题在于——OpenAI 自己就是全球最大的 AI 实验室。

## 二、史上首次:暗示可能暂停 AGI 开发

最炸裂的一条藏在"韧性"原则里:

> "在充分解决严重的对齐、安全或社会问题之前,我们可能需要暂停推进。"

这不是客套话。OpenAI 的 Charter 里从未有过"主动暂停"的表述。这是第一次说:我们自己也可能踩刹车。

## 三、AI 能制造新病原体?OpenAI 首次公开承认

Altman 明确列出了两个威胁:AI 让制造新病原体更容易、网络攻击能力增强。这是 OpenAI 首次在原则文件中承认 AI 的生物武器风险级别。

## 四、"我们烧钱是有理由的"

Altman 罕见地回应了外界对 OpenAI 财务的质疑:

> "我们买海量算力但收入很少——这看起来很奇怪。但背后的信念是全民繁荣。"

他在为那个"全民都能过上好日子"的 AGI 愿景辩护。

## 配图

![cover](https://blog.fishliu.com/usr/uploads/2026/04/1674478807.png)

![democracy](https://blog.fishliu.com/usr/uploads/2026/04/2136006907.png)

![pause](https://blog.fishliu.com/usr/uploads/2026/04/4122805377.png)

---

*你觉得呢?AGI 的未来,该由谁来定义?*

Last modification:April 29, 2026
如果觉得我的文章对你有用,请随意赞赏