OpenAI の「嘘つき門」の背後:制度的失敗の典型例

執筆:Web 4 研究センター

最大の哲学的問題は「誰かを信頼できるか」ではなく、「信頼が不要になるような制度をどう設計するか」である。さもなければ、我々は 19 世紀の統治構造を用いて、21 世紀でもっとも強力な権力ゲームに対応していることになる。

01 シリコンバレーを揺るがす調査報道

2026 年 4 月 6 日、『ニューヨーカー』は 18 か月をかけて完成させた深度調査報道を掲載し、OpenAI の内部で、いまなお多くの関係者の胸をざわつかせ続けている出来事の数々を暴いた。

この報道の中核となる素材は、OpenAI 前最高科学責任者 Ilya Sutskever が 2023 年秋にまとめた全 70 ページに及ぶ内部メモと、Anthropic の共同創設者 Dario Amodei が保管していた 200 ページ超の私的ノートである。記事が出た後、すべての証拠が同じ結論を指し示した。すなわち、OpenAI の舵取りを担う Sam Altman には、「一貫して嘘をつく」という行動パターンがある、ということである。

これは単なる一般的なテクノロジー分野のゴシップではない。人類史上でもっとも強力な技術企業の 1 つにおいて、その最高管理者が信頼に値するかどうかという、システムとしての疑義に関する問題だ。

02 これは Altman 個人だけの問題ではない

この角度からだけ理解してしまうなら、真に重要な問題を見落としてしまっている。

主流メディアが問い続けるのは:Altman は信頼できるのか?

しかし、本当に問うべきなのはこうだ。人類の文明を変え得る技術が、「自覚」に頼る制度設計の枠組みに委ねられたとき、危機は偶然ではなく必然である。

我々はこの現象に名前をつけた。AI ガバナンスの構造的な失活(失調)だ。

これは Altman 一人の問題ではない。AI 業界全体に共通する、根の深い病理である。

信頼とは、AI 分野で最も頻繁に登場する語の 1 つだ。ほぼすべての AI 企業があなたにこう言う。信頼してほしい、安全を最優先にしている、信頼できる我々の技術は人類に利益をもたらす、と。しかし『ニューヨーカー』の調査が明らかにした、厳しい事実がある。OpenAI は、信頼が不要になるような制度構造を、これまで一度も構築していなかった。

この組織の中核となる意思決定は、1 人が行うか、せいぜい数人で行う。外部からの相互牽制はない。強制力のある透明性メカニズムもない。約束はツールであって、拘束ではない。

カミュは『シーシュポスの神話』の中でこう書いた。「人生に値するかどうかを判断することは、哲学の根本的な問いに答えることに等しい」。同じ論理が AI 分野にも当てはまる。技術が文明を変えられるほどの力を持ち、制度による拘束があまりにも脆いとき、我々は、個人の誠実さに依存しなくても機能するシステムをどう構築すればいいのか?

03 裏切られた「約束のリスト」

『ニューヨーカー』の調査報道は、完全な「約束の裏切りリスト」を列挙している。

第一は 2019 年のマイクロソフトとの交渉だ。当時 OpenAI は、非営利組織から「上限付き利益(キャップ付き利益)」の実体へと転換しつつあった。Anthropic の共同創設者 Dario Amodei は、交渉の中で安全に関する中核条項「マージ&アシスト(合併と支援)」を提案した。つまり、他の会社のほうが安全面で AGI により近づいているなら、OpenAI は競争をやめて相手に合流しなければならない、というものだ。これが彼が交渉に臨むうえでの最低ラインだった。契約に署名した後、Amodei は、マイクロソフトにはその合併に対する拒否権があることを知り、条項は絵に描いた餅同然になっていた。彼が Altman に直接会って条項の真偽を確認した際、Altman は当初その条項が存在しないと否定した。Amodei が同僚にその場で裏取りさせたのちに、Altman はようやく認め、さらに「覚えていない」と弁明した。Amodei は私的ノートにこう書いた。「憲章の 80% が裏切られた。」

第二は 2023 年の計算資源(演算力)に関する約束だ。OpenAI は高らかに「スーパー・アラインメント・チーム」を立ち上げると宣言し、会社の計算資源の 20% をそこに投入すると約束した。しかし内部関係者によると、当該チームが実際に手にしていた計算資源は 1% から 2% にすぎず、しかも最も古く、最も性能の悪いチップが使われていたという。責任者の Jan Leike が抗議すると、幹部の返答は冷酷で容赦がなかった。「この約束は、そもそも現実的ではない。」ここで注意すべきなのは、選択的な記憶だ。約束は 20%、実際は 1%〜2%、そして最後に「約束は現実的ではない」と宣言する。実行上のズレではない。制度的な忘却である。

これは誠実さの問題ではない。制度が機能不全に陥ることの必然的な表れだ。権力が 1 人の手に集中し、その人物が約束に対する拘束力を本能的に弱めてしまう傾向を持つなら、約束は必ず、システムとして体系的に忘れられることになる。さらに再定義され、合理化される。これは Altman 一人の欠陥ではない。あらゆる中心化された権力構造に共通する特徴だ。

04 なぜ内部告発者はいつも失敗するのか

Ilya Sutskever は、取締役会に提出したメモの中で、次のような趣旨のことを書いている。すなわち、文明を変え得る技術を構築しようとする者は、前例のない責任を負う。しかし最終的にそのような位置につく人は、往々にして権力に関心を持つ人間だ、ということだ。

ここには深い逆説がある。最も拘束される必要がある人は、往々にして最も権力を得たいと思っている人である。そして既存の制度設計は、この逆説にまったく備えていない。

Ilya が内部から警告を発しようと決めたとき、彼は外部の監督機関に通報しなかった。AI 業界には外部の規制がほとんど存在しないためだ。また、彼は従業員による集団行動を組織しもしなかった。彼は科学者であって活動家ではないからだ。彼のすべての切り札は、ひとつの書類。そして取締役会の中にあるかもしれない「善意」だ。

結果は皆が知るとおりである。2023 年 11 月、取締役会は確かに Altman を解雇した。しかしその 5 日後には、資本、世論、そして従業員の利益という 3 つの圧力のもとで取締役会は完全に瓦解し、Altman は王者として帰還した。一方、吹き矛しようとした Ilya は権力の中枢から追い出された。

これは単に「Altman が強すぎる」という話ではない。制度設計に関する物語だ。権力の集中度が高い組織の内部では、内部告発のメカニズムの失活は構造的であり、偶然ではない。その理由は単純だ。内部告発者の切り札とは、雇用主と共謀したことで得られた評判と、職業上の将来だからだ。組織が否認し、引き延ばし、周縁化することを選んだ瞬間、個人はほとんど抵抗できない。中心化構造の本質とは、外部の声が入りにくく、内部の声が増幅されにくいようにすることにある。

同じ物語は Dario Amodei にも起きた。彼が内部から OpenAI の安全文化を変えられないと気づいたとき、彼は別の道を選んだ。つまり離脱して、Anthropic を創設し、自分の機関の中で自らの価値観を実践したのである。これは名誉ある撤退ではあるが、制度としての勝利ではない。なぜなら、創設者の個人的な信念に依存しており、いかなる制度的な保障にも依存していないからだ。

AI ガバナンスの核心的な問題は、「より良心のある AI リーダーをどう育てるか」ではない。「リーダーに良心が欠けていても正常に運転できる制度をどう設計するか」である。

05 ブロックチェーンは万能薬ではないが、不足しているピースはある

ここで、ブロックチェーン界隈の外側の読者には意外に感じられるかもしれない判断を提示しよう。ブロックチェーンの核心的な価値は、通貨発行ではなく、Web 3 の投機でもなく、ガバナンス技術としてのパラダイム革新――信頼の外部化――にある。

信頼の外部化とはどういう意味か? 伝統的な制度が依存しているのは、「ある組織やある人物を信頼する」ということだ。ブロックチェーンの解決策はまったく異なる。信頼を人から、ルールとコードへ移すのである。信頼できる第三者に依存せず、透明なルールと検証可能な証明に依存する。

AI ガバナンスの欠陥は、まさにこの外部化された信頼メカニズムを完全に欠いている点にある。OpenAI の約束は、OpenAI 自身が評価し、実行状況を判断する。これは監督(規制)ではなく自己採点である。外部の世界は、彼らが本当に計算資源の 20% を安全研究に使ったのかを独立して検証できず、彼らのモデル公開プロセスが本当に安全委員会の承認を経たのかも独立して確認できない。透明性は選択肢であって、構造的な要請ではない。

ブロックチェーンは、解決の可能性のある経路を提供する。AI モデルをチェーンに載せるだけで問題が解決するという話ではない。技術だけでは制度の問題を解決できない。しかし、透明で検証可能な記録メカニズムがあれば、AI システムの挙動をより透明にし、監査を可能にすることができる。たとえば、ブロックチェーンに基づく AI の意思決定ログは、重要なモデル更新や、計算資源配分の決定のそれぞれをチェーン上に記録し、改ざん不可能にできる。これは AI システムを完璧にするものではないが、少なくとも「システム的な約束の忘却」をより難しくする。

もちろん、これはあくまで方向性にすぎず、万能薬ではない。技術そのものはガバナンスの代替にならない。しかし、AI ガバナンスがほぼ空白の時代において、権力をより透明にし、制約と牽制をより構造化するような方案であれば、真剣に議論する価値がある。

06 さらに深い問い

OpenAI 危機の真の教訓は、Altman がどんな人物かにあるのではない。

むしろこうだ。人類文明の行方を左右し得る技術が、「自覚」に頼る制度の枠組みに落ちたとき、リスクは技術の暴走ではなく、制度の失活に由来する。

人類史上、重大な技術革命のたびに、ガバナンスのモデルは反復的に更新されてきた。核エネルギーは国際原子力機関と核不拡散の枠組みをもたらした。インターネットはデータ保護とサイバーセキュリティに関する規制を生んだ。権力構造を変え得る技術は、そのたびに人類に、新たな制度的枠組みの構築を迫ってきた。

AGI は、人類がまだ有効なガバナンス枠組みを築く前に、文明を変えてしまい得る最初の技術である。この枠組みは、いかなる創設者の個人的な品性にも依存してはならず、いかなる企業の自己の約束にも依存してはならない。構造的で、相互に制約・牽制するものであり、誰かの自覚に依存しない制度体系でなければならない。

しかし、我々は現時点ではまだそれを持っていない。

Ilya Sutskever の 70 ページのメモについて、『ニューヨーカー』の調査報道は、その核心の内容を復元している。Ilya は取締役会に対し、自分の判断を明確に伝えた。すなわち、Altman は AGI のボタンを握るべき人物ではない、と彼は考えている、ということである。

この文書は、2023 年の世界を震撼させた OpenAI の「宮廷闘争事件」の引き金となった。取締役会は実際に、これを根拠として解雇の決定を下した。しかし、その後の 5 日間で、業界全体の権力構造は自らの選択を下した。

これは、善人が悪人に勝つ話でもなければ、悪人が善人に勝つ話でもない。制度の話である。良い制度の下では、Altman のある種の行動は制約を受けるだろう。制度が失活した下では、最も善意の内部告発者でさえも、権力によって反転させられてしまう。

人類は、AGI が文明を変え得る時代に入ろうとしている。そして我々がこの時代を管理するために用いる制度は、いまだ 19 世紀のままである。

これは誰か一人の失敗ではない。これは制度設計の典型的な失敗事例だ。

そして本当の教訓は、「Altman を信じるな」ではない。「誰もが疑われ、制約と牽制を受け、透明な拘束から逃れられない制度を作ること」である。

信頼は必要だ。しかし AI の時代においては、信頼だけではまったく足りない。我々が必要としているのは、信頼が不要になるようなあの制度だ。

(本記事は『ニューヨーカー』2026 年 4 月 6 日の調査報道、OpenAI 公式声明、公開資料をもとに総合整理したもの。データは 2026 年 4 月まで。)

原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
コメントを追加
コメントを追加
コメントなし
  • ピン