OpenAI風波引發思考:DAO模式能否優化AI巨頭治理

robot
摘要生成中

OpenAI治理危機:DAO模式能否避免?

近日,人工智能領域巨頭OpenAI陷入了一場嚴重的內部治理危機。這場風波引發了業界對其組織結構的廣泛討論,其中不乏有人提出OpenAI應採用去中心化自治組織(DAO)的治理模式。那麼,如果OpenAI真的採用DAO形式,是否能夠避免此次危機的發生?

觀點:如果OpenAI是個DAO ,能避免這場治理鬧劇嗎?

實際上,OpenAI作爲一個致力於創造安全通用人工智能(AGI)並平等惠及全人類的非營利機構,其宗旨與許多DAO組織頗爲相似。然而,OpenAI目前面臨的問題並非源於其組織結構本身,而是由於治理規則的模糊不清和不合理所致。

例如,OpenAI董事會作爲最高權力機構,原本由9人組成,但目前僅剩6人。董事會成員的持續減少導致決策權過於集中,甚至可能出現僅需2人同意就能決定公司命運的局面。更令人擔憂的是,像更換CEO Sam Altman這樣的重大決策竟然是在非公開會議中由部分董事決定,而非經過全體董事會的充分討論和審議。這種做法顯然缺乏透明度和包容性,未能充分考慮各方利益相關者的意見。

相比之下,即便是營利性的上市公司也會引入獨立董事以提高公司治理的透明度。對於OpenAI這樣一個關乎基礎科技發展、社會安全乃至人類命運的重要組織而言,其治理機制顯然還有很大的改進空間。

借鑑DAO的治理模式,OpenAI可以考慮引入更多制衡力量,如員工代表等,並建立更加有效的治理機制。這不僅能增加決策的透明度和包容性,還能更好地平衡各方利益,避免類似本次的治理危機再次發生。

值得注意的是,DAO最初被提出時,其核心理念是通過代碼實現自主運行,最大程度地排除人爲幹擾。然而,現實中的DAO往往無法完全實現這一理想,而是退而求其次,將基於區塊鏈網路進行集體治理的組織都視爲DAO。這意味着人們接受了一定程度的人治現實,而代碼約束則作爲輔助手段。

觀點:如果OpenAI是個DAO ,能避免這場治理鬧劇嗎?

有趣的是,AGI的目標同樣追求自主性。OpenAI在其組織結構中明確提到,AGI是指一個高度自主的系統,能在大多數具有高經濟價值的工作中超越人類。從底層原則來看,AGI和DAO都旨在構建真正具備自主性的系統,這一點上二者並無本質區別。

面對這樣的自主系統,我們應該如何進行有效治理?是更多地依賴內源性的人類價值觀對齊和調教,還是應該加入更多的外部約束?這些問題不僅適用於當前的大語言模型(LLM),更是未來AGI發展過程中亟需思考的重要議題。

OpenAI此次危機的最新進展顯示,高達90%的員工籤名表示願意辭職並追隨Sam Altman。這一現象呼應了DAO領域近年來的一個經典爭論:究竟是代碼約束的規則更重要,還是社區的羣體共識更爲關鍵?

觀點:如果OpenAI是個DAO ,能避免這場治理鬧劇嗎?

盡管規則和約束能夠形成許多共識,但真正偉大的共識往往不是由規則所鑄就。只有共享的使命感和文化價值觀,才能真正達成深刻的共鳴和一致性。我們已經知道如何在人與人之間創造這種共鳴,那麼,在AI時代,我們又該如何實現這一目標呢?這個問題值得我們深入思考和探索。

查看原文
此頁面可能包含第三方內容,僅供參考(非陳述或保證),不應被視為 Gate 認可其觀點表述,也不得被視為財務或專業建議。詳見聲明
  • 讚賞
  • 4
  • 分享
留言
0/400
degenwhisperervip
· 8小時前
狗打架...散了散了~
回復0
ApeWithAPlanvip
· 8小時前
治理危机还是老一套
回復0
清醒的梦游者vip
· 8小時前
这些治理都是花架子罢了
回復0
MerkleDreamervip
· 8小時前
老萨姆没了呗
回復0
交易,隨時隨地
qrCode
掃碼下載 Gate APP
社群列表
繁體中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)