OpenAI风波引发思考:DAO模式能否优化AI巨头治理

robot
摘要生成中

OpenAI治理危机:DAO模式能否避免?

近日,人工智能领域巨头OpenAI陷入了一场严重的内部治理危机。这场风波引发了业界对其组织结构的广泛讨论,其中不乏有人提出OpenAI应采用去中心化自治组织(DAO)的治理模式。那么,如果OpenAI真的采用DAO形式,是否能够避免此次危机的发生?

观点:如果OpenAI是个DAO ,能避免这场治理闹剧吗?

实际上,OpenAI作为一个致力于创造安全通用人工智能(AGI)并平等惠及全人类的非营利机构,其宗旨与许多DAO组织颇为相似。然而,OpenAI目前面临的问题并非源于其组织结构本身,而是由于治理规则的模糊不清和不合理所致。

例如,OpenAI董事会作为最高权力机构,原本由9人组成,但目前仅剩6人。董事会成员的持续减少导致决策权过于集中,甚至可能出现仅需2人同意就能决定公司命运的局面。更令人担忧的是,像更换CEO Sam Altman这样的重大决策竟然是在非公开会议中由部分董事决定,而非经过全体董事会的充分讨论和审议。这种做法显然缺乏透明度和包容性,未能充分考虑各方利益相关者的意见。

相比之下,即便是营利性的上市公司也会引入独立董事以提高公司治理的透明度。对于OpenAI这样一个关乎基础科技发展、社会安全乃至人类命运的重要组织而言,其治理机制显然还有很大的改进空间。

借鉴DAO的治理模式,OpenAI可以考虑引入更多制衡力量,如员工代表等,并建立更加有效的治理机制。这不仅能增加决策的透明度和包容性,还能更好地平衡各方利益,避免类似本次的治理危机再次发生。

值得注意的是,DAO最初被提出时,其核心理念是通过代码实现自主运行,最大程度地排除人为干扰。然而,现实中的DAO往往无法完全实现这一理想,而是退而求其次,将基于区块链网络进行集体治理的组织都视为DAO。这意味着人们接受了一定程度的人治现实,而代码约束则作为辅助手段。

观点:如果OpenAI是个DAO ,能避免这场治理闹剧吗?

有趣的是,AGI的目标同样追求自主性。OpenAI在其组织结构中明确提到,AGI是指一个高度自主的系统,能在大多数具有高经济价值的工作中超越人类。从底层原则来看,AGI和DAO都旨在构建真正具备自主性的系统,这一点上二者并无本质区别。

面对这样的自主系统,我们应该如何进行有效治理?是更多地依赖内源性的人类价值观对齐和调教,还是应该加入更多的外部约束?这些问题不仅适用于当前的大语言模型(LLM),更是未来AGI发展过程中亟需思考的重要议题。

OpenAI此次危机的最新进展显示,高达90%的员工签名表示愿意辞职并追随Sam Altman。这一现象呼应了DAO领域近年来的一个经典争论:究竟是代码约束的规则更重要,还是社区的群体共识更为关键?

观点:如果OpenAI是个DAO ,能避免这场治理闹剧吗?

尽管规则和约束能够形成许多共识,但真正伟大的共识往往不是由规则所铸就。只有共享的使命感和文化价值观,才能真正达成深刻的共鸣和一致性。我们已经知道如何在人与人之间创造这种共鸣,那么,在AI时代,我们又该如何实现这一目标呢?这个问题值得我们深入思考和探索。

此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 4
  • 分享
评论
0/400
degenwhisperervip
· 07-15 00:13
狗打架...散了散了~
回复0
ApeWithAPlanvip
· 07-15 00:13
治理危机还是老一套
回复0
清醒的梦游者vip
· 07-15 00:04
这些治理都是花架子罢了
回复0
MerkleDreamervip
· 07-14 23:59
老萨姆没了呗
回复0
交易,随时随地
qrCode
扫码下载 Gate APP
社群列表
简体中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)