可验证的人工智能:在人工智能政策中平衡创新与信任的关键

以下是ARPA Network创始人Felix Xu的客座文章.

美国政府对人工智能(AI)的态度发生了剧烈变化,强调加速创新而非监管监督。特别是,总统唐纳德·特朗普的行政命令《消除美国在人工智能领域的领导障碍》为人工智能的发展设定了新基调,根植于促进言论自由和推动技术进步。同样,美国副总统JD Vance拒绝支持全球人工智能安全协议,表明美国将优先考虑创新,而不妥协其竞争优势。

然而,随着人工智能系统在金融市场、关键基础设施和公共话语中的影响力日益增强,问题依然存在:我们如何能确保在不扼杀创新的情况下,保证人工智能模型驱动的决策和输出的信任和可靠性?

这就是可验证AI的作用,它提供了一种透明的、具有加密安全性的AI方法,确保责任感而无需过度监管。

缺乏透明度的人工智能挑战

人工智能的快速发展带来了一个新的时代,智能AI代理能够进行复杂和自主的决策。但是如果没有透明度,这些系统可能会变得不可预测和无法追责。

例如,金融人工智能代理依赖于复杂的机器学习模型来分析大量数据集,现在在披露要求上有所减少。虽然这鼓励了创新,但也产生了信任差距:如果无法了解这些人工智能代理是如何得出结论的,公司和用户可能会在验证其准确性和可靠性方面遇到困难。

由AI模型错误决策引发的市场崩溃并不仅仅是一个理论风险,如果在没有可验证的保障措施的情况下部署AI模型,这是一种可能性。挑战不在于放慢AI的发展速度,而在于确保其输出可以被证明、验证和信任。

著名的哈佛心理学家B.F. Skinner曾说过:“真正的问题不是机器是否思考,而是人是否思考。”在人工智能中,关键问题不仅在于这些系统有多智能,而在于人类如何验证和信任它们的智能。

如何可验证的人工智能弥补信任鸿沟

斯坦福人本人工智能研究所的执行董事拉塞尔·沃尔德总结了美国的人工智能方法:

“安全不会是主要关注点,而是加速创新和对技术是机会的信念。”

这正是可验证人工智能至关重要的原因。它使人工智能创新得以进行而不损害信任,确保人工智能输出可以以去中心化和保护隐私的方式进行验证。

可验证的人工智能利用诸如零知识证明(ZKPs)和零知识机器学习(ZKML)等密码学技术,为用户提供对人工智能决策的信心,而不暴露专有数据。

  • ZKP允许AI系统生成加密证明,以确认输出是合法的而不透露基础数据或过程。这确保了在监管监督最少的环境中仍然保持完整性。
  • ZKML 将可验证的 AI 模型上链,实现数学可证明的无信任 AI 输出。这对于 AI 预言机以及金融、医疗和治理等行业的数据驱动决策尤为关键。
  • ZK-SNARKs 将 AI 计算转换为可验证的证明,确保 AI 模型安全运行,同时保护知识产权和用户隐私。

从本质上讲,可验证的人工智能提供了一层独立的验证,确保人工智能系统保持透明、负责,并且可能是准确的。

可验证的人工智能:人工智能问责制的未来

美国的人工智能发展轨迹将走向激进创新。但行业必须倡导技术解决方案,以确保进步和信任,而不仅仅依赖政府监管。

一些公司可能会利用较宽松的人工智能法规推出没有充分安全检查的产品。然而,Verifiable AI 提供了一种强大的替代方案,使组织和个人能够构建可证明、可靠且抗滥用的人工智能系统。

在一个人工智能越来越多地做出重大决策的世界里,解决方案不是减缓进步,而是使人工智能可验证。这是确保人工智能保持创新、信任和长期全球影响力的关键。

在本文中提到
查看原文
本页面内容仅供参考,非招揽或要约,也不提供投资、税务或法律咨询。详见声明了解更多风险披露。
  • 赞赏
  • 评论
  • 分享
评论
0/400
暂无评论
交易,随时随地
qrCode
扫码下载 Gate.io APP
社群列表
简体中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • ไทย
  • Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)