*以下是ARPA Network創始人Felix Xu的客座文章.*美國政府對人工智能(AI)的態度發生了劇烈變化,強調加速創新而非監管監督。特別是,總統唐納德·特朗普的行政命令《消除美國在人工智能領域的領導障礙》為人工智能的發展設定了新基調,根植於促進言論自由和推動技術進步。同樣,美國副總統**JD Vance**拒絕支持全球人工智能安全協議,表明美國將優先考慮創新,而不妥協其競爭優勢。然而,隨著人工智能系統在金融市場、關鍵基礎設施和公共話語中的影響力日益增強,問題依然存在:我們如何能確保在不扼殺創新的情況下,保證人工智能模型驅動的決策和輸出的信任和可靠性?這就是可驗證AI的作用,它提供了一種透明的、具有加密安全性的AI方法,確保責任感而無需過度監管。## **缺乏透明度的人工智能挑戰**人工智能的快速發展帶來了一個新的時代,智能AI代理能夠進行復雜和自主的決策。但是如果沒有透明度,這些系統可能會變得不可預測和無法追責。例如,金融人工智能代理依賴於複雜的機器學習模型來分析大量數據集,現在在披露要求上有所減少。雖然這鼓勵了創新,但也產生了信任差距:如果無法瞭解這些人工智能代理是如何得出結論的,公司和用戶可能會在驗證其準確性和可靠性方面遇到困難。由AI模型錯誤決策引發的市場崩潰並不僅僅是一個理論風險,如果在沒有可驗證的保障措施的情況下部署AI模型,這是一種可能性。挑戰不在於放慢AI的發展速度,而在於確保其輸出可以被證明、驗證和信任。著名的哈佛心理學家B.F. Skinner曾說過:“真正的問題不是機器是否思考,而是人是否思考。”在人工智能中,關鍵問題不僅在於這些系統有多智能,而在於人類如何驗證和信任它們的智能。## **如何可驗證的人工智能彌補信任鴻溝**斯坦福人本人工智能研究所的執行董事拉塞爾·沃爾德總結了美國的人工智能方法:> **“安全不會是主要關注點,而是加速創新和對技術是機會的信念。”**> > 這正是可驗證人工智能至關重要的原因。它使人工智能創新得以進行而不損害信任,確保人工智能輸出可以以去中心化和保護隱私的方式進行驗證。可驗證的人工智能利用諸如零知識證明(ZKPs)和零知識機器學習(ZKML)等密碼學技術,為用戶提供對人工智能決策的信心,而不暴露專有數據。* ZKP允許AI系統生成加密證明,以確認輸出是合法的而不透露基礎數據或過程。這確保了在監管監督最少的環境中仍然保持完整性。* ZKML 將可驗證的 AI 模型上鍊,實現數學可證明的無信任 AI 輸出。這對於 AI 預言機以及金融、醫療和治理等行業的數據驅動決策尤為關鍵。* ZK-SNARKs 將 AI 計算轉換為可驗證的證明,確保 AI 模型安全運行,同時保護知識產權和用戶隱私。從本質上講,可驗證的人工智能提供了一層獨立的驗證,確保人工智能系統保持透明、負責,並且可能是準確的。## **可驗證的人工智能:人工智能問責制的未來**美國的人工智能發展軌跡將走向**激進創新**。但行業必須倡導技術解決方案,以確保進步和信任,而不僅僅依賴政府監管。一些公司可能會利用較寬鬆的人工智能法規推出沒有充分安全檢查的產品。然而,Verifiable AI 提供了一種強大的替代方案,使組織和個人能夠構建可證明、可靠且抗濫用的人工智能系統。在一個人工智能越來越多地做出重大決策的世界裡,解決方案不是減緩進步,而是使人工智能可驗證。這是確保人工智能保持創新、信任和長期全球影響力的關鍵。###### 在本文中提到
可驗證的人工智能:在人工智能政策中平衡創新與信任的關鍵
以下是ARPA Network創始人Felix Xu的客座文章.
美國政府對人工智能(AI)的態度發生了劇烈變化,強調加速創新而非監管監督。特別是,總統唐納德·特朗普的行政命令《消除美國在人工智能領域的領導障礙》為人工智能的發展設定了新基調,根植於促進言論自由和推動技術進步。同樣,美國副總統JD Vance拒絕支持全球人工智能安全協議,表明美國將優先考慮創新,而不妥協其競爭優勢。
然而,隨著人工智能系統在金融市場、關鍵基礎設施和公共話語中的影響力日益增強,問題依然存在:我們如何能確保在不扼殺創新的情況下,保證人工智能模型驅動的決策和輸出的信任和可靠性?
這就是可驗證AI的作用,它提供了一種透明的、具有加密安全性的AI方法,確保責任感而無需過度監管。
缺乏透明度的人工智能挑戰
人工智能的快速發展帶來了一個新的時代,智能AI代理能夠進行復雜和自主的決策。但是如果沒有透明度,這些系統可能會變得不可預測和無法追責。
例如,金融人工智能代理依賴於複雜的機器學習模型來分析大量數據集,現在在披露要求上有所減少。雖然這鼓勵了創新,但也產生了信任差距:如果無法瞭解這些人工智能代理是如何得出結論的,公司和用戶可能會在驗證其準確性和可靠性方面遇到困難。
由AI模型錯誤決策引發的市場崩潰並不僅僅是一個理論風險,如果在沒有可驗證的保障措施的情況下部署AI模型,這是一種可能性。挑戰不在於放慢AI的發展速度,而在於確保其輸出可以被證明、驗證和信任。
著名的哈佛心理學家B.F. Skinner曾說過:“真正的問題不是機器是否思考,而是人是否思考。”在人工智能中,關鍵問題不僅在於這些系統有多智能,而在於人類如何驗證和信任它們的智能。
如何可驗證的人工智能彌補信任鴻溝
斯坦福人本人工智能研究所的執行董事拉塞爾·沃爾德總結了美國的人工智能方法:
這正是可驗證人工智能至關重要的原因。它使人工智能創新得以進行而不損害信任,確保人工智能輸出可以以去中心化和保護隱私的方式進行驗證。
可驗證的人工智能利用諸如零知識證明(ZKPs)和零知識機器學習(ZKML)等密碼學技術,為用戶提供對人工智能決策的信心,而不暴露專有數據。
從本質上講,可驗證的人工智能提供了一層獨立的驗證,確保人工智能系統保持透明、負責,並且可能是準確的。
可驗證的人工智能:人工智能問責制的未來
美國的人工智能發展軌跡將走向激進創新。但行業必須倡導技術解決方案,以確保進步和信任,而不僅僅依賴政府監管。
一些公司可能會利用較寬鬆的人工智能法規推出沒有充分安全檢查的產品。然而,Verifiable AI 提供了一種強大的替代方案,使組織和個人能夠構建可證明、可靠且抗濫用的人工智能系統。
在一個人工智能越來越多地做出重大決策的世界裡,解決方案不是減緩進步,而是使人工智能可驗證。這是確保人工智能保持創新、信任和長期全球影響力的關鍵。
在本文中提到