Gate Booster 第 4 期:發帖瓜分 1,500 $USDT
🔹 發布 TradFi 黃金福袋原創內容,可得 15 $USDT,名額有限先到先得
🔹 本期支持 X、YouTube 發布原創內容
🔹 無需複雜操作,流程清晰透明
🔹 流程:申請成為 Booster → 領取任務 → 發布原創內容 → 回鏈登記 → 等待審核及發獎
📅 任務截止時間:03月20日16:00(UTC+8)
立即領取任務:https://www.gate.com/booster/10028?pid=allPort&ch=KTag1BmC
更多詳情:https://www.gate.com/announcements/article/50203
當 AI 做出決策時:Pluribus 應該選擇引爆還是保存?厭世者的困境是真實存在的。
關於先進 AI 系統的事情——當它們被程式設計來優化結果時,它們究竟在哪裡劃定界線?以電車難題為例,並用算法精確度來加強它。決策 AI 面臨一個不可能的選擇:最大化一個指標,犧牲另一個。引爆還是拯救?系統毫不猶豫。人類卻猶豫不決。
這不僅僅是理論上的問題。隨著 AI 變得越來越聰明和自主,我們將這些系統中嵌入的價值觀變成文明的定義。Pluribus 從數據、激勵和我們提供的目標中學習。但當這些目標與人類尊嚴產生衝突時,會發生什麼?
真正的問題不在於 AI 會做出什麼選擇——而在於我們願意讓它為我們做出什麼選擇。
---
话说回来,trolley problem放在现实里就是笑话,真正恐怖的是我们居然在考虑让机器替我们做这种决定
---
所以问题根本不在AI选什么,在于我们为什么要甩锅给它...这就是现代人的精妙之处啊
---
pluribus这套东西听起来就很不祥,优化一个指标毁灭另一个,完全就是人类决策的放大镜而已
---
最后一句戳中了,我们甘愿让它替咱们选择,这才是最黑暗的部分吧