恐懼讓眼睛變大 - ForkLog:加密貨幣、人工智慧、奇點、未來

img-6086d8792646fd5f-6638815773356060# 恐懼的眼睛看得更遠

你多久聽一次關於世界末日的預言,其中全能的人工智慧扮演著主角?至少每週都會有某個商人或名人表達對其壓迫下可怕未來的擔憂。

當然,名人加上陰鬱的預測——是吸引眼球的完美配方。但如果以前這類內容反映的是技術的真實且有時令人害怕的進展,那麼現在越來越多的情況則像是空洞的行銷或對現實的誤解。

為什麼我們仍然被糟糕的《終結者》故事嚇到?現代聊天機器人經常厚顏無恥地說謊,甚至連五句對話都記不住,卻還能引發恐懼?更重要的是——這對誰有利?

不令人震驚

首先要指出:過去十年來,人工智慧技術取得了巨大飛躍。現代系統已能撰寫連貫的文本、辨識大量數據中的規律,並創作視覺內容。還不久前,機器還無法取代如此多的人類勞動。

進步的前景令人擔憂。然而,目前大規模產品的發展僅停留在所謂的通用人工智慧和幾乎相同的語言模型的討論上(有時新模型甚至比前代更差)。

我們最終擁有的,是一個用來協助完成簡單文本任務,有時也能處理圖片的工具。人們將其用於V字碼或社交媒體貼文的撰寫。而且,得到的結果常常需要再三核對——神經網絡還無法應付更複雜的工作。

你現在可以請你喜愛的聊天機器人寫一篇題為「X」的博士論文:結果會是一篇語意不連貫、帶有搜尋引擎前後頁鏈接的文章。為改善效果,建議使用擴展提示,但這只不過是更細緻的「機器語言」調整和再訓練。

長期使用人工智慧後,或許每個用戶都會意識到當前模型的局限性。所有的進展最終都卡在訓練數據的規模和伺服器算力上,而「智慧」這個因素則退居次要。

無腦的智慧

要理解背景,必須解釋人工智慧的運作機制。簡單來說,傳統聊天機器人的大型語言模型(LLM)運作方式如下:

  1. 輸入文本被拆分成標記(詞片段、符號)。
  2. 每個標記被轉換成數值向量。
  3. 模型分析標記之間的關聯,判斷哪些詞最重要以理解語境。
  4. 基於此,LLM「預測」下一個標記,形成回應。

「預測」並非空穴來風。它是在龐大的資料庫(通常是網路公開資料)上預先訓練出來的。正是從這裡,神經網絡汲取了所有的「智慧」。

語言模型並不以人類理解的方式「理解」文本,而是計算統計規律。所有領先的現代聊天機器人都採用同一種名為「變換器」(Transformer)的基本架構,運作原理相同。

當然,這是粗略的比喻,但可以說,LLM就像是基於龐大資料庫的強大計算器。是一個強大、實用且能簡化許多生活層面的工具,但要說它擁有完整的智慧,還為時過早。

現代聊天機器人更像是新版的搜尋引擎(比如Google的Gemini),而非隨身的全知助理。

此外,對人工智慧回答的可靠性仍存疑。經過統計幻覺和虛假信息的數據後,很多人都會想回歸傳統的「Google一下」。

GPT-5與o4-mini回答準確度比較。資料來源:OpenAI.## 嚇一跳了嗎?

支持末日論者的主要論點是:「人工智慧正以指數速度變得更聰明」,因此一旦超越人類智慧,人類作為物種就將走到盡頭。

當然,現有的人工智慧在數據處理和轉換方面已經遠遠超越我們。例如,神經網絡可以相當詳細地重述《維基百科》。但大致就止於此,因為它們的知識無法用於「個人目的」,也不具備這樣的能力,因為它們本身沒有這個需求。

此外,已知人工智慧並不理解我們所處的世界。物理定律對AI來說就像是黑暗森林。

所有語言模型的發展都集中在擴展預測範圍(猜測標記)上。然而,AI很快就會逼近文本學習的極限,越來越多的聲音呼籲建立「空間智慧」。

但如果技術的弱點還可以辨識,且相關研究已在進行,更複雜的問題仍然懸而未決。

甚至人類的腦部結構許多方面仍是謎團,更何況在數位環境中重建如此複雜的系統。

此外,另一個幾乎無法逾越的障礙是創造力——產生新事物的能力。LLM在技術上無法突破其架構限制,因為它們的運作基於對已有資料的再加工。

因此,人工智慧的未來,取決於人類輸入的資訊,而目前所有訓練資料都只為人類的利益服務。

公平地說,伊隆·馬斯克及其Grok也值得一提。曾有人注意到該聊天機器人的偏見,以及對這位億萬富翁能力的高估。這個信號在倫理層面相當令人擔憂,但潛在的「神經伊隆」短期內不太可能對人類造成實質傷害。

畢竟,人工智慧應用的唯一目標就是服從用戶的請求。聊天機器人沒有意志或自主願望,短期內這一範式也不太可能改變。

恐懼的解剖

為什麼我們至今仍被這個「不太聰明」的人工智慧所恐懼?主要原因其實很簡單。

除了對技術的不理解,最基本的原因是:貪婪——追求金錢或名聲。

我們來看看一個「末日預言者」——伊利澤·尤德科斯基的案例。這位人工智慧研究者和《如果有人建造,它,所有人都會死》一書的合著者,自2000年代起就警告超級智能AI可能會失去人類價值觀。

書封。資料來源:Instaread。「超智慧」尚未出現,這點尤德科斯基自己也承認。但這並不妨礙他在播客中發表激烈言論,並推銷他的書。

著名物理學家、AI之父杰弗里·辛頓也曾發出末日預言。他估計,這項技術在未來30年內有10-20%的概率導致人類滅絕。

辛頓認為,隨著能力的提升,控制人工智慧的策略可能會失效,代理系統將追求生存並擴展控制範圍。

目前尚不清楚,誰會為何目的賦予神經網絡「生命意志」。辛頓仍在研究神經網絡,並在2024年被提名諾貝爾獎,2026年成為史上第二位獲得百萬引用的科學家(第一位是控制論奧斯卡·貝恩齊奧)。

令人驚訝的是,谷歌大腦的聯合創始人安德魯·英則更為務實。他曾稱人工智慧是「極其有限的」技術,並相信在可預見的未來,算法無法取代人類。

顯然,任何領域都存在口出狂言的預言家。而他們的存在,也可以用人們對科幻的熱愛來合理化。誰不想聽聽像菲利普·迪克或羅伯特·謝克利那樣的故事,只不過情節已在當前現實中展開。

在這樣的氛圍中,對大型企業的聲明更令人疑惑。它們似乎無意中警告工作崗位的威脅,並預測人工智慧的迅速發展。第二點在很大程度上是為了降低成本,但第一點則不由自主地引發更多陰謀論。

例如,全球最大公司之一亞馬遜,在過去半年內裁員超過3萬人。管理層稱這是為了優化流程和推動自動化,包括引入人工智慧。

倉儲機器人的發展並未停止。但一些人認為,問題更為簡單——疫情期間的HR管理不善,導致大規模裁員。

亞馬遜並非唯一例子。硅谷的AI公司仍在擴充員工和租用新空間。

而早在2023年,幾乎所有這些公司都簽署了一份由AI安全中心(Center for AI Safety)發出的聲明,呼籲放慢技術發展,聲稱人工智慧與疫情和核戰一樣,構成「存在性風險」。

AI安全中心聲明。資料來源:aistatement.com。隨著時間推移,這份聲明被遺忘,相關工作仍在進行,但明顯的威脅並未出現。

從企業角度來看,在談論膨脹的AI泡沫時,將技術變革作為解釋比承認管理層的結構性錯誤更方便。然而,這些聲明反而營造出錯誤的現象,轉移了對假資訊和深偽技術的關注。

人工智慧並非在偷走工作崗位,而是在改變工作方式,在某些方面甚至使之更簡單。儘管哈佛的一項小規模研究顯示,AI反而有時會使公司內部流程變得更複雜、更慢。

這項技術必將滲透到我們生活的各個領域:教育、科學、商業、政治。但它將以何種形式出現,只有人類自己決定。畢竟,神經網絡目前還沒有發聲權。

我們無法觸及的

前述內容主要是關於公開的AI,比如聊天機器人和生成圖像工具。當然,幕後還存在更為先進的研發。

相對簡單的例子包括醫學或考古領域的LLM。例如,它們幫助合成新蛋白質,或解讀難以傳統分析的古老文獻。

但這些研究、測試和應用的結果,往往只能通過內部報告或專業媒體的刊載來得知,因此了解程度幾乎為零。不過,很可能正是在這些領域,正發生著最大的突破。

「末日AI」模型甚至不太可能在封閉實驗室中出現。這些模型都非常專門,只能完成特定任務。

所有對人工智慧失控的擔憂,僅是我們自身恐懼的反映:不管是失業還是更複雜的倫理問題。但只要我們人類掌握未來的方向,設定目標,AI仍然只是工具,而非擁有自主意志的個體。

談論潛在風險是正確的。編造末日預言則是人性的一部分。但這些事情都應以懷疑甚至諷刺的態度來看待。只要我們手中還有「關閉」按鈕,我們的世界就不會受到數字超智慧的威脅。

瓦西里·斯米爾諾夫

查看原文
此頁面可能包含第三方內容,僅供參考(非陳述或保證),不應被視為 Gate 認可其觀點表述,也不得被視為財務或專業建議。詳見聲明
  • 讚賞
  • 留言
  • 轉發
  • 分享
留言
0/400
暫無留言
交易,隨時隨地
qrCode
掃碼下載 Gate App
社群列表
繁體中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)