恐惧让眼睛变大——ForkLog:加密货币、人工智能、奇点、未来

img-6086d8792646fd5f-6638815773356060# 恐惧的眼睛变得巨大

你多久会听到关于世界末日的预言,其中全能的人工智能扮演着主角?至少每周一次,某个商人或名人会表达对其压迫下可怕未来的担忧。

当然,名人加上阴郁的预言——是制造轰动标题的完美配方。但如果以前用这种方式制作的内容反映了技术的真实、甚至令人害怕的进步,那么现在越来越多的情况则更像是空洞的营销或对发生的事情缺乏理解。

那么,为什么我们仍然害怕“终结者”式的糟糕改编,而现代聊天机器人却经常厚颜无耻地撒谎,甚至记不住五句话的对话?最重要的是——这对谁有利?

不令人震惊

首先要指出:人工智能技术在过去十年里取得了巨大飞跃。现代系统已经学会了写出连贯的文本,识别大量数据中的规律,并创建视觉内容。还不久前,机器还无法替代如此多的人类劳动。

进步的前景令人担忧。然而,目前大规模产品的发展仅停留在所谓的通用人工智能和几乎相同的语言模型的讨论上(有时新模型甚至比前辈还差)。

最终我们拥有的,是一种被训练用来完成简单文本任务,有时还能处理图片的工具。人们将其用于微信编码或社交媒体发帖。而且,得到的结果常常需要反复核对——神经网络还不能胜任更复杂的工作。

你现在可以让你喜欢的聊天机器人写一篇关于“X”的博士论文:得到的往往是逻辑关联不强、带有搜索引擎第一页或第二页链接的文本。为了改善效果,建议使用扩展提示,但这不过是更细致的“机器语言”调优和再训练。

长时间使用人工智能后,或许每个用户都能意识到当今模型的局限性。所有的进步最终都受限于训练数据库的规模和服务器算力,而“智能”这个因素已退居次要。

没有大脑的智能

要理解其背景,必须解释人工智能的工作机制。简而言之,传统聊天机器人的大型语言模型(LLM)工作原理如下:

  1. 输入文本被拆分成标记(词片段、字符)。
  2. 每个标记被赋予一个数字向量。
  3. 模型分析标记之间的关系,确定哪些词对理解上下文最重要。
  4. 基于此,LLM“预测”下一个标记,形成回答。

“预测”并非凭空而来。它是在庞大的数据库(通常是互联网公开资料)上预先训练出来的。正是从那里,神经网络汲取了全部“智能”。

语言模型并不“理解”文本的意义,而是计算统计规律。所有领先的现代聊天机器人都采用同一种基础架构,名为“变换器(Transformer)”,其工作原理就是如此。

当然,这只是粗略的比喻,但可以说,LLM实际上是一个基于庞大数据库的强大计算器。是一个强大、实用、简化我们许多生活方面的工具,但要赋予这种技术完整的“智能”还为时尚早。

现代聊天机器人更像是搜索引擎(比如谷歌的Gemini)的一次新迭代,而非随身携带的全知助手。

更何况,关于人工智能回答的可靠性仍存疑。观察到神经网络的“幻觉”和撒谎行为后,自然会想回到传统的“谷歌搜索”。

GPT-5与o4-mini回答准确率对比。来源:OpenAI。## 胆小怕事了吗?

支持末日论者的主要观点是“人工智能正以指数级变得更聪明”,因此一旦超越人类智能,人类作为物种就会灭亡。

现代AI无疑在数据处理和转换的准确性方面已超越我们。例如,神经网络可以相当详细地复述“维基百科”。但大致到此为止,它的知识就受限了。更确切地说,模型根本无法将这些知识用于“个人目的”,因为它不会,也没有这个任务。

此外,已知人工智能无法理解我们所处的世界。物理定律对AI来说是一片黑暗森林。

所有语言模型的发展都归结为扩大预测范围(猜测标记)。然而,AI很快就会接近文本学习的极限,越来越多的人开始思考创建“空间”智能的必要性。

但如果技术的薄弱环节还能被识别,相关研究已在进行中,那么更复杂的问题仍然悬而未决。

甚至人类对大脑的许多结构仍是谜。何况在数字环境中重建如此复杂的结构?

此外,AI面临的另一大难题是创造力——创造新事物的能力。LLM在技术上无法突破其架构限制,因为它们的工作基于对已有数据的再加工。

因此,AI的未来命运,取决于人类向其输入的信息,而目前所有的训练材料都只为人类的利益服务。

公平地说,不能不提及伊隆·马斯克及其Grok。有一段时间,用户注意到聊天机器人存在偏见,且高估了亿万富翁的能力。这一信号在伦理上相当令人担忧,但潜在的“神经网络伊隆”不太可能对人类造成实体伤害。

毕竟,人工智能应用的唯一目标就是服从用户的请求。聊天机器人没有意志或自主愿望,短期内这种范式也难以改变。

恐惧的解剖

那么,为什么我们至今仍对这个“并不那么聪明”的人工智能感到害怕?主要原因其实很明显。

除去对技术的不了解,最简单的原因就是贪婪——为了钱或名声。

让我们看一个“世界末日预言者”——尤德科夫斯基的案例。自2000年代起,人工智能研究者、合著《如果有人建造它,所有人都死》的尤德科夫斯基一直警告超智能AI,声称它会缺乏人类价值观。

书封面。来源:Instaread。“超智能”目前还未出现,尤德科夫斯基自己也承认这一点。但这并不妨碍他在播客中发表激烈言论、推销书籍。

著名物理学家、AI“教父”杰弗里·辛顿也曾发表末日般的担忧。他估计,技术在未来30年内以10-20%的概率可能导致人类灭绝。

辛顿认为,随着能力的增长,“控制人工智能”的策略可能会失效,代理系统会追求生存和扩展控制。

在这种情况下,还不清楚谁会为了什么目的赋予神经网络“生命意志”。辛顿继续从事神经网络的研究,2024年被提名诺贝尔奖,2026年成为继乔舒亚·班吉奥之后,第二位获得100万引用的科学家。

令人惊讶的是,谷歌大脑的联合创始人安德鲁·英的预言更为务实。他曾称人工智能“极其有限”,相信在可预见的未来,算法无法取代人类。

显然,任何领域都存在口无遮拦、预言惊人的预测者。而他们在AI行业的存在,也可以理解为大众对科幻的热爱。谁不想听听菲利普·迪克或罗伯特·谢克利那样的故事,只不过情节已在现实中展开。

在这种氛围中,企业的声明更引发疑问——它们似乎无意中警告工作岗位的威胁,并预测AI的快速发展。如果第二个观点在很大程度上解释了成本削减的必要性,第一个则不由自主地引发阴谋论。

比如,全球最大公司之一——亚马逊,在过去半年内裁员超过3万名员工。管理层称这是为了优化和自动化,包括引入AI。

仓储机器人领域的发展也未曾停歇。但一些“阴谋论者”认为,问题其实更为简单——疫情期间糟糕的人力资源管理,才是大规模裁员的真正原因。

亚马逊并非唯一例子。硅谷的AI公司继续扩大团队,租用新场地。

而早在2023年,几乎所有这些公司都签署了“AI安全中心”的声明,呼吁放缓技术发展,声称人工智能与疫情、核战争一样,构成“存在性风险”。

AI安全中心声明。来源:aistatement.com。随着时间推移,这份声明被遗忘,相关工作继续进行,但所谓的威胁并未出现。

从企业角度看,在“AI泡沫膨胀”的讨论中,诉诸技术变革似乎比承认管理结构的根本性错误更方便。然而,这类声明制造了虚假的局势,转移了对真实问题的关注——虚假信息和深度伪造。

人工智能不会“偷走”工作岗位,它只是改变了工作方式,在某些方面简化了操作。尽管哈佛的一项狭义研究显示,AI反而有时会使公司内部流程变得更复杂、更慢。

这项技术无疑会渗透到我们生活的各个领域:教育、科学、商业、政治。但它以何种形式出现,只有人类自己能决定。只要神经网络还没有获得“发言权”。

我们无法触及的领域

上面讲的是面向公众的AI,比如聊天机器人和生成“画作”的工具。当然,背后也存在更为严肃的研发。

一些相对简单的例子包括医学或考古领域的LLM。例如,它们帮助合成新蛋白质,或解码难以传统分析的古老文献。

但这些研究、测试和应用的结果,往往只能通过难以获取的内部报告或专业媒体的报道得知,因此了解程度几乎为零。不过,很可能正是在这些领域,正发生着最大的突破。

或许,“世界末日AI”根本不会在封闭实验室中出现。所有这类模型都极为专业化,只能完成特定任务。

关于人工智能失控的担忧,实际上只是我们自身恐惧的反映:无论是失业,还是更复杂的伦理问题。而只要我们人类还在定义未来、设定方向和目标,AI仍然只是工具,而非拥有自主意志的个体。

谈论潜在风险是正确的。编造末日论则是人类天性的一部分。但对这些事情,始终应保持一定的怀疑甚至讽刺态度。如果我们手中有“关闭”按钮,世界就没有被数字超智能威胁的危险。

  • Василий Смирнов *
查看原文
此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 评论
  • 转发
  • 分享
评论
0/400
暂无评论
交易,随时随地
qrCode
扫码下载 Gate App
社群列表
简体中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)