人工智能80年发展历程,可以为英伟达提供的5个教训
激石Pepperstone(http://www.paraat.net/)报道:
英伟达首席执行官兼联合创始人黄仁勋有一个水晶球,而这个水晶球告诉他,他的公司正在创造一个新的产业——人工智能产业。在英伟达的财报电话会议上,他做出了激动人心的预测:未来五年将有数万亿美元的新投资,全球数据中心数量将翻一番。
预测是困难的,尤其是对未来的预测。不过,我们掌握着大量数据,它们可以帮助我们对未来做出有根据的猜测,或者至少可以突显出过去的预测在哪里、怎么样以及为什么未能如期实现。这些数据就是历史。
对今天的英伟达来说,这些数据就是人工智能80年的发展历程,其中包含了资金的高峰和低谷、竞争对手的研发方法,以及公众的好奇、焦虑和兴奋。
人工智能的历史始于1943年12月,当时神经生理学家沃伦·S·麦卡洛克(Warren S. McCulloch)和逻辑学家沃尔特·皮茨(Walter Pitts)按照(相对较新的)数理逻辑传统发表了一篇论文。在《神经活动的思想观念内在的逻辑演算》(A Logical Calculus of the Ideas Immanent in Nervous Activity)一文中,他们推测了理想化和简化的神经元网络,以及它们如何通过传递或不传递脉冲来执行简单的逻辑运算。
当时正在建立组织化学领域的拉尔夫·理莱(Ralph Lillie)将麦卡洛克和皮茨的工作描述为在缺乏“实验事实”的情况下“将‘现实’归因于逻辑和数学模型”。后来,当这篇论文的假设未能通过实证检验时,麻省理工学院(MIT)的杰罗姆·莱特文(Jerome Lettvin)观察到,虽然神经学和神经生物学领域忽视了这篇论文,但它启发了“那些注定要成为一个新领域(也就是现在的人工智能)的狂热爱好者”。
实际上,麦卡洛克和皮茨的论文正是“联结主义”(connectionism)的灵感来源,而联结主义正是当今占主导地位的人工智能的具体变体,只不过它现在的名字叫做“深度学习”。尽管它与大脑的实际工作原理并无关联(我们对大脑的工作原理仍然一无所知),但支撑这种人工智能变体的统计分析方法——“人工神经网络”——通常被人工智能从业者和评论家描述为“模仿大脑”。权威人士、领先的人工智能从业者德米斯·哈斯比斯(Demise Hassbis)在2017年宣称,麦库洛克和皮茨对大脑如何工作的虚构描述以及类似工作将“继续为当代深度学习研究提供基础”。
教训1:
谨防将工程与科学、科学与揣测、科学与充满大量数学符号和公式的论文混为一谈。
最重要的是,要抵制“我们都是上帝”的幻觉的诱惑。在过去的80年里,这种顽固而普遍的傲慢是科技泡沫和人工智能非理性繁荣周期性兴起的催化剂。
这就引出了人工通用智能(artificial general intelligence),即AGI。在不久的将来,我们将拥有具有类人智能甚至超级智能的机器。
1957年,人工智能先驱赫伯特·西蒙(Herbert Simon)宣告:“现在世界上已经有了会思考、学习和创造的机器。”他还预测,十年之内,计算机将成为国际象棋冠军。1970年,另一位人工智能先驱马文·明斯基(Marvin Minsky)笃定地说:“在三到八年内,我们将拥有一台具有普通人类智力水平的机器......一旦计算机获得控制权,我们可能再也无法夺回。我们将在它们的胁迫下生存。如果幸运的话,他们可能会把我们当宠物来养。”
预见到AGI的即将到来可谓意义重大,甚至可以改变政府的支出和政策。1981年,日本通商产业省为第五代计算机项目拨款8.5亿美元,目标是开发出能像人类一样进行推理的思维机器。作为回应,美国国防部高级研究计划局(DARPA)在经历了漫长的“人工智能寒冬”之后,于1983年开始通过“战略计算计划”(Strategic Computing Initiative)再次资助人工智能研究,目标是开发出“能像人类一样看、听、说和思考”的机器。
大约花了十年时间以及几十亿美元,各国的政府才不仅认识到了AGI,也认识到了老式人工智能的局限性。但在2012年,联结主义终于战胜了其他人工智能变种,关于即将到来的AGI的新一轮预测浪潮席卷全球。除了普通的AGI之外,OpenAI在2023年宣告,超级智能AI——“人类有史以来发明的最具影响力的技术”——可能会在十年内到来,“可能导致人类失能,甚至是灭绝”。
教训2:
对待这个闪闪发光的新事物要非常当心,要仔细、周到、明智地研究它。
这个问题与前几轮关于我们距离为机器赋予人类智能有多近的猜测或许没什么不同。问问深度学习的“教父”杨立昆(Yann LeCun)就知道了:“要让机器像人类和动物一样高效学习,我们还缺少一些重要的东西。但我们还不知道那是什么。”
由于“第一步谬误”(即如果一个人成功地迈出了上山的第一步,他就认为沿着这条路走下去就能到达山顶,但事实并非如此),多年来,AGI已多次“近在咫尺”。耶霍舒亚·巴尔-希勒尔(Yehoshua Bar-Hillel)是机器翻译领域的先驱,也是最早谈论机器智能局限性的人之一。他指出,如果有人演示了一台计算机正在做一件直到最近才有人认为它可以完成的事情,那么许多人就会认为,即使它做得很糟糕,那也只是技术进一步发展的问题,然后它就会完美无瑕地完成任务。人们普遍认为,只需耐心等待,最终就能实现这一目标。但现实却一次又一次地否定了这一点,早在20世纪50年代中期,巴尔-希勒尔就提出了警告。
教训3:
从不会做某件事到做不好某件事的距离,通常比从做不好某件事到做好某件事的距离要短得多。
20世纪50和60年代,由于驱动计算机的半导体处理速度突飞猛进,许多人陷入了“第一步谬误”中。随着硬件性能沿着“摩尔定律”(Moore’s Law)可靠的上升轨迹逐年提升,人们普遍认为机器智能将与硬件同步发展。
然而,除了不断提升的硬件性能,人工智能发展的新阶段还引入了两个新要素:软件和数据收集。从20世纪60年代中期开始,专家系统带来了对捕获和编程现实世界知识的新关注,特别是专业领域的专家知识,尤其是他们在实践中的经验法则。到20世纪80年代,据估计有三分之二的世界500强公司将这项技术应用于日常业务活动。
然而,到了20世纪90年代初,这种人工智能泡沫彻底破灭。众多人工智能初创公司倒闭,各大企业冻结或取消了他们的人工智能项目。早在1983年,专家系统先驱艾德·费根鲍姆(Ed Feigenbaum)就已经发现了导致他们消亡的“关键瓶颈”,即扩大知识获取过程的规模,“这是一个非常繁琐、耗时且昂贵的过程”。
专家系统还面临知识积累的挑战。由于需要不断添加和更新规则,因此这个系统维护起来既困难又昂贵。与人类智慧相比,专家系统还显示出思维机器始终存在的缺陷。它们“非常脆弱”,当被输入不寻常的信息时,就会犯下奇怪的错误,无法将自己的专业知识迁移到新的领域,也缺乏对周围世界的理解。在最基本的层面上,它们无法像人类那样从实例、经验和环境中学习。
教训4:
最初的成功,即企业和政府机构的广泛采用,以及大量的公共和私募投资,即使历时10年或15年,也不一定能创造出一个持久的“新产业”。泡沫往往会破灭。
在人工智能发展的起起伏伏中,两种完全不同的人工智能开发方法争夺着学术界、公共和私人投资者以及媒体的注意力。四十多年来,基于规则的符号人工智能(Symbolic AI)方法一直占据主导地位。但是,人工智能的另一种主要方法——基于实例、以统计分析为动力的联结主义(connectionism),在20世纪50年代末和80年代末也曾短暂地受到大力追捧和宣传。
在联结主义于2012年复兴之前,人工智能的研究与开发主要由学术界推动。
在教条主义(即所谓的“常态科学”)盛行的学术界,在符号人工智能和联结主义之间总是面临着二元选择。例如杰弗里·辛顿(Geoffrey Hinton)在2019年的图灵讲座(Turing Lecture)中就用大部分篇幅讲述了他和少数深度学习的信徒在主流人工智能和机器学习学者手中所经受的考验和磨难。此外,辛顿还对强化学习和他在DeepMind的同事们的工作进行了驳斥,可谓是典型的学术风格(即“我的教条才是真正的福音”)。
仅仅几年后,也就是2023年,DeepMind接管了谷歌的人工智能部门(辛顿也从谷歌离职),这主要是对OpenAI成功的回应,后者也将强化学习作为其人工智能开发的一个组成部分。然而,无论是DeepMind还是OpenAI,抑或是众多致力于发展AGI的人工智能“独角兽”,都没有迹象表明它们关注的重点不是当今的教条——也就是大规模语言模型(Large Language Models)。
2012年之后,人工智能的发展大体上已从学术界转向私营部门,但该领域的主要关注点仍只针对一种方法。
教训5:
不要把所有人工智能“鸡蛋”都放在同一个篮子里。
毫无疑问,黄仁勋是一位杰出的首席执行官,英伟达也是一家优秀的公司,因为其芯片的并行处理(最初设计用于高效渲染视频游戏)非常适合深度学习计算,它成功地迅速抓住了十多年前突然出现的人工智能机遇。即便行情一片大好,但黄仁勋仍然保持着警惕,以至于他在后来的员工演讲中,开场白总是“我们公司距离破产只有三十天。”
除了保持警惕(还记得安迪·格鲁夫(Andy Grove)领导下的英特尔吗?),人工智能过去80年的发展也可能有助于指导英伟达度过未来三十天或三十年的起伏。