人工智能(artificial intelligence, AI) 的概念自从1956年诞生以来,已然经历了60多年的发展。在这期间伴随着神经科学、计算机科学以及人工智能学科本身的发展,联结主义符号主义两种人工智能发展路径间不断相互摩擦、超越乃至于融合,从第一代与第二代人工智能的“牙牙学语”,逐渐形成了当前人工智能迈向“第三代”的发展局面。本文将从科学角度哲学角度结合分析两种主要发展路径的核心思想与局限性,并从人工智能研究者的角度对当前人工智能哲学研究做出笔者视角的讨论与反思。

写在文前 1 :

在广义的人工智能哲学研究中,除了联结主义与符号主义,常常还存在行为主义这一发展路径。其是由 MIT Brook教授 进行细化和定义的。行为主义大多认为意识不仅有大脑的参与,而是整个身体系统共同作用的结果,其背后反映的是具身哲学的思想。

但笔者认为,行为主义本身并没有逃脱出联结主义对神经科学的解构范畴,仅仅只是具像化了其中生物体反应外界的一部分“联结”。因此,本文将对行为主义的探讨并入联结主义的讨论范畴。

写在文前 2 :

从人工智能定义以及所应用的科学方法角度出发,将人工智能方法分类为所谓的两种路径是很不严谨的,例如支持向量机方法是一种典型的人工智能(机器学习)方法,但其实它并没有蕴含过多符号主义或者联结主义的思想。另外,因为符号主义出现较早,其横跨了机器学习概念的出现前后,而联结主义出现较晚,其与机器学习概念甚至是深度学习概念几乎重合,而人工智能概念包括机器学习,机器学习概念包括深度学习,这也导致两种“主义”分类的尴尬。在这里指出后,本文将依照传统的研究思路进行讨论,相当于先容忍了这种不严谨。

符号主义

在多数研究工作中,符号主义人工智能被归类为第一代人工智能,它主张人类思维的基本单元是符号,人类认知的过程是符号运算,表现为知识表示和推理。符号主义人工智能擅长研究人类的逻辑思维活动,学习过程是从经验或规则出发,根据前提推出结论的过程,采用从一般到特殊的演绎式推理,是一种“自上而下”的模式。

符号主义人工智能的基础是公理化理论和数理逻辑,特点在于逻辑推理过程是可解释和错误可追溯的,换句话说,符号主义人工智能因为其遵循普遍数理逻辑,其行为的可解释性很高,同时较难出现预期之外的行为,更为可控。

符号主义人工智能的早期探索主要是逻辑推理的研究,即如何使用逻辑符号系统来表达逻辑思维的过程,因而又被称为“逻辑主义”。基于为特定任务的逻辑推理研究,产生了早期人工智能领域大规模应用的专家系统。但是,早期专家系统所“学会的逻辑推理”是由程序编写者制定的,一个显然的局限是知识获取瓶颈。知识引导的人工智能之所以能展示知识推理等智能化行为,是因为它运用了常识或专家知识。人工智能根据专家知识来执行专家的任务,其推理引擎高度依赖专家知识获取,但这些知识库是封闭的,并且需要由领域专家来构建专家知识,因而,无法自主获取知识,这也是专家系统在当前已然被淘汰主要原因。但随着知识表示技术的发展,出现了以知识图谱为首的现代知识表示方法,可以对普遍存在于人类社会的多模态知识进行抽取、抽象、建模,并且通过抽象知识表示进行一定的数理逻辑推理。但同时,因为引入了高级的知识表示抽象,知识推理部分的可解释性显然降低了。

在哲学范畴中,符号主义一直面临一个经典的悖论问题:哥德尔不完全性定理。其证明了对于任何一个公理化系统,都存在此公理体系所无法判定真伪的命题。这表明符号系统构建的逻辑形式系统不可能是无所不包的,它无法保证在完备的形式系统中推出所有为真的结论,即不可能同时满足“完备性”和“无矛盾性”两个特征。因而,不存在一个无所不能的符号化人工智能系统。

但现阶段的人工智能还处于追赶人类智能阶段,而不是追赶“上帝”的阶段,而人类本身显然也不可能是一个无所不包的全能“符号”系统。因此,笔者认为符号主义当前面临的哲学问题主要还是“符号主义是否能在哲学意义上概括人脑的运行机制?”。由于符号主义纲领的基础是数理逻辑,而形式化与确定性是数理逻辑的重要特点。众多哲学家由此认为这是符号主义模拟“人类情感与意识”的最根本障碍,因为“显然人类的情感与意识是无法形式化的”,笔者对此表示怀疑,会在笔者反思章节中具体讨论。

联结主义

类似的,在多数研究工作中,联结主义人工智能被归类为第二代人工智能,它的核心思想来源于神经科学,采用的是由特殊到一般的归纳式推理,依赖的是假设检验、相关性分析、线性预测、时间序列分析等数学方法,学习过程是从大数据中发现隐藏的特征和规律,拟合反映特征的正面数据,排除特征异常的反面数据,这种学习方式是一种“自下而上”的模式。

联结主义理论起源于人们对于大脑结构与工作方式的研究。大脑由大量的神经细胞构成脑中神经细胞的数量应该为$40×10^9$左右,其中有1/5的神经细胞位于大脑新皮层,这一部分被认为负责包括语言处理在内的各种认知活动。大脑皮层的一个细胞平均与其他细胞具有4000个联结,那么在大脑新皮层部分就有$3.3×10^{13}$个联结。这些神经细胞密切相连构成一个复杂的网络系统。每一个神经细胞都可以被看做是一个简单处理器,这些处理器收集输入的电化学脉冲,当输入的信号总量达到一定程度时,神经细胞就会产生行动电位(指神经脉冲的传递过程中在神经细胞表面发生的电位的暂时变化),并通过神经纤维把脉冲传递到神经轴突(为输出端)和神经纤维的分支上。可以看出,上述过程已经和现代神经网络实现非常相似,也是深度学习方法的核心。

笔者认为,从科学角度来说联结主义系统通过模仿人类大脑的运作机理来实现对人类智能的模仿,可以说是相比符号主义更接近“意识”的实现。现实应用的效果也证实了这一点,当今深度学习方法已然证明了自己在推理,感知,生成等领域的统治力,在个别任务中已经能与人旗鼓相当甚至借助计算资源的优势超越人类,典型代表如计算机视觉领域中,人眼都难以辨认的伪装目标识别。

同时相对的,因为以深度学习为首的联结主义方法中利用的是“万千神经元的相互作用”,其输出结果的不确定性与黑箱效应尤为严重,在复杂感知任务中几乎无法将模型某部分的“激活”与“未激活”解释为对输出的特定影响。但庆幸的是,当前对于深度学习可解释性的研究是很火热的,已经产出了众多卓有成效的方法。

两种路径的关系

笔者认为,现阶段两种路径的关系几乎是正交的,并不是水火不容的,甚至本身两种主义的哲学层次就是相互不影响的。符号主义的核心思想主要集中于用形式化系统描述人类智能,其主要应用集中于现代知识建模方法如知识图谱,但是知识图谱的核心推理步骤以及自然语言处理部分依然大规模应用深度学习方法;联结主义的核心是利用模仿人类大脑的神经结构完成,但是其核心运算依然是用广义的形式化系统在描述特征与“情感”(深度学习网络能在图灵机上运行,其必然可以被拆分为严格的数理推理过程,简而言之就是逃不开加减乘除四则运算)。因此,哲学意义上,两种路径在当前的人工智能领域中已然形成了你中有我,我中有你的难以分割局面。

笔者反思

结合前文提到的两种路径分类严重不严谨问题,笔者认为在当前人工智能研究已然超出了提出“联结主义”与“符号主义”的研究者的想象,逐渐作为一个“人工智能”整体,在发展路径上越走越远了。划句话说,其已经逐渐成为一个严肃的、需要定量讨论的科学问题,希望在哲学层次总结出一个人工智能发展路径已然不具有太多现实意义,或者换句话说,通过分析符号主义与联结主义,已经不太能得出有意义的,“真正具有情感”人工智能的哲学思想了。

那难道我们就只能失去对未来“能完全模拟人的强人工智能”的哲学设想了吗?笔者认为不是的,甚至当前的人工智能发展水平已经接触到了“强人工智能”的范畴。以下给出一些管中窥豹,抛砖引玉的个人观点与现实例子,以证明上述笔者的拙见:

  1. 欧陆哲学指出,人类所谓的情感与意识,以及其外现出的行为,大部分来自于对以往经验的抽象总结与泛化,换句绝对一点的话说,就是人的意识本质是记忆组成的,如果没有记忆,人脑就像一个没有插电的电脑,只是一个空转的执行器,执行着生理本能,而不会产生“意识”。典型例子就是极强的正向或反向刺激,会在人脑中迅速形成“习惯”、“癖好”乃至“成瘾”。
  2. 美国FACEBOOK公司旗下的人工智能研究机构 FAIR,在2022年初(也就是最近)发布了其最新的图像语言感知模型 「DALLE2」。DALLE2 能在完全没有额外数据训练的情况下,输入自然语言描述,输出语言描述的图像。
  3. DALLE2 模型其使用的核心部分 transformer 模型,在2020年至2022年间有多篇论文已经证明其应用于自然语言任务时,可能只是记住了训练数据中的特定语句进行问答(如用于问答任务时,如果待选回答皆为模型没有见过的新语句,其基本无法回答正确)。
  4. 人类大脑在不同的环境中,接收不同层次的教育,可能完全表现出不同的智商水平以及感知能力。
  5. 人类的“泛化能力”并不是大多数人想象中那么强,典型例子就是四维空间的想象,人脑就完全无法做到,以及初生的婴儿并不能通过认识苹果,自己认识梨。

结合以上观点以及事实,我们可以总结出:

核心观点

虽然当前人工智能方法因为其“无法像人一样举一反三”以及“好像仅仅记住了训练数据”而被认为离强人工智能很远,但有没有可能,即便是仅仅记住了某些过往经验,其实就和人脑的执行逻辑没有哲学意义上的巨大鸿沟了呢。因为人脑其实也只是利用神经元的化学结构与物理结构“记住了”过往的所见所闻,并且因此改变了对外界的反应。而所谓的完全泛化能力,其实人脑也无法做到,只是因为大多数人在几十年的人生生涯中见过的事物太多,基本很难遇到经验中找不到的。

上述给出的 DALLE2 模型,在笔者看来就是通过高层次抽象的“记忆”,产生了已经能和人相似的感知,推理能力。