书城心理学具身心智:认知科学和人类经验
37522100000017

第17章 涌现属性与联结主义(1)

5.1自组织:替代方案的根源

通过正念/觉知静心传统,我们对认知科学与考察人类经验之间对话的探讨已经进入了第二个阶段。在第一个阶段我们看到作为表征束(a bundleof representation)的认知行动者的概念如何在当今的认知主义以及对经验的警觉、开放的考察的初始阶段发挥着核心的作用。在第二阶段,主导的论题已经转变为涌现属性的概念。这个关键概念有着复杂的历史,这段历史为我们的介绍提供了一个切入点。

在控制论的早期形成年代,人们就已经提出并广泛讨论了主导认知科学的符号操作进路的各种替代选项。例如,在梅西会议(Macy Conferences)上,受到广泛讨论的观点是:实际的大脑中似乎没有规则,没有中央逻辑处理器,信息似乎也没有储存在精确的位置上。确切地说,大脑运作可以被看作是基于分布式的大规模相互联结,以至于神经元全体之间的实际联结因经验而改变。简言之,神经元全体展现给我们的是一种自组织的能力,而这在符号操作范式中是找不到的。1958年,弗兰克·罗森布拉特(FrankRosenblatt)建造了“感知器”(the Perceptron),这个简单的装置具有某种识别的能力,而其基础纯粹是类神经元组分之间的联结的变化。类似地,W·R·阿什比(W.R.Ashby)首次进行了具有随机相互联结的巨系统的动力学研究,这个研究的结果表明随机的相互联结呈现了一致的整体行为。

正统的历史将会提到,这些替代的观点完全地被驱逐出理智图景以支持在第3章中讨论的计算观念。只是到20世纪70年代晚期,这些观点才在认知主义正统(丹尼尔·丹尼特诙谐地称其为“高教会计算主义”(HighChurch Computationalism))统治25年之后再次全面复苏。重新对这些观点产生兴趣的一个起作用的因素就是物理学和非线性数学都对自组织观念有了重新发现,以及人们能够更容易地使用高速计算机。

近来再次引起审视自组织的动机来自于人们认识到认知主义存在两个公认的不足。第一个是:符号信息加工是基于逐一使用的序列规则。当手头任务要求大规模序列运算(比如图像分析或者天气预报)时,这个“冯·诺依曼瓶颈”的局限性就变得异常显着。孜孜以求的并行加工算法鲜有成功,因为整个计算的正统势力似乎正好与之背道而驰。

第二个重要局限,即符号处理是局部化的(localized):系统的符号或规则的任何一部分的丢失或失灵都将导致严重的故障。与此相比较,分布式运算则非常值得期待,这样至少具备对出错(multilations)的相对等势性(relative equipotentiality)和免疫性。

在认知主义占主导的最初20年中,表达这一经验顶点的最好方式就是注意到在研究共同体中逐渐兴起的如下信念:在性能尺度上(in the scale ofperformances)有必要将专家和儿童翻转。认知主义最初的尝试是针对最一般问题的解决,比如自然语言翻译或者设计“通用问题解决器”。这些试图与高度训练的专家智力进行较量的尝试,被看作处理有趣且艰深的问题。

随着这些尝试变得更加谦逊和局部性(local),一个明显的变化是人们认识到,更深层和更基本的智力类型是婴幼儿的智能,婴儿能够从分散的日常发声中习得语言,也能从海量的光线中构造有意义的对象。认知主义的结构已经远离了来自生物学的启发;一个人并不想将认知的还原为生物的,但是用认知主义正统所建议的计算策略尝试处理最普通的任务时还不如微小的昆虫速度快。类似地,大脑耐受损伤的弹性(resiliency)或者生物认知适应新环境却不危及其所有技能(competence)的灵活性在神经生物学家看来是理所当然的,但是在认知主义的计算范式中却无处可见。

5.2联结主义策略

于是,在认知科学的这个替代的方向上,大脑再次成为隐喻和观念的主要来源。理论和模型不再以抽象的符号描述为起点,而代之以大批类神经的、简单的、非智能元素,当它们恰当地联结的时候,会产生有趣的全局属性。这些全局属性体现和表达了我们正在寻找的认知能力。

于是,整个进路依赖于引入这种恰当的联结,而这一点是通过一个规则完成的。这个规则的内容是:联结的逐渐改变是从一个相当任意的初始状态开始的。一个被研究得最透彻的学习规则是“海布规则”。1949年,唐纳德·海布(Donald Hebb)提出,学习可能基于大脑中神经元之间关联活动的程度变化:如果两个神经元倾向于一起被激活,那么它们的联结被加强;相反则减弱。因此系统的联结性与它的变化历史不可分离,并且与为该系统定义的任务类型有关。既然真正的行为发生在联结的层次上,人们就将这一研究方向称为联结主义(经常被叫做新联结主义)。

今天,造成人们对这一进路兴趣激增的一个重要因素就是引入了一些有效的方法,这些方法能够追踪发生在这些网络中的变化。统计学方法的引入已经引起极大的关注,统计学办法能给系统提供一种全局能量函数以允许我们追踪系统如何达到收敛状态。

让我们来考虑一个例子。取一定数量(假设为N)的简单类神经元并将它们互相联结。接着通过将其中的一些节点当作感觉终端(如果你喜欢的话,可以看作视网膜),从而以一种连续的模式呈现这个系统。在每次呈现之后,让系统通过遵循海布规则的重新安排联结来重组自己,即通过增加对于该展示项目而言碰巧一起激发的神经元的联结。所有模式的呈现就构成了系统的学习阶段。

在学习阶段之后,当再次给该系统呈现这些模式之一时,在它落入所谓表征了被学习项目的唯一的全局状态或内部构型的意义上,可以说该系统识别了这个模式。只要提供的呈现模式数量不多于参与神经元总数的一部分(大约0.15N),这种识别就是可能的。此外,即使呈现模式时增加一些噪音或者系统受到部分的损坏,系统还是能作出正确的识别。

5.3涌现与自组织

这个例子只是一整类神经网络或者联结主义模型之一,对此我们将会进一步讨论。但是我们首先需要拓展讨论,以便理解什么是我们研究这些网络时面临的问题。正如我们所言,这个策略不是以符号和规则为起点,而是以简单要素为起点,以动态的方式彼此紧密地联结它们来建立认知系统。

在这条进路中,每一个要素都只在其局部的(local)环境中运行,所以也就没有运转系统的外部行动者。但是由于系统的网络构造,当所有参与的“神经元”达到相互满意状态时,将自发地涌现一种全局协作。因此,这种系统并不需要中央处理单元来指导整个运行。从局部规则到全局一致的转变就是控制论年代习惯被称为自组织这一观念的核心。如今人们更喜欢谈论涌现或者全局属性、网络动力学、非线性网络、复杂系统,或者甚至协同学(synergetics)。

关于涌现属性并没有统一的形式理论。然而,已然清楚的是:在所有领域都发现了涌现属性——诸如漩涡和激光、化学振动、基因网络、发展模式、种群遗传学、免疫系统,生态学和地球物理学。所有这些多样的现象的共同点是,在每种情形中,网络都产生新的属性,而研究者们正试图理解它们的一般性。捕获这些多样系统所共有的涌现属性的最有用的方法之一是通过动力系统理论中的“吸引子”概念。鉴于这种观念对我们余下的讨论非常重要,让我们先来考察一下它。

考虑一个细胞自动机,它是一个能够从它的两个相邻细胞接收输入并将其内在状态输送到同样的相邻细胞中去的简单单元。假设这个细胞或单元只能处于两种状态(0或者1,激发或抑制),而且支配每个细胞自动机变化的规则只是一个有两个自变量的(布尔)函数(比如“与”或者“异或”)。既然我们可以为细胞自动控制的两种状态中的每一个选择这样一个函数,那么每个单元的操作就完全被一对布尔函数所规定。

为了避免处理复杂的系统,我们只要将一长串这样的基本单元联结成一个圆形排列,这样对整个环形系统而言没有输入和输出,只有内部行为。

而且,就呈现目的而言,要切断这个环并用处于状态1的细胞和那些处于相反状态的细胞进行线性展示也是容易的,其中状态1的细胞用黑色方框代表,相反状态的则用白色空白代表。因此,细胞的位置从左到右延伸(根据所选择的环形结构,最后一个细胞与第一个细胞联结)。

通过从随机状态开始并且每个细胞在每一(离散)时刻都以同步的方式更新(也就是说,所有的细胞一起达到了它们各自的状态),这样这个细胞自动机环习得了一个动力学。在这个展示中,我们在最高一排表征了初始的瞬间以及向下的相继的时间瞬间。这样,同一个细胞的相继状态可以读取为一列,而所有细胞的同时状态可以读取为一排。这个环由8个细胞组成,并且其起始状态是随机选择的。

可以很明显地观察到,即使这样一个简单的甚至最小的系统都有丰富的自组织能力。最近,S·沃尔夫兰姆(S.Wolfram)对它的能力进行了全面的考察。这里我们就不重复他的研究了。从动力学上来说,这些环可以分为四种主要类别或吸引子,就我们的目的来说,注意到这一点就足够了。第一种展示了一个简单的吸引子,它使得所有细胞要么都是激发的,要么都是抑制的。对于第二种,也是更为有趣的一种环,规则产生了空间周期性,也就是说,一些细胞保持激发,而另一些则保持抑制。对于第三种,规则引起了长度为二或者更长的时空循环。后面这两类都对应于循环吸引子。最后,由于几个规则,动力学似乎引起了混沌吸引子,在这里人们探测不出时间或空间的任何规律性。

我们在此要阐明的基本点是,在组分相互作用的系统中全局模式或构型(configuration)的涌现既不是古怪的孤立的情形,也不是神经系统所特有的。事实上,任何由组分紧密联结所构成的集合体似乎都难以避免涌现属涌现属性与联结主义性。因此,对自然和认知现象中不同层次的描述来说,这类属性的理论是一个自然的连接。有了关于自组织的更宽泛的观念后,现在让我们回到神经网络和联结主义。

5.4联结主义的今天

联结主义理论以令人惊异的魅力为许多有趣的认知能力——如快速识别、联想记忆和分类归纳等——提供了工作模型。当今在此方向上的研究热情之所以如此高涨主要基于以下几点:首先,认知主义的人工智能(AI)和神经科学很少有让人信服的结论来解释(重建)上面提到的各种认知过程。

第二,联结主义模型更接近生物系统;这样,人们就可以在一定程度上整合人工智能与神经科学,而这直到最近都是不可想象的。第三,在经验心理学中联结主义模型推动了向行为主义方向的回归,从而避免(circumvent)了在高层次的、常识的、心智主义的构念(这种理论类型虽在认知主义中取得了合法地位,但是心理学仍对它抱有矛盾的看法)中建立理论。最后,经过稍微修改,这些模型的一般性足以使它们被运用到各种领域,比如视觉或言语识别。

对那些无需学习就能完成的任务,有各种各样的涌现神经系统状态的例子,比如眼运动(eye movements)或者弹道肢体运动(ballistic limb movements)等。很明显,人们希望理解的大多数认知任务涉及依赖于经验的转变,因此也涉及对学习规则的兴趣,比如我们在第一个例子中谈到的海布规则。这些规则不仅为神经网络提供了涌现构型(正如甚至简单细胞环所示的情形),而且还提供了根据经验合成新构型的能力。

在此我们不打算回顾可塑神经网络这一正在发展的研究领域以及它们在脑和人工智能研究中的应用。就我们的目的来说,指出目前存在两类正在被探索的学习方法就足够了。由海布规则展示并由脑机制研究启发的第一种方法是通过相互关联(correlation)来学习:该系统以一整系列的例子呈现出来,并通过相互关联为未来的相遇(encounters)建构出模型。第二种选择是通过模仿(copying)来学习,即通过有一个充当主动指导作用的模型来学习。事实上,罗森布拉特(Rosenblatt)早在其感知器(Perceptron)中就已经提出了这一策略。其现代版本就是人们所知的“反播”(backpropagation)。在这种技术中,网络内部神经联结(被称为“隐含层”)的变化是被指定的,从而将网络的响应与我们对网络响应的预期之间的差别降至最小。

在这里,学习就好像某个人试图模仿一个指导者。这一方法新近的一个着名实例是NetTalk,它是一个字母-语音转换器,通过在其学习阶段向其展示几页英文文本它就可以工作。结果,NetTalk能够用很多听众认为还有缺陷但却可以理解的英语大声地读出一篇新的文本。