《代数大脑 揭秘智能背后的逻辑》Epub-Pdf-Mobi-Txt-Azw3 下载在线阅读

 《代数大脑 揭秘智能背后的逻辑》Epub-Pdf-Mobi-Txt-Azw3 下载在线阅读

加里·F. 马库斯

豆瓣评分无

 

英文版出版至今已近20年,但关于大究竟如何工作的问题至今仍无答案,而符号主认为似于算机的加工符号的机器)与联结认为是并行运的大型神)之的争也从未停息。本分析了联结模型和符号加工模型在算方面的优势和劣,关注不同联结模型之的差异以及特定模型与符号加工的特定假的关系,并围绕感知器展开讨论中的点在今天依然繁成术讨论的焦点,并为认知科学、人工智能、深度学域的未来研究指明了可能的方向。

epubooks.top站是一个下载优质电子书的网站,书籍种类非常多,每个类目下的书籍资源都非常丰富,支持kindle、epub、mobi、azw3、pdf格式下载。以及在线阅读-epub,kindle,mobi,azw3,pdf格式! 一個下載優質電子書的網站,書籍種類非常多,每個類目下的書籍資源都非常豐富,支持kindle、epub、mobi、azw3、pdf格式下載。以及在線閱讀-epub,kindle,mobi,azw3,pdf格式! ======================================================= 记得收藏本站哟!每天都会更新 资源收集不易,还请帮忙点一点,是我的动力谢谢!!!!!!!!!! 如果有什么书本站没有,你也可以在评论处留言。我会第一时间去的! 收藏本站每日更新更多书籍! 资源地址: Epub版-----网盘密码1122 MOBI版-----网盘密码1122 PDF版------网盘密码1122 TxT版------网盘密码1122 azw3版------网盘密码1122 ======================================================= 部分简介: 4.4.1 treelet treelet是预先设计好的寄存器集的层次结构。每个寄存器集由一组有序的寄存器组成,这组寄存器类似于组成计算机字节的有序位集。(treelet本身有点像计算机编程语言LISP中使用的数据结构。)图4.10描述了treelet、寄存器集和寄存器之间的关系。每个矩形对应一个寄存器集,每个圆对应一个特定的寄存器。我的提议的基础是假设大脑储备了大量的空treelet,可以通过填充空的treelet(也就是说,通过在寄存器集中存储值)或通过调整treelet中包含的值来构建新知识。 图4.10 空的treelet。矩形表示寄存器集,圆表示寄存器集中的单个寄存器。本图从整体上描述了一个单独的空treelet。实线和虚线表示寄存器集之间的两种不同类型的指针 给定的寄存器集可以保存各种简单元素的编码,例如cat、dog、Mary、love或blicket的编码。假设这些简单元素中的每一个都可以使用相同的预定寄存器数进行编码。这些编码对于任何给定的实体都是不变的(例如我们总是使用相同的编码来表示CAT)。编码本身可以是完全任意的,并且完全随机选择。它可以是一些类似于数字代码的东西,按照时间顺序将该元素输入类似于心理词典的东西中:CAT可能是117,ZEBRA可能是5172。 另一种可能是,我称之为简单元素的编码是有意义信息的程式化版本。例如,CAT可以用一串二进制位表示,比如[1,1,0,等等],这些位可以解释为[+furry,+4-legged,-has-wings,等等]。但是这些特征并不是指在某个特定点上被表示的特定猫的属性,而是所有的猫(不管是不是四条腿的)都接受相同的编码。(由于这个原因,我所谓的简单元素可能是可分解的。我更愿意把这些简单元素看作原子:它们被自然而然地认为是分子结构的组成部分,无论在仔细观察下是否可分割。) 无论编码是任意的还是与(例如)某个种类的典型成员的语义特性相关,编码的原理都与ASCII码中字母的编码非常相似:给定实体的每个内部表示形式都是相同的。就像A在ASCII编码中总是[01000001]一样,CAT也总是在内部被编码为相同的值,比如[102110122021]。(treelet中的位使用二进制还是多值,取决于基础寄存器是双稳态还是多稳态。) 学习新的事实时,我们需要将treelet中寄存器集的值设置为适当的值。图4.11给出了填充好的treelet的简单示例,其中图a表示寄存器的状态,图b说明treelet中的编码代表什么。 图4.11 一个表示box inside pot的填充好的treelet。其中每个寄存器集都包含一个原子元素的分布式编码,元素之间的关系由预连线的指针给出 原则上,treelets为语音、语法或语义信息提供了有效的基质,并且编码方案的细节随定义域的不同而变化。其分支结构也可能随定义域的不同而变化,比如语法使用二进制分支,语义使用三元分支,等等。 由于我们所表示的东西的复杂性随句子和想法的变化而变化,所以需要某种方法来表示不同复杂性的结构。有一种想法是使给定treelet的大小动态变化,这取决于一组只附加到直接邻近的寄存器集的预先存在的指针的状态。 另一种想法是,更大的结构可以通过使用几个固定长度的treelet来表示,这些treelet由某种编码系统联合起来,比如,每个treelet包含的结构不超过四层。例如,句子lions,the scariest mammals in the jungle,often lie around doing nothing可以用一组更小的由treelet表示的单元来表示,比如lions are the scariest mammals in the jungle和lions often lie around doing nothing。因此,可以预料的是,人们可能无法区分他们实际听到的话语和其他(从未听到的)复杂的存储单元重构。Bransford和Franks(1971)的一个著名实验表明,人们并不是很擅长回忆复杂句子的确切顺序和结构,这和上面的想法相一致。事实上,在熟悉度测试中,被试有时会发现他们听过的句子比从未听过的重构更陌生,这是因为重构中包含最初已分布在不同句子中的几种元素。 可以肯定的是,在某些情况下,我们可以准确地重构复杂的结构,例如在以下童谣的再现中: This is the farmer sowing the corn that kept the cock that crowed in the morn that waked the priest all shaven and shorn that married the man all tattered and torn that kissed the maiden all forlorn that milked the cow with the crumpled horn that tossed the dog that worried the cat that killed the rat that ate the malt that lay in the house that Jack built. 但是,对这些句子的准确重构依赖于推理机制(例如,all shaven and shorn的不可能是maiden)和其他线索(比如节奏),而不是一个明确表示整个大型结构的系统。在任何情况下,现在我必须留下一个悬而未决的问题:treelet的长度是否可以是无限的,或者它们是否具有固定的长度,然后基于与之关联的线索而连接在一起。(如果作为treelet最顶层元素的唯一标识符也可以作为终端元素,那么treelet就可以彼此直接连接。) 4.4.2 与其他方案的比较 与语义网络的比较。treelet方法保留了语义网络的想法,但放弃了它的一个核心前提。语义网络的支持者通常假设每个原语元素仅由单个节点表示一次。例如,Anderson(1995,p.148)将语义网络比喻为由线连接的一团弹珠,节点类似于弹珠,链接类似于连接弹珠的线——所表示的每个原语对应一个弹珠。而在我看来,每个原语元素都被多次表示,每个所表示的命题对应一次。原语不是单个节点,而是可重用的活跃模式。 treelet方法具有语义网络的许多优点。与语义网络方法一样,treelet方法为表示层次结构提供了一种简单的格式。同样,它为表示特殊事物的问题也提供了一种直接的解决方案:可以为给定谓词的每个实例分配一个新的treelet。此外,它与要表示的主语谓词的复杂性呈线性关系。 但是,没有一种表示(例如)cat的空间可以传达上述两个可能的优点,尽管两者都不是完全令人信服的。首先,标准语义网络极易受到所谓的破坏祖母节点问题的攻击。如果单个grandmother节点是表示有关祖母的所有知识片段的物理部分,则对该节点的破坏可能会导致所有与祖母有关的知识的丢失。相反,如果关于祖母的知识是通过一组treelet进行编码的,则对单个寄存器集甚至对单个treelet的大规模破坏,都只会造成单一事实的损失。 其次,与语义网络不同,treelet不依赖于任意元素之间快速构建的指针,也不依赖于大量预先构建的连接。相反,它们只依赖于独立激活的寄存器(请参阅3.3.4节中的讨论),以及一些可以按需传递原子元素的适当分布式编码的机制。不需要在线创建新节点和新指针。 与时序同步网络的比较。因为treelet使用编码而不是单个节点来表示给定的原语,所以它们也与时序同步网络不同。除了上述抗破坏能力之外,相对于时序同步网络系统,treelet的另一个优点是可以表示真正的层次结构,而不仅仅是单一层次的绑定。另一个优点是,原则上,treelet不受相位数的限制,因此(与时序同步网络相反)可以用于存储任意大量的事实而不受干扰。(可能时序同步适用于短期记忆,而treelet适用于长期记忆。) 与其他联结主义网络的比较。我的提议显然还得益于各种其他联结主义网络,在这些网络中元素被分配了分布式编码。但它与Hinton(1981),Ramsey、Stich和Garon(1990),Rumelhart和Todd(1993)的系统不同,因为这些系统假设所有的命题都存储在一个叠加的基质中,而我假设每个命题都单独存储在独立的treelet中。 treelet与叠加联结主义网络的不同之处在于,它需要一个外部系统来进行泛化。泛化不是treelet表示系统本身的自动属性,而是外部设备根据这些treelet的内容进行推断的结果。叠加的联结主义方法不区分已知的事实和推断的事实,而treelet方法为不是已知的事实(例如,penguins have gizzards)派生一个额外的机制,比如应用集包含规则的机制(例如,penguins are birds,birds have gizzards,因此penguins have gizzards)。 正如我在讨论penguins that swim but don't fly时所争辩的那样(请参见4.2节),将单独的表示资源分配给单独的命题是一种更好的处理方式,因为它更容易准确表示知识,而不会遭受灾难性的干扰或剧烈且不合适的过度泛化的风险。 Smolensky的张量微积分。Smolensky(1990)尚不清楚(据我所知)如何表示多个命题的,无论这些命题是叠加存储还是使用单独的节点集。在任何情况下,与张量微积分方法相比,treelet的一个重要优点是,张量微积分需要以指数方式增加节点数量来编码更复杂的结构,而treelet只需要线性增加节点数量即可。 4.4.3 一些限制 尽管我认为treelet方法有很多用处,但仍然面临一些严峻的挑战。人们可能会有的疑问是,计算机(目前最明确的信息处理模型)为什么很少以这种方式表示信息(目录结构除外)?在标准计算机架构中,搜索大量层次结构集合的信息非常慢,因为标准架构必须以串行方式进行搜索,并逐一检查存储项的集合。与之相反,可以并行搜索treelet,并使用某种外部信号来调用与特定标准集相匹配的treelet进行响应。 这种观点要求treelet比数字计算机中标准使用的被动搜索存储器更主动。实际上每个内存都是一个简单的处理器,仅在满足特定搜索条件时才会响应。Fahlman(1979)的NET-L系统的工作方式与此类似,尽管像语义网络一样使用的是由单个节点表示的原语。Minsky(1986)提出的由相对简单的自治智能体构建社会的想法与之有些相似。 互联网拍卖网站eBay是一个类似的现实场景,它就是以这种方式运营的。卖东西的信息会通过广泛的网络发送各个地区,所有有兴趣的人会同时积极响应并且报价。中央执行程序对这些信息进行核对,并应用一条简单规则来选择一条信息(选择出价最高的人)。这种由自主treelet组成的系统的神经模拟类似地响应中央执行程序传递的消息(或一组监督处理器传递的消息)。这样的系统提供了一种强大的方式来存储和搜索复杂的、灵活的结构化信息。 除此之外,还有一些来自语义网络的担忧。诸如Woods(1975)以及Johnson-Laird、Herrmann和Chaffin(1984)等学者正确地批评了一些草率使用语义网络的方式。语义网络和treelet等提议在某种意义上是关于表示格式的建议,因此实际上它们在表达内容方面是不受限制的。使用这些提议作为一种符号的人很容易滥用这些形式,并且无法以一致的方式使用节点。在语义网络的情况下,必须认真关注什么是节点,以及节点之间的链接可以表达什么类型的东西,等等。(例如,如果某些节点指向telephone和black,它究竟意味着black telephone或all telephones are black还是all black telephones?)对于treelet来说,注意这些问题也同样重要,因为模糊的结果会影响到没有约束的treelet的使用,就像影响到没有约束的语义网络的使用一样。 尽管存在这些问题,我还是继续支持treelet,因为我认为问题并不在于系统本身。treelet和语义网络都可以表示巨大的、本质上是无限范围的事物,但人们实际上表示什么(而不是原则上表示什么)的问题是一个包含两个部分的问题:一部分是关于事物表示格式的形式化属性;另一部分是关于知识和推理约束,这些知识和推理控制着使用这些表示格式实际编码的信息种类。我的观点是,这两个问题是独立的,关于内容特定约束的问题超出了本书的范围。关于存储哪些知识的内容特定的问题不应该让我们对与内容无关的问题视而不见,即如何在神经基质中实现支持内容相关知识的表示格式[6]。 即使我对treelet的理解是正确的,但是还存在一个悬而未决的问题:什么样的机制可以操作treelet?我只讨论了关于treelet可以表示什么的问题,而这些机制在神经基质中的实现方法还有待讨论。就目前而言,我能说的关于监督机制的就是它可能依赖于类似于电话交换网络的东西——在交换网络中,被交换的总是一组并行连接。我提出的将表示问题与处理问题分离的建议,在某些方面远不如Hinton(1981)等学者和PDP研究组(McClelland,Rumelhart & the PDP Research Group,1986;Rumelhart,McClelland & the PDP Research Group,1986)的提议那样坚决。这些学者试图对表示和操作这些表示的过程进行描述。在这里,我将采取更为谨慎的方法来讨论表示,而不过多谈论处理过程。但是我仍然认为如何在神经基质中实现结构化表示的问题非常值得关注。希望我们能在这方面取得一些进展,即使目前还不知道其处理机制。虽然我不能提供关于处理机制的更精确的说明,但希望我已经说明treelet是值得考虑的。它们可以提供一种快速表示复杂结构化知识的方法,而不依赖于需要无限精确度的节点和在任意节点之间快速绘制连接的机制。 4.5 讨论 我在本章中指出,递归地表示结构化知识片段的能力是人类认知的核心,而像标准多层感知器这样的模型很难捕获我们表示这些知识的能力。现在已经有很多关于在神经基质上实现这种能力的提议,虽然我们还不能在这些替代方案中做出正确的选择,但这些提议中的每一个都实现了与递归的符号加工相同的机制。每一种模型都包含原子单元和复杂单元之间的系统差异、一种将这些单元组合成新的复杂单元的方法,以及一种将新的复杂单元组合起来作为新的输入的方法。 由于各种各样的原因(非决定性的),我主张使用由一组空模板(treelet)组成的表示系统,其中包含多组分布式节点(寄存器集),这些节点包含对原语的编码。这样的系统不需要过多的节点或连接,也不需要在节点之间快速建立新的连接的系统,但它能够编码复杂递归系统(如人类语言)中可表达的结构范围。 第5章 个体 我们对世界的许多认识都与种类(或类别)和个体有关。我们了解DOGS,也了解某些特指的CATS,比如莫里斯和菲利克斯猫(当然,菲利克斯猫不仅仅是一只猫,还是一种哺乳动物,一种有自己卡通形象的猫,等等)。 通常,只要我们能表示某个种类(无论多么精细地指定),就可以表示(或想象)属于该种类的个体[1]。如果我可以表示种类COW,我就可以表示一头特定的牛;如果我可以表示种类DERANGED COW FROM CLEVELAND,我就可以表示克利夫兰的一头特定的疯牛。总之,只要我能表示某个种类,就可以表示属于该种类的多个个体(例如克利夫兰的三头疯牛)[2]。 正如Macnamara(1986)和Bloom(1996)所阐述的那样,表示特定个体的心理机制并不局限于表示特定的宠物和我们亲近的人。除此之外,我们可以表示特定物体(我可能会关注我的杯子和你的杯子之间的区别,即使这两只杯子的构造是相同的)、特定想法(我们可以区分三项不同的主干道重建计划并追踪哪一项会赢得竞争),特定事件(这次波士顿马拉松赛和另一次波士顿马拉松赛)和特定位置(小时候居住的村庄和现在居住的村庄)。 在许多方面,我们对个体的心理表示与对种类的心理表示十分相似。例如,许多可应用于个体心理表示的谓词,也可应用于种类(反之亦然)。我们可以说Fido has a tail,或者可以说dogs in general have tails。可以说Felix has a fondness for chasing perky little mice,或者可以说cats in general have a fondness for chasing perky little mice。同样,正如我们不必将对一种种类的了解泛化到另一种(unlike many other winged birds,penguins cannot fly),我们对一种个体的了解也无须泛化到另一种(如果我听说Aunt Esther won the lottery,我不会自动认为Aunt Elaine has also won the lottery)。此外,我们经常可以根据某些特有特征来识别特定的个体(尽管这种方法并不完美),类似地,通常也可以根据某些特有特征来识别特定的种类(这种方法也不完美)。我们猜想用金属钩代替一只手的人就是Hook船长,并且猜想在育儿袋里携带其幼崽的生物体就是袋鼠。(每个识别过程都是容易犯错的:我们可能会把沙袋鼠误认为袋鼠,就像我们可能误认为其他海盗和Hook船长一样用金属钩代替一只手。)很明显,我们在表示种类和表示个体的方式上有很多重要的相似之处。 此外,我们对种类和个体的表示是相互依赖的。例如,随着时间的推移,我们如何追踪特定的个体取决于我们将其视为属于哪个种类。在笛卡儿去世的那一刻,我们认为笛卡儿这个人不再存在了,但是如果把笛卡儿的身体当作一个物理对象,他就会一直存在,直到他的身体分解为止。(关于“种类提供了我们在一段时间内追踪个体的标准”这一观点的进一步讨论,请参阅Geach,1957;Gupta,1980;Hirsch,1982;Macnamara,1986;Wiggins,1967,1980。) 相反,表示个体的系统甚至可以影响我们对种类的典型特征的了解。例如,如果我一个人带着一只三条腿的狗生活在小木屋中,那么我接触到狗的实例的大部分时间都是狗为三条腿的事件。尽管有这种经验,我仍然相信狗通常是有四条腿的(Barsalou,Huttenlocher & Lamberts,1998)。我没有比较我看到一只三条腿的狗的次数(假设很频繁)和我看到一只四条腿的狗的次数(假设很罕见),而是比较了我遇到过多少个拥有三条腿的狗的个体(只有一个)和我遇到过多少个有四条腿的狗的个体(有许多个),从而得出结论,狗通常有四条腿——即使我看到的大多数实例包括一只恰好有三条腿的特定的狗。因此,我对种类的典型特征的表示是受个体的心理表征所影响的[3]。 与“个体表征会影响我们对种类的了解”这一直觉相一致,Barsalou、Huttenlocher和Lamberts(1998)进行了一组实验,他们向被试展示一系列图画,其中一些图画似乎是相同的。在一种情况下,他们引导被试相信这些似乎相同的实例是类别中的不同个体;在另一种情况下,他们引导被试相信似乎相同的实例是同一个体的重复出现。在第一种情况下,被试通过图画的呈现次数来加权对类别的判断,而第二种情况下的被试则不然。我们判断看到的样本是否属于不同类别,取决于我们是否相信这个实例是一个新的个体。 虽然我们对个体的心理表征和对种类的心理表征在许多方面是相似且相互依赖的,但这并不意味着两者之间没有区别。这种区别,或者类型(实体的类)和符号(类的特定实例)之间的密切联系,在语义表示理论中是标准的(例如,Chierchia & McConnell-Ginet,1990;Heim & Kratzer,1998;Partee,1976),并且已经被诸如Anderson和Bower(1973)、Fodor(1975)、Pylyshyn(1984)以及Jackendoff(1983)等学者认为是人类认知的基础。 一个能够表示特定个体的系统应该支持两个基本过程:个体化和随着时间的推移的识别。个体化是一种在某个种类中挑出特定个体的能力,例如挑出这只杯子和那只杯子,而不只是挑出差不多的COFFEE CUPNESS。随着时间的推移,依赖于个体的识别是一种分辨一个个体和另一个体是否相同的能力,例如,那只杯子是不是我昨天用来喝水的杯子? 5.1 多层感知器 虽然“大脑表示种类和个体的方式不同”的观点被广泛接受,但值得重新审视。重新审视的动力来自多层感知器,因为至少在标准化的构思下,它们并没有编码个体和种类之间的区别。 除了下面介绍的一个例外,多层感知器中的输入节点只涉及属性或类别,而不是特定的个体。在图5.1的局部模型中,如果输入为种类CAT,则输入节点1(从左边数)打开;如果输入为种类DOG,则输入节点2打开;以此类推。 图5.1 局部多层感知器 在图5.2所示的分布式模型中,如果输入属于FOUR-LEGGED THINGS,则输入节点1打开;如果输入属于WHISKERED THINGS,则输入节点2打开;如果输入属于FOUR-LEGGED AND WHISKERED,则节点1和节点2都被激活。 图5.2 分布式多层感知器 这种表述方式是有问题的。正如Norman(1986,p.540)所说: ……问题是能够处理同一概念的不同实例,有时还需要同时处理。因此,如果系统知道“约翰吃三明治”和“海伦吃三明治”的区别,那么系统必须把这些三明治当作不同的三明治。这种能力对于PDP系统来说并不容易实现。PDP系统非常善于表示一般属性,即适用于对象类的属性。这就是该系统可以泛化的地方,即自动生成默认值。但是,实现使单个实例保持独立的附加能力似乎要难得多。 ……在传统的符号表示中……这个问题是直接明了的,解决办法也显而易见。然而,在这里(在PDP模型中),必须引入相当大的复杂性才能处理这些问题,即使如此,问题是否能完全解决也仍不清楚。 当前多层感知器的认知表示中也存在同样的问题,因此值得详细阐述Norman的言论。一个问题是,在上面描述的各种表示方案中,属于同一种类的两个实体(例如,FOUR-LEGGED,WHISKERED THINGS WITH TAILS)以相同的方式激活输入。如果菲利克斯猫和莫里斯[1]都属于同一类别,那么它们的编码方式是相同的。因此,第4章中讨论的护士和大象问题的一个变体是:没有办法区分菲利克斯猫和莫里斯,也没有办法区分两者的交集。 这个问题已经存在很多年了(Drew McDermott,私人通信,1997年1月8日),它有时被称为两马问题:如果通过打开特征X、Y、Z来表示马1,可推测出必须用相同的特征集来表示孪生马2。因此,激活“马1和马2”的特征与激活两者之一的特征相同。由此可见,表示马1和表示马2之间没有区别。当我们想表示两匹马而不是一匹马时时,可能考虑通过增强所有特征的激活强度来解决这个问题。不过,如果活性值被用来指示给定特征的置信度——这是一个常见的假设,那么将导致的结果是,在X、Y、Z都被强烈激活的表示中,“只有一匹马是可清晰感知的”与“两匹马都不是那么清晰地被感知”之间的界限是模糊的。 我们可以简单地规定一个节点代表菲利克斯猫,另一个节点代表莫里斯。例如,Hinton的家谱模型包含表示特定家庭成员的节点。但这样的节点标记回避了上述问题。节点本身并不区分种类和个体,相反,它们都使用了完全相同类型的表示资源——节点。为什么一组节点应该响应种类,而另一组节点应该响应个体,这个问题并没有解决。 用不同的术语来说,检测FELIXSHAPED ENTITIES的节点与识别VERTICAL LINES或实例LETTER A的节点属于相同的一般类型。但只响应菲利克斯猫本身(即使它身着伪装)而不响应与其相同的孪生猫的节点,将是一种完全不同的模块:这种模块不是由某种模型感知模式的程度驱动,而是由并非菲利克斯猫明确显露的某些时空信息所驱动的。虽然对形状做出响应的机制可以建立在没有记录特定个体的特有信息的独立机制的情况下,但只对菲利克斯猫做出响应的机制可能很大程度上依赖于独立的、无法解释的机制,这种机制能够真正实现个体追踪。 即使把这些问题放在一边,也有事实证明,无论节点标签代表什么,多层感知器都不能为随着时间的推移来追踪个体(或至少单个物体)提供足够的基础。在随时间而追踪个体或物体时,时空信息优先于大多数类型的属性信息。这一点在吴宇森1997年的电影《变脸》中得到了很好的说明。在电影的开头,我们看到一个尼古拉斯·凯奇面容的罪犯杀死了一个六岁男孩。之后,凶手接受整形手术,使得自己的面容变为正在追捕他的侦探(由约翰·特拉沃尔塔扮演)。同时,侦探也做了整形手术,并拥有了凯奇的面容。整容后,我们认为凶手是现在面容为特拉沃尔塔的角色,而不是面容为凯奇的角色——尽管在电影开始时,我们看到谋杀小男孩的是面容为凯奇的人!我们更关心杀手的时空历史,而不是他(目前)的面容。 各种各样的实验(在好莱坞之外进行的)强化了我们的直觉,即当我们追踪个体时,时空信息胜过关于外表或感知属性的信息。例如,Michotte对表观运动的研究(1963)表明,在看两幅快速交替的静态图像时,我们看到的运动(至少在某些情况下)更多地受时空信息而不是形状和颜色等属性信息所支配。 最近,Zenon Pylyshyn和他的同事(Pylyshyn,1994;Pylyshyn & Storm,1988;Scholl & Pylyshyn,1999)以及Scholl、Pylyshyn和Franconeri(1999)开发了一些实验步骤,他们要求参与者在大量(如10个)相同的干扰项中追踪多个(如5个)运动目标。通过研究时空信息和属性信息之间的权衡,Scholl、Pylyshyn和Franconeri(1999)发现,在这些条件下,我们能够注意到一个物体何时违反了时空连续性属性(比如它们突然消失或自然出现的时候),但却无法注意到物体的颜色或形状等属性的变化。同样,Scholl等人发现,我们善于察觉消失物体的位置,但却不善于察觉物体的颜色或形状。这些研究再次强调,在追踪单个物体时,时空信息胜过其他类型的属性信息。 再举一个例子,考虑Cristina Sorrentino(1998)最近的一系列实验,如图5.3所示。Sorrentino让三岁儿童看一只戴彩色围兜的毛绒熊(或穿斗篷的洋娃娃),儿童被告知“这是Zavy”。然后,这只毛绒熊被转移到一个新的地方,彩色围兜也被拿走了。接着,另一只同样类型的毛绒熊被带到原来的地方,并戴上了围兜。之后向这些儿童提问:“哪一只是Zavy?”儿童应该指哪一只?在这种情况下,成人会指着第一只毛绒熊。Sorrentino发现,三岁儿童也会这样做:他们会指向最初的那只熊(现在没有戴围兜),但拒绝认为第二只(诱饵)熊是Zavy。因此,当儿童用正确名字的语法学习单词Zavy时,他们会把Zavy这个名字的持有者当作一个个体来对待,并且,在追踪这个名字的持有者时,时空信息胜过属性信息[4]。 图5.3 Sorrentino(1998)的Zavy实验 人们可以想象用图5.4所示的模型来逼近Sorrentino的Zavy实验的结果。这类模型已被应用于单词学习和类别学习问题(Gluck,1991;Plunkett,Sinha Møller & Strandsby,1992;Quinn & Johnson,1996)。 图5.4 多层感知器追踪个体的一种尝试 尽管这样的模型可以解释当Zavy指的是一个普通名词的属性时儿童是如何对待这个单词的,但这样的模型不能轻易捕获当Zavy作为一个名字被引入时会发生什么。回想一下,儿童只对第一只熊使用Zavy这个词,而拒绝对第二只(诱饵)熊使用Zavy这个词。当我在任务中应用多层感知器时[5],发现正好相反:在响应第二只(诱饵)熊时,模型激活Zavy节点的强度实际上比响应第一只熊时更强烈。位置特征没有帮助,事实上,它们会让问题变得更糟,因为该模型之后会将Zavy与“处于中心位置”联系起来。我们无法利用Zavy的位置来更新模型对问题的理解,除非另外提供关于Zavy的标记经验。但是,如果环境没有提供这种标记,则只能由网络进行推断——多层感知器似乎不提供这一机制。 在这些模型中,学习是和一个特定的事件联系在一起的。模型关于Zavy含义的唯一信息源是在模型听到Zavy这个词时激活的一组输入节点。当为模型提供一个标记为Zavy的实例时,由于Zavy位于中心位置,因此模型将Zavy标记与(除了其他方面)位于中心位置的实例关联起来。对于Zavy所属种类的实例(TEDDY BEARS WITH BIBS),与不在中心位置的实例相比,位于中心位置的实例与Zavy输出节点的关联更强。如果Zavy指的是某个种类(比如BEARS WITH BIBS)就好了,但事实上,它与人们所需要的能够追踪个体的系统正好相反。 因此,即使有一个节点表示Zavy,仍然存在两个问题:当Zavy的坐标随时间变化时,如何将该节点与坐标连接起来;以及如何使模型不做出“所有共享Zavy属性的实体都是被称为Zavy的个体”这一假设。尽管人们优先考虑时空信息而不是物理外观信息,但至少按照标准的设想,多层感知器无法提供追踪变化的时空信息的方法。相反,多层感知器是由有关标记和属性之间相关性的信息所驱动的,而从来没有真正表示过这样的个体。 5.2 客体永久性 读者可能会担心我在这一点上是在攻击一个假想的对手。事实上,就我所知,还没有人直接宣称多层感知器模型可以捕获在追踪特定个体的过程中所涉及的计算。尽管我强调了多层感知器在随着时间推移的过程中追踪个体的困难,但我认为对个体进行表示的重要性被忽视了。例如,在讨论客体永久性的计算模型时,令人惊讶的是没有区分种类-个体的概念。 5.2.1 客体永久性的实验证据 客体永久性是指物体在时间中持续存在的理论,这个理论不是必需的,也不是对每种生物体一定适用的。像David Hume一样坚定的怀疑论者会怀疑我们是否能证明这一理论:如果特定的个体总是被完全相同的复制品所取代(一个分子一个分子地重建,就像《星际迷航》中的传送器一样),我们就不能确定了。但在日常生活中,我们把这些怀疑抛在一边,并假设物体确实持续存在于时间中。客体永久性不是指现在看到一个狗的实例,之后又看到一个狗的实例;它是指现在看到小狗Fido,并假设之后看到的实际上是同一只狗——仍然是Fido。 一些实验表明,成人和婴儿都具有追踪特定物体的持续存在的能力,而不仅仅是追踪种类。例如,Spelke、Kestenbaum、Simons和Wein(1995)进行了一项实验(如图5.5所示),他们让一个四个月大的婴儿坐在舞台上。舞台上最初放置两块屏风,婴儿看到了一个物体(在他们的实验中是一根木杆)从第一块屏风后经过,很快,婴儿看到一根相同的木杆从第二块屏风后出现。之后,木杆回到第二块屏风后,一段时间后,木杆又从第一块屏风后出现。这种反复的过程持续了好几次,直到婴儿厌烦为止。然后婴儿看到屏风被抬起,此时设置了露出一根木杆或两根木杆(每块屏风后面各有一根)两种情况。Spelke等人发现,当婴儿只看到一根木杆时,他们注视的时间更长,因为婴儿通常会更长时间地注视新的或不熟悉的结果,这表明婴儿“期待”看到两根木杆。除了表示RODNESS之外,婴儿似乎也有不同的个体心理表征,这些个体对应于特殊的杆状符号。 图5.5 Spelke、Kestenbaum、Simons和Wein(1995)的分离屏风实验。图像改编自Xu and Carey(1996) 婴儿必须能够表示和追踪特定种类实例的永久性,这一结论也得到了Karen Wynn的一些实验的支持。在Wynn(1992)的实验中,四个月大的婴儿看到一块屏风被放在第一只米老鼠玩偶前,然后,他们看到第二只米老鼠玩偶被放在屏风后(见图5.6)。在测试实验中,当屏风被移走后,设置了露出两只玩偶和一只玩偶两种情况,此时,婴儿对一只玩偶的注视时间更长。(其他条件从两个物体开始,拿走一个,拿走两个,以此类推。每一次,婴儿注视意外结果的时间都比注视预期结果的时间长。)除了表示MICKEY MOUSENESS之外,婴儿也会表示特定的米老鼠玩偶。婴儿是真的在计数物体的数量(Wynn,1998b),还是仅仅使用不同的客体档案来表示不同的物体(Simon,1997,1998;Uller,Carey,hunley-fenner & Klatt,1999),对此仍然存在争议。但无论如何,这些实验以及其他类似的实验表明,婴儿确实能表示并追踪单个物体[6]。 图5.6 Wynn(1992)的米老鼠实验 5.2.2 缺乏显式表示种类和个体之间区别的客体永久性模型 虽然客体永久性的定义似乎表明,一个真正能够表示客体永久性的系统需要表示种类的心理表征与个体的心理表征之间的差异,但实际上并不是所有客体永久性的计算模型都包含这样的差异。最近的两种客体永存性的联结主义模型尝试在不明确区分种类和个体差异的情况下至少捕获系统中客体永久性的某些方面(Mareschal,Plunkett & Harris,1995;Munakata,McClelland,Johnson & Siegler,1997)。 尽管模型在种类和个体之间没有任何明确的区分,但这两个模型乍一看似乎都包含客体永久性的某些方面。例如,Munakata的模型(如图5.7所示)涉及一系列事件,屏风在一个物体前来回移动。在测试中,该模型预测,当屏风经过某个特定点时,屏风后面的东西就会成为可见的。 图5.7 Munakata、McClelland、Johnson和Siegler(1997)的客体永久性模型。模型的输入是一个感知器,它由两个深度平面组成——一个会出现屏风的前平面和一个可能出现球的后平面。输出是模型对这两个深度平面在下一个时间步会是什么样子的预测。将14个输入节点分为两组,每组7个节点,一组表示近深度平面对应的感知,另一组表示远深度平面对应的感知。当且仅当所在位置有可见的东西时,对应节点才是激活的。(因此,如果后平面中的物体被前平面中的物体遮挡,则远深度平面中被遮挡物体对应位置的节点不被激活。)该模型的任务是在t1到tn时刻接受一系列感知,并预测tn+1时刻的感知 这个模型是一个简单循环网络,它有一组共同表示感知的输入单元和一组表示预测感知的输出节点(见图5.7中的说明),但它远非完美的模型。例如,它受3.2节描述的训练独立性问题的影响。为了说明这一点,我在一组13个非常相似的场景中训练网络,然后在第14个场景中测试模型。即使在经历了13个场景之后,模型也从来没有派生出一个关于物体遮挡的抽象。在第14种情况下,模型犯了奇怪的错误,比如预测遮挡物后面的物体依然可见(Marcus,1996a)。Mareschal、Plunkett和Harris(1995)的模型也可能存在类似的问题。 对于当前的目的来说,比训练独立性所带来的限制更重要的是,模型从来没有真正表示客体永久性的基本概念,即一个特定物体在时间中持续存在。要真正捕获客体永久性,就必须明确我称之为客体永久性和客体替换这两种场景之间的区别。例如,如果我给你一杯咖啡,然后用另一杯相同的咖啡替换它(在你没有注意到的时候),这就是客体替换场景。只有当两个杯子没有被调换时,才有真正的客体永久性。 Munakata和Mareschal所提出的模型及类似模型不能表示这两种场景之间的区别。此外,模型永远学不到这样的区别。原因很简单:模型的输入只包含可感知的特征,而在客体替换场景中,模型的输入与真正的客体永久性场景中的输入完全相同。这两个场景必须以相同的方式编码——也就是说,它们必须始终激活相同的输入和输出节点集——因此模型无法区分它们。类似地,这类模型也无法区分以下两种情况:当一个持续存在的物体将其外观从A更改为B时引起的惊讶,以及当一个外观为A的物体被另一个外观为B的物体替代时引起的惊讶。这个模型真正捕获的是这样一个概念,如果我们在t时刻看到K-NESS,然后出现了一个遮挡物,那么在遮挡物移走后我们会看到K-NESS。 实际上,这些研究人员已经建立了必须要学习客体永久性和客体替换之间的区别的模型。但也许这种学习是不可能实现的。相反,试图编码真正的客体永久性和纯粹的客体替换之间的区别——在没有内部机制可以区分个体和种类的情况下,可能类似于在没有内部给定的颜色感受器的情况下区分两块同样亮度的色块。建立一个模型来描述这样的感受器是如何增强的是合理的,但建立一个模型来描述这样的感知器是如何被学习的则是荒谬的。同样,试图建立一个模型来说明表示个体的能力是如何显著增强的可能是合理的,而不是建立一个模型来说明这种能力是如何被学习的。 5.3 明确区分个体表示与种类表示的系统 什么样的系统能充分表示个体?一种可能是建立一个心理表征数据库,为每个要表示的个体提供单独的记录。根据这一观点,每次遇到一个特定的个体时,就可以访问作为该个体的心理表征的已经存在的记录,或者,如果没有关于该个体的记录,则可以创建一个新记录(也可能会犯错误,例如为已经存在但未被识别的个体创建新记录,这显然是不合适的)。 至少有三个研究婴儿如何理解物体的模型使用了类似的方法(Luger,Bower & Wishart,1983;Prazdny,1980;simon,1998)。例如,关于Wynn的米老鼠任务,Simon(1998)提出了一个模型,其中每个个体都由一个特定的记录表示。给定个体的记录包括两部分:关于个体属性的信息(它是可见的还是隐藏的,它是向左、向右移动还是根本没有移动,等等);一个任意的数字标记,用于“识别实际涉及的标记”。 与Munakata和Mareschal的模型相反,Simon的模型将物体表示为在时间中持续的——甚至先于任何经验。模型唯一能学到的就是特定物体在哪里以及它们的属性是什么。模型内置了一组生产规则(Anderson,1993),确保在物体第一次被提及时为该物体创建一个记录[7]。这样的记录会无限期地持续存在,并使用进一步的生产规则来标记被遮挡为隐藏状态的物体。有了这个内部机制,Simon能够轻松地捕获Wynn实验的结果;如果添加少量的额外机制,该模型也能轻而易举地捕获Sorrentino实验的结果。 Prazdny(1980)以及Luger、Bower和Wishart的类似模型(1983)被用来模拟T. G. R. Bower(1974)对婴儿的物体概念的研究。和Simon一样,Prazdny和Luger等人都建立了为每个单独物体创建不同记录的机制,以及一套加工这些表示的规则。与Munakata和Mareschal的模型不同,所有基于记录的模型都可以表示客体永久性和客体替换之间的区别,并将其自由泛化到任何物体。(只需稍加修改,Trehub在1991年提出的基于记录的模型就可能达到同样的效果。) 当然,这些基于记录的模型只是简单的示例,并不能充分说明人们是如何随时间而追踪物体的。最终,人们可以使用各种现实世界的知识来决定两种感受器是对应一个潜在的物体还是两个不同的物体。只有当一个给定的物体从开始观察到结束观察时是连续可见的,我们才能确定其没有被复制品所取代。另外,现实世界的知识就变得重要起来(是否有人会在我休假时闯入我的办公室,然后偷偷地用一个完全相同的复制品替换了La-Z-Boy躺椅?)但关键是,基于记录的系统提供了一种表示客体永久性和客体替换之间差异的基质,并提供了一个地方来存储关于物体如何在空间和时间中移动的信息。只有全知系统才能完全区分一个特定的事件是属于客体永久性还是客体替换,但唯一可以尝试的系统是区分类型和个体的系统。 5.4 记录和命题 尽管这些模型中没有一个能完整地描述在表示、识别和积累各种个体知识时必须涉及的计算,但它们确实提供了一个有希望的起点。然而,我想指出的是,在这些关于儿童的物体理解模型中使用的记录系统在某种重要的方面过于简单。(这并不是对这些模型的批评,相反,很容易对这些模型进行修改,以便与我所建议的替代表示格式相协调。)婴儿的物体理解模型在某些方面非常类似于在简单的计算机数据库中使用的模型,因此它们太不灵活。 为了明确其中的限制因素,考虑一个原始的计算机地址簿程序。这样的地址簿程序由一个表组成,其中的行表示特定的个体,列表示这些个体的属性。例如,在表5.1中,第三行是描述Peter的记录,第二列和第三行交叉的单元格告诉我们Peter住在789 West Street。

发表评论

0 评论