意思的意思(“意思”是什么意思)
近年来自然语言处理的进展不小,各种语音助手和翻译软件已经有些实用价值了。但尽管如此,它们对稍微复杂一点的句子的处理结果还是常被人们作为笑话来说。这不免又让我们想起个老问题:计算机是否有一天真能明白我们的意思?要回答这个问题,我们先得说清什么是“意思”。
早在计算机出现前,“意义”就是语言学、逻辑学、心理学、哲学等领域中的一个关键问题了。研究语言中的意义问题是语义学的范围,而这里语言不仅包括人类历史上形成的“自然语言”,也包括人工设计的“符号语言”,如数学语言、逻辑语言等。在使用语言进行通讯时,语词和语句是意义的载体。为保证通讯的有效进行,对词句意义的约定需要提前达成。即使在一个系统之内,词句的意义也应当是对其进行处理的根据。明确和稳定的意义在交流和思维中的重要性无需赘言,但怎样才能确定意义呢?
对一个语词或符号来说,最传统的(也是目前最常用的)意义刻画方式有两种:指称和定义,前者是把它看作语言之外的事物的名称(比如说“鸟”的意思即指所有的鸟),而后者是把它看作语言之内的结构的名称(比如说“鸟”的意思即是“有羽毛的卵生脊椎动物”)。这两种方式常常被结合使用,即用指称的办法确定简单语词的意义,然后用它们定义复杂语词。尽管这种确定意义的办法很直观、自然,而且对很多问题来说已经够用,但它仍不能完全满足人工智能和认知科学的要求。主要的问题出现在以下方面:
●既然在计算机内对符号的处理只涉及其形式,不涉及其指称,人工智能系统似乎无法只用形式化的处理规则把握符号的意义。尽管一个计算机程序可以编辑和存储“两个黄鹂鸣翠柳,一行白鹭上青天”这样的句子,它可能完全不知道“黄鹂”和“白鹭”指什么。
●我们所使用的大量词汇(甚至包括那些在科学和数学中的)都是既无明确指称,也没有普遍接受的定义的。这里的例子包括前文《当你谈论人工智能时,到底在谈论什么?》中对“智能”的分析。你最近在考虑哪些问题?其中的主要概念有广泛接受的严格定义吗?
●即使是那些意义相对确定的词汇,其定义和指称也常常在历史中演变,并且依赖于使用环境。一个词的“原义”和“现义”可以不同,尽管仍有联系。比如说语言学家们发现很多抽象词汇是从具象词汇中成长起来的,就好像说词汇可以“成长”。
由于在认知系统中语词一般表示为概念,对意义的研究在心理学中对应于各种概念理论。和语义学中情况相似,经典概念理论把一个概念看成一个实例集合,其意义来自定义。一个概念的定义可以是“外延性”的,即列举其中所有实例,也可以是“内涵性”的,即列出其中实例的共同特征。这样的概念定义为判断一个实例是否属于此概念提供了充分必要条件。毫不奇怪,经典概念理论遇到了和经典语义理论类似的困难:我们所用的概念常常没有明确边界,而且其用法极其灵活,不像“固体”,反像“流体”。关于这方面的讨论,可以看侯世达的《哥德尔、埃舍尔、巴赫:集异璧之大成》和其它著述。当然更直接的例子在我们的生活中俯拾皆是,只不过我们往往视而不见罢了。
在心理学中,经典概念理论的替代方案主要有下面几种:
●“原型”理论:概念是由其中大多数实例的共同特征所确定的,而一个实例在多大程度上属于此概念取决于它与这些特征所塑造的“原型”的相似程度。按照这种理论,我们心中有一个“鸟”的原型,由“会飞”,“有羽毛”,“卵生”等特征所塑造。不会飞的鸵鸟仍可被当作一种鸟,只是“隶属度”较低罢了。这可以看成一种“内涵性”方案,只不过概念特征大都成了统计性的,而且均不再是充分必要条件。
●“范例”理论:概念是由其中的代表性“范例”所确定的,而一个实例在多大程度上属于此概念取决于它是否和某个范例相似。比如说“鸵鸟”、“黄鹂”、“白鹭”都可以成为“鸟”的范例,而它们不必被整合为一个唯一的原型。鸸鹋被当成成鸟,因为它有些像鸵鸟。这可以看成一种“外延性”方案,只不过概念中的实例不再被一一列出。
●“理论”理论:概念是由其在一个“理论”(即信念体系)中所扮演的角色来确定的。比如说“羽毛”的意义依赖于我们对鸟类的知识,包括其在护体、飞翔等方面的功能。这可以看成一种“内涵性”方案,只不过这里概念特征体现为在信念体系中的位置和作用,而且同一个概念中的实例未必在各方面均相似。
就像在心理学中常见的情况那样,这些理论各有证据,而心理学家们尚未就如何确定概念的意义达成共识。
作为一个智能理论的一部分,参考资料[2]给出了一个新的概念模型,下面姑且称之为“纳思模型”。这个模型的基本想法是以从经验中形成的概括关系作为概念的意义。如果甲概念被乙概念所“概括”,这通常可以被表达成“甲是一种乙”,比如“黄鹂是一种鸟”。在这种关系中,主项“黄鹂”揭示了谓项“鸟”的部分外延(实例),而谓项“鸟”又同时揭示了主项“黄鹂”的部分内涵(特征),因此在这个模型中外延和内涵是概括关系的两个方面。这个关系可以向两个方向延伸,即一个“是一种”关系中的谓项可以同时是另一个“是一种”关系中的主项,比如“鸟是一种动物”。这样一来,单靠这个关系就可以构造一个概念层次结构,其中“高层”概念更抽象(外延更大,内涵更小),而“低层”概念更具体(外延更小,内涵更大)。
在概括关系中,主项和谓项都可以是由其它项组成的“复合项”。比如在“乌鸦是一种黑色的鸟”中,谓项“黑色的鸟”就是由“黑色的”和“鸟” 组成的。借助复合项,其它概念关系可以被改写成意义相同的概括关系。比如说“唐僧和孙悟空是师徒”可以改写成“唐僧是孙悟空的师父”和“孙悟空是唐僧的徒弟”,这里“孙悟空的师父”和“唐僧的徒弟”都是复合项。
尽管在上面的例子都是中文的,其中表达的关系是概念间的关系,而非语词间的的关系。这里的“项”是概念在系统中的标识,并不依赖于特定的自然语言。比如说“乌鸦是一种黑色的鸟”可能实际上在系统中被表示成“t1978 → t135”。当然自然语言中的词语也有对应的概念,比如系统中可以有“‘乌鸦’是一个名词”和“‘乌鸦’由两个字组成”这样的概念关系,但这里的“‘乌鸦’”和前面例子中的“乌鸦”指不同的概念。为简单起见我们称“‘乌鸦’”为“词语项”,因为而它指向一个语言中的词语,因而可以在系统间的通讯中使用。与此相反,“t1978”为“内部项”,因为它们只能在一个系统之内被使用。词语项通常被用来表达内部项,如“‘乌鸦’ 表达t1978”,但这个“表达”关系是“多对多”的,即不同的词语项可以被用来表达同一个内部项,而同一个词语项也可以被用来表达不同的内部项。
并非所有内部项都可以直接表达在一个自然语言当中。实际上我们常常找不到合适的词来准确表达自己心中的想法。即使是那些和系统经验直接联系的概念也不一定有对应词语,尤其是其中一些概括了特定的感知觉模式(比如“红”与“黑”),也有些关联于特定的操作或行动(比如“推”与“敲”)。在这些概念之中,上述概括关系同样发挥重要作用,虽然其外延或内涵中包括不能完全被言语表达的感知、操作成分。下面的示意图简略地表现了一些内部项(t开头的)、词语项(中文和英文)、感知项(图片)间的概括及表达关系。
综上所述,一个项和其它项的关系(或者说它所标识的概念和其它概念的关系)体现在它的外延(它所概括的那些项)和内涵(那些概括它的项)之上,而其总和就构成了这个项(或者说它所标识的概念)在此刻对此系统的意义。如果它是个词语项,那么它的外延和内涵就是该词语的意义。
尽管纳思模型不排除系统可能有“先天”概念和信念,其中概念的意义仍主要来源于经验。如果一个系统对“苹果”毫无经验,那这个词对它就完全没有意义。在得知“苹果是一种水果”后,这个词以及相应的概念就开始有意义,包括“是一种水果”和通过推理从其中导出的信念,比如“是植物”和“可以吃”等。随着对“苹果”了解的增加,它的意义还可能包括其形状、颜色、味道、手感等等,以至于其栽培技术,甚至和某些历史人物的关系。简而言之,“苹果”的意义就是系统对其经验的总和,包括直接经验和间接经验,言语表达的和感知运动性的,表示成一组以“苹果”为主项或谓项的概括关系。
当系统运用一个概念去解决当前问题的时候,由于时间的限制它一般不可能使用这个概念的全部意义(除非这个概念极其简单),而只能其中的一部分,这就造成了“当前意义”和“一般意义”的区别。前者通常仅是后者的很小部分,而其内容选择受很多因素影响,包括有关信念的确定程度,简单程度,以往的有用程度,和当前情景的相关程度等等。由于这些因素在不断变化,同一个概念在不同时刻常常在系统中有不同的当前意义。在经验足够丰富之后,有些概念中会形成相对稳定的“基本意义”或“本质”,从中可以推出此概念意义中的其它部分,而在其它一些概念中可能就找不到这种“内核”,以至于不能为系统提供太大效用。由此可见,不同的概念对系统的价值是不一样的。
在这个模型中,“新”概念可能以下列方式出现:
●经验中出现以前没见过的词语或感知觉模式,如初次听到或见到“鸸鹋”。
●生成复合项以对经验进行“压缩表示”,如把“停止信号是红的”和“停止信号是灯”合并成“停止信号是红灯”。如果这种组合以前没被系统考虑过,那么“红灯”就是一个系统生成的新概念。
●如果一个概念的意义在一段时间中发生了不可逆转的重大变化,比如说某个“非基本意义”变成了“基本意义”,可以说它已经演变成一个新概念了。比如说“短信”的意义在当下和二十年前就很不一样。
后面两种方式常常使得复合项在反复出现或发挥重要作用后逐渐被作为一个整体来使用,以至于其意义越来越无法还原为其成分的意义。比如说在某些情景中说“红灯”可能与“红”和“灯”均无关系了。这可以被看作对前文《计算机能有创造性吗?》的补充:计算机不仅能创造新方法,也能创造新概念。