“人工智能有感情吗?”“人工智能有意识吗?”
在大学做人工智能的入门性讲座,或者向拜访研究室的学生介绍研究内容时,上述问题是学生们最常问的。
这两个问题的回答是相似的,它们与涉及“智能”的许多讨论中隐含的问题也有共通之处,这是关于内观与观测(或观察)之间有什么差异的问题。
在回答前面这两个问题的时候,至少需要明确两点 :第一,人工智能是否实际具备感情和意识 ;第二,即使人工智能具备感情和意识,我们又从何判断。
关于第二个问题,需要指出的是,这样的判断即使对于人类来说也是极其困难的。我们通过内观——也就是观察自己的内心,得知自己具有感情和意识。而在大多数情况下,我们会通过这样的内观感觉到感情和意识,并从这样的经验中理解它们是什么。而第一个问题是,“对于我们自身所感受到的那些东西,人工智能是否具有和它们同质的东西?”即使对方是人类,我们又如何能从外部观测并断定,我们的邻居所具有的东西,和我们自身所具有的感情与意识同质呢?这是所谓“他心问题”的传统哲学问题。换言之,上述问题本身就包含着根本性的哲学论题。
第一个问题在某种意义上是技术性的,不过同时也会继承第二个问题的困难之处。也就是说,“不知道制造什么才算是制造感情和意识”。例如,早期曾经有一些程序,内部定义了表示“感情状态”的变量,作为机器人的内部状态。变量值为 1 表示“喜悦”,2 表示“愤怒”,并让机器人将这些表情表露出来。但是对于本节开头提出那些问题的人而言,用这样的回答来证明“人工智能具有感情!”显然是不会令人信服的。
实际上,这种关于内观与观测间差异的问题,潜藏于所有的智能研究中。我们通过内观来了解自己的智能,同时它会通过行为表现出来,让人得以从外部观测。由于内观很难做到,所以很多时候我们都是基于这些观测来研究人工智能。也就是说,我们将研究的“智能”归结为可以在外部判断其成功与否的“功能”,将之限定在这个范围内推进研究。为了人工智能研究中获得成果,这也是方法论上的元约束(meta-constraint),而这终究与功能主义的观点——通过从外部看到的“功能”来理解智能——相关联。
简单来说,从功能主义的视角看来,由于其主观的特性,一般认为很难处理感情和意识。那么,在人工智能的技术开发语境下讨论它们,是否就是无意义的呢?
其实未必。如果需要创造自律性的智能,那么即使是在它“是否有用”的意义上,感情和意识的问题也是值得讨论的。在本书中,通过爱丽丝这样的自主人工智能和她的故事,展现出它的具体面貌。在这里,关于故事中爱丽丝所展现的人工智能的感情和人类的感情,我想介绍两个观点。
首先,是对于持续活动的自主主体而言的感情。爱丽丝经常做出自发行动。例如,她想要塑料瓶,也会说要自己去拿。在河岸的场景中她保护了悠翔,用身体去撞神崎的父亲。如果没有这样自发的动作,只会等待他人的指示,那么爱丽丝只能算是他律主体。自主主体必须具有这种由自发采取行动的动因。毫无疑问的是,我们每个人身上都存在这样的动因。很多动因或是某种欲求,而支撑它们的大概就是所谓的“情感”。
在人工智能领域,已经有了本书中介绍过的强化学习中的利益最大化行为、好奇心、能动探索等观点。但我不认为它们能够充分解释爱丽丝的行动。实际上,如果要创造爱丽丝这样的主体,那么为了恰当地产生出那些自主行动,需要讨论的是扮演起整合角色的“情感”系统,它能将疼痛或快乐之类的内部感知、情绪乃至社会性价值联系在一起。机器人情感的问题可以聚焦于如何制造人工智能的自主性这个课题上,从而摆脱思辨性质的探讨。
其次,是他人眼中的感情。我们之所以认为“他人有感情”,不是因为证明了他人也有与我们自内观中获得的感情同质的东西,而是因为我们相信“他人也有感情”,并且从这样的出发点去解释他人的表情和行为。换句话说,我们认为“他人有感情”,这种想法本身就是有问题的。对照本书的故事,等同于认为“爱丽丝具有感情”。
从这个观点上说,笔者无法断言本书中的爱丽丝是否具有感情。此外,我也并不打算主张,“只要从外表看起来具有感情就足够了”。不过,持续表现出自然的、看起来具有感情的行为,那么从他人的视角来看,自然倾向于将其解释为“具有感情的主体”,并引发出对应着“具有感情的主体”所采取的行动。悠翔的父亲和蒂贝博士没有把爱丽丝是机器人的事实告诉悠翔,可能也包含了这层意义。在这个意义上,感情和意识既是存在论的讨论对象,也具有社会性建构概念的侧面,可以被如此描述 :“大家都是这么想的,所以它就是有感情的。”
无论如何,我认为这些探讨,即使是以不具备身体的模式处理设备(转换“函数”)的人工智能为对象进行讨论,也无法获得明确的答案,它们应当是连同机器人的自主性共同考虑的问题。
编辑/韩世容