[返回哲学世界首页]·[所有跟帖]·[ 回复本帖 ] ·[热门原创] ·[繁體閱讀]·[坛主管理]

论人工认知实现的方法论策略(下)

送交者: wangguotong[★★★声望勋衔13★★★] 于 2024-05-15 1:35 已读 5632 次 1赞  

wangguotong的个人频道

+关注

魏屹东:论人工认知实现的方法论策略(下)


六、人工认知的心智实现:模拟性与表征性的统一


这里笔者再次强调,心智是作为纯精神现象的自我意识存在的。心智作为高级意识是人这种智慧生物特有的。笔者赞同赵汀阳先生的看法,即自我意识是个哲学问题,讨论它不能停留在生理-物理层次,而要在语言表达层次进行,因为“人类的自我意识就发生在语言之中”(赵汀阳,第42页),从而使一切事物都变成了思想对象,并能够对意识本身进行反思。所以,在哲学语境中,心智这个概念主要是针对人而言的,即人拥有心灵;而人工心智是AI发展起来之后才有的概念,而且是通过模拟或仿生来尝试进行研究的,还谈不上物理上的实现,即制造出一个拥有感受性的机器人。即使现在的智能机器人,虽然具有目标导向的意向性(指向目标),但没有现象意识(感受性),还只是模拟意义上的推理机器,是表面上看起来有智能的“好像”心智,不是生物意义上像我们一样具有感受性的真正心智。在这里,“真正”的意思是“自然产生的”,而不是“人造的”,所以,任何人工心智,都是“好像”意义上的自然功能模拟物。


所谓模拟,就是运用一个设计的事物或过程对真实事物或过程的模仿或虚拟,目的是表现出所选择物理系统或抽象系统的关键特征,其中计算建模是关键(区别于心灵哲学中关于预测他人行为的模拟理论)。这一过程必然要求模拟物与被模拟物之间的相似性和适应性,因为模拟的关键是有效信息的获取、关键特征和表现的选定、近似简化和假设的应用,以及模拟的重现度和有效性。在算法层面,模拟由一个可理解的心理状态的形式化程序组成,它产生对给定的特定输入的精确输出,也就是计算机及其组成部件的模拟模型,包括对世界的大规模模拟再现的“计算脑”。(cf.Churchland and Sejnowski)若将这种模拟主义(笔者对心理模拟理论的概括)与计算表征主义相结合,可形成一种超越纯粹的形态模拟的新方法论,因为前者仅侧重于心理模拟和心理建模,后者则侧重于计算机模拟和符号推理的物理实现。


目前的人工心智研究,在理论上基于相似或同构策略,在技术上是模拟(心智)手段,在哲学上是“好像”哲学和合理归因模式,毕竟心智作为精神或心理的东西难以人工物理地实现(尽管心智是物理地产生的)。在工程上,机器人学为设计具有适应和学习能力的机器人提供了一种可行的方法,即通过互动和学习来开发新的技能。因为认知机器人是基于心理学、生理学和神经科学的洞见实现的,其目的是在AC系统上模拟和复制类人的性能和内部状态。(cf. Christaller, pp.221-224)比如发展性机器人技术作为一种跨学科方法,包括发展心理学、神经科学、AI和机器人学,用于机器人复杂的感觉、运动和心理能力的自主设计,其直接灵感来自儿童认知系统中的发展机制和原则:具身性和社会学习能力。这是开发人工心智的两个关键原则。


上述讨论表明,人工心智的哲学研究是假设意义上的“好像”模式和合理归因模式,前者给出假设,后者寻求解释归因,目的是让世界有意义。这意味着,我们把所有的认知属性归于无生命的物体,如机械装置,而不主张所描述的物体真的拥有这些属性。智能体要像人那样行动,就必须具有行动能力和协调能力,这两种能力构成智能体的联合行动。然而,最小意义的行动能力还不足以构成联合行动——在集体互动中成为一个社会行动者(即实践主体),因为联合行动的核心在于协调能力。根据联合行动概念,共同意图的功能性作用是协调能力,只有智能体以有组织的方式合作,才能谈论联合行动,就像群体智能(蚂蚁、蜜蜂)那样。否则,这样的交互只能被描述为偶然的并行操作,而不能被理解为联合操作。这是人工心智研究面临的一个巨大挑战。


如果智能体在人类社会生活中越来越普遍,并且与它们的互动是真正的社交体验而不仅仅是工具使用,那么就需要一种策略来克服我们在哲学中对社会认知能力的限制概念。这就需要发展出一种人工社会认知(相对于人类社会认知)。进一步说,如果AC能够在最小意义上行动,并额外提供与其他社会主体协调的社会能力,那么这种系统就可以被称为联合行动中的社会主体,因为它们实际上拥有了社会认知能力。有研究表明,智能体联合行动中的协调所需的社会能力有三个重要方面:通过最小程度的读心来理解其他智能体、社会线索的互惠交换和以最小程度的承诺作出贡献的能力,这些方面有助于机器人专家研究AC基准的发展。(cf.Strasser, pp.106-114


总之,随着计算机科学和AI技术的发展,人工心智的研究有望在复杂的和不编程的情况下提供模拟以促进问题解决和过程控制,并实现与用户的协同合作。这意味着人工心智应该具有更多的智能、更多解决问题的能力和更合理可行的自然界面。尽管未来难以预测,但未来的人工心智极有可能模拟人脑的认知功能,解决问题的工具将基于虚拟现实技术,界面将是多模态和适应性的。而且这种功能将包括各种子功能:人工感知、模式识别和理解情境;解释各种形式的信息,如语音、手势、传感器数据;图像和场景识别;虚拟对象的创建和操作;操作过程的预知模拟以及基于语境的推理和决策。这些功能需要在不确定的现实情境和不可预知的条件下实现。因此,这些AC应用系统能够适应其自然环境,而无须预先编程,同时表现出高度的鲁棒性。(cf.Horváth, pp.297-318)这样,人工心智很有可能通过计算模拟与适应性表征的整合得到实现。


七、人工认知的文化智能实现:重构性与文化性的统一


“智能”在这里特指基于意识和心智的高级符号表征能力。众所周知,AI有强弱之分。作为认知辅助工具的弱AI已经实现,如计算机和各种机器人;而作为类人实体的强AI或通用人工智能,如拥有意识和情感的机器人,还只停留在理念上,能否实现仍是个开放的问题。在笔者看来,目前的AI还只是工具意义上的,而不是文化意义上的(涉及意识、情感甚至道德、习俗)。要成为文化意义上的AI,就需要对AI进行文化重构,笔者将这种文化重构的AI称为“文化AI”(AI的人性化),将文化对重构主义的修正称为“文化重构主义”。提出“文化AI”概念的目的是将人类特有的文化特征(文化智能)嵌入AI:一方面可让其更具有人性;另一方面可整合“具身的”“可靠的”“负责任的”“友好的”AI等提法,以避免概念上的混乱。


重构主义(re-constructionism)是一种研究心智、大脑和行为的自下而上的经验方法,与还原论自上而下的过程相辅相成,强调心智和大脑的基本机制及其涌现过程,并假设心智和大脑的组成过程及其互动描述了复杂的心理涌现现象,与心灵哲学中说明心理现象的神经机制的涌现论相似。(cf. Chiao, p.68)重构主义能够以更广阔的认知视野解决问题,因为它考虑了计算机制的物理实现,从而为更广泛的认知现象建模提供了合适的工具。随着人工神经系统的发展,生物形态计算出现了新的特点,根据这种方法,作为认知媒介的多细胞生物获得了自我表征能力,从而能够区分“我”和“他者”,并提供支持运动的基本功能。比如,将拥有集中控制的神经系统的动物连在传感器和驱动器上能够使它们移动,这增加了生存的可能性,因为单个神经元是一个相对简单的信息处理器,而整个大脑拥有复杂的信息处理和计算能力。除将认知系统建模为具身的、嵌入的、生成的和交互的能力之外,形态计算还为AI提供了理解这种能力如何进化以及它在生命体中如何发展的手段。


可以看出,作为一种哲学立场,重构主义假定心理现象是一系列心理和神经属性互动的结果,其不足是忽视了文化对心智的塑造。若将重构主义与文化主义相结合,就产生了一种具有文化性的新方法论。文化主义认为,人类的文化学习能力本身就是一种创新能力,这种能力是通过社会交互获得的,而不是基于生物适应过程的直接结果;更重要的是,文化学习的特殊性(只有人拥有)不仅促进了信息的传递,而且让我们从他人那里了解心理过程。(cf.Heyes, p.2182)因此,正是文化的参与和推动才使得人类最终拥有了心智。显然,这种文化重构方法具有更大的包容性,超越了认知神经科学中以计算解释为范式的认知主义和还原论,因为计算范式仅通过计算模拟大脑来理解心智(cf. O'Reilly and Munakata),而文化AI则涵盖了上述不同叫法的AI,更具人文性。


文化重构主义不同于已有AI哲学的地方在于:它不是从AI是否会思维,是否理解字符串,是否有情感、人格、道德以及可能的法律问题出发,而是从更具有包容性、根本性的人类特有的文化属性切入,以更深层的文化统摄智能以外的情感、道德和法律。当然,这里的文化整合不是替代,而是旨在推进或超越传统AI,但如何进行文化整合在技术上仍然是个难题。我们知道,传统认知科学侧重于通过知觉、推理、记忆、学习、问题解决等方式研究产生知识的过程,但很少涉及生物学、化学、(量子/纳米)物理学和混沌理论、信息科学、自组织、人工生命、AI和数据科学、延展心智或分布式认知、社会学和生态学等。根据当代认知科学,认知是远离物理-化学-生物基质的高层次抽象计算过程,是由经典的序列计算(符号操作)或人工神经网络建模的。于是问题来了,在这种脱离生物身体的、较低层的亚符号信号处理和较高层(心理的)认知过程之间如何建立连接?


在人工神经科学中,重构主义为解决这些问题提供了生物形态计算方法,认为这些问题大多只能在经验数据、实验和充分的生成模型和模拟的基础上才能得到解决(仅依赖哲学的内省和思辨是远远不够的)。(参见渡边正峰,第252页)因为通过重构生物形态计算,我们可将AI建模为交换(通信)信息的节点(智能体)结构的动态活动过程,就像单细胞生物群体(如细菌)的相互交流、形成群体或通过形态计算呈现为社会/分布式认知群(细胞群通过形态计算聚成具有特定控制机制的多细胞集合而形成组织、器官、生物体和群体生物),与遗传算法类似。(cf. Dodig-Crnkovic, pp.19-23


质言之,从科学哲学来看,重构主义是对物理世界的完整解释的补充,强化世界中不同心智间的相互作用,并使我们从心理和推理中产生了关于自然界的稳定模式和规律。也就是说,重构主义将心理思想和神经机制的一组同一关系作为重要的涌现属性,是对有组织的物理系统的部分和细节的放大。在这种意义上,重构主义也是一种涌现论,因为它不自觉地把具有文化特征的心理思想和神经机制的同一性关系作为一种涌现属性,进一步推进了AI的人性化发展。所以说,文化AI很可能通过重构主义与文化主义的统一来实现。


综上所述,笔者依据NC的不同发展阶段对AC实现的相应方面的划分只是相对的。事实上,那些方面通常是混合的、交叉的、渗透的和交融的,其实现策略总体上是适应性表征方法论。原因在于:人工主义的实质是使用贝叶斯方法的形式建模,它通过经验启示法不断尝试达到目标,加之与生物符号学方法相结合,表现出生命体的适应性;预知分析加上行动主义意味着感知+行动=适应性+行为表达,表现出感知的预知性;语境涌现的机制就是适应性表征,加上认知生成意味着变化+结果呈现=适应性+表现(表征的另一种形式),表现出意识的自主性和能动性;模拟是目标引导的拟合性表征,表征是显性和隐性属性的物理及符号呈现,二者的统一凸显了心智的抽象性和灵活性;文化重构意味着自然进化与文化进化的结合,表现出自然和文化的双重适应性和表征性。一句话,AC的实现依赖于上述多种属性的适应性表征整合,而这些属性的整合必然要求多学科(认知科学、符号学和AI等)的交叉与综合,因为认知本身就是多属性和多方面的。


参考文献


[1] 贝特森,2019年:《心灵与自然:应然的合一》,钱旭鸯译,张建新审校,北京师范大学出版社。


[2]杜威,2014年:《经验与自然》,傅统先译,商务印书馆。


[3]渡边正峰,2021年:《大脑的意识,机器的意识:脑神经科学的挑战》,安婷婷等译,北京大学出版社。


[4]弗农,2021年:《人工认知系统导论》,周玉凤、魏淑遐译,王希审校,北京大学出版社。


[5]加布里尔,2022年:《我非我脑》,王培译,重庆出版社。


[6]克拉克,2020年:《预测加工:具身智能如何应对不确定性》,刘林澍译,机械工业出版社。


[7]莱恩,2020年:《生命进化的跃迁》,梅苃仁译,文汇出版社。


[8]卢奇、科佩克,2018年:《人工智能》,林赐译,人民邮电出版社。


[9]米勒、佩奇,2020年:《复杂适应性系统》,隆云滔译,上海人民出版社。


[10]泰格马克,2018年:《生命3.0:人工智能时代人类的进化与重生》,汪婕舒译,浙江教育出版社。


[11]王培,2022年:《智能论纲要》,上海科技教育出版社。


[12]魏屹东,2019年:《适应性表征:架构自然认知与人工认知的统一范畴》,载《哲学研究》第9期。


2020年:《认知哲学手册》,科学出版社。


2022年:《人工智能的情境觉知:一种“在线”适应性表征》,载《上海师范大学学报(哲学社会科学版)》第1期。


[13]沃里克,2021年:《人工智能基础》,王希译,北京大学出版社。


[14]赵汀阳,2022年:《人工智能的神话或悲歌》,商务印书馆。


[15]Atmanspacher,H., 2007, Contextual Emergence from Physics to Cognitive Neuroscience, in Journal of Consciousness Studies 141/2.


[16]Butz, M.V. and Kutter, E.F., 2016, How the Mind Comes into Being: Introducing Cognitive Science from a Functional and Computational Perspective, New York: Oxford University Press.


[17]Chiao, J.Y., 2020, Philosophy of Computational Cultural Neuroscience, New York: Routledge.


[18]Christaller, T., 1999, Cognitive Robotics: A New Approach to Artificial Intelligence, in Artificial Life Robot 34.


[19]Churchland, R.S.and Sejnowski, T.J., 1992, The Computational Brain, Cambridge, MA.: The MIT Press.


[20]Clark, A., 2016, Surfing Uncertainty:Prediction,Action,and the Embodied Mind, Oxford: Oxford University Press.


[21]Crowder, J.A., Carbone,J.N. and Friess,S.A., 2014, Artificial Cognition Architectures, New York: Springer.


[22]Dodig-Crnkovic, G., 2018, Cognition as Embodied Morphological Computation, in V.C.Müllered.), PT-AI 2017,SAPERE 44, Cham:Springer.


[23]Ferreira, M.I.A.,2010, On Meaning: A Biosemiotic Approach, in Biosemiotics 3, Berlin:Springer.


[24]Heyes, C., 2012, New Thinking:The Evolution of Human Cognition, in Philosophical Transactions of The Royal Society B-Biological Sciences 367.


[25]Horváth, I., 2008, Concept,Framework and Resources of a Proactive Reality Environment:Combining Artificial Cognition with Interactive Instruments, in D.Talabǎ and A.Amditiseds.), Product Engineering:Tools and Methods Based on Virtual Reality, Berlin: Springer.


[26]Keene,R., 1995,A New Model for the Cognitive Process, in Proceedings of the First International Symposium on Intelligence in Neural and Biological Systems, IEEE Computer Society.


[27]Lemaignan,S., Warnier,M., Sisbot,E.A., Clodic,A. and Alami,R., 2017, Artificial Cognition for Social Human-Robot Interaction: An Implementation, in Artificial Intelligence 247, URL = https://hal.archives-ouvertes.fr/hal-01857498/document.


[28]Meitinger,C.and Schulte,., 2009, Human-UAV Co-Operation Based on Artificial Cognition, in D.Harrised.), Engin. Psychol. and Cog. Ergonomics, HCII 2009, LNAI 5639, Berlin:Springer-Verlag.


[29]Ogata,T., Yokoya,R., Tani,J., Komatani,K. and Okunoet,H.G., 2009, Prediction and Imitation of Other's Motions by Reusing Own Forward-Inverse Model in Robots,in ICRA'09, International Conference on Robotics and Automation,IEEE.


[30]O'Reilly,R.C.and Munakata,Y.,2000, Computational Explorations in Cognitive Neuroscience:Understanding the Mind by Simulating the Brain, Cambridge,MA.:MIT Press.


[31]Pezzulo,G.,2007, Anticipation and Future-Oriented Capabilities in Natural and Artificial Cognition, in M.Lungarella, F.Iida, J.Bongard and R.Pfeifereds.), 50 Years of AI, Festschrift, LNAI vol.4850.


[32]Pezzulo,G.and Castelfranchi,C., 2007, The Symbol Detachment Problem, in Cognitive Processing 82.


[33]Pezzulo,G., Butz,M.V., Castelfranchi,C. and Falcone,R., 2008, Introduction:Anticipation in Natural and Artificial Cognition, in G.Pezzulo et al.eds.), The Challenge of Anticipation, LNAI 5225.


[34]Ritter,S., Barrett,D.G., Santoro,A. and Botvinick, M. M., 2017, Cognitive Psychology for Deep Neural Networks: A Shape Bias Case Study, in International Conference on Machine Learning, PMLR 70.


[35]Strasser,A., 2018, Social Cognition and Artificial Agents, in V.C.Müllered.), PT-AI 2017,SAPERE 44, Cham:Springer.


[36]Swan,L.ed.), 2013, Origin of Mind, New York:Springer.


[37]Taylor,J.E.T. and Taylor,G.W., 2020, Artificial Cognition:How Experimental Psychology Can Help Generate Explainable Artificial Intelligence, in Psychonomic Bulletin and Review 28.


[38]Thompson,E.and Stapleton,M., 2009,Making Sense of Sense-Making:Reflections on Enactive and Extended Mind Theories, in Topoi 28.


[39]Vernon,D., 2014, Artificial Cognitive Systems:A Primer, Cambridge, MA.: The MIT Press.

喜欢wangguotong朋友的这个贴子的话, 请点这里投票,“赞”助支持!

内容来自网友分享,若违规或者侵犯您的权益,请联系我们

所有跟帖:   ( 主贴楼主有权删除不文明回复,拉黑不受欢迎的用户 )

怎么是最后一片了呢?我的解释: - 卢岩 (483 bytes) 05/15/24
哦,我现在才明白你前两天说的话。 - 仁剑 (198 bytes) 05/15/24
😁👍 (无内容) - 卢岩 (0 bytes) 05/15/24

用户名: 密码: [--注册ID--]

标 题:

粗体 斜体 下划线 居中 插入图片插入图片 插入Flash插入Flash动画


     图片上传  Youtube代码器  预览辅助



[ 留园条例 ] [ 广告服务 ] [ 联系我们 ] [ 个人帐户 ] [ 创建您的定制新论坛频道 ] [ Contact us ]