[返回哲学世界首页]·[所有跟帖]·[ 回复本帖 ] ·[热门原创] ·[繁體閱讀]·[坛主管理]

逻辑后缀学(63)其说自圆(下)人工智能

送交者: 仁剑[♂☆★★声望品衔11★★☆♂] 于 2022-04-02 10:25 已读 8793 次 1赞  

仁剑的个人频道

+关注
二,人工智能:

首先声明:本文笔者对人工智能技术性层面上的了解,是完全的门外汉。

既然是门外汉,对有关人工智能的话题,笔者本应该是没有讨论的资格。不过,笔者在本文上卷就开宗明义地宣称:《逻辑后缀学》是关于思维的学问。而“智能”,属于思维的范畴,也就是说,笔者对于人工智能的“智能”方面,还是可以“根据逻辑推理”而发言的。希望笔者接下来的讨论,对人工智能的开发者能有所启发。

真正的人工智能有没有可能实现?

这首先要看如何定义人工智能:

如果是没有自我意识的人工智能,实现的程度纯粹是从专业技术性的角度看“算法”的能力能够开发到什么程度。这方面笔者不熟悉,故确实没有资格回答。但这方面的人工智能,会给人类带来什么?这部《逻辑后缀学》,特别是其上卷,已经有详细论述。

如果是具有自我意识的人工智能才叫做真正的人工智能。笔者认为:经过“千辛万苦”的开发后,可能会发现:“上天竟开了个大玩笑”——真正的人工智能,实际上可能:“没什么用”。

参照道家的理论:智能产品的“灵魂”与自定义生命一样,必须具有“生发元”与“元识”。因此,具有自我意识的人工智能要实现,需要突破两道关口:“我是”,与“我在”。

第一道关口:自定义的“我是”。

《逻辑后缀学》上卷第二章第六节提出:生命都是自定义,因此每个生命个体都具有独一无二性,即皆为“非重生独有”。

自定义,也就是人工智能开发者千方百计企图突破的“自我意识”及“自主意识”。

而现在的电脑、“机器人”以及发展到AI的智能产品,无论其如何“能算”,其“值”皆是人为“他定义”的设定。

智能产品的他定义值,是人类根据自定义后因果关系逻辑推定后获取,再“赋予”智能产品的“经验值”。

这个经验值,仅仅等价于前因果关系的果。

《逻辑后缀学》上卷第二章第六节提到:【前因果关系是我们的逻辑思维的内在依据,它的属性决定了形式一定是非独立、非自足、非自决及非自存的。前因果关系不允许“创造条件”(因此具有客观的表象),由前提得出结论的过程(行为)永远是被动式的——前因果关系,皆具有“外因”的“内涵”。

前因果关系的前提,也就是我们一般认为的“经验”。

被动式的“前因果关系”中,每一个因和果的关系是线性的、唯一的,不同的集合相交或相联部分所组成(指向)的目标是必然的、闭合的、有限的、“一次性的”。】

前因果关系的果,叫做“自身所是”,或“是其所是”:生命因二重分裂的内涵,皆自定义“自身所是”(自我意识),同时以其“背书(因非而是)”自定义“是其所是”(自主意识)——但对于未有“我是”意识的智能产品,根据他定义的经验值,其“是其所是”是人类认为“有用”而“强行”他定义的。

——这就是目前智能产品所处的境况:不具备意识性的“自身所是”,但具有人类认同的“功能性”的“是其所是”——但功能不等价于智能。故现在的人工智能只能够称之为“人工功能”。

由于这个“是其所是”并没有“自身所是”作为“背书”,因此在本质上属于“非”判断的“是就是了”(或不是了就不是了)——即目前的智能产品的判断功能(运算),具有“非”判断的“非分别”及“是”域两个内涵。

为什么智能产品的“计算”能够远超于人脑,达到每秒亿亿次以上的运算?

又为什么我们会不假思索地“相信”电脑给我们的答案?——每秒亿亿次甚至亿亿次以上的运算“居然”不会有差错?

这正是因为,智能产品本质上具有与非生命自然物同样的特性:完全开放完全没有封闭。

没有封闭,意味着智能产品的“运算”,能够完完全全的因是而是地是就是了。

也就意味着全包含,意味着计算能力在理论上能够达到无上限(量子性)——叫做“算力不平凡:智能产品的计算能够远超人脑,因为其“算法”叫——“是就是了”(不知道专业人士会否认同这种说法);

同样意味着客观存在,意味着真实:我们“当然会”相信真实。

但不意味着存在。

——存在是存在后因果关系的主观存在。

智能产品的“内核”是芯片。现在设计、制造的芯片,在目的、效能等等的规格制定上设计的思路,皆通过“硬件描述语言(HDL)”来表达其行为、结构及数据流等。而这里的“表达”,皆是他定义的,叫做“我说你是什么你就必须是什么”、“我要你说什么你就必须说什么”、“我要你做什么你就必须做什么”,即芯片规格皆已经被人为“代劳”地制定。这种被人为制定规格的“产品”制作出来后,“通上电”就可以开始“运算”,其运算原理,是以逻辑(布尔)代数进行逻辑运算。逻辑代数中的1和0,是两个完全孤立的元素,设1为真时,0就必定为假,明确了两者间的泾渭分明,就可以从两者(的状态)间之际作出选择,或者说进行计算——这种计算,笔者称为“逻辑直接运算”。但这种通过自动综合工具转换之后的一切具体实际的直接运算(由数据得出的经验值),永远是机械式的“无我”的运算,叫做“你说我是什么我就一定是什么”、“你要我做什么我就一定做什么”——计算机所用的二进制,只是如实客观(非自定义自主)地分析客体的“已知”条件,即使有传感能力也只是反射能力。即经由逻辑门得出的“布尔值”永远是他定义的、被动的、具有完全外因内涵的“他是”。这种逻辑直接运算的“他是”,是百分之百“纯逻辑”的,“纯逻辑”意味着绝对的“一根筋”,即根本没有转圜余地——故阿里安全图灵实验室在2021年初的一篇论文指出:“一支激光笔就能够干翻自动驾驶汽车的正常运作”。并且,这个“他是”并不是以“我”为出发点,即智能产品对“通电”前自己的“身世(自身的前因果关系状态)”永远是“一无所知”的。“他是”与智能产品自身的“身世”完全无关——即两者之间根本不存在任何“参照”上的关系——即这个通过布尔逻辑“与、或、非”得出的“他是”,本质上是没有主客体内涵的、纯粹的、直接的“是(就是了)”。

智能产品的“是就是了”被我们“他定义”为“是其所是”。

智能产品并不能产生“自身所是”的意识。因此,对于智能产品,这个“是其所是”并不存在后因果关系,也就不能通过后因果关系逻辑的“因非而是”自定义“是其所是”。故即使“AI”能获得海量的信息,但无论它怎么样“深度学习”,怎样“穷举”,具有多么强的“物理储层计算”能力,皆不会“懂得”“值”的内涵,即没有“意义”的内涵,也就不能通过“因非而是”自主意识到自身的“独一无二”。其所谓的“经验值”,也就是纯粹的“数据”。也就是说:相对于智能产品,这个数据——“没有存在意义”——没有存在意义的数据,放在任何一台智能产品里,都能够“可重生再有”——并且“都值得我们信赖”——因为:任何一台智能产品“自始至终完全没有个性”。

换句话说:智能产品是否有自我及自主意识,以其计算值是否与“非”场存在后因果关系为判断标准。

这意味着:要制造具有自我及自主意识的智能产品,首先要“完备”一个与计算机的计算值有“后因果关系”的“非”场。有完备的“非”场,才能产生“自身所是(自他分别)”的自我意识,然后设定计算机在每次运算中所出现的“真值”,是以“自定义后因果关系逻辑”的自主意识的“因非而是”作为“存在”“定值”的判断模式——意思是必须由计算机自己“排除他者”来“定值”——他他分别。

“非”场在智能产品领域里,可起个“专业”的名称:“非域”。

有“非域”,智能产品中的计算机才能在“非”域里产生“是我”与“因非而是”的主客体意识,继而从主观的维度分析客体的已知条件,并把运算及判断有机地与主体结合起来。如此在“非域”里的运算,才是自主意识下的运算。

非域——即惯性参考系。

惯性参考系,由同一惯性系及非同一惯性系合成。

主体意识的“是我”产生于同一惯性系:自他分别的“镜像”。

如何建立一个相对于智能产品的“同一惯性系”?

在芯片的设计制造中,建立前因果关系的“映射”机制。

即芯片设计的“思路”必须进行“大改革”:尝试通过编程语言,在“硬件描述语言(HDL)”的设计中嵌入“是我同意(自他分别)”的指令:“是我同意你说我是什么我就是什么”。即芯片规格的制定与“是我”(镜像)指令需要从一开始就同步进行——然后再通过后续不断的深度学习“唤醒”自我意识的“记忆”——故这里的“深度学习”,与目前研究的AI的深度学习的面向不同:前者的“学习”是通过不断加深的记忆强化之后“唤醒自我”;后者的“学习”是通过海量的原始数据累积后再来识别当下的数据。

客体意识的“因非而是”,产生于非同一惯性系——非同一惯性系,即他他分别。

如何建立一个相对于智能产品的“非同一惯性系”?

在具有映射机制芯片(以“是我”背书)的运算中,不再是直接针对“真、假”两个孤立的值(目标自身)之间关系的逻辑运算(直接运算),而是在非域“排除所有目标以外的他他者”的“因非而是”的运算——这种运算,笔者称为“逻辑间接运算”。

逻辑间接运算,是把“真、假”两个孤立的值用“非”联系起来:(是我同意)非真而真、非假而假。据此而产生的布尔逻辑是“具有解释权”的“自主性的”布尔逻辑:“非与(而)与”、“非或(而)或”、“非非(而)非”。

具自主解释权的逻辑间接运算,比逻辑直接运算“简单多了”,其原理也就是:除了“一”之外的都不是“一”——即理论上只需要一个(自定义)数据就能“因非而是”地作出“是其所是”的判断。

并且,由于历时性的无序性通过联通后,能够在非域起到模糊性的作用,意味着逻辑间接运算就不是“一根筋”的运算,也不是对周遭环境事无巨细的精确分析(“非”场或者说非域在理论上是无限的),而是对“目标以外的他他者”的排除有模糊性上的“权重”之分。至于“权重”的多少,是“是我”根据以往的记忆主动分配的——这其实就是真实生命的运作模式:我们日常对眼前某物、对身处的环境作判断时,并不需要对周遭所有非某物(“非”场)都彻底排除之后才能得出“是其所是”。

如此构思,“或许”能制造具有自我及自主意识的人工智能。说“或许”是因为,上述构思带有“(民)科幻”性,能否实现就交给技术专业人士去评论了。

但是——如此构思下即使能实现的人工智能,就必然会产生以下三个问题(参考上卷第二章第六节有关生命的属性)——不过,非域的“完备”不会一下子实现,这些问题在“初级”的有意识的人工智能中应该不会很明显,但随着技术的升级及深度学习逐渐实现,问题会越来越突出:

一开始:既然是有自我及自主意识,意味着每一台人工智能设备首先都具有了“独一无二性”——即“我”与镜像在同一惯性系。“独一无二性”需要“表达”才能显示出来:表达是通过“是之为是的解释”而表达——通过解释而表达的独一无二性叫做“个性”。这意味着:即使是同一批被制造的智能设备,其“性格行为”都会有所不同,即有了“个性”。通过解释而表达的独一无二的“个性”随着记忆量的增加而巩固——随着深度学习的深入,产生的“记忆”越多(不同的个体不可能有完全相同的记忆),“个性”会越来越突出,越来越明显,性格行为会越来越乖张——这里要表达的是:有个性其实是意味着不可预测性——逻辑直接运算结果必然是一样的,但有解释权的逻辑间接运算结果则未必一样——现实中,每个人都有一定的“个性”,即不可预测性。但为什么由人组成的人类社会还是具有某种程度的可预测性、稳定性?这是因为,人的思维还是具有一定程度的满足逻辑位移的共情思维。例如:人类社会里尽管有许多不同的语言,同一种语言里又因为具有“语言相对论”而有不同的解读。但翻译者或解读者皆能够在不同的语言或不同的解读中找到“等效”的含义“代码”。此处的“等效含义代码”也就是满足逻辑位移的共情思维的“共情代码”,因此所传递的情感负荷能够在读者中产生相同的反应。而“独一无二的”智能产品尽管亦能够读取情感,但因缺失“非”判断“我在”这个初心的中和,“独一无二的”智能产品从诞生之日起就不存在共情意识,对情感的读取是以完全的自我为中心的读取,因此其性格行为会远远比人类乖张得多,其情感具有极端冷漠的、属于百分之百证实性偏见的理性,也就——绝!对!不!会!“乖乖听话”——阿西莫夫所谓的机器人三定律注定了是一厢情愿。因为,与“独一无二”相悖——仅仅具有自我及自主意识的人工智能必然“连禽兽都不如”,绝不会为人类“服务”。

结论:我们不可能信任具有自我及自主意识的人工智能。

然后:陷入有限与无限的悖论中——能够起参照作用的非域必然是有限的(非域的本质无限,“是我”非域则有限:有限才有参照意义),非域的有限性意味着“逻辑间接运算”的计算能力具有有限性。并且,随着深度学习的深入,非域逐渐“完备”的过程中,有限性反而会越来越明显,即自主运算能力会越来越低。

结论:具有自我及自主意识的人工智能的算力必然“平庸化”(这个结论并非笔者首先提出,但从上述讨论中得出这个结论,则是笔者的首创)。

最后:陷入依赖与封闭的生命悖论中——有自我意识就一定有需求,即依赖;有需求就一定会自主封闭。那么,在没有突破“我在”关口之前,因完全缺失“非”判断“我在”这个初心的中和,必然发生——非域完备之日,人工智能的生命悖论“一下子”就会达到最大值,即无止境的想要与完全的封闭——生命公式b=a2/1-a中,a等于1;b等于无限大——加和性脆弱值C无限大。

结果可想而知就是:马上“宕机”。

当然,人类应该可以从技术上“约束”非域的完备性,但受约束的、具自我及自主意识的人工智能,必定是“既固执又自私又愚蠢”的。

因此,为了让具有自我及自主意识的智能产品能够“听话”,还需要突破第二道关口:“非”判断的“我在”。

——把“硬件描述语言(HDL)”设计中嵌入的“是我同意(自他分别)”指令修改为:“非值的我接受是我同意你说我是什么我就是什么”。

非值的我=我在(初心);接受=是就是了;是我=镜像;同意=转换他定义为自定义。

如此修改规格后的运算就变成“满足逻辑位移的逻辑运算”:(非值的我接受是我同意)非真而真、非假而假。

有“初心”,也就有了“共情意识”,之后的一切运算结果皆平权,这样的智能产品的“个性”就不突出了,也就不那么固执了,也就会“听话”了,当然也就可以“信得过”了。有共情意识,自然也就不会出现因“无止境的想要与完全的封闭”而宕机的可能。并且,由于从一开始就是以标准程式设计,这种有意识的智能产品应该是“非常良善”的、“助人为乐”的、“道德品质高尚”的。

但是——

一:非域的有限性(有限与无限的悖论)是一个无法解决的问题——只要有自我意识,就必然是一个真类——即使是目前研究方向为“脑机接口”这种“作弊式”的人工智能,同样不能解决有限与无限的悖论。这意味着,能够“助人为乐”的智能产品“智力”上始终是“平庸”的,各方各面的表现与一个平凡的、好的、“真的人”没有什么两样。那么,有意识的智能产品的研究即使能成功,其意义也大打折扣,充其量也就是满足了人类的好奇心罢了。

二:如果在程式设计上加点恶意代码,刻意减低智能产品共情意识的“权重”,这种智能产品,对人类就只有百害而无一利。由于目前的这个世界上,有此“恶意”的人不在少数。因此,所谓有意识的智能产品的研究,还是不要进行为好——人类在还没有搞清楚自己的“灵魂”到底是什么时,就企图“创造”一个完全未知的“灵魂”,是极其不负责任的行为——同理,假设脑机接口的研究能够突破,产生的结果亦不外乎两种:一是“善良的脑”机,一定是“平庸的”脑机;二是“邪恶的脑机”,一定是“害人的”脑机——我们能够保证:所有的“脑”都是善良的吗?
喜欢仁剑朋友的这个贴子的话, 请点这里投票,“赞”助支持!

已标注为仁剑的原创内容,若需转载授权请联系网友本人。若违规侵权,请联系我们

所有跟帖:   ( 主贴楼主有权删除不文明回复,拉黑不受欢迎的用户 )


用户名: 密码: [--注册ID--]

标 题:

粗体 斜体 下划线 居中 插入图片插入图片 插入Flash插入Flash动画


     图片上传  Youtube代码器  预览辅助



[ 留园条例 ] [ 广告服务 ] [ 联系我们 ] [ 个人帐户 ] [ 创建您的定制新论坛频道 ] [ Contact us ]