[返回四海同心首页]·[所有跟帖]·[ 回复本帖 ] ·[热门原创] ·[繁體閱讀]·[坛主管理]

人工智能是不是走错了方向?

送交者: 院子[♂★★★理性但荒谬★★★♂] 于 2021-04-25 20:25 已读 588 次  

院子的个人频道

+关注
人工智能是不是走错了方向?

我不信大脑每天都在大量的傅里叶变换,来处理视觉和声音数据。我不信大脑每天都在大量的模型训练或卷积,来深度学习认识一个东西。小孩子不需要喂很多数据,看两三次就能认识什么是苹果,什么是橘子 (虽然不理解为什么是)。神经元再少的动物,学习任何方向的任务都有主动性,而目前人工智能学习某一方向只是受控。人类大脑也是电信号,但总感觉绝对不只是 0和1这种 二进制,是模拟信号吗?

我承认目前数学算法这种方向的人工智能,在生活中绝对有使用场景。


但要做出一个有主动思想的人工智能,基于目前冯·诺依曼架构的计算机,是否是无法实现?我们是否从根源方向就错了?


作者:邓小周
链接:https://www.zhihu.com/question/445383290/answer/1760380150
来源:知乎
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。

人工智能曾经流行符号主义,就是想让机器像人一样进行逻辑推理,实际上人工智能也源于此。这种学派认为思想不过是大脑在寂静中进行加加减减。但是在识别手写字体这类任务中,根本无法清楚定义什么是1,什么是2,更不用提通过观看肿瘤图片进行诊断这类更为复杂的应用。


解决手写体识别问题的是CNN卷积神经网络,而人工神经网络属于连接主义。连接主义的想法是既然人类大脑中充满了互相连接的神经元,我就模仿着弄一堆人工神经元看看能不能搞出点啥。目前连接主义看上去更为流行,因为确实解决了很多实际问题。但是CNN这样的网络归根到底也是可以用严格的数学公式来表示,就是一个数学模型。当然,现实中的神经元激活函数肯定不是sigmoid这样光滑对称(实际上是spike形状),但是原理是大差不差的(Hebb学习规则)。我们做的许多前提假设都是为了方便计算机进行计算,当然不会追求跟大脑一模一样。真要一模一样的话只能直接训练一个真正的人类了。


其实AI原本确实是指模仿人类方式思考,而深度学习不过是为了解决一些实际问题所做的尝试,而刚好这些尝试很成功(相对于传统的机器学习方法),再加上神经元这种听起来高大上的噱头,所以就被冠上人工智能这种更能引起大众关注的头衔,资本也更愿意投入。研究认知的,研究意识的,研究strong AI的这些“真正”的AI研究其实高校一直都有,只是普通人不了解罢了,但是不知道也不意味着不存在。不是AI越来越流行,而是越来越多的研究加上了AI两个字。


你说他是不是走错了方向?我觉得像NLP领域就有点。模型的参数从百万到10亿,100亿,大力出奇迹。可是不像图像问题这种有比较明显的、客观的prior,语言可以说是千变万化,本身就一直在演化。这里刚好是连接主义以及符号主义的交汇点,也直指认知问题的内核。而目前NLP的研究给我的感觉就是他们在教机器用眼睛来学习语言。


你说大脑不可能做傅立叶变换,解微分方程,也不一定呢。我开车的时候看到红灯亮起,就会踩刹车,然后平稳地定下来。我脑中确实没有去计算我目前的速度是多少,前车离我多远,我的车子加速度是多少。但是我的“意识”没有做计算,不代表大脑内部没有。听说蜜蜂能造出完美的六边形蜂巢,你说它会不会测量呢?不过数学逻辑也只是人类虚构的东西,大自然自有它的方法。数学危机都3次了,还有哥德尔不完备性这种bug,谁知道以后还会不会出问题?但是宇宙却(貌似)始终运行得好好的。


最后说说我对人工智能的理解。有一个观点是,意识是由于神经元等基础的细胞进行互动从而涌现出来的。从神经元的电信号这种底层元素到意识认知这种高级抽象的现象存在一个missing link,对应着人猿进化为智人的missing link。深度学习大概相当于人的感知功能,像是识别物体;强化学习则对应人类的程序性记忆,例如学习骑单车。但是这些能力动物也有,不能真正把我们跟动物区分开来。我们究竟是如何从识别花花草草到学会加减乘除,我觉得这才是未来研究的重点。最近在看的一本书《表象与本质》的观点是人类思维的核心是类比,书中列举了大量例子说明类比思维的重要性,对我很有启发。也许就是这种类比思维使得我而不是猴子学会写文章

------------------
Caliber

清华大学 应用数学博士在读
105 人赞同了该回答
如果从数学理论及其稳定性分析的角度看,人工智能确实走错了方向,但它毕竟作为一个应用学科,还是以应用为导向.

现在的神经网络结构越来越复杂,想通过数学分析敛散性都很困难,更何况一些更加精细得刻画. 想从数学的角度去分析神经网络,必须建立一套可以容纳神经网络所有内容的框架,包括但不限于forward、backward、optimizer、loss等等. 但虽然各种trick结构层出不穷,这样大一统的框架也成了奢望.

目前据我的了解,关于神经网络的设计大多遵循这样一个思路,我们会预先希望神经网络的某些部分具有什么样的功能,然后根据这样一个motivation去设计这样一个结构,然后通过调节(调参)达到这样的目的. 如我们希望神经网络的某些层可以做特征提取、做推断、做采样等等. 亦或是加入某些带有智能性的正则项,他们可以控制或者调节模型自身的一些属性.

从我上面说的来看,如果是基于应用的角度,现在的这套思路从大方向是对的,因为就算是真正的智能,比如人去做很多事情,也不会把所有的因果前前后后想的非常清楚透彻后再做行动. 更多是基于某种契机去行动,在行动中不断完善.

顺便吐槽一下,目前的人工智能已经很多程度上基于巨大的算力,如果说目前的方向是错的,这些算力的消化如果作为沉默成本未免也太巨大了.
喜欢院子朋友的这个贴子的话, 请点这里投票,“赞”助支持!

内容来自网友分享,若违规或者侵犯您的权益,请联系我们

所有跟帖:   ( 主贴楼主有权删除不文明回复,拉黑不受欢迎的用户 )


用户名: 密码: [--注册ID--]

标 题:

粗体 斜体 下划线 居中 插入图片插入图片 插入Flash插入Flash动画


     图片上传  Youtube代码器  预览辅助



[ 留园条例 ] [ 广告服务 ] [ 联系我们 ] [ 个人帐户 ] [ 创建您的定制新论坛频道 ] [ Contact us ]