Hinton终于“叛变”:我支持超级AI取代人类
回答: 跟版上狱中网评员/中青报帮凶说几句 由 鹿特丹丹 于 2024-06-18 17:33
Hinton终于“叛变”:我支持超级AI取代人类AI教父」Geoffrey Hinton在最近的采访中表达了自己对AI智能的理解——LLM并不是简单的统计模型,已经具备了理解能力。与此同时,网友翻出了去年12月的「过期」视频,惊奇地发现Hinton早就「叛变」了,竟然对超级AI取代人类的未来表示支持。最近,半退休的「AI教父」Geoffrey Hinton频频出现在各种采访中,输出他关于ASI的各种言论和观点,甚至只是聊点生涯轶事都可以引起网友们的热烈讨论。不到一个月之前,他就揭发了爱徒Ilya在暑假受够了炸薯条的工作,结果投奔自己实验室的经历。虽然这些演讲和采访内容各异,但Hinton始终不忘一点——提示我们注意AGI安全和飞速发展的智能,并预告它们将代替人类的「赛博朋克」未来。在神经网络「坐冷板凳」的那些日子里,他守着自己的实验室和两名研究生「不离不弃」,最终等到了深度学习大放异彩的时代。在2013年入职谷歌后,Hinton成为「教父」,一边亲眼看着自己孩子一样的AI快速成长,一边逐渐担心「少年终成恶龙」。最终他选择了与自己创造的世界搏斗,过上了致力于警告AI安全的退休生活。AI不是统计技巧,而是有理解能力Hinton最近一次的公开露面是BNN彭博社6月15日进行的独家采访。Hinton在采访中输出的「AI具有理解能力」的观点引起了Reddit社区的广泛讨论。如果「理解」的意思是LLM能否对某个概念建立复杂的内在表示,那么答案是肯定的。如果「理解」的意思是LLM能否用与人类相同的方式理解概念,那么答案是否定的(否则模型不会在诗歌方面如此出色的同时有如此差的算术能力)。毕竟,「AI能否理解」,这个问题既模糊,又在社区内存在极大的争议和分歧。Hinton坚决反驳了一种流行的观点,即LLM仅仅是统计技巧,并不能真正理解自然语言的含义。他表示,这是完全错误的。类似于「词袋」(bag of words)或者N元组(N-gram)这种曾经的语言模型,内部保存了一个很大的有概率分数的单词组合表,的确是依靠统计概率工作。说到这里,身为英国人的Hinton非常自然地用国菜开始举例。比如单词表里会显示,「鱼」和「薯条」经常出现在一起。因此模型看到「鱼」这个单词,自然就会预测下一个单词是「薯条」,丝毫不考虑上下文。这就是为什么,曾经的统计语言模型在自动补全功能上的表现很差。但当今LLM的工作原理已经完全不同了。现在,模型预测下一个单词的方法是理解你到目前为止所说的话。比如,想要回答人类的问题,LLM必须首先理解问题的含义,否则根本无法预测答案的第一个单词。从这个角度理解,单词预测任务(next token prediction)相当于是倒逼LLM发展出理解能力。赞助信息
您的观点至关重要
点击朱笔,直抒胸臆
内容来自网友分享,若违规或者侵犯您的权益,请联系我们
所有跟帖: ( 主贴楼主有权删除不文明回复,拉黑不受欢迎的用户 )
楼主前期社区热帖:
>>>>查看更多楼主社区动态...