[返回哈佛博士首页]·[所有跟帖]·[ 回复本帖 ] ·[热门原创] ·[繁體閱讀]·[坛主管理]

Hinton终于“叛变”:我支持超级AI取代人类

送交者: 鹿特丹丹[★★为正义呐喊★★] 于 2024-06-18 19:03 已读 1609 次  

鹿特丹丹的个人频道

+关注

回答: 跟版上狱中网评员/中青报帮凶说几句 由 鹿特丹丹 于 2024-06-18 17:33

Hinton终于“叛变”:我支持超级AI取代人类

AI教父」Geoffrey Hinton在最近的采访中表达了自己对AI智能的理解——LLM并不是简单的统计模型,已经具备了理解能力。与此同时,网友翻出了去年12月的「过期」视频,惊奇地发现Hinton早就「叛变」了,竟然对超级AI取代人类的未来表示支持。

最近,半退休的「AI教父」Geoffrey Hinton频频出现在各种采访中,输出他关于ASI的各种言论和观点,甚至只是聊点生涯轶事都可以引起网友们的热烈讨论。

不到一个月之前,他就揭发了爱徒Ilya在暑假受够了炸薯条的工作,结果投奔自己实验室的经历。

虽然这些演讲和采访内容各异,但Hinton始终不忘一点——提示我们注意AGI安全和飞速发展的智能,并预告它们将代替人类的「赛博朋克」未来。

在神经网络「坐冷板凳」的那些日子里,他守着自己的实验室和两名研究生「不离不弃」,最终等到了深度学习大放异彩的时代。

在2013年入职谷歌后,Hinton成为「教父」,一边亲眼看着自己孩子一样的AI快速成长,一边逐渐担心「少年终成恶龙」。最终他选择了与自己创造的世界搏斗,过上了致力于警告AI安全的退休生活。

AI不是统计技巧,而是有理解能力

Hinton最近一次的公开露面是BNN彭博社6月15日进行的独家采访。

Hinton在采访中输出的「AI具有理解能力」的观点引起了Reddit社区的广泛讨论。

如果「理解」的意思是LLM能否对某个概念建立复杂的内在表示,那么答案是肯定的。如果「理解」的意思是LLM能否用与人类相同的方式理解概念,那么答案是否定的(否则模型不会在诗歌方面如此出色的同时有如此差的算术能力)。

毕竟,「AI能否理解」,这个问题既模糊,又在社区内存在极大的争议和分歧。

Hinton坚决反驳了一种流行的观点,即LLM仅仅是统计技巧,并不能真正理解自然语言的含义。

他表示,这是完全错误的。类似于「词袋」(bag of words)或者N元组(N-gram)这种曾经的语言模型,内部保存了一个很大的有概率分数的单词组合表,的确是依靠统计概率工作。

说到这里,身为英国人的Hinton非常自然地用国菜开始举例。

比如单词表里会显示,「鱼」和「薯条」经常出现在一起。因此模型看到「鱼」这个单词,自然就会预测下一个单词是「薯条」,丝毫不考虑上下文。

这就是为什么,曾经的统计语言模型在自动补全功能上的表现很差。

但当今LLM的工作原理已经完全不同了。现在,模型预测下一个单词的方法是理解你到目前为止所说的话。

比如,想要回答人类的问题,LLM必须首先理解问题的含义,否则根本无法预测答案的第一个单词。从这个角度理解,单词预测任务(next token prediction)相当于是倒逼LLM发展出理解能力。

赞助信息


您的观点至关重要
点击朱笔,直抒胸臆
喜欢鹿特丹丹朋友的这个贴子的话, 请点这里投票,“赞”助支持!

内容来自网友分享,若违规或者侵犯您的权益,请联系我们

所有跟帖:   ( 主贴楼主有权删除不文明回复,拉黑不受欢迎的用户 )


用户名: 密码: [--注册ID--]

标 题:

粗体 斜体 下划线 居中 插入图片插入图片 插入Flash插入Flash动画


     图片上传  Youtube代码器  预览辅助



[ 留园条例 ] [ 广告服务 ] [ 联系我们 ] [ 个人帐户 ] [ 创建您的定制新论坛频道 ] [ Contact us ]