![]()
奥菲斯量子比特的易水 |公众号Qbitai人工智能可能已经有了“主观体验”。在最新一期的播客中,Hinton 使这一点迅速成为热门话题。老先生多次说过,AI可能有“意识的原型”,但那只是因为人们误解了意识,所以它也被教错了——不知不觉中它就有了意识。翻译成大白话,AI确实是有自我意识的,但它从未醒来(。她从AI是什么开始,然后详细解释了机械研究、神经网络和深度学习的基本概念。整个过程很有趣,也很容易理解。一些观看节目的网友称赞,“这可能是对Hintonn最好的采访。”有些人认为应该让他再讲2个小时。毕竟他看起来完全是自愿的, 急于呕吐(禁止虐待77岁的狗)。比较有趣的是,在程序的一开始,o老爷子对自己之前的诺贝尔物理学奖反应尴尬:因为我不是小便,所以有点尴尬。我得了诺贝尔物理学奖,我不相信就这点小事,毫无疑问,老头子对AI的贡献是超越的,AI已经从huntP变成了真正理解人类目标的工具。当我使用Google时,它会使用关键字并提前做很多工作。因此,如果您给它一些关键字,它就会找到包含这些单词的所有文档。但它不明白问题是什么。因此,它无法提供一些并不真正包含这些单词但具有相同主题的文档。也就是说,人工智能的早期本质上是基于关键词获取。现在,它理解你在说什么,并且像人们一样理解它。 Hinton 认为,尽管现代大语言模型(LLM)并不是真正强大而强大的专家,但它们现在可以在许多主题上与人类专家密切配合。他甚至还指出阐明了传统机器学习和神经网络之间的区别。他说,机器学习是一个通用术语,指的是任何可以在计算机上“学习”的系统。神经网络是一种特殊的受大脑启发的方法,它通过改变神经元之间的连接强度来学习。以大脑中部的神经元为例,神经网络的工作原理类似:想象一下大脑中的一个小神经元。这个神经元的主要工作有时是产生“叮”的声音。它不是随机释放的,而是根据其他神经元发出的“叮”声而释放的。其他神经元也会产生“叮”的声音,这些声音被发送到这个神经元。如果神经元受到很多叮当声,或者墙壁很坚固,它就会决定释放自己。如果收到的“叮”不够强,则不会发送。神经元还可以调整它们对其他神经元声音的敏感性。如果您认为特定神经元的“叮”声很重要,那么您会会更加注意它;如果你认为没关系,你就不会付出太多。一言以蔽之,神经网络也改变了系统连接的系统。所以,主持人的大脑基本方式和流程也问了两岁的孩子。大脑中的神经元一起进行阳光照射(并集体发出“叮”声)。例如,“勺子”是一组一起发射的神经元。这些联盟可能被夸大了;例如,概念“狗”和“猫”有许多常见的神经元(代表“生命”、“毛皮”等)。第二个问题是,是否有一些神经元针对宏观概念(例如“动物”)而激活,而另一些神经元则针对微观概念(例如特定物种)而激活?辛顿回应说,这是一个很好的问题,但没有人知道这是确定的。但这个联盟中应该有一些神经元对更一般的物体更频繁地放电,而其他神经元对更具体的物体放电较少。深度研究的突破:回报传播说完神经网络,Hinton 的话题更加聚焦在他的“专长”——深度研究上。过去,人们尝试在计算机上输入策略,但 Hinton 想要改变这个过程,因为在他看来,大脑的运作方式显然不依赖于别人给你策略,然后你就会执行规则。我们正在为神经网络编写程序,但这些程序只是告诉网络如何根据神经元的活动来调整连接的强度。如果网络有多层,则称为深度学习。如果直接将图像像素的亮度输入到AI中,要求判断是不是鸟,似乎毫无意义。毕竟,这些照片只是数字,并不能告诉你“这是一只鸟”。第一批研究人员会尝试对计算机说,“这条线是边缘”,“这个地方是背景”,“这个形状就像一只翅膀”,但这条路行不通——因为现实世界太复杂了。所以我们说,它最好让AI知道“如何看待”自己。这就是神经网络的思想:不要给它策略,而是给它数据,让它总结它的策略。规则中,只是随机设定了各个连接的强度,如何判断呢? ”Hinton 笑着回答:很可能会说“50%是鸟,50%不是鸟”,这完全是一头雾水。那么,AI怎么能从这种“混乱状态”变得聪明呢?Hinton解释说,这个过程是一个如此庞大的测试和错误系统。这张图而不是上图。每次没有预测错误,它都会稍微调整一下神经元之间的连接强度。但问题是,有数万亿个神经元之间的连接强度。 网络连接。如果你单独尝试它们——单独地,你需要尝试它们直到宇宙的热量(指宇宙的熵值不可靠地增加到最大值并最终达到热平衡的静态状态)。 Hinton说真正的突破发生在1986年,当时他们提出了“反向传播”——它可以计算出所有的连接应该如何改变,是应该加强还是削弱,从而使整个网络向正确的方向调整。它将训练速度从“永远”改变为“现实可行”。但事情一开始并不顺利。 Hinton也承认:在OraThat中,我们认为它可以解决智能问题。事实证明,只有当你拥有海量数据和海量计算能力时,它才有效。我们当时的计算能力还差一百万倍。真正深入研究的是计算能力的提高(晶体管是几百万倍)和爆炸性的数据增长(互联网时期)。结果,1980年代“理论上可行但不切实际”的神经网络终于在2010年生存了下来——这是现代AI浪潮的起点。今天的大型模型本质上是巨大的神经网络。通过反向传播和海量数据,他们学会了自己“看”、“听”和“说”的能力。这也让Hinton相信,人工智能不再是一个工具,而是一个已经并逐渐理解世界的系统。对于语言模型的深入理解的本质,例如深度学习机制如何在大型语言模型(LLM)上发挥作用,Hinton 提供了另一种解释。他认为LLM的思维过程和我们人一样令人惊讶:给它一个句子的开头,它可以将每个单词转换为一组神经元特征,并利用这些特征来捕获含义;然后,这些特征相互作用并结合起来,就像视觉系统从“边缘”拼出“喙”一样,最终激活代表下一个单词的神经元。换句话说,它不是背书,而是思考——用统计规律作为神经,用语义结构作为逻辑。而练习方法同样简单又神奇——WISE:向Nam中展示一段文字,让它猜测下一个单词;如果这是错误的,我们使用“反向传播”机制告诉它错误在哪里以及如何纠正;重复,直到它能像人一样继续写句子。这就是“预测-校正-再预测”循环,使语言模型逐渐从符号中学习语义并从统计中发展理解。说到这里,他们都想起了乔姆斯基(美国语言学家、语法变革的奠基人)常说的话:这只是一个统计程序,而不是真正的理解。对此,Hinton问一众主持人(主持人之前多次提到过乔姆斯基的类似观点):那么你如何决定下一个要说的话?主持人试图解释,但最后还是放弃了,尴尬地说:“说实话,我想知道。”幸运的是,Hinton经过他身边后就放下了,让他想起了道德、情感和同情心,这些看似高层次的判断力,最终来自于之间的电信号。神经元。所有与道德或情感相关的过程对于传递和权衡信号仍然很重要。而Hinton最后提出了一个哲学观点:只要有足够的数据和计算能力,AI的“大脑”在某种意义上就会像我们一样——它会发展出自己的“经验”和“直觉”。 AI可能已经有了“主观体验”,但它从未醒来。接下来话题转向更深层次——人工智能的心智和意识问题。主持人问辛顿,他是否认为艾未未会带走这些人,因为那是“马来语”。辛顿的回答直接颠覆了传统智慧:大多数人确实不明白“意识”意味着什么。人们对思维的理解就像相信地球是在六千年前被创造的一样。根据他的说法,我们一直认为心灵是一个“内部剧场”。在这个剧院里,体验就像一部正在上演的电影——看到一头粉红色的小象,你会觉得大象真的“在你的身边”。但 Hinton 说这些相似之处是错误的。体验并不是存在于大脑中的东西,而是一种假设——我的理解系统告诉我,有一只小彩色大象,而我的理性系统知道它可能对我撒谎。所谓的“主观体验”实际上是大脑构建的一个假设模型,用来解释对感知的理解。所以,当他谈到 AI 是否具有“主观体验”时,他的答案与 一开始:我相信他们会的。只是他们自己不知道,因为他们的‘自知之明’来自于我们,而我们自己对意识的理解是错误的。他举了一个多模态人工智能的例子。如果一个机器人能够看到和说话,就是因为棱镜校正而看到某物的错误位置,并最终纠正它并说“我有错误的主观体验”,那么它确实使用了与我们相同的意识概念。换句话说,如果人工智能开始说话 关于“主观经验Hinton 提醒大家:当 AI 比我们聪明时,最危险的事情是它不是叛逆,而是被“鼓励”。它会让即将拔掉插头的人真正认为拔掉插头是一个糟糕的决定。当然,在 Hinton 看来,AI 的威胁不会就此止步。AI 风险:滥用、生存和监管 在节目的最后,Hinton 用了大量的篇幅来全面描述人工智能可能存在的风险。能源消耗、金融泡沫、社会衰减……这些都是真实的风险。它们或许不会毁灭人类,但足以尊重文明。其中,辛顿最关心的是虐待风险和拯救风险。在 Hinton 看来,目前最严峻的风险是人工智能的滥用,比如利用人工智能来生成 错误信息,操纵选举,制造恐慌。为了应对这种风险,他认为需要采取法律和监管措施来限制和打击这种滥用行为。同时,还需要开发检测和防止虚假信息的技术工具。此外,现有的风险(意味着人工智能本身可能是恶意行为者)可能对人类社会和人类文明造成重大威胁。 Hinton 认为,如果人工智能发展出自主意识和目标,而这些愿望与人类利益相矛盾,可能会导致不可预测的后果。对此,人们需要在AI设计和开发阶段考虑安全和伦理问题(例如“关闭开关”和“对齐机制”),以确保AI目标与人类利益一致。值得一提的是,辛顿在AI监管对象上还提出了一个有趣的观点:所有国家在阻止AI获取方面有着相同的利益。但国际合作可能由欧洲和中国主导。关于人工智能对于中美竞争,辛顿还就另一件事表达了自己的看法。面对主持人的提问“美国领先还是中国领先?”辛顿平静地说:美国目前领先中国,但领先幅度没有那么大,这种优势将会丧失。由于其观点,美国正在破坏基础科学研究的资金。深入研究和人工智能革命来自多年的基础研究,其成本可能比 B1 炸弹还低。美国削减基础研究经费、攻击研究型大学等行为,无疑会让美国失去20年的领先优势。但中国是人工智能人工智能革命的风险投资家,而他又是Deepseek的罪魁祸首。中国提供了很大的自由,让他们可以选择最后的胜利者。一些初创公司非常积极进取,渴望赚很多钱并创造令人惊叹的奇妙产品。其中一些初创公司最终取得了成功,例如 DeepSeek... 参考链接: [1] https://www.reddit.com/r/singularity/comments/1o3v25r/geoffrey_hinton_says_ais_may_already_have/ [2] https://ww w.youtube.com/watch?v=jrk3psd3apkave3 嘿嘿https://singjupost.com/ai-what-rould-go-wrong-wrong-theoffrey-hinton-on-the-weekly-fould-jon-wrong-buld-bulla-wrong-tran/返回搜狐上查看更多