本文作者:linbin123456

AI教父Hinton 46分钟对谈:AI可复制人类心智,或加剧全球贫富差距

linbin123456 06-26 66
AI教父Hinton 46分钟对谈:AI可复制人类心智,或加剧全球贫富差距摘要: AI教父Hinton 46分钟对谈:AI可复制人类心智,或加剧全球贫富差距智东西6月17日消息,当地时间6月7日,AI教父杰弗里·辛顿(Geoffrey Hinton)在联合国AI...
微信号:18621393321
添加微信好友, 获取更多信息
复制微信号
AI教父Hinton 46分钟对谈:AI可复制人类心智,或加剧全球贫富差距
智东西6月17日消息,当地时间6月7日,AI教父杰弗里·辛顿(Geoffrey Hinton)在联合国AI for Good大会上分享了AI在医疗和教育领域的潜力、网络犯罪和假视频的威胁以及提倡建立更严格的监管框架等话题。这场对谈共46分钟。
此次对谈中,Hinton有很多令人深思的金句与观点:
1、人类心智并无AI不可复制之处,且AI已经具备主观体验。
2、我一直认为通用AI不会突然出现一个时刻,让机器瞬间超越人类。它们将在不同时间,在不同领域超越我们。
3、AI将创造大量财富,几乎所有人都认为AI将提高生产力。问题是,新增的财富将流向何方?我认为不会流向穷人,而是流向富人,这将加大贫富差距。
4、大语言模型真的理解它们所说的内容,几乎与人类一样,AI理解的方式与人类理解的方式相同。
5、AI不仅将助力基础科学研究,在许多情况下,它能处理大量非视觉、非听觉的复杂数据,如基因组数据。我认为,AI系统在处理大规模数据、识别模式、理解数据方面将远超人类。
6、我认为,提前对公众进行假视频的“疫苗接种”,把它们当作疾病一样对待,这是一个好主意。就像预防疾病一样,可以使用减弱版的病毒来接种。
以下是Geoffrey Hinton与《大西洋月刊》CEO Nicholas Thompson对谈的全文编译:
01.
40年前就已提出,机器智慧因借鉴人脑架构
Nicholas Thompson:很高兴能再次回到这里,我更高兴的是能与杰弗里·辛顿同台,他是这个领域中最聪明、最出色、最能干且最善良的人之一。杰弗里,您最近怎么样?
Geoffrey Hinton:我很好,非常感谢您那过分热情的介绍。
Nicholas Thompson:杰弗里,我想从我们几乎一年前的一次对话开始,当时我们在多伦多,正准备上台,我的两个孩子当时和我在一起,他们那时分别是14岁和12岁。您看着那个大点的孩子说,“您会像您爸爸一样进入媒体行业吗?”他回答说“不会”。您说“那太好了”。然后我说,“如果他不打算进入媒体行业,那他应该做什么?”您回答说“他应该成为一名水管工”。所以,我的儿子申请了学校报社的工作,我很想知道您是否认为他在犯一个严重的错误,我是否应该真的把他派下楼去修理水龙头?
Geoffrey Hinton:不,我当时是在开玩笑,但我确实认为,水管工这个职业会比大多数职业持续更长的时间。我认为目前我们的AI最差的地方就是物理操作,它正在迅速改进,但这是它相比人类最弱的一环。
Nicholas Thompson:好的,那么在这次采访中,我想先从辛顿博士的背景开始,然后我会向您提出一些最有趣的技术问题,其中一些我们已经在台上讨论过。我们将聊一些关于AI的正面影响,然后是一些负面影响,最后再谈谈监管框架。听起来如何,杰弗里?
Geoffrey Hinton:听起来很好,非常棒。
Nicholas Thompson:首先,我想从40年前开始说起,那时您是一名孤独的科学家,而您所拥有的洞见最终成为了这个领域最重要的发现之一,可能是20世纪后半叶最重要的发现。您意识到,为了制造出极其强大的计算机,应该借鉴人脑的架构来实现。现在看来这似乎显而易见,但在当时并非如此。请告诉我,那一刻的洞察力如何推动了这个领域的进展?
Geoffrey Hinton:这是一个美好的神话,但实际上有几个人在不同的时期也有类似的想法,特别是1950年代的纽曼(John Von Neumann,现代计算机的奠基人之一,20世纪最杰出的数学家)和香农(Claude Elwood Shannon,美国数学家、信息论的创始人)都这样认为,然而不幸的是他们都英年早逝,否则我们这个领域的历史可能会截然不同。对我来说,这似乎是显而易见的,如果您想理解智慧,就需要理解我们所知的最智慧的事物,那就是我们人类自己。我们的智慧并不来自人们编程输入大量的命题,然后使用逻辑来推理这些命题,而是源自于一个主要为视觉和运动控制而设计的大脑,显然,大脑中的连接强度随着学习而变化,我们必须弄清楚这种变化是如何发生的。
02.
因担忧AI风险离开谷歌,数字计算有远胜大脑的优势
Nicholas Thompson:那么,让我们快速回顾一下您的历程。您投身于这项工作,起初人们说您在走一条错误的道路,您坚持下去,其他人也加入进来,最终证明您走的是一条正确的道路,但前途未卜。您获得了图灵奖,加入了谷歌,卖了一家公司给谷歌,然后大约一年半前离开谷歌。您离开的那一刻是ChatGPT发布几个月后。您离开前做的最后一件事是什么,以及那一刻的决定是怎样的?
Geoffrey Hinton:首先,让我澄清一点,我离职有好几个原因,其中一个是我已经75岁了,我觉得我应该退休了。我不是仅仅为了谈论AI的风险而离职,但这确实是另一个原因。我在2023年初深刻意识到了AI存在的威胁,并在2023年3月左右开始与其他同样担心AI威胁的人交谈,比如罗杰·格罗斯。他们鼓励我公开我的担忧,于是我决定离开谷歌,以便能够自由发言。我之所以感到害怕,是因为我一直在研究如何让模拟计算机能够以30瓦特而不是兆瓦特的功率运行这些大语言模型。在这个过程中,我确信数字计算有某些地方远胜于大脑能做到的。直到那时,我花了50年时间思考,如果我们能让计算更像大脑,它就会变得更好。
但最终在2023年初,我意识到数字计算有大脑永远无法拥有的优势,因为它可以进行数字化复制,使得多个相同的模型可以在完全相同的方式下工作,每个模型可以查看数据集的不同部分、获取梯度,它们可以结合这些梯度,从而能够学习得更多。这就是为什么GPT-4可以知道比一个人多得多的知识,因为它是在多种不同硬件上运行的多个不同的副本,可以浏览整个互联网,这是我们永远无法拥有的能力。所以,他们拥有而我们没有的就是高效的共享能力,人脑只能以极低的效率进行共享,这就是现在发生的情况。我产生句子,您试图弄清楚如何改变您大脑中的突触,您可能会说这是一种非常缓慢和低效的分享方式。而数字智能,如果是同一个模型的不同副本,它们可以以万亿比特的带宽进行高效共享。
Nicholas Thompson:当您突然意识到这些系统可能比您想象中强大得多的那一刻,一定既让您感到兴奋,同时也引发了极大的恐惧,对吗?
Geoffrey Hinton:这让我觉得它们会比我想象的更快变得更聪明,让我觉得它们是更高级的智能形式。
Nicholas Thompson:让我们谈谈另外两位AI教父。您和另外两人一起获得了图灵奖,他们是杨立昆(Yann LeCun),现在在Meta领导AI工作,还有约书亚·本吉奥(Yoshua Bengio)。我试着找出您们之间的差异,请告诉我这是否合理:杨立昆可能认为AI像弗雷多·柯里昂(黑帮电影《教父》中老教父维托的二儿子),不太有能力,容易控制;约书亚·本吉奥可能认为AI像桑尼·柯里昂(黑帮电影《教父》中老教父维托的大儿子),潜在地相当危险;而您视AI为迈克尔·柯里昂(黑帮电影《教父》中老教父维托的小儿子),潜在地极其危险。这描述是否大致正确?
Geoffrey Hinton:我不这么认为。我认为约书亚·本吉奥和我在AI的危险性方面有非常相似的看法。
Nicholas Thompson:您和杨立昆的区别主要在于您认为这是一个比他更强大的系统,这也是您比他更担忧的原因?
Geoffrey Hinton:这是其中一个区别,是的。我认为它现在已经非常聪明了,而杨立昆认为猫可能更聪明。
Nicholas Thompson:让我们深入探讨智能这个话题,我认为这是最有趣的问题之一。您认为人类心智中有任何东西是这些机器和AI系统无法复制的吗?我们的大脑能做的一些事情,是否有些是无法在机器中复制的?
Geoffrey Hinton:没有。
Nicholas Thompson:这意味着没有什么是我们能做的,而这些智能机器不能超越的。例如,可以说它们最终能创作出更美妙的音乐,能做得比我们好且涉及简单的认知任务?
Geoffrey Hinton:我相信这一点。
Nicholas Thompson:您不认为有任何精神层面的东西,或是超出了神经网络所能捕捉的范围?
Geoffrey Hinton:我认为我们所说的“精神”可以被这些外星智能所捕捉。我同意山姆·阿尔特曼(Sam Altman)的观点,这是一种外星智能,它与我们有一些不同。但如果您看看宗教之类的事情,我不明白为什么我们不可以将其比作一种“宗教”体验。
Nicholas Thompson:昨天当我向阿尔特曼提出这个问题时,他说可能有一个区别,那就是主观体验。一个机器人系统无法体验世界。您认为AI系统能有主观体验吗?
Geoffrey Hinton:是的,我认为它们已经具备了(这种能力)。
Nicholas Thompson:让我们深入探讨一下这个观点,这是一个颇具争议的主张,杰弗里,您不能只用一句话就搪塞过去,请继续阐述可以吗?
Geoffrey Hinton:我试图给您简洁明了的回答,确实,我持有与大多数人坚定信仰相悖的信念,这让我处于一种有趣的位置。所以,我的观点是,几乎每个人对于心智的理解都是错误的。这是一个很难让人接受的观点。我现在处于这样一个境地,我坚信这一点,而这与大多数人的看法并不一致。大多数人的心智观念就像一个内部剧场,事实上,人们对这种观点深信不疑,以至于他们甚至不认为这是一种观点,他们不认为这是一种模型,他们认为这就是显而易见的事实,这就像人们曾经坚信太阳围绕地球转一样。您只需要看一眼,太阳似乎就在绕着地球转。但最终,人们意识到太阳并非围绕地球转动,而是地球在其轴上自转。这是阿尔特曼犯的一个小技术错误,由于我爱挑刺,我喜欢指出他的错误。
最初,人们认为太阳围绕地球转,后来意识到地球围绕太阳转,这不是正确的对比。人们最初认为太阳围绕地球转,后来意识到地球在其轴上自转。地球绕太阳转与年份有关,而不是与天有关。无论如何,太阳围绕地球转看起来是显而易见的,但我们错了,我们有一个模型,一个直观正确的简单模型,您只需看到它在发生,但这个模型是错误的。我认为,大多数人对心智的看法也是如此。大多数人认为存在一个内心的剧场,但他们对此的理解是错误的,他们没有理解心理状态的语言是如何运作的。
Nicholas Thompson:请解释一下这如何适用于AI系统。比如,如果我对GPT-4说,您刚刚听到了一个巨大的声音,有什么东西撞到了您,但它并没有感受到疼痛或受伤。在这种情况下,它在何种意义上有了主观体验?
Geoffrey Hinton:好的,让我们以一个简单的例子来说明。我并不假装对意识的全貌有完整的答案,尽管我认为我已经取得了一些进展,实际上,上个世纪的哲学家们在这方面取得了进步。所以,如果我告诉您,我看到有小粉红大象在我面前飘浮,一种理解方式是存在一个内心的剧场,在我的内心剧场里有小粉红大象,我可以直接看到那些小粉红大象。如果您问它们是由什么构成的,它们是由被称为“感受”的东西构成,也许是一些粉红色的感受、一些大象的感受、一些正确的感受、一些移动的感受,所有这些感受不知怎么地结合在一起,这是一种理论,即内心剧场里充满了奇怪的神秘现象。
另一种截然不同的理论则是,有人正尝试向你描述他的感知系统向他传达的信息。他的感知系统告诉他,有一群粉红色的小象在外空中漂浮,尽管他知道这是错误的。因此,他描述感知系统所传达信息的方式,是通过说明什么样的状况下,他的感知系统才能正常运作。也就是说,当他声称自己拥有看到粉红小象漂浮在前的主观体验时,实际上无需使用“主观体验”这个词。他可以换种说法,即他的感知系统告诉他的信息,只有在世界中确实存在一群粉红色的小象漂浮在他面前的情况下才是正确的。
换句话说,这群粉红小象的奇特之处并非在于它们存在于一个由名为“质”的神秘物质构成的内在意识剧场中,而是它们代表了一种对世界的假设状态。这是一种间接的参照技巧,他无法直接描述感知系统向他传达的信息,但他可以说出,为了使这些信息正确,世界中需要存在什么样的状况。
Nicholas Thompson:所以,机器也可以或多或少地以同样的方式处理其感知?
Geoffrey Hinton:是的,让我给您举个例子。我想给您举一个多模态聊天机器人的例子,它显然在进行主观体验。假设我有一个装有摄像头和机械臂的多模态聊天机器人,我训练它,它能够说话、能够看到东西。我把一个物体放在它面前,说指向那个物体,它就会指向那个物体。现在,我在它的镜头前放一个棱镜,不让它知道,然后再把一个物体放在它面前,说指向那个物体,它却指向了一边,我说不对,物体就在镜头正前方,但是我在镜头前放了一个棱镜。聊天机器人会说“哦,我看到了,棱镜弯曲了光线,所以物体实际上就在我的正前方,但我有了它位于一侧的主观体验”。如果聊天机器人这么说,我认为它使用“主观体验”这个词的方式与我们使用它的方式完全相同。它不是指聊天机器人不可能拥有的神秘内在物质,而是指一种假设的世界状态,使得聊天机器人的感知将被证实是正确的。
Nicholas Thompson:您是第一个向我阐述这一观点的人,但这是一个引人入胜的例子。
03.
理解AI核心是警惕AI风险关键,建立有共情能力模型
Nicholas Thompson:让我们来谈谈可解释性,这是我昨天问阿尔特曼的问题,因为对他来说,理解AI系统的核心将是保护我们免受灾难性后果的最重要手段。您帮助设计了这些系统,为什么我们很难看透它们、理解它们在做什么?
Geoffrey Hinton:好的,让我们举一个极端的例子。假设我们有一个大数据集,我们试图回答一个“是”或“否”的问题,在这个数据集中有很多微弱的规律,可能有30万条暗示答案是“否”的微弱规律,有60万条暗示答案是“是”的微弱规律,这些规律的力量大致相等,所以答案非常明确是“是”。有压倒性的证据表明答案应该是“是”,但这些证据只是在所有这些微弱规律的综合效应中。当然,这是一个极端的例子。如果您问某人,好的,解释一下为什么它说“是”,唯一能解释为什么它说“是”的方法就是深入研究这60万条微弱规律。所以,当您在一个存在大量微弱规律的领域时,规律的数量如此之多,以至于它们实际上的综合效应是显著的,就没有理由期望您应该能够获得对事物的简单解释。
Nicholas Thompson:在昨天的对话中,阿尔特曼提到了一篇来自Anthropic的研究论文,我发现它非常有趣。论文分析了Claude模型的内部运作,找到了所有与金门大桥概念相关的神经连接,并增加了所有这些连接的权重,创建了一个“金门Claude”。然后,您进入这个模型说:“给我讲一个爱情故事。”它讲述的是发生在金门大桥上的爱情故事。您问它这是什么,它描述了金门大桥。鉴于此,为什么我们不能进入一个大语言模型调整权重,不是针对金门大桥,而是针对共情的概念、同情的概念,然后创建一个更可能为世界做好事的大语言模型?
Geoffrey Hinton:我认为您可以建立一个具有共情能力的模型,但不是通过直接调整权重,您只需用展示共情的数据来训练它。
文章版权及转载声明

作者:linbin123456本文地址:http://estem.org.cn/post/97933.html发布于 06-26
文章转载或复制请以超链接形式并注明出处定向政信网

阅读
分享