AI教父Hinton最新采访万字实录:ChatGPT和AI的过去现在与未来

标签: ai 教父 hinton | 发表时间:2023-04-09 18:53 | 作者:caijing
出处:http://www.dapenti.com
 AI教父Hinton最新采访万字实录:ChatGPT和AI的过去现在与未来
新智元 



我们现在正处于一个过渡点,其中ChatGPT像一个「白痴天才」
Geoffrey Hinton被公认是人工智能的教父,数十年前他就支持和推动了机器学习,随着像ChatGPT这样的聊天机器人引起广泛关注,CBS的主持人于2023年3月初在多伦多的Vector研究所采访了Hinton。


问:您如何描述当前AI机器学习领域的时刻?

答:我认为这是一个关键时刻。ChatGPT表明,这些大型语言模型可以做一些令人惊奇的事情。普通公众突然开始关注这个领域,因为微软发布了一些产品,他们突然意识到了大公司在过去五年里所知道的东西。

问:你第一次使用ChatGPT时的想法是什么? 

答:在ChatGPT前,我已经使用了许多类似的东西,所以ChatGPT并没有让我感到惊讶。GPT-2(这是早期的一种语言模型)让我惊讶,谷歌的一个模型也让我惊讶,它实际上可以解释为什么一个笑话很好笑。它用自然语言告诉你为什么一个笑话很好笑。当然,并非所有笑话都可以,但对于很多笑话,它都可以告诉你为什么它们好笑。

问:如果ChatGPT并不那么令人惊讶或令人印象深刻,那么您对公众对它的反应感到惊讶吗?因为反应很大。 

答:是的,我认为每个人都有点惊讶于反应如此之大。这是最快增长的应用程序。也许我们不应该感到惊讶,但研究人员已经习惯于这些东西实际上是有效的。

问:你在AI领域一直处于领先地位,半个世纪都领先于其他人,对吗? 

答:其实不然。在AI领域,有两种思路。一种是主流AI,另一种是关于神经网络的。主流AI认为,AI是关于推理和逻辑的,而神经网络则认为,我们最好研究生物学,因为那些才是真正有效的东西。所以,主流AI基于推理和逻辑制定理论,而我们基于神经元之间的连接变化来学习制定理论。从长远来看,我们取得了成功,但短期内看起来有点无望。

问:回顾过去,了解你现在所知道的,你认为当时你是否可以说服人们?

答:我当时可以说,但那并不能说服人们。我可以说,神经网络在20世纪80年代没有真正奏效的唯一原因是计算机运行速度不够快,数据集不够大。然而,在80年代,一个重要的问题是,一个拥有大量神经元的大型神经网络,计算节点和它们之间的连接,仅通过改变连接的强度,从数据中学习,而没有先验知识,这是否可行?主流AI的人认为这完全荒谬。尽管这听起来有点荒谬,但它确实有效。

问:您是如何知道或为什么相信这种方法会奏效的? 

答:因为大脑就是这样。你必须解释我们是如何做到这些事情的,以及我们是如何做到那些我们没有进化出来的事情的,比如阅读。阅读对我们来说是非常新近的,我们没有足够的进化时间来适应它。但我们可以学会阅读,我们可以学会数学。所以一定有一种在这些神经网络中学习的方法。

问:昨天,曾与您共事的Nick告诉我们,您并不是真正对创建AI感兴趣,您的核心兴趣是理解大脑是如何工作的。 

答:是的,我真的想了解大脑是如何工作的。显然,如果你关于大脑工作原理的错误理论带来了好的技术,你可以利用这一点来获得资助。但我真的想知道大脑是如何工作的。我认为目前人工神经网络与大脑实际工作原理之间存在一定的分歧。我认为它们现在走的是不同的道路。

问:那么我们现在还没有采取正确的方法?

答:这是我的个人观点。

问:但所有大型模型现在都使用一种叫做反向传播的技术,而这种技术是您帮助推广的。

答:我认为大脑并不是在做这个。有两条通往智能的不同道路。一条是生物学途径,另一条是我们所拥有的模拟硬件途径。我们必须用自然语言进行沟通,还要向人们展示如何做事情,模仿等。但我们在交流方面做得很糟糕,与现在运行在数字计算机上的计算机模型相比,我们的交流能力差得多。计算机模型之间的沟通带宽非常大,因为它们是相同模型的克隆,运行在不同的计算机上。正因为如此,它们可以查看大量的数据,因为不同的计算机可以查看不同的数据,然后它们结合了它们所学到的东西,远远超出了任何人能够理解的范围。尽管如此,我们仍然比它们聪明。

问:所以它们就像是天才白痴吗?

答:对,ChatGPT知道的比任何一个人都多。如果有一个关于知识量的比赛,它会轻松击败任何一个人。它在智力竞赛中表现出色,可以写诗,但在推理方面并不擅长。我们在推理方面做得更好。我们必须从更少的数据中提取我们的知识。我们有100万亿个连接,其中大部分是通过学习得到的,但我们只活了十亿秒,这并不算很长的时间。像ChatGPT样的东西,它们在许多不同的计算机上运行了比我们更长的时间,吸收了所有这些数据。

问:1986年,您在《自然》杂志上发表了一篇文章,提出了一个想法:我们将拥有一个由单词组成的句子,并预测最后一个单词。

答:是的,那是第一个语言模型,基本上就是我们现在在做的事情。1986年是很久以前的事情了。

问:为什么那时候人们还没有说「哦,好吧,我认为他找到了方法」?

答:因为那时候,如果你问我用多少数据训练了那个模型,我有一个简单的家庭关系模型,有112个可能的句子,我用其中的104个进行了训练,然后检查它是否正确预测了最后8个。它在预测最后8个方面表现得相当好,比符号AI更好。问题是那时候的计算机还不够强大。现在的计算机速度快了数百万倍,可以进行数百万倍的计算。我做了一个小计算,如果我拿1986年的计算机去学习一些东西,它现在仍在运行,但还没有完成。现在,学习这些东西只需要几秒钟。

问:你知道这是你的制约因素吗?

答:我并不知道,但我相信那可能是我们的制约因素。但人们对这样的说法嗤之以鼻,好像这是一个借口:「如果我有更大的计算机和更多的数据,一切都会好起来。现在它不起作用是因为我们没有足够的数据和计算能力。」这种观点被当作对事物无法正常运作的一种狡辩。

问:在90年代从事这项工作很困难吗?

答:在90年代,计算机在不断发展,但是那时确实有其他学习技术,在小型数据集上表现得和神经网络一样好,而且更容易解释,背后有更为复杂的数学理论。所以,在计算机科学领域,人们对神经网络失去了兴趣。但在心理学领域,他们仍然对神经网络感兴趣,因为心理学家对人类可能如何学习感兴趣,这些其他技术甚至比反向传播还不合理。

问:这是您背景的一个有趣部分,您之所以投身于这个领域,并非因为对计算机感兴趣,而是因为对大脑感兴趣。

答:是的,我原本对心理学感兴趣,后来我决定,如果不了解大脑,我们永远无法理解人类。在70年代,有一种时髦的观点认为,你可以在不关心大脑的情况下做到这一点,但我觉得那是不可能的。你必须了解大脑是如何运作的。

问:现在我们快进到2000年代,您回顾过去,是否认为有一个关键时刻,当时您觉得我们这一方将在这场争论中获胜?

答:大约在2006年,我们开始做所谓的深度学习。在那之前,让具有多层表示的神经网络学会复杂事物一直很困难。我们找到了更好的方法来实现这一点,更好的初始化网络的方法,称为预训练。在ChatGPT中,P代表预训练。T代表变换器,G代表生成。实际上,是生成模型为神经网络提供了更好的预训练方法。2006年时,这个理念的种子已经埋下,到了2009年,我们已经研发出了比最好的语音识别器更好的东西,用与其他所有语音识别器不同的技术识别您说的哪个音素。

问:那么2012年发生了什么大事呢?

答:实际上2012年发生了两件大事。其中一项研究始于2009年,是由我的两名学生在暑假进行的,他们的研究成果导致了语音识别的改进。这项技术被推广到了微软、IBM和谷歌等大型语音识别实验室。2002年,谷歌首次将其应用于产品,突然之间,安卓上的语音识别变得跟Siri一样好,甚至更好。这是深度神经网络在语音识别领域的一个应用,比以前提前了三年。

在那个时间点的几个月内,我的另外两名学生开发了一个物体识别系统。该系统可以查看图像,告诉你图像中的物体是什么,效果比以前的系统好得多。

这个系统是怎么工作的呢?有一个人叫李飞飞,和她的合作者创建了一个大型图像数据库,包含了1000个不同类别的100万张图像。你需要查看一张图像,并对图像中的主要物体进行最好的猜测。所以,这些图像通常会在中间有一个物体,比如子弹头火车或者哈士奇之类的东西。其他系统的错误率是25%,而我们的错误率是15%。几年之后,15%的错误率降到了3%,这已经接近人类水平了。

让我试着解释一下,让人们理解他们的方法与其他团队的方法之间的区别。假设你想在图像中识别一只鸟。图像本身,假设是200x200的图像,有200x200个像素,每个像素有三个颜色值RGB。所以你在计算机里有200x200x3个数字,就是计算机里的数字。任务是将这些数字转换成一个表示鸟的字符串。50年来,标准AI领域的人们一直试图做到这一点,但没有成功。将一堆数字转换成一个表示鸟的标签是很棘手的。

你可以这样做:首先,你可以制作特征检测器,检测像素的小组合。然后在下一级别,你可能会说,假设我有22个边缘检测器,它们以一个细角相连,那可能就是一只喙。然后在更高的层次上,我们可能有一个探测器,它会说,嘿,我找到了这个类似喙的东西,还找到了一个圆形的东西,它们在空间关系上大致是一只鸟的眼睛和喙。所以下一个级别,你会有一个鸟类探测器,它会说,如果我看到这两个特征,我认为这可能是一只鸟。你可以想象通过手动连接这些特征检测器。而反向传播的思想就是在一开始随机设置连接权重,然后根据预测结果调整权重。如果预测出现错误,那么你就通过网络反向计算,并提出以下问题:我应该如何改变这个连接强度,使其更不容易说出错误答案,更容易说出正确答案?这称为误差或差异。然后,你要计算每个连接强度如何进行微调,使其更容易得出正确答案,更不容易得出错误答案。

一个人会判断这是一只鸟,然后将标签提供给算法。但是反向传播算法只是一种计算方法,用于确定如何改变每个连接强度,使其更容易说鸟,更不容易说猫。算法会不断尝试调整权重。现在,如果你展示足够多的鸟和猫,当你展示一只鸟时,它会说鸟;当你展示一只猫时,它会说猫。事实证明,这种方法比手动连接特征检测器要有效得多。

这就是我的学生在图像数据库上所做的事情。他们让这个系统工作得非常好。这些学生非常聪明,事实上,其中一名学生,他是ChatGPT背后的主要人物之一。那是人工智能的一个巨大时刻,他实际上参与了这两个项目。

你可以想象,当你调整这个小旋钮时,它会说出「鸟」,这感觉就像是一个惊人的突破。这主要是因为计算机视觉领域的其他人认为,这些神经网络只适用于简单的任务,例如识别手写数字,但这并不是真正复杂的图像,具有自然背景等。他们认为这种方法永远不会适用于这些大型复杂图像,但突然之间,这种方法就成功了。

值得称道的是,那些曾经坚定反对神经网络的人,当看到这种方法成功时,他们做了科学家通常不会做的事情,也就是说:「哦,它有效,我们会采用这个方法。」人们认为这是一个巨大的转变。因为他们看到这种方法比他们正在使用的方法更有效,所以他们很快就改变了立场。

当人们既在思考机器,也在思考我们自己的思维方式时,我们常常认为,输入是语言,输出是语言,那么中间一定也是语言。这是一个重要的误解。实际上,这种观点并不正确。如果这是真的,那么被称为符号人工智能的方法应该非常擅长进行机器翻译,比如把英语转换成法语。你会认为操作符号是实现这一目标的正确方法。但实际上,神经网络的效果更好。当谷歌翻译从使用符号方法转向神经网络时,效果大大提高了。我认为,在中间的部分,你会发现有数百万个神经元,它们中的一些是活跃的,一些则不是。符号只能在输入和输出处找到,而不是在整个过程中。

现在,我们在多伦多大学附近,虽然并非在多伦多大学里,但在这里和世界各地的大学里,我们教育了很多人学习编码。教这么多人编码是否仍然有意义呢?我不知道答案是什么。在2015年左右,我曾经声称,在未来五年内,计算机将在图像识别方面超越放射科医生,因此教他们识别图像中的东西已经没有意义了。事实证明,我的预测错误了,实际上需要10年,而不是5年。在精神层面上,我并没有错,只是时间预测出了差错。计算机现在在很多医学图像识别方面与放射科医生相当,尽管它们还没有在所有方面做得更好,但它们只会变得更好。

因此,我认为有一段时间,我们仍然需要编码人员。我不知道这段时间会有多长,但我们需要的编码人员会减少。或者,我们可能需要相同数量的编码人员,但他们将能够实现更多的成果。

问:我们在这里谈论的是一家初创公司,昨天我们拜访了他们。你是他们的投资者,那么,什么是说服你的投资理由呢?

答:首先,他们是好人,我曾与其中的几位合作过。其次,他们是第一批意识到需要将Google、OpenAI等地开发的大型语言模型带给企业的公司。这对公司来说将非常有价值,因此,他们一直在努力实现这一目标,而且在这方面取得了领先地位。所以,我认为他们会成功的。

问:你曾经提到过一个我觉得非常有趣的观点,那就是未来可能会有一种新型计算机,专门解决这个问题。这个观点是什么?

答:我们有两种途径来理解智能:一种是生物途径,其中每个大脑都是不同的,我们需要通过语言来在不同的大脑之间传递知识;另一种是目前的AI神经网络版本,你可以在不同的计算机上运行相同的模型,实际上它们可以共享连接权重,因此它们可以共享数十亿个数字。

这就是我们如何让一只鸟跳舞的。它们可以共享识别鸟的所有连接权重,一个可以学会识别猫,另一个可以学会识别鸟,它们可以共享它们的连接权重,这样每个模型都可以做两件事。这正是这些大型语言模型所做的,它们在共享。但这种方法只适用于数字计算机,因为它们必须能够模拟相同的事物。而不同的生物大脑无法相互模拟,因此它们无法共享连接。

问:为什么我们不坚持使用数字计算机呢?

答:因为电力消耗。你需要很多电力。虽然随着芯片的改进,电力需求在减少,但运行数字计算机仍然需要大量的电力。你必须让计算机以高电力运行,以便它能够精确地以正确的方式工作。然而,如果你愿意让计算机以较低的电力运行,比如大脑所做的那样,你会允许一些噪声等,但特定系统会适应该特定系统中的噪声,整个系统将正常工作,尽管你没有以如此高的电力运行它以便它能精确地按照你的意图进行工作。大脑的运行功率是30瓦,而大型AI系统需要像兆瓦这样的功率。所以我们在30瓦上进行训练,而大型系统则使用兆瓦,它们有很多相同的东西。所以你知道,我们在谈论功率需求方面的1000倍差距。因此,我认为会有一个阶段,我们会在数字计算机上进行训练,但一旦某个AI系统训练完毕,我们会将其运行在非常低功耗的系统上。所以,如果你想让你的烤面包机能和你对话,你需要一个只花费几美元的芯片,而且它能运行像ChatGPT这样的程序,那么最好是一个低功耗和低芯片。

问:你认为接下来这项技术将做些什么,以影响人们的生活?

答:很难选一个。我认为这将无处不在。它已经开始无处不在了,ChatGPT只是让很多人意识到了这一点。它将无处不在。但实际上,当谷歌进行搜索时,它会使用大型神经网络来帮助决定向你展示什么最佳结果。我们现在正处于一个过渡点,其中ChatGPT像一个「白痴天才」,它也并不真正了解事实真相。它接受了大量不一致的数据训练,试图预测下一个网络用户会说什么。人们对很多事情有不同的观点,而它必须有一种混合所有这些观点的方式,以便可以模拟任何人可能说的话。这与一个试图拥有一致世界观的人非常不同,特别是如果你想在世界上采取行动,拥有一致的世界观是非常有益的。

我认为接下来会发生的一件事是,我们将朝着能够理解不同世界观的系统发展,并且能够理解,好吧,如果你有这个世界观,那么这就是答案。而如果你有另一个世界观,那么答案就是另一个。我们得到我们自己的真相。

问:那么这个问题是不是因为,你和我可能都相信(除非你是一个极端的相对主义者),实际上在很多话题上,甚至在大多数话题上,确实存在一个事实真相,比如地球实际上并不是平的,只是看起来平而已,对吧?

答:是的,所以我们真的想要一个模型说,好吧,对某些人来说,我们不知道吗?这将是一个巨大的问题,我们目前还不知道如何处理。目前我并不认为微软知道如何处理这个问题。他们也不知道。这似乎是一个巨大的治理挑战。谁来做这些决策?这是非常棘手的事情。你可不希望某个大型盈利公司来决定什么是真实的。但他们正在控制我们如何使用这些东西。谷歌目前非常小心,不要那样做。谷歌会做的是将你引向相关文件,这些文件中会有各种各样的观点。

问:那么他们还没有发布他们的聊天产品,至少在我们谈话的时候还没有,对吧?

答:是的,但我们已经看到,至少那些已经发布聊天产品的人觉得有些事情他们不希望用他们的声音说出来,所以他们会去干预它,以免说出冒犯人的话。是的,但这种方式你能做的事情是有限的。总会有你想不到的事情,对吧?是的。所以我认为谷歌在发布聊天机器人时会比微软更谨慎,并且它可能会附带很多警告,这只是一个聊天机器人,不要一定相信它所说的。在标签上小心,或者在干预方式上小心,以免做出糟糕的事情。所有这些方面都要小心。在如何将其作为产品呈现以及如何进行训练方面要小心。是的。并努力防止它说出不好的东西。但是,谁来决定什么是坏事呢?有些坏事是相当明显的,但是很多最重要的事情并不是那么明显。所以,目前这是一个很大的悬而未决的问题。我认为微软发布ChatGPT是非常勇敢的。

问:你是否认为这是一个更大的社会问题,我们需要监管或大规模公共辩论来处理这些问题?

答:当涉及到真相问题时,我的意思是,你是否希望政府来决定什么是真实的?这是个大问题,对吧?你也不希望政府来做这件事。我相信你已经对这个问题进行了深入的思考很长时间,我们如何在你只是将它发送到世界和我们找到策展它的方法之间找到平衡?像我说的,我不知道答案,而且我不相信有人真的知道如何处理这些问题。我们必须学会如何快速处理这些问题,因为这是一个当前的大问题。但是,关于如何完成这件事,我不知道,但我怀疑,作为第一步,至少这些大型语言模型必须了解到,存在不同的观点,以及它所作出的补充是相对于一个观点的。

问:有些人担心,这可能会很快蔓延开来,我们可能无法为此做好准备。这让你担忧吗?

答:确实有点。直到不久前,我认为在我们拥有通用人工智能之前还需要20到50年的时间。而现在我认为可能是20年或更短时间。有些人认为可能只有5年,那是荒谬的。但现在我不会完全排除这种可能性,而几年前,我会说绝不会发生这种情况。

问:有人说AI可能对人类构成巨大危险,因为我们不知道一个比我们聪明得多的系统会做什么。你是否也有这种担忧?

答:我确实有点担忧。显然,我们需要做的是使这种技术与人类互补,让它帮助人们。我认为这里的主要问题之一是我们所拥有的政治体系。即使说美国、加拿大和一群国家表示,好的,我们将建立这些防护栏,那么你如何保证呢?特别是对于像自主致命武器这样的事物,我们希望有类似日内瓦公约的东西,像化学武器一样。人们认为这些武器是如此恶心,以至于他们不再使用它们,除非有充分理由。但我认为,基本上他们不再使用这些武器。人们希望为自主致命武器达成类似的协议,但我认为他们不太可能达成这样的协议。

问:这是这个问题最尖锐的版本,你可以笑它,也可以不回答,但是你认为AI消灭人类的几率是多少?我们能否对此给出一个数字?

答:这个几率介于0%和100%之间。我认为这并非不可能。就我所说,如果我们明智的话,我们会努力发展它,以免发生这种情况。但是,令我担忧的是政治局势。确保每个人都明智行事是一个巨大的政治挑战。这似乎是一个巨大的经济挑战,因为你可能会有很多个体追求正确的道路,然而,公司的利润动机可能不会像为他们工作的个体那样谨慎。也许吧,我只真正了解谷歌,这是我唯一的工作公司。他们一直是最谨慎的公司之一。他们对AI非常谨慎,因为他们有一个提供你想要的答案的出色搜索引擎. 他们不想损害它。而微软则不太关心这个问题。如果搜索消失了,微软可能都不会注意到。当没有人追赶他们的时候,谷歌采取缓慢的策略是容易的。谷歌一直处于领先地位。Transformers是在谷歌发明的,大型语言模型的早期版本也是在谷歌。

问:是的,他们抓住了这个机会。

答:他们更加保守,我认为这是正确的。但现在他们感受到了压力。所以他们正在开发一个名为「Bart」的系统,他们将发布该系统。他们正在对它进行大量的测试,但我认为他们会比微软更谨慎。

问:你提到了自主武器。让我给你一个机会来讲述这个故事。你是如何来到加拿大的,这与你的选择有什么关系?

答:有好几个原因让我来到了加拿大,其中一个原因确实是不想从美国国防部那里拿钱。那时正值里根总统执政,他们正在尼加拉瓜的港口布雷。有趣的是,我当时在匹兹堡的一个大学,我是那里为数不多的认为在尼加拉瓜港口布雷是非常错误的人之一。所以我觉得自己像是异类。

问:你看到这种类型的工作是如何获取资金的吗?

答:在那个部门,几乎所有的资金都来自美国国防部。

问:你开始谈论将这项技术应用于战争可能带来的问题,你担忧什么?

答:噢,我担心美国人会试图用AI士兵替换他们的士兵,他们正朝着这个方向努力。

问:你看到了什么证据?

答:我在美国国防部的一个邮件列表上。我不确定他们知不知道我在邮件列表上,这是一个很大的名单,他们没有注意到我在那里。

问:名单上有什么?

答:哦,他们只是描述了他们打算做的各种事情,上面有一些令人作呕的东西。

问:让你感到恶心的是什么?

答:让我感到恶心的是一个关于自愈雷区的提议。这个想法是从雷区的角度来看,当一些无知的平民闯入雷区时,他们会被炸死,导致雷区出现空缺,使得雷区无法完全发挥作用。所以他们提出让附近的地雷进行通信,也许地雷可以稍微移动一下来弥补空缺,他们称之为自愈。而讨论这种自愈的想法,对于那些会炸断孩子双腿的地雷来说,实在令人作呕。

问:有人认为,尽管自主系统可能在某种程度上帮助战斗员,但最终决策仍然是由人类做出的。你担心什么?

答:如果你想制造一种高效的自主士兵,你需要赋予它创造子目标的能力。换句话说,它必须意识到类似的事情,比如:「好吧,我想杀死那个人,但是要过去,我该怎么办?」然后它必须意识到,如果能到达那条道路,可以更快地到达目标地点。所以,它有一个到达道路的子目标。一旦你赋予它创造子目标的能力,它就会变得更有效。但是,一旦它具备了创造子目标的能力,你就会遇到所谓的「对齐问题」,即如何确保它不会创造对人类或你自己不利的子目标。谁知道那条路上会有什么人?谁知道会发生什么?

问:如果这些系统是由军方研发的,那么将一条「永远不要伤害人类」的规则植入其中的想法,恐怕并不现实,因为它们本就是设计用来伤害人类的。你看到这个问题有什么解决办法吗?是条约还是什么?

答:我认为最好的办法是类似于《日内瓦公约》的东西,但这将非常困难。我觉得如果有大量的公众抗议,那么可能会说服政府采取行动。我可以想象,在足够的公众抗议下,政府可能会采取某些行动。但是,你还需要应对其他人。

问:是的,确实如此。好的,我们已经谈了很多。我想我还有两个问题。还有一个问题我想问一下。

答:好的,你问吧。

问:有人说这些大型模型只是自动补全,这种说法对吗?

答:从某种程度上来说,这些模型确实是自动补全。我们知道这些大型语言模型只是预测下一个词。这并不简单,但确实如此。它们只是预测下一个词,所以它们只是自动补全。但是,问问自己一个问题:要准确预测下一个词,你需要了解到目前为止所说的内容。基本上,你必须理解已经说过的话来预测下一个词。所以你也是自动补全,只不过与它们一样。你可以预测下一个词,虽然可能不如ChatGPT那么准确,但为了做到这一点,你必须理解句子。

让我举一个关于翻译的例子。这是一个非常具有说服力的例子。假设我要把这句话翻译成法语:「奖杯太大了,它放不进行李箱。」当我说这句话时,你会认为「它」指的是奖杯。在法语中,奖杯有特定的性别,所以你知道该用什么代词。但如果我说:「奖杯放不进行李箱,因为它太小了。」现在你认为「它」指的是行李箱,对吧?在法语中,行李箱的性别也不同。所以为了把这句话翻译成法语,你必须知道,当它放不进去是因为太大时,是奖杯太大;而当它放不进去是因为太小时,是行李箱太小。这意味着你必须了解空间关系和容纳等概念。

为了进行机器翻译或预测那个代词,你必须理解所说的内容。仅仅把它当作一串单词是不够的。

问: 你在这个领域的工作经历比任何人都长,你描述进展就像是「我们有了这个想法,尝试了一下,然后它奏效了。」所以我们有了几十年的反向传播,我们有了Transformer这个想法,但还有数百种其他想法还没有尝试。

答:是的,我认为即使我们没有新的想法,只是让计算机运行得更快、获取更多数据,这些东西也会变得更好。我们已经看到,随着ChatGPT规模的扩大,使其更优秀的并不是全新的想法,而是更多的连接和更多的训练数据。但除此之外,还会有像变换器这样的新想法,它们将使其运作得更好。

问:我们离让计算机自己想出改进自己的方法还有多远?

答:呃,我们可能很接近了。然后它可能会变得非常快。这是一个问题,对吧?我们必须认真思考如何控制这一点。

问:是的,我们能做到吗?

答:我们不知道,我们还没有到那个地步,但我们可以尝试。

问:好吧,这似乎有点令人担忧。作为这个行业的教父,你是否对你带来的这些成果感到担忧?

答:有一点。另一方面,我认为不论发生什么,这几乎都是不可避免的。换句话说,一个人停止研究不会阻止这种情况的发生。如果我的影响只是让它提前一个月发生,那么这就是一个人所能做的极限了。有这个想法,我可能说错了,那就是短跑道和长起飞。

问:也许我们需要时间准备,或者也许如果它发生得很快,那么人们会在问题上感到紧迫,而不是像现在这样慢慢发展。你对此有什么看法?

答:我认为有时间准备是好的。所以我认为,现在就担心这些问题是非常合理的,尽管在接下来的一两年内不会发生。人们应该思考这些问题。

问:我们还没有谈到工作岗位的替代,这是我的疏忽,对不起。这个技术是否会不断吞噬工作,一个接一个?

答:我认为它将使工作不同,人们将从事更有创造性的工作,而较少从事例行工作。

问:那么如果它可以评价诗歌和制作电影,还有什么工作算什么有创造性的工作?

答:如果你回顾历史,看看自动取款机,这些现金机出现时,人们说这是银行柜员的终结。但实际上,它并没有终结银行柜员的职位。现在银行柜员处理更复杂的事情,并且需要编码人员。所以人们说,这些工具可以进行简单的编码,并且通常能够正确地执行,你只需要让它编写程序,然后检查它,这样你就能够快速工作10倍。你可以只用10%的程序员,或者你可以使用相同数量的程序员,生产10倍的东西。

我认为会有很多这样的例子,一旦这些工具开始有创造性,就会创造出更多的东西。这是自工业革命以来最大的技术进步。

问:这是另一次工业革命吗?这是什么?人们应该如何看待它?

答:我认为它在规模上与工业革命、电力、甚至是轮子的发明相当。我在人工智能方面取得了领先地位有一个原因,那是因为加拿大授予机构的政策。这些机构没有很多钱,但他们利用其中的一些资金来支持出于好奇心的基础研究。在美国,资金是必须声明你将会生产什么产品的。在这里,一些政府资金——相当多的资金,是给教授的,让他们雇用研究生和其他研究人员探索他们感兴趣的事物。如果他们在这方面表现出色,那么三年后他们会获得更多的资金。这就是支持我的资金,是基于出于好奇心的基础研究的资金。我们之前也看到过这种情况,即使几十年来没有能够展示出太多的成果。

另一个发生的事情是,有一个叫做「加拿大高等研究所」的组织,为加拿大擅长的领域的教授提供额外的资金,并为分布在不同地方的教授提供相互交流的资金,例如温哥华和多伦多,也与美国、英国和以色列等其他地区的研究人员互动。CFR在人工智能领域设立了一个项目,最初是在20世纪80年代建立的,这是将我带到加拿大的项目,那时是基于符号的人工智能。

问:哦,我知道了,你是怎么来的?

答:我很奇怪,有点不寻常,因为我做了一些大家都认为是无意义的东西,但他们认识到我擅长这种「无意义」的东西,所以如果有人要做这种东西,那一定是我。我的一封推荐信写道:「你知道我不相信这些东西,但如果你想找一个人来做这个,就找Geoffrey吧。」在那个项目结束后,我回到英国待了几年,然后回到加拿大,他们决定资助一个基于深度学习的项目。

问:我认为你对「感知」的定义也有一些不满意,对吗?

答:是的,当涉及到「感知」的时候,我很惊讶人们会自信地宣称这些东西是没有感知的。当你问他们「感知」的意思是什么时,他们会说他们不太清楚。那么如果你不知道「感知」的意思,你怎么能自信地说它们没有感知呢?所以也许它们已经有感知了,谁知道呢。我认为它们是否有感知取决于你对「感知」的定义,所以你最好在回答这个问题之前先定义一下你对「感知」的理解。我们认为它是否有感知重要吗,还是只关注它是否能有效地表现出有感知的状态?

问:这是一个非常好的问题,很重要。那你的答案是什么?

答:我没有答案。好吧,因为如果它没有感知,但出于某种原因它认为它有感知,并且它需要实现与我们利益相悖的目标,但它相信它符合自己的利益,那么这真的很重要吗?我认为一个很好的例子可以想到的是一种自主的致命武器。说它没有感觉这也对,但是当它在追逐你并射击你时,你会开始认为它有感觉。我们并不真的关心,这不再是一个重要的标准了。我们正在开发的这种智能与我们的智能非常不同,它是某种伺候无知者的工具,它和我们不一样。

问:但是你的目标是让它更像我们,你认为我们会实现这个目标吗?

答:不是,我的目标是理解我们。我认为理解我们的方式是通过构建像我们一样的东西。我说过的那位物理学家理查德·费曼曾经说过,你不能理解一件事情,除非你能够构建它。

问:所以你一直在构建。

答:所以我一直在构建。

风险提示及免责条款
市场有风险,投资需谨慎。本文不构成个人投资建议,也未考虑到个别用户特殊的投资目标、财务状况或需要。用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。


喷嚏网官方App :【安卓】在 豌豆荚 、360手机助手、小米应用商店,搜索:喷嚏阅读;【ios】App store里搜索:喷嚏网官方阅读;

喷嚏网官方网站:http://dapenti.com (海外访问:https://dapenti.com)

每天网络精华尽在【 喷嚏图卦】        喷嚏网官方新浪围脖

相关 [ai 教父 hinton] 推荐:

AI教父Hinton最新采访万字实录:ChatGPT和AI的过去现在与未来

- - 喷嚏网----阅读、发现和分享:8小时外的健康生活!
 AI教父Hinton最新采访万字实录:ChatGPT和AI的过去现在与未来 新智元 . 我们现在正处于一个过渡点,其中ChatGPT像一个「白痴天才」. Geoffrey Hinton被公认是人工智能的教父,数十年前他就支持和推动了机器学习,随着像ChatGPT这样的聊天机器人引起广泛关注,CBS的主持人于2023年3月初在多伦多的Vector研究所采访了Hinton.

AI如何改变教育?机器学习教父、好未来、松鼠AI等大佬有话说

- - 雷锋网
雷锋网消息,5月24日,第三届AIAED全球AI智适应教育峰会在北京举行. 在会上,第三届AIAED主席、CMU计算机学院院长Tom Mitchell、乂学教育—松鼠AI创始人栗浩洋、好未来集团CTO黄琰等从不同角度谈及AI如何在教育中发挥影响. Tom Mitchell认为未来的十年,AI将会继续影响教育,机器学习将会对智适应教育产生重要影响,例如通过机器模拟人的学习状态来获取数据,从而适度摆脱对人类数据的依赖;松鼠AI创始人栗浩洋从三个层面介绍了松鼠AI老师的架构,并指出知识地图和错因分析在教育减负上的应用;好未来CTO 黄琰认为,AI+教育已经进入2.0时代,AI也会促使教育培养目标从改变命运到提升幸福的转变.

AI vs AI--当AI与自己聊天

- Tim - Solidot
Shawn the R0ck 写道 "最烦人的事情之一莫过于被强迫与一个白痴对话. 但当你发现你最讨厌与之交谈的白痴其实就是你自己的基于人工智能程序的拷贝...康奈尔创造性机器实验室决定看看当AI尝试跟自己交谈会发生什么. 他们的健谈的AI程序Cleverbot与自己进行文本交互,之后朗读出文本并且显示到视频中.

一家公司的 AI 教育观:AI 管「教」,真人来「育」

- - 极客公园
叮咚课堂 App 上线不过八个月,他们一面竭力在竞争异常激烈的在线少儿英语赛道上保持着刻意的低调,一面又疯狂地收获了平均 300% 月度的用户增长率. 这让他们创始人邱明丰对未来信心更盛了. 在艾瑞咨询发布的《2018 年中国在线幼儿启蒙英语行业白皮书》中提到,近年来人工智能在互联网教育领域大规模展开,但在在线幼儿启蒙英语教育中的应用甚少,随着资本的注入和行业的发展,其有望通过人工智能进一步提升用户在线启蒙英语学习的体验和效率.

贪吃蛇AI挑战赛第二季

- 温柔一刀 - 黑客志
如果你对这个活动感兴趣,可以先从这里开始,编写一个AI程序,然后将你的AI程序以及你对平台的改进建议发送到jin.cai20#gmail.com,主办方将会从中选择12名选手参加6月24到25持续一个周末的编程派对,并提供往返交通及住宿费用,下面是活动的详情:. 时间: June 24th – June 26th *.

AI 政策引发失业担忧

- - 最新更新 – Solidot
政府智库——中国发展研究基金会和红杉中国的报告 显示,中国出口制造业省份浙江、江苏和广东的几家公司在这三年内因自动化削减了 30% 至 40% 的劳动力. 北京正在实施雄心勃勃的政策以升级制造技术. 官方媒体对包括人工智能领域在内的政府发展目标的报道都集中在积极因素上. 然而,有关当局悄然对此类政策导致的裁员表示了担忧.

科创板,一瓶AI的卸妆水?

- - IT瘾-tuicool
编者按:本文转自 甲子光年,作者小北. “一级市场估值和泡沫怎么起来的,他们自己心里没点数吗. ”一位券商科技产业分析师在谈起即将到来的科创板时对我们说. “我们反正第一批肯定先不上. ”一位AI独角兽融资负责人面对我们对科创板的提问,回答略显暧昧. “你说那家公司为什么就值这么多钱呢. ”一位国内顶尖券商的投行业务部门负责人也曾反问我们,“反正他们的材料递到我这儿,我不会签字.

AI在运维中的应用

- - IT瘾-geek
要:随着X86分布式技术应用,服务器数量越来越多,网络拓扑结构越来越复杂,运维越来越辛苦,风险越来越高. 智能化运维AIOPS将AI技术应用在运维场景,是DevOps的运维部分,是“开发运维一体化云中心”的重要基础设施之一,其最大的价值在于缩短故障恢复时间,提高IT服务连续性. 本文描述一个运维及在这个场景下对AI的需求,目标是尝试将AI引入运维过程,提高运维效率、缩短故障恢复时间.

当 AI 开始进村养猪

- - PingWest品玩
“母猪杜洛克C7259号,没有怀孕,请在12小时内再次安排配种. ”如今,国内一些猪场工作人员已经能在自己的电脑上看到这样的提醒. 与此同时,长白山精气神养殖基地里,一只母猪在猪栏中的六个食槽一一凑过去, 但都没有通过面部识别. 饲喂机纹丝不动,就是不给投料,它只能落寞地走到墙角趴下. 工程师在 App 上查了一下状态,原来智能饲喂机识别出这头猪的当日进食量已经达到配额,不能再吃了.

2021,AI公司将难上加难

- - 虎嗅网 - 首页资讯
头部AI公司都进入IPO的关键节点,它们的上市表现,决定了这一轮AI公司的前景. 本文来自微信公众号: 财经十一人(ID:caijingEleven),作者:刘以秦,编辑:谢丽容,头图来自:视觉中国. 人工智能(AI)被认为是下一代技术浪潮,借着这股东风,AI公司们在过去几年里成为创投领域最炙手可热的明星.