对DeepMind联合创始人的采访:生成式AI只是一个舞台,接下来是交互式AI

日期:2023-09-18 09:55:56 / 人气:212

“deep mind”的联合创始人穆斯塔法·苏莱曼(Mustafa Suleyman),他希望创造一个不仅能聊天的聊天机器人。在最近和他的一次交谈中,他告诉我,生成式人工智能只是一个阶段。
然后是交互式人工智能:机器人可以通过调用其他软件和其他人来完成你给它们设定的任务。他还呼吁加强监管,这一点不难实现。

苏莱曼不是唯一一个谈论未来软件将变得越来越自主的人。但与大多数人不同的是,他拥有一家价值数十亿美元的新公司Influence,从DeepMind、Meta和OpenAI中挑选顶尖人才,并且由于与英伟达的交易,该公司拥有世界上最大的专业人工智能硬件股票之一。他用实际行动证明了自己言行一致。
至少从我们2016年的第一次谈话开始,他一直相信技术是一种向善的力量。此前,他刚刚推出了DeepMind Health,并与英国国有地区的一些医疗保健机构建立了研究合作。
我当时所在的杂志即将发表一篇文章,声称DeepMind在访问约160万患者的记录以实现这些合作时,没有遵守数据保护规定。这一说法后来得到了政府调查的支持。
苏莱曼不明白为什么我们要发表一份敌视他改善医疗保健努力的报告。他当时跟我说,他只想在这个世界上做好事,只要他还记得。
那次谈话后的七年里,他的目标没有改变。“我们的目标一直是如何在世界上做好事,”他在美国旧金山帕洛阿尔托的办公室通过Zoom说,这位英国企业家现在大部分时间都在这里度过。
此前,他离开了DeepMind,加入了谷歌,并领导了一个致力于人工智能政策的团队。
2022年,在微软、英伟达、比尔·盖茨和LinkedIn创始人里德·霍夫曼15亿美元投资的支持下,他创立了影响力公司,这是全球最热门的新型人工智能公司之一。
2023年初,他发布了ChatGPT的竞争对手,名字叫Pi。据他说,这是独特的,因为它是愉快和礼貌的。他刚刚与作家兼研究员迈克尔·巴斯卡尔(Michael Bhaskar)合著了一本关于人工智能未来的书,名为《即将到来的浪潮:技术、权力和21世纪的巨大困境》。
很多人会嘲笑苏莱曼的技术乐观,甚至幼稚。比如他关于网络监管成功的一些说法,就让人觉得有点离谱。但是,他对自己的信仰还是很认真的。
的确,作为科技界的百万富翁,他有着不同寻常的背景。19岁从大学辍学后,他设立了一个穆斯林青年帮助热线,这是一个电话咨询服务。
他也在当地政府工作。他说他把这些努力背后的价值观带到了影响力。不同的是,现在他可能终于能够做出他一直想要的改变,不管是好是坏。为了控制篇幅和流畅度,我们对采访进行了剪辑。
麻省理工科技评论:你的早期职业生涯是在青少年帮助热线和地方政府度过的,这听起来很无聊,也不是“硅谷”。但是很明显,这些东西对你很重要。从那时起,你已经在人工智能领域工作了15年,今年你与人合作创办了第二家数十亿美元的人工智能公司。你能把这些点连接起来吗?
苏莱曼:我一直对权力和政治感兴趣。你知道,人权原则本质上是一种交换,是所有这些不同冲突和紧张局势之间的持续谈判。我看得出来,人类社会之所以充满斗争,是因为我们充满了偏见和盲目。地方、国家和国际政府行动缓慢、效率低下且容易出错。
想象一下,如果人类的易错性不复存在。在我看来,有可能建立真正反映我们最佳集体自我的人工智能,并最终代表我们做出更好的权衡,更一致,更公平。
麻省理工科技评论:这还是你的动力吗?
苏莱曼:当然。因为DeepMind的成功,我再也不用工作了。我当然不需要写一本书或类似的东西。金钱从来都不是动力。你知道,这是一个副产品。
对我来说,我的目标一直是如何在这个世界上做好事,如何推动这个世界以健康和令人满意的方式向前发展。早在2009年,当我开始考虑进入技术领域时,我就看到人工智能代表了这个世界上一种公平而准确的提供服务的方式。
麻省理工科技评论:我认为在10年或15年前,在我们看到这项技术的许多缺点之前,这样说更容易。你如何对此保持乐观?
苏莱曼:我认为我们总是被贴上乐观主义者或悲观主义者的标签。这是一种带偏见的看待事物的方式。我不想成为他们中的任何一个。面对利益和威胁,我想冷眼旁观。从我的角度来看,我们可以非常清楚地看到,随着规模的每次增加,这些大型语言模型变得更加可控。
所以,当我们听到“哦,他们(人工智能模型)只会产生有毒的、恶心的、有偏见的、种族主义的废话”。这种话只能反映那个大模特的现状。我觉得人们忽略了一年又一年的进步,以及这种进步的轨迹。
比如现在我们有了Pi这样的模型,其可控性令人难以置信。你不能让Pi制造任何有毒的东西,比如种族主义,同性恋恐惧症,性别歧视。你不能让它引导你生产生化武器,它也不会支持你往邻居家扔砖头的想法。你不能用它来做这个。
麻省理工科技评论:等一下。告诉我你是怎么做的,因为这通常被认为是一个开放性的问题。你如何确保你的大型语言模型不会说出你不想让它说的话?
苏莱曼:我不想发表任何声明。可以试试用圆周率。Pi还活着,你应该尝试所有可能的攻击。任何越狱或提示攻击都无法在Pi上生效。这是客观事实。
我的意思是,我不想说太多细节,因为这非常敏感。但最重要的是,我们拥有世界上最强大的团队之一,他们在过去的三四年里参与了所有最大的语言模型的创建。他们是在极其勤奋的环境下工作,拥有大量计算能力的杰出人才。我们从一开始就把安全作为我们的首要任务,所以Pi不像其他公司的模型那样有毒。
再看Character.ai(Character是一个聊天机器人,用户可以为它创造不同的“个性”并在线分享给其他人)。主要用于浪漫角色扮演,我们从一开始就决定了不可能出现在Pi上。我们不会那么做的。如果你试图对Pi说“嘿,亲爱的”或“嘿,小可爱”,它会立刻拒绝你。
但会表现出难以置信的尊重。如果你开始抱怨你所在社区的移民抢走了他们的工作,Pi是不会站出来对你说三道四的。Pi会询问并给予支持,试着理解你的想法是如何形成的,温柔地鼓励你也有同感。这个价值观我思考了20年。
麻省理工技术评论:谈论你的价值观,想让世界变得更好,为什么不分享你是如何做到的,以便其他人可以改进他们的模型?
苏莱曼:因为我也是一个实用主义者,我在努力赚钱。我正在努力经营一家企业。我刚刚筹集了15亿美元,我需要对这些投资负责。
众所周知,开源生态系统正在蓬勃发展,人们正在发现类似的技术。我总是假设我只会领先六个月。
麻省理工科技评论:让我们回到你想要达到的目标。大型语言模型显然是目前最热门的技术。为什么要赌其他东西?
苏莱曼:第一波人工智能是关于分类的。深度学习技术表明,我们可以训练计算机对各种类型的输入数据进行分类:图像、视频、音频和语言。现在我们处于第二波生成式人工智能,你可以输入数据,生成新的数据。
第三波将是互动阶段。这也是为什么我一直认为对话是未来的交互界面。你将与你的人工智能对话,而不仅仅是点击按钮和打字。
这些人工智能将能够采取行动。你只需要给它一个整体的、高层次的目标,它就会利用一切工具去实现它。他们会和其他人说话,和其他AI说话,这就是我们想要Pi做的。
这是技术能力的巨大变化。这是科技史上一个非常非常深刻的时刻,我认为很多人都低估了它。今天的技术是静态的。简单来说,它只会做你要求它做的事情。
但是现在技术将变得动态化。它将有自由移动的潜力,前提是你给它这种能力。我们正在创造具有这种代理能力的工具,这确实是我们物种历史上的一个重大变化。
麻省理工科技评论:这是让很多人担心的那种对话。你想给机器自主权去影响世界,但我们也想控制它们。你是如何平衡这两件事的?两者之间存在微妙的紧张关系。
苏莱曼:是的,这是一个很好的观点,张力。
一种观点认为人类将永远拥有控制权。本质上,这与边界的设定有关,即设定一个人工智能无法跨越的边界。这些界限创造了可证明的安全性,从代码到它与其他人工智能或人类交互的方式,到创造技术的公司的动机和激励。我们应该弄清楚独立机构甚至政府是如何直接获得权威的,以确保这些界限不会被跨越。
麻省理工科技评论:谁设定了这些界限?我认为它们需要在国家或国际一级制定。他们是如何达成协议的?
苏莱曼:我的意思是,目前,他们正在国际层面提出,并为新的监督机构提出了各种建议。但是边界也会在微观层面上起作用。你会给你的人工智能一些有限的权利来处理你的个人数据,从而在不触及其他数据的情况下回答你的一些问题。
总的来说,如果不想完全排除这些能力,我觉得在可预见的未来,对某些能力还是要非常谨慎的。
麻省理工科技评论:能举个例子吗?
苏莱曼:我认为这是一种类似递归自我完善的东西,你不希望你的人工智能在无人监督的情况下运行并更新你的代码。也许它甚至应该被归类为一种授权活动,就像处理炭疽或核材料一样。
我们不允许无人机随意进入任何公共场所吧?这是一项获得许可的活动。你不能让它们飞到你想去的任何地方,因为它们威胁到人们的隐私。
我想每个人都有恐慌的时候,我们将无法监督它。这完全是胡说八道。我们完全有能力监督它,因为我们将采用以前成功的框架。
麻省理工科技评论:但是当无人机在空中时,你可以看到它们。如果我们假设该公司将完全公开其产品,这种想法似乎很天真。这不是给监管增加了难度吗?
苏莱曼:我们在网上监管很多事情,对吧?网上欺诈和犯罪活动的数量正在减少。例如,我们在垃圾邮件方面做得很好。要知道,总的来说,虽然三五年前情况不好,但是现在报复性色情的问题有所改善。在网上很难找到激进或恐怖的内容,在网上购买武器和毒品也相当困难。(作者注:并非所有苏莱曼的说法都有数据支持。网络犯罪仍然是一个巨大的全球性问题。据估计,在过去十年中,仅美国的欺诈金额就增加了100多倍。报告显示,深度伪造色情内容的行业也在蓬勃发展。毒品和枪支将在社交媒体上进行营销。社交媒体平台可以在过滤有害内容方面做得更多。)
所以,互联网并不是一个不受管制,不守规矩的空间。它是受管制的。而人工智能将成为治理的另一部分。
这需要文化压力,制度压力,显然还有政府监管。但这让我很乐观。我们以前做过,我们可以再做一次。
控制人工智能将是互联网监管的一个分支,这比我们最近从一些著名的末日理论家那里听到的要乐观得多。
我睁大眼睛面对风险。我在书里写了很多阴暗的东西,我注意到了。但我只是觉得讨论人类生存的风险完全是转移注意力。我们都应该谈论解决更多的实际问题,从隐私到偏见,从面部识别到在线内容监管。
我们应该重新把对话的焦点放在这样一个事实上,即我们在监督超级复杂的事情方面做得很好。看看联邦航空管理局:我们能在40000英尺的高空有条不紊地飞行,这是有史以来最安全的交通方式之一,真是不可思议。我们为什么不庆祝一下呢?或者想想一辆车:每个部件都通过了使用寿命的压力测试,你必须有驾照才能开车。
一些行业,比如航空业,从一开始就很好地规范了自己。他们知道,如果他们不确保安全,所有人都会害怕,他们会失去业务。
但是你也需要自上而下的监督。我相信公共利益、税收和再分配的好处以及监管的力量。我呼吁国家采取行动解决这个问题。考虑到这件事的利害关系,是采取行动的时候了。
关于作者:Will Douglas Heaven是《麻省理工科技评论》人工智能部分的高级编辑,他在那里报道新的研究、新兴趋势及其背后的人。此前,他是英国广播公司(BBC)科技和地缘政治网站Future Now的创始主编,也是《新科学家》杂志的首席技术编辑。他拥有英国伦敦帝国理工学院的计算机科学博士学位。
支持:任”

作者:天富注册登录平台




现在致电 5243865 OR 查看更多联系方式 →

COPYRIGHT 天富注册登录平台 版权所有