谷歌AI掌门人:发展AI不能只靠堆硬件,想把大模型和AlphaGo能力结合

2月20日消息,在接受《连线》杂志采访时,Google DeepMind首席执行官戴米斯·哈萨比斯(Demis Hassabis)表示,尽管人工智能领域已取得了显著的进展,但真正的突破尚未到来。他强调,简单地扩大规模无法推进行业的发展。

在过去一年中,OpenAI通过ChatGPT等项目在业界独占鳌头。然而,在哈萨比斯的带领下,Google DeepMind并未因此气馁,而是在人工智能模型研发上展现了强大的竞争力和创新精神。

自从Alphabet去年4月合并了其两个人工智能部门为Google DeepMind后,哈萨比斯一直专注于整合资源,应对OpenAI的崛起及其与微软的深度合作,后者被Alphabet视为对其核心业务——搜索引擎的潜在威胁。

哈萨比斯透露,谷歌研究人员在ChatGPT发布前已有类似想法,但由于担心滥用和误用,决定暂不商业化该技术。

随着多模态人工智能模型Gemini的迅猛发展,Google DeepMind在研究和发布速度上发生了巨大变化。Gemini不仅提升了谷歌在与ChatGPT竞争中的实力,也强化了多个谷歌产品。Gemini发布两个月后,谷歌推出了更为强大的免费版Gemini Pro 1.5,该模型能同时分析大量文本、视频和音频数据。

随着科技巨头们纷纷开发和推出更强大、实用的人工智能系统,Alphabet推出的Gemini Ultra模型无疑为行业树立了新标杆,并可能促使竞争对手如OpenAI加速研发。

最近,哈萨比斯在伦敦家中接受了《连线》杂志资深作家威尔·奈特(Will Knight)的专访,深入探讨了Gemini Pro 1.5的技术细节和未来发展,及人工智能领域的趋势。

全文如下:

问:Gemini Pro 1.5能接收更多数据作为输入,并采用了名为“专家混合”的架构,这两者之间是什么关系?

哈萨比斯:Gemini Pro 1.5能处理适中大小的短片。想象你在学习某主题,有一个小时的视频讲座,你需要找到特定事实或内容,这非常有用。我相信这将带来许多令人惊叹的用例。

在Google DeepMind首席科学家杰夫·迪恩(Jeff Dean)的领导下,我们发明了“专家混合”架构,并不断优化改进。尽管Gemini Pro 1.5还未广泛测试,但性能已与上一代最大模型相当。这表明我们有能力利用这些技术创新创建更大的模型,这正是我们的努力方向。

问:计算能力增强和用于训练AI模型的数据量增加,是否推动了人工智能进步?据说,奥特曼打算筹集高达7万亿美元资金提高AI芯片产量,更强的计算能力会开启超级AI之门吗?

哈萨比斯:确实,这些因素推动了人工智能巨大进步。这也是为何像英伟达这样的公司如此成功,以及OpenAI提高芯片产量加速AI发展的原因。然而,我认为DeepMind与其他组织有所不同,始终将基础研究放在首位。在Google Research、Brain和DeepMind等部门,我们在过去10年的开创性工作中发明了多数机器学习技术。这是我们的核心竞争力,我们拥有大量其他机构可能不具备的资深研究科学家。相较之下,其他公司更注重工程研究以推动科学进步。

问:你认为扩展规模不再是AI发展唯一途径?

哈萨比斯:我坚信,实现通用AI(AGI)需要更多技术创新和规模扩展。虽然规模扩展仍在继续,并且没有看到任何停止的迹象,但我们不能仅依赖它获得新能力,如规划、工具使用或类主体行为,这需技术创新实现。我们还需在计算本身探索。我们希望在小型问题上实验,这只需几天训练。但发现小型规模上有效的方法在扩展时不适用,所以我们需找到平衡点,推断可能适用于更大规模的方法时进行扩展。

问:这是否意味着未来AI公司竞争是否将围绕工具使用和智能体展开,即AI可以做很多事,不仅限于聊天?据称OpenAI正在研究这个问题。

哈萨比斯:可能。我们在这条路上探索了很长时间。自AlphaGo以来,智能体、强化学习和规划一直是我们的主要工作。2016年,DeepMind开发了一种突破性算法,能解决复杂问题和玩复杂游戏。我们正在重新审视很多想法,并考虑将AlphaGo的能力与这些大模型结合。内省和规划能力将有助于消除幻觉等问题。

问:如何引导模型使其更具逻辑性?

哈萨比斯:这是一个大领域,我们投入了大量时间和精力。我们认为,当系统开始变得更像智能主体时,这将是它们能力的重大进步。我们在这方向投入了大量资金,其他公司也一样。我一直在安全论坛和会议上说,这是一个大改变。一旦我们让类似智能体的系统工作起来,人工智能就会与目前系统(基本上是被动问答系统)大不同,因为它们会变成主动型学习者。当然,它们也会更有用,因为能帮你完成任务。但我们将不得不更加小心。

我一直主张把智能体放到网上之前,用强化的模拟沙盒测试它们。我认为行业应认真考虑这些系统的出现,并采取措施确保安全性。也许要几年,也许更早,但这是另一类不同的系统。

问:你提到需要更多时间来测试你们最强模型Gemini Ultra。这是因为模型开发进度过快,还是因为这类大型模型存在潜在问题?

哈萨比斯:实际上两方面都有。模型规模越大,微调时面临的挑战越复杂,所需时间越长。更大模型具备更多功能,意味着我们需更全面测试。

值得一提的是,随着Google DeepMind变成更成熟稳定的组织,我们开始尝试新的发布策略。我们会提前发布实验性功能或模型,并邀请少部分受信任的早期测试者体验。这样,我们可以在正式发布前收集反馈并进行必要的调整。

问:关于安全性问题,你们与英国人工智能安全研究所等政府机构合作进展如何?

哈萨比斯:合作非常顺利。虽然我不能透露太多细节,因为这是保密的,但可以确认,他们正在对我们的前沿模型包括Gemini Ultra进行测试。我们将继续与他们保持密切合作。

此外,美国也在建立类似人工智能安全机构。这些机构都是在布莱切利公园人工智能安全峰会推动下成立的,旨在审查和监管人工智能系统,特别是涉及敏感领域如化学、生物、放射性和核武器等。目前系统还没有强大到足以引发实质性安全担忧的程度。但加强政府、行业和学术界在人工智能安全方面的合作和投入仍非常必要。随着智能体系统等新型人工智能技术出现,我们可能面临更多新挑战和变化。我们会看到渐进式改进,可能有很酷的大改进,但会感觉不同。

Published by

风君子

独自遨游何稽首 揭天掀地慰生平

发表回复

您的电子邮箱地址不会被公开。 必填项已用 * 标注