OpenAI 再次开源,是科技大厂的「施舍」还是开源社区的「救赎」?
就在刚刚,根据 The Information 的最新爆料,OpenAI 即将发布一款全新的开源大语言模型。
虽然目前还不清楚,OpenAI 是不是打算利用即将开源的模型,来抢占 Vicuna 或其他开源模型的市场份额。
但几乎可以肯定的是,新模型的能力大概率无法与 GPT-4 甚至 GPT-3.5 相竞争。
毕竟,270 亿美元的估值也决定了,OpenAI 最先进的模型将会被用于商业目的,尽管前两个版本的 GPT 都是开源的。
对此,OpenAI 的发言人没有回应置评请求。
羊驼家族开源大爆发
十天前,谷歌的一份内部文件泄漏。在这篇名为《我们没有护城河,OpenAI 也没有》的文章里,作者沉痛控诉了开源对于谷歌和 OpenAI 的沉重打击。
的确,在这次军备竞赛中,谷歌和 OpenAI 似乎都不是赢家,因为开源社区正在吃掉属于它们的「利益」。
ChatGPT 一出,引爆了全球的 LLM 革命。然而,OpenAI 不 Open,很多公司和开发者只能看着干着急。
此时,Meta 站出来发布了 LLaMA,为全世界开发者谋了一把福利。
本来呢,Meta 承诺的是 LLaMA 会对非商用的研究用例开源,可是谁能想到,仅在发布一周后,LLaMA 的权重忽然在 4chan 上泄漏了,瞬间就引发了数千次下载。
这场「史诗级泄漏」,直接让开源 LLM 领域变了天。短短几周内,各种 ChatGPT 平替就以迅雷不及掩耳之势呈爆炸式增长。
Alpaca、Vicuna、Koala、ChatLLaMA 、FreedomGPT、ColossalChat…… 简直堪称是「羊驼家族」大爆炸。
其实,早在羊驼之前,开源模型就曾破灭过 OpenAI 的野心。
当时,刚刚发布的 Dall-E 2 凭借着惊艳的文生图效果,在网上引起了不小的轰动。
然而,当 OpenAI 还在试图兜售 API 时,一款开源替代突然横空出世 ——Stable Diffusion。
随着 Stable Diffusion 的迅速崛起,Dall-E 2 也很快就被开发者们抛在了脑后。
开源大模型,要颠覆硅谷大厂?
UC Berkeley 的计算机教授 Ion Stoica 正是使用 Meta 的研究开发 Vicuna 的学者之一。
为了提高 Vicuna 的能力,Stoica 和同事们正在努力增加模型中的计算数量,这将有助于处理涉及推理的任务,比如写代码。
开发 Vicuna 的是一个伯克利的团队,每年的预算为数百万美元,其中大约 50 万美元来自包括微软、谷歌和亚马逊在内的上市公司。
UC Berkeley 的计算机教授 Ion Stoica 表示,现在的免费 AI 模型,在性能上已经「相当接近」谷歌和 OpenAI 的专有模型了,毫无疑问,大多数开发者最终都会选择免费模型。
一方面,开源模型可以让开发者使用自己的数据来解决特定的问题。
另一方面,像 Vicuna 这种模型的训练成本甚至可以低至几百美元,而且还不用向大厂支付昂贵的使用费。
https://lmsys.org/blog/2023-03-30-vicuna/
如果 Stoica 的看法正确,开源 AI 必将颠覆谷歌、OpenAI、微软等出售专有模型使用权的大厂的商业计划。
Vicuna 的质量和开源 AI 的寒武纪大爆发,让谷歌工程师 Luke Sernau 警告同事,谷歌在努力追赶 OpenAI 时,太过关注专有软件了。
如果免费、高质量的平替没有使用限制,谁会去付费使用带有条条框框的谷歌产品呢?开源 AI 的发展正在超越我们,谷歌应该在开源社区中建立自己的领导地位,并放弃对我们模型的部分控制。
这份备忘录迅速在整个行业内引起了共鸣 —— 即使 Sernau 或许高估了开源 AI 的能力,低估了它们的成本和风险,但大多数从业者都同意,Meta 非常有可能从中获益。
比如,Meta 在内部会使用 AI 模型进行内容推荐和广告定位,当开发者改进 Meta 的模型时,Meta 就可以把这些改进纳入自己内部的 AI。
Meta CEO 小扎对此筹谋已久。
4 月,在他与分析师的一次电话会议中,他曾这样谈到公司的策略 ——
如果行业能够在我们使用的基础工具上达成标准化,那么我们就能从其他人的改进中受益,这样会更好。
谷歌倒是没有完全采用专有的方式来处理 AI 软件。
早在 2020 年,谷歌就发布了一个开源语言模型 T5,让开发者可以构建能够执行翻译和摘要任务的软件。随后,谷歌又发布了一个更先进的 Flan-T5。
但是,根据 Stoica 和其他从业者的说法,Meta 发布的软件能够在谷歌模型的基础上做出显著改进,这让开发者选择 Meta 模型的可能性大大增加了。
不过,Stoica 表示,谷歌在开源软件方面仍有两个优势。
1. 如果谷歌利用其不向外部开放的用户数据,模型在某些专业领域(如内容推荐)的表现可能会更好。
不过,谷歌发言人表示,公司并没有在现有用户数据上训练其基础模型。
2. 搜索公司在管理大规模计算机基础设施方面的专长,意味着它能够以更低的成本来运行模型,包括为云客户提供服务。
与此同时,OpenAI 在收集数百万人与 ChatGPT 互动方式的数据上,已经抢得了先机,这会更有助于 OpenAI 改进 AI 软件,更不用提它和微软的合作协议。
开源的繁荣,是大厂的「施舍」?
不过,这种建立在开源基础上的繁荣,是不稳定的。
目前大多数的开源,仍然依赖于资金雄厚的大公司发布的巨型模型。如果 OpenAI 和 Meta 决定关闭业务,繁荣的开源社区,可能就会变得萧条。
比如,现在许多开源平替是基于 Meta 的 LLaMA 构建的。
而其他模型使用的是名为 Pile 的大型公共数据集,由开源非营利组织 EleutherAI 整理。
EleutherAI 之所以存在,是因为 OpenAI 的开放性意味着一群开发者能够逆向了解 GPT-3 是如何制作的,然后在空闲时间里创建自己的模型。
但一切都可能改变。
OpenAI 已经不再 Open,Meta 也在考虑限制开源,防止初创公司利用开源代码做坏事。
Meta AI 的执行董事 Joelle Pineau 表示,现在向外部人员开放代码是正确,但他并不确定,在未来五年内 Meta 还会采用相同的策略。
如果这种 Close 的趋势继续下去,那么不仅开源社区会被抛弃,下一代的 AI 突破也会重新回到那些最大、最不差钱的 AI 实验室手中。
显然,AI 大模型的制造和使用方式的未来,正处于一个十字路口。
如果 OpenAI 曾经吝啬,就不会有如今的开源盛况
其他人也在权衡,这种开源的自由竞争带来的回报更大,还是风险更大。
就在 Meta AI 发布 LLaMA 的同时,Hugging Face 推出了一个门禁机制,下载平台上的模型之前,用户必须申请访问并获得批准,这是为了限制那些有合法理由的人。
「我并不是一个开源的布道者,」Hugging Face 的首席伦理科学家 Margaret Mitchell 说。「我能看到不开源的意义。」
大模型广泛使用的一个弊端,就是可能造成 AI 色情产品的泛滥。
Mitchell 曾在谷歌工作,并创立了 AI 道德团队,她对于模型被滥用的风险十分了解。因此,她赞成 Meta AI 以有控制的方式发布模型。
同时,OpenAI 也在关闭水龙头。GPT-4 发布时,并没有公布架构(包括模型大小)、硬件、训练计算、数据集构建、训练方法等细节,理由是「鉴于像 GPT-4 这样的大规模模型的竞争格局和安全影响」。
这种限制反应了 OpenAI 心态上的变化。联合创始人兼首席科学家 Ilya Sutskever 表示,OpenAI 过去的开放性是一个错误。
OpenAI 的政策研究员 Sandhini Agarwal 说:「以前,如果某样东西是开源的,也许一小群修理工会关心。但现在,整个环境已经改变。开源真的可以加速发展,导致竞争。」
时间倒回三年前,如果 OpenAI 在公布 GPT-3 的细节时,就秉持着同样的原则,那就不会有 EleutherAI 的出现,也就不会有蓬勃的开源创新。
今天,EleutherAI 在开源生态系统中发挥着举足轻重的作用。Pile 被用来训练多个开源项目,包括 Stability AI 的 StableLM。
但随着 GPT-4、5、6 被锁死,开源社区可能会再次被落在几家大公司后面。
他们会困在上一代模型中,如果想取得进步,只能闭门造车。
参考资料:
-
https://www.technologyreview.com/2023/05/12/1072950/open-source-ai-google-openai-eleuther-meta/
-
https://www.theinformation.com/articles/open-source-ai-is-gaining-on-google-and-chatgpt
本文来自微信公众号:新智元 (ID:AI_era)