分享
[译]谷歌研究员:“我们的AI没有护城河,OpenAI也没有”
输入“/”快速插入内容
[译]谷歌研究员:“我们的AI没有护城河,OpenAI也没有”
用户6750
用户6750
2024年3月2日修改
🎼
作者:BigYe程普
链接:
https://juejin.cn/post/7229593695653314597
来源:稀土掘金
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。
我们没有护城河
我们一直在关注 OpenAI 的动向。谁将达到下一个里程碑?下一步会是什么?
但不舒服的事实是,我们无法赢得这场军备竞赛,OpenAI 也一样。当我们争吵不休时,第三方一直在悄悄地抢占我们的市场。
我当然是在谈论开源。简单地说,他们正在超越我们。我们认为的“重大开放问题”已经被解决,并且现在已经掌握在人们手中。仅举几个例子:
•
手机上的LLMs:
人们正在Pixel 6上以每秒5个标记的速度运行基础模型
at 5 tokens / sec.
•
可扩展的个人人工智能:
您可以在一晚上在您的笔记本电脑上微调个性化的人工智能
•
这并不是“解决”,而是“避免”:
这个网站充满了没有任何限制的艺术模特,而文本也不远了
, and text is
not far behind.
•
多模态:
目前多模态ScienceQA SOTA在一个小时内进行了训练
虽然我们的模型在质量方面仍然稍占优势,但差距正在迅速缩小。开源模型更快、更可定制、更私密,而且在性能上更胜一筹。他们用100美元和13B个参数做的事情,我们用1000万美元和540B个参数仍然很困难。而且他们只需要几周的时间,而不是几个月的时间。这对我们有深远的影响:
•
我们没有秘密武器。我们最好的希望是从谷歌之外的其他人所做的事情中学习并合作。我们应该优先考虑启用第三方集成。
•
当免费、不受限制的替代品在质量上相当时,人们不会为受限制的模型付费。我们应该考虑我们真正的价值所在。
•
巨型模型正在拖慢我们的速度。从长远来看,最好的模型是那些可以快速迭代的。既然我们知道在小于20B参数范围内可能实现什么,我们应该将小变体视为重要的事情,而不是事后的想法。
作者:BigYe程普
链接:
https://juejin.cn/post/7229593695653314597
来源:稀土掘金
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。
What Happened
三月初,开源社区得到了他们的第一个真正有能力的基础模型,Meta的LLaMA泄露给了公众。它没有指令或对话调整,也没有RLHF。尽管如此,社区立即理解了他们所得到的东西的重要性。
紧接着是一系列惊人的创新,每个重大进展之间仅相隔数天(详见时间轴)。现在,仅仅一个月后,已经出现了具有指令调整、量化、质量改进、人类评估、多模态、RLHF等变体,其中许多变体都是相互建立的。
最重要的是,他们已经解决了扩展问题,以至于任何人都可以进行调整。许多新想法来自普通人。培训和实验的准入门槛已经从一个主要研究机构的总产出降至一个人、一个晚上和一台强大的笔记本电脑。
为什么我们本可以预见到它的到来
在许多方面,这对任何人来说都不应该是一个惊喜。开源LLM的当前复兴紧随图像生成的复兴之后。社区没有忽视这些相似之处,许多人称这是LLM的“稳定扩散时刻”。
在这两种情况下,低成本的公众参与都得益于一种名为低秩适应(LoRA)的微调机制,以及在规模上取得的重大突破(图像合成的潜在扩散,LLM的Chinchilla)。在这两种情况下,获得足够高质量的模型引发了全球个人和机构的一系列想法和迭代。在这两种情况下,这很快超越了大型参与者。
这些贡献对于图像生成领域至关重要,使得 Stable Diffusion 走上了与 Dall-E 不同的道路。拥有一个开放的模型导致了产品集成、市场、用户界面和创新,这些在 Dall-E 上没有发生。
效果是明显的:在文化影响方面,快速占主导地位,而OpenAI的解决方案变得越来越无关紧要。LLMs是否会发生同样的事情还有待观察,但广泛的结构元素是相同的。
我们错失了什么
最近开源取的成功创新直接解决了我们仍在努力解决的问题,我们应当更加关注他们的工作,这可以帮助我们避免重复造轮子。
LoRA是一种非常强大的技术,我们可能应该更加关注它
LoRA的工作原理是将模型更新表示为低秩分解,这将更新矩阵的大小减少了数千倍。这使得模型微调的成本和时间降低了很多。在消费级硬件上能够在几个小时内个性化一个语言模型是一件大事,特别是对于涉及在几乎实时中融合新的和多样化知识的愿景而言。尽管这项技术直接影响我们最雄心勃勃的项目之一,但它在谷歌内部的利用还不足。
从头开始重新训练模型是一条艰难的道路
LoRA 如此有效的部分原因在于它像其他微调形式一样是可堆叠的。例如,指令微调等改进可以应用,然后随着其他贡献者添加对话、推理或工具使用等内容而发挥作用。虽然单个微调的等级较低,但它们的总和并不低低,因为它们允许模型的全等级更新是随着时间的推移不断累积。
这意味着随着新的和更好的数据集和任务的出现,模型可以便宜地保持最新状态,而无需支付完整运行的成本。
相比之下,从头开始训练巨型模型不仅会丢弃预训练,还会丢弃在其基础上进行的任何迭代改进。在开源世界中,这些改进很快就会占据主导地位,使得完全重新训练变得极其昂贵。
我们应该仔细思考每个新应用或新想法是否真的需要一个全新的模型。如果我们确实有重大的架构改进,使得直接重用模型权重不可行,那么我们应该采取更积极主动的知识提炼方式,以尽可能保留上一代模型的能力。
如果我们可以更快地迭代小模型,那么大模型在长期内并不更具有能力
LoRA更新成本低廉(最受欢迎的模型大小约为100美元),这意味着几乎任何有想法的人都可以生成并分发它。训练时间不到一天就可以完成。在这样的速度下,所有这些微调的累积效应很快就会克服起点劣势。事实上,就工程师小时而言,这些模型的改进速度远远超过我们最大变体的能力,而且最好的模型已经在很大程度上与ChatGPT难以区分。实际上,专注于维护一些全球最大的模型实际上会使我们处于劣势。
数据质量比数据大小更重要