每周跟踪AI热点新闻动向和震撼发展 想要探索生成式人工智能的前沿进展吗?订阅我们的简报,深入解析最新的技术突破、实际应用案例和未来的趋势。与全球数同行一同,从行业内部的深度分析和实用指南中受益。不要错过这个机会,成为AI领域的领跑者。点击订阅,与未来同行! 订阅:https://rengongzhineng.io/
对于一些行业观察家来说,这场战斗似乎还没开始就已结束。当ChatGPT成为有史以来增长最快的应用程序,在仅仅存在两个月内就达到了1亿用户时,它提出了一个严肃的可能性------OpenAI和GPT-4可能会在大多数世界意识到比赛已经开始之前就占据市场。
并不是说1亿用户是一个不可逾越的用户基础。毕竟,谷歌搜索每个月有超过十五亿独立用户。这也不是ChatGPT品牌力量的问题(尽管作为流行文化中唯一广为人知的AI应用程序肯定有所帮助)。真正的优势在于数据。
"数据"包括用户和AI之间数亿次互动期间发生的一切。它包括使用模式、提示文本和新出现的问题。有了足够的数据,你可以构建一个不断完善和改进AI模型的良性反馈循环。数据是Bing无法挑战谷歌搜索的原因,尽管投入了数十亿美元和一半多十年的努力。拥有谷歌十分之一用户流量的Bing,永远限制在一个更小的洞察窗口,并且拥有更少的信息来微调其搜索算法。
所以,这是对未来生成式AI竞赛的最佳初步猜测。谁获得最多的数据,并将其投入到持续改进的循环中,谁就是赢家。
但事实并非如此。
先发优势正在消退
今天,我们看到一系列公司几乎每周都在发布惊人的新AI创新。最近的是Antrophic的Claude 3,一个在关键基准测试中击败GPT-4的LLM,比如生成代码的人类评估质量。(它今天可以在亚马逊Bedrock上获得。)上周是谷歌的Gemini,具有巨大的上下文窗口、可适应的代码生成和视频识别能力。在那之前的几周,我们看到了OpenAI的Sora的演示,它将文本转换成视频中的富有想象力的世界。Meta的Llama 3只有几个月的时间,提供几乎我们现在拥有的一切,而且是免费的。甚至苹果也在暗示其自己的秘密多年AI努力,它用来创建一个具有2000亿参数的内部GPT。
简而言之,世界上最富有和最先进的科技公司正在将它们庞大的资源投入到生成式AI中。我们开始看到一个模式,一个产品中的突破性功能被另一个产品复制然后超越。当前的共识已经转变,许多专家现在预计,随着模型的成长和领域的前进,最好的大型LLM将越来越相似。
如果几家公司有能力构建可以与行业最佳竞争的系统,谁会赢得生成式AI竞赛?如果OpenAI首先到达那里,而谷歌可以迅速跟进一个可比产品,这有关系吗?哪个科技巨头或灵活的AI初创公司拥有未来?
开源的吸引力
商业中有一个理论叫做创新者的困境,它解释了为什么领先公司会输给新兴挑战者。占主导地位的公司看到地平线上接近的竞争对手,但他们低估了风险,因为他们知道他们的产品质量更优。但问题在于。通常并不是纯粹的技术质量赢得了竞赛。如果竞争对手能够为市场上90%的人提供一个"足够好"的产品,而成本只有十分之一,它可以改变游戏规则。老牌公司可能会围绕剩下的(仍然有利可图的)10%的市场关闭行列,这部分市场仍然要求最好的最好。但他们的观众会年复一年地缩小,他们的死亡螺旋就开始了。
如果我们在AI中达到这样的转折点,情绪可能会迅速改变。闭源LLM的吸引力可能会在一夜之间几乎消失。我们已经看到AI生态系统中的重大转变。不久前,我们还在争论是否有人会用可比的开放模型挑战像GPT-4这样的大型LLM。人们对保护专有研究的担忧很严重,并且担心潜在的误用。但秘密很快就泄露出来了,像Llama 2这样的有能力的模型随之而来。现在第一个问题不是"OpenAI或谷歌或Anthropic的闭源产品有多好?"而是"Llama对我的用例来说足够好了吗?"和"尝试一下有什么坏处?"
"当免费、不受限制的替代品在质量上可比时,人们不会为受限模型付费。"
开源AI的局限
如果这是整个情况,结论将是显而易见的。最终和不可避免地,开源AI模型将超越它们的闭源表亲。然而,还有一些其他的问题需要考虑。首先,开源AI并不完全是开源的------至少不是以传统意义上的。
当我们谈论开源软件时,我们知道这意味着什么:每一位代码都是可供你检查甚至改变的。但当我们谈论开源AI模型时,承诺并不那么清楚。我们知道我们可以下载模型。我们可能可以访问其他细节,比如训练权重。然而,训练数据通常是保密的,这意味着开源模型是无法复制的。开源访问使得研究和理解AI模型变得更容易------并且可以在其上进行创新;例如,使用新的微调技术(如LoRA)。但只到某种程度。考虑Llama 2。它是不透明的。复制它的成本是禁止性的。而且它由一个巨大的公司控制,这个公司只会因为更多的开发者进入其生态系统而受益。
而且Llama 2没有使用规范的开源许可证,如Apache。Meta特别禁止某些类型的使用,比如使用Llama训练另一个模型。像这样的限制导致AI研究人员声称,像Llama这样的模型几乎没有为民主化访问做出贡献,反而更多地将权力集中在模型创建者手中。有些人称Meta的做法为开放洗白------换句话说,是使用开源的说法来洗掉底层闭源做法的污点。
有一些由基金会和非营利组织创建的较小模型,比Llama更开放,尽管能力较弱。但即便这些模型也遇到了一个重大障碍。分享一个AI模型很容易,但分享支持它们的AI基础设施要困难得多。这是生成式AI的最后挑战:计算能力的战斗。
赢家是拥有计算能力的人吗?
开源AI拥有是免费的,但运行并非免费。当然,所有软件都是如此,但在大型模型和AI驱动的应用程序的情况下,计算和内存需求可能是惊人的。在内部运行AI系统存在重大障碍。如果你 anyway需要一个云提供商来托管你的AI基础设施,那么支付AI计算基础设施和支付使用AI模型的区别可能看起来并不特别重要。
如果你正在考虑训练自己的模型,差距更大。即使你知道你需要重新构建一个开源模型的一切,你可能也缺乏预算和数据科学专业知识。理论上是开放的。
今天,世界上只有少数公司拥有专业硬件和资源来训练世界级的LLM。
这就是我们今天的位置。但LLM还不是成熟的产品,变化的速度还没有放缓到接近普通生活的程度。实际上,LLM正在同时朝两个方向发展------一方面变得更强大,另一方面变得更精简。不久我们将有选择使用nano LLM,我们可以在当前手机硬件上舒适地运行它。现在还为时过早,无法说未来的发展将围绕哪里工作的LLM还是坐落在价值万亿美元的科技公司中心、作为服务出租的庞大模型。
今天,我的赌注是不断扩展的开源AI社区中的进步将占上风。但这只代表一个可能的未来。胜者仍可能由单个闭源模型的突然能力跃进决定,或许是另一种类型的生成式AI(如文本到视频)。或者也许一个在开源生态系统中出现的激进新工具将解决看似难以解决的问题,使先进的AI系统变得更加容易获取和部署,比今天更是如此。我们只需要再等一点时间就能发现。