在真正的大玩家中建立业务从来都不是一件容易的事。2023 年,人工智能领域的竞争达到了前所未有的高度,这得益于真正的、令人费解的突破。OpenAI 的 GPT-4 发布、ChatGPT 与 Bing 的集成、Google 推出 Bard,以及 Meta 备受争议的“开源” Llama 2 发布。这听起来像是一长串大牌,对吧?尽管听起来令人兴奋,但大多数创新都在于资金流动的地方,而小型科技公司必须通过的竞争日益激烈。
在科技行业不断发展的格局中,英伟达继续巩固其作为人工智能基础设施关键参与者的地位。在 8 月份的财报电话会议上,NVIDIA 总裁黄仁勋强调了对 Nvidia 处理器的需求飙升。这一说法得到了英伟达第三季度收入数据的证实,该数据显示了令人印象深刻的同比业绩记录,早在 11 月年初至今就很明显了。与此同时,Gartner的预测表明,未来四年芯片支出将大幅增加。目前,英伟达的软件堆栈和处理器无与伦比,这让业界不确定何时会出现可靠的竞争对手。
彭博社(Bloomberg)和英国《金融时报》(Financial Times)最近的报道揭示了OpenAI首席执行官萨姆·阿尔特曼(Sam Altman)与中东投资者的谈判,以启动芯片生产,旨在减少人工智能行业对英伟达芯片的依赖。挑战市值近 1.5 万亿美元的英伟达,可能会让 Altman 损失 5 万亿至 7 万亿美元,并且需要数年时间。
然而,解决ML模型的成本效益是公司现在必须做的事情。对于大型科技公司以外的企业来说,开发具有成本效益的 ML 模型不仅仅是一个业务流程,更是一项至关重要的生存策略。本文探讨了四种务实的策略,这些策略使各种规模的企业能够在没有大量研发投资的情况下开发他们的模型,并保持灵活性以避免供应商锁定。
长话短说,Nvidia 通过实现高性能 GPU 与其专有的模型训练软件堆栈(广受好评的 CUDA 工具包)之间的协同作用,创建了理想的模型训练工作流程。
CUDA(于 2007 年推出)是一个全面的并行计算工具包和 API,用于优化利用 Nvidia GPU 处理器。它如此受欢迎的主要原因是它无与伦比的加速复杂数学计算的能力,这对深度学习至关重要。此外,它还为深度神经网络提供了丰富的生态系统,如 cuDNN,从而增强了性能和易用性。它对开发人员来说至关重要,因为它与主要的深度学习框架无缝集成,可实现快速的模型开发和迭代。
事实证明,这种强大的软件堆栈与高效硬件的结合是占领市场的关键。虽然一些人认为英伟达的主导地位可能是一种暂时的现象,但在目前的形势下很难做出这样的预测。
英伟达在机器学习开发领域占据上风,这引起了许多担忧,不仅在道德领域,而且在不断扩大的研发预算差距方面,这也是为什么打入市场对小型企业来说变得成倍困难的原因之一,更不用说初创公司了。再加上由于风险增加导致投资者兴趣下降,获得巨额研发(如英伟达)投资的任务变得完全不可能,从而创造了一个非常非常不公平的竞争环境。
然而,这种对英伟达硬件的严重依赖给供应链的一致性带来了更大的压力,并带来了中断和供应商锁定的风险,降低了市场灵活性并加剧了市场进入壁垒。
“有些人正在集中现金,以确保他们不会让用户陷入困境。在任何地方,像“优化”和“更小的模型尺寸”这样的工程术语都很流行,因为公司试图削减他们的GPU需求,今年的投资者已经把数亿美元押在了初创公司身上,这些初创公司的软件可以帮助公司利用他们拥有的GPU。
英伟达芯片短缺让 AI 初创公司争先恐后地争夺计算能力 作者:Paresh Dave
现在是采用战略方法的时候了,因为这可能正是让您的企业有机会在 Nvidia 在 ML 开发中的深远影响中蓬勃发展。
AMD 一直在积极缩小与 NVIDIA 的 AI 开发差距,这是通过在过去一年中在 PyTorch 的主要库中对 Rocm 的持续支持来实现的。这种持续的努力提高了兼容性和性能,AMD的最新版本MI300芯片组突出展示了这一点。MI300 在大型语言模型 (LLM) 推理任务中表现出强大的性能,尤其是在 LLama-70b 等模型中表现出色。这一成功突显了AMD在处理能力和效率方面取得的重大进步。
除了AMD的进步之外,谷歌还推出了张量处理单元(TPU),这是一种专门设计用于加速机器学习工作负载的硬件,为训练大规模AI模型提供了强大的替代方案。
除了这些行业巨头之外,像Graphcore和Cerebras这样规模较小但有影响力的公司正在为人工智能硬件领域做出显着贡献。Graphcore的智能处理单元(IPU)是为提高人工智能计算效率而量身定制的,因其在高性能任务中的潜力而受到关注,正如Twitter的实验所证明的那样。另一方面,Cerebras正在通过其先进的芯片突破界限,强调AI应用的可扩展性和原始计算能力。
这些公司的共同努力标志着向更多样化的人工智能硬件生态系统的转变。这种多样化为减少对 NVIDIA 的依赖提供了可行的策略,为开发人员和研究人员提供了更广泛的 AI 开发平台。
除了探索硬件替代方案外,优化软件被证明是减轻英伟达主导地位影响的关键因素。通过利用高效的算法、减少不必要的计算和实施并行处理技术,非大型科技公司可以最大限度地提高其机器学习模型在现有硬件上的性能,提供一种实用的方法来弥合差距,而无需仅仅依赖昂贵的硬件升级。
Deci Ai 的 AutoNAC 技术就是这种方法的例证。这项创新已经证明了将模型推理速度提高 3-10 倍的能力,这得到了广泛认可的 MLPerf 基准测试的证实。通过展示这些进步,很明显,软件优化可以显着提高机器学习开发的效率,为减轻英伟达在该领域的主导地位的影响提供了一种可行的替代方案。
这种协作方法可以包括分享研究成果,共同投资替代硬件选项,以及通过开源项目促进新的机器学习技术的开发。通过分散推理和利用分布式计算资源,非大型科技公司可以在机器学习开发行业创造公平的竞争环境,创造更具竞争力的格局。
如今,共享计算资源的策略在整个科技行业中势头强劲。Google Kubernetes Engine (GKE) 通过支持集群多租户、实现高效资源利用以及与第三方服务的集成来体现这一点。社区主导的举措进一步证明了这一趋势,例如Petals,它提供了一个用于运行AI模型的分布式网络,无需大量投资即可获得高性能计算。此外,像 Together.ai 这样的平台提供对各种开源模型的无服务器访问,从而简化开发并促进协作。考虑此类平台可以让您获得计算资源和协作开发机会,从而帮助优化您的开发流程并降低成本,无论组织规模如何。
在全球范围内,上述战略的必要性变得显而易见。当一个实体主导市场时,它扼杀了发展,阻碍了合理定价的建立。
非大型科技公司可以通过探索AMD的RocM等替代方案,通过高效的算法和并行处理投资性能优化,以及促进与其他组织的合作以创建去中心化集群,来对抗英伟达的主导地位。这促进了人工智能硬件和开发行业更加多样化和竞争激烈的格局,使较小的参与者能够对人工智能开发的未来有发言权。
这些策略旨在减少对英伟达价格和供应的依赖,从而增强投资吸引力,最大限度地降低硬件竞争中业务发展放缓的风险,并促进整个行业的有机增长。
文章来源:unite.ai