为了满足对先进 AI 基础设施日益增长的需求,总部位于硅谷的 GPU 云提供商 GMI Cloud 在 A 轮融资中筹集了 8200万美元。本轮融资由 Headline Asia 领投,并得到 Banpu Next 和 Wistron Corporation 等知名合作伙伴的支持,使 GMI 的总资本超过 9300万美元。这笔资金将使 GMI Cloud 能够在科罗拉多州开设一个新的数据中心,增强其为北美提供服务的能力,并巩固其作为领先的 AI 原生云提供商的地位。
GMI Cloud 的成立旨在实现对先进 AI 基础设施的访问民主化,其使命是简化全球 AI 部署。该公司提供了一个垂直集成平台,将顶级硬件与强大的软件解决方案相结合,确保企业能够高效、轻松地构建、部署和扩展 AI。
高性能、AI 就绪的云平台
GMI Cloud 的平台为 AI 项目提供了一个完整的生态系统,集成了先进的 GPU 基础设施、专有的资源编排系统以及用于管理和部署模型的工具。这种全面的解决方案消除了许多传统的基础设施挑战:
GPU 实例:通过快速访问 NVIDIA GPU,GMI 允许用户立即部署 GPU 资源。选项包括按需或私有云实例,适用于从小型项目到企业级 ML 工作负载的所有内容。
集群引擎:这款专有软件由 Kubernetes 提供支持,可实现 GPU 资源的无缝管理和优化。它提供多集群功能以实现灵活扩展,确保项目能够适应不断变化的 AI 需求。
应用程序平台:该平台专为 AI 开发而设计,提供与 API、SDK 和 Jupyter Notebook 集成的可自定义环境,为模型训练、推理和自定义提供高性能支持。
通过 Colorado 数据中心扩展全球覆盖范围
GMI Cloud 的科罗拉多数据中心是其扩张的关键一步,提供低延迟、高可用性的基础设施,以满足北美客户不断增长的需求。这个新数据中心补充了 GMI 现有的全球数据中心,这些数据中心已在台湾和其他关键地区建立了强大的影响力,可以跨市场快速部署。
利用 NVIDIA 技术为 AI 提供动力
GMI Cloud 是 NVIDIA 合作伙伴网络的成员,集成了 NVIDIA 的尖端 GPU,包括 NVIDIA H100。这种合作确保客户能够获得强大的计算能力,以处理复杂的 AI 和 ML 工作负载,最大限度地提高高要求应用程序的性能和安全性。
NVIDIA H100 Tensor Core GPU 基于 NVIDIA Hopper 架构构建,可为各种工作负载提供顶级性能、可扩展性和安全性。它针对 AI 应用程序进行了优化,可将大型语言模型 (LLM) 加速高达 30 倍。此外,H100 具有专用的 Transformer 引擎,专为处理万亿个参数模型而设计,使其成为对话式 AI 和其他密集型机器学习任务的理想选择。
为 AGI 未来而构建
着眼于未来,GMI Cloud 正在将自己打造成通用人工智能 (AGI) 的基础平台。通过提供对高级 GPU 和无缝编排工具的早期访问,GMI Cloud 使各种规模的企业能够快速部署可扩展的 AI 解决方案。这种对可访问性和创新的关注是 GMI 支持快速发展的 AI 环境的核心使命,确保全球企业能够有效地采用和扩展 AI 技术。
在人工智能、机器学习和云基础设施方面拥有深厚专业知识的团队的支持下,GMI Cloud 正在为希望利用人工智能实现转型增长的公司创造一条可访问的途径。凭借其强大的基础设施、战略合作伙伴关系和对推动 AI 创新的承诺,GMI Cloud 有能力在全球范围内塑造 AI 基础设施的未来。