等你有了10000 块 H100 GPU再来找我!

随笔2个月前发布 雅风
37 0 0

 

近日有媒体报道,AI问答引擎Perplexity的创始人兼首席执行官Srinivas 在《Invest Like The Best》播客节目中说:“我试图从Meta聘请一位非常资深的研究员,你知道对方怎么回应吗?——等你有了10000 块 H100 GPU再来找我。”

 

虽然只是一则招聘吐槽,但也表明了目前基础大模型训练对算力的巨大需求,算力的多少一定程度上决定了智能程度的高低。比如刚刚发布的最大的通用大模型DBRX,训练用了3072块H100,GPT5训练大约用5万张H100。扎克伯格也表示今年需要35万张英伟达H100芯片,来训练Llama 3大模型。

等你有了10000 块 H100 GPU再来找我!

 

 

 

全球公司都在紧追人工智能浪潮,争先推出大模型产品,各行各业企业都迫切需要将大模型接入到自己的业务领域。算力作为背后的底层基础设备,出现了资源急剧紧张的局面,导致很多传统互联网企业很难买到高端的算力资源,尤其是H100 GPU。

 

英智未来BayStone平台整合全球不同规格的算力服务器,满足企业在AI开发训练、推理、优化等不同场景下的算力需求。英智未来规划建设数万P的算力中心,为企业提供算力租赁服务业务。目前已完成数千P不同规格的算力资源,包括大模型训练所需的高端服务器

RTX系列、HGX1系列。

等你有了10000 块 H100 GPU再来找我!

 

 

 

算力是否充足,直接影响到企业的AI产品落地,算力是否能长期稳定的提供服务,决定了企业能否拥有竞争优势。GPU服务器卡的稳定性较差,任何故障都会让训练中断,导致项目研发周期的延长推迟。英智未来已经建立数百台服务器规模的算力集群,通过算力系统实现单个设备之间的高效率运行,能够满足企业更稳定的高性能算力服务。

 

同时考虑到GPU服务器所需要网络要求较高,英智未来的算力中心配置高速网络与其他计算节点和存储节点连接,满足企业大数据的大量、安全的传输要求,极大降低网络延迟,提高数据处理效率,为企业提供高安全、高性能、智能化的算力资源保障服务。

等你有了10000 块 H100 GPU再来找我!

 

 

 

算力供应市场,从来不是后浪推前浪,只有更丰富稳定的资源供应,才能为更多客户提供服务。英智未来今年持续加速建设智能算力中心,准备构建数万P算力中心,为广大科创企业提供算力能力和服务,助力传统互联网企业快速实现智能化转型。

 

 

 

 

© 版权声明

相关文章

暂无评论

您必须登录才能参与评论!
立即登录
暂无评论...