全球巨头GPU总量巨增,2025年将超等效H100逾1240万块

全球巨头GPU总量巨增,2025年将超等效H100逾1240万块

全球巨头GPU总量巨增,2025年将超等效H100逾1240万块

全球大型科技公司正在争夺数据中心主导地位,纷纷加紧布局下一代AI算力,预计到2025年,全球巨头持有的等效H100 GPU总量将超过1240万块。

根据LessWrong网站近期发布的博客,对英伟达芯片产量以及各大AI巨头GPU/TPU数量的估算,以及对未来芯片发展的展望,五大科技公司将在2024年和2025年拥有以下数量的等效H100算力:

2024年底

| 公司 | 等效H100数量 |

|---|---|

| 微软 | 75万-90万 |

| 谷歌 | 100万-150万 |

| Meta | 55万-65万 |

| 亚马逊 | 25万-40万 |

| xAI | 10万 |

2025年

| 公司 | 等效H100数量 |

|---|---|

| 微软 | 250万-310万 |

| 谷歌 | 350万-420万 |

| Meta | 190万-250万 |

| 亚马逊 | 130万-160万 |

| xAI | 55万-100万 |

英伟达GPU霸主地位稳固,预计2025年销量达650万至700万块

英伟达稳坐GPU霸主地位,预计2024自然年的数据中心收入将达到1100亿美元,比2023年的420亿美元增长了一倍多,2025年有望突破1730亿美元。其中主要的收入来源便是GPU,预计2025年销量为650万至700万块,几乎全是最新的Hopper和Blackwell系列。

具体而言,预计2025年英伟达将售出约200万块Hopper GPU和500万块Blackwell GPU。2024年,英伟达预计将生产约500万块Hopper GPU,包含一些性能较低的H20芯片。

AI训练加速器需求激增

随着AI技术的发展,对大规模AI训练的需求不断增长,推动了AI训练加速器市场的快速发展。

谷歌拥有大量自研的定制TPU,是其内部工作负载的主要计算芯片。2024年,谷歌预计将拥有相当于100万到150万块等效H100算力,其中大部分可能通过TPU实现。

亚马逊内部的AI工作负载规模较小,主要通过英伟达GPU满足云平台的外部GPU需求,尤其为Anthropic提供算力支持。亚马逊也在开发自研芯片,但进度落后于谷歌的TPU。

Blackwell芯片预计大幅提升算力

英伟达最新的Blackwell芯片(GB200)预计将在2025年带来大幅的算力提升。对于训练性能,Blackwell芯片预计比H100高出2.2倍。微软预计将在2025年获得100万块Blackwell芯片,谷歌和亚马逊预计也将获得大量Blackwell芯片。

巨头们训练前沿模型部署算力

OpenAI的训练成本预计在2024年达到30亿美元,推理成本为40亿美元。 Anthropic的训练成本预计约为15亿美元。

据报道,xAI用2万块H100训练了Grok 2,并计划用10万块H100训练Grok 3。这表明xAI的计算资源利用率处于前沿水平。

谷歌Gemini Ultra 1.0模型使用了约为GPT-4的2.5倍的计算资源,发布时间却晚了9个月。其所用的计算资源比Meta的最新Llama模型高25%。

总结

全球五大科技公司正在紧锣密鼓地布局下一代AI算力,2025年预计将拥有超过1240万块等效H100算力,这将极大地推动人工智能技术的进步。英伟达作为GPU霸主,将继续主导数据中心市场,而谷歌、亚马逊和xAI等公司也在加紧自研AI训练加速器,以应对不断增长的AI训练需求。

原创文章,作者:讯知在线,如若转载,请注明出处:http://bbs.xzxci.cn/2024/12/02/26662.shtml

Like (0)
讯知在线讯知在线
Previous 2024年12月2日 下午7:30
Next 2024年12月2日 下午7:37

相关推荐

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注