![](http://pubimage.360doc.com/wz/default.gif)
美国软件巨头甲骨文宣布,2023年将投资数十亿美元,购买英伟达GPU(图形处理芯片),为了应对今后对人工智能云计算服务业务的需要。这还不包括甲骨文另外大量采购Ampere Computing和AMD的CPU(中央处理器)。
我们知道,一台人工智能服务器往往装配2个CPU,4-8个GPU,16-32个内存条,2-8个大容量硬盘等等。之所以各大厂都在争购GPU,主要是因为GPU已经成为AI服务器的核心部件,大模型的学习和训练离不开GPU。
英伟达的AI芯片分为三类:H100、A100、A800。H100的传输速度是A100的12倍,A100的速度是A800的1.5倍。谁拥有了GPU的速度,谁就赢得了大模型训练的时间,谁就可能处在竞争的优势地位,谁就可能挣更多的钱。
受到美国商务部BIS的限定,英伟达H100和A100不能向中国出售,英伟达专门为中国市场开发的A800,是降速了的GPU,与H100差距甚远。
![](http://pubimage.360doc.com/wz/default.gif)
浪潮最新装配8颗A800人工智能服务器
即便如此,装配8颗A800的浪潮AI服务器,网上售价也需要150万元人民币。如果把甲骨文5万颗H100折算成AI服务器的配置,那么甲骨文可拥有5万台AI服务器。与这个量级比较,国内所有的大厂加在一起,估计也达不到这样的算力。
公司 | 计划购买量(万颗) | 英伟达GPU | 备注 |
甲骨文 | 5 | H100 | |
Tesla | 1 | H100 | |
2.6 | H100 | ||
亚马逊 | 2 | H100 | |
Meta | 自研 | ||
微软 | 与AMD合作 |
甲骨文大量采购英伟达GPU,仅仅是美国各大互联网巨头对人工智能业务预期的一个典型代表。
谷歌已经计划向英伟达采购2.6万颗H100,亚马逊2万颗H100,特斯拉1万颗H100(用于自己的无人驾驶汽车的数据计算上)。
之前宣布与马斯克约架的扎克伯格的Meta,宣布自己组建研发团队,开发AI芯片。
微软一方面购买英伟达GPU,另一方面也不甘心GPU市场被英伟达独占,其宣布与CPU巨头之一的AMD合作,联合开发AI芯片GPU。
巨头们采购的主要是英伟达GPU H100,因为在H100面前,A800相当于牛车,而H100则是法拉利。
今后的格局是,美国大厂清一色使用H100,中国厂商最多使用A800,这还要看美国商务部BIS的脸色,会不会今后A800也不准卖给中国了?如果这样,对于服务器巨头的浪潮信息来说,今后的业绩预测就难上加难了。
由此可见,中美两国AI服务器的巨大差距,决定了今后两国在人工智能领域的差距会越拉越大。