

















- 半导体设计:与消费级GPU市场不同,NVIDIA几乎垄断了用于AI模型训练和推理的数据中心GPU市场。这一主导地位部分归功于其 CUDA 工具包,该工具包被 AI 开发者广泛使用。对 NVIDIA H100 GPU 的需求激增,导致交付周期延长。凭借这一优势,NVIDIA 享有高达 78% 的营业利润率,预计 2024 年底发布的 Blackwell GPU 将进一步巩固其主导地位。尽管 AMD Xilinx 和 Intel Altera 正在扩展其 FPGA 业务,Microsoft、Google 和 Meta 等科技巨头也在开发自己的 AI 半导体(ASIC),但这些解决方案在市场成熟度和准备方面仍然不及 GPU。

- 半导体制造:负责制造设计半导体的代工行业也显示出严重的不平衡。NVIDIA的A100生产需要7nm工艺,H100则需要4nm工艺。这些10nm以下的工艺几乎被台积电、三星和英特尔垄断,A100和H100主要由台积电生产。台积电承诺在未来至少三年内生产NVIDIA的H100,鉴于各种因素,代工行业的领先地位和其他公司之间的差距预计将继续扩大。

- 计算能力:AI公司需要大量的计算能力来训练和推理过程。这需要大量AI半导体,如H100、大型数据中心和可观的电力。据华为称,预计到2030年,AI数据中心将占全球电力消耗的13%,占碳足迹的6%。成本也相当可观;正如黄仁勋在 NVIDIA GTC 2024 的主题演讲中指出的那样,训练 GPT-MoE-1.8T (GPT-4) 模型需要 8,000 个 H100 GPU 和 90 天。因此,由于需要保护AI半导体并承担巨大的电力成本,该行业的集中化是不可避免的。AWS和Azure等云服务提供基于H100的计算能力,也不可避免地是中心化的。
- AI模型:虽然一些AI模型,如Meta的Llama和谷歌的BERT是开源的,但许多其他模型是闭源的。与开源模型相比,OpenAI 的 GPT 和 Anthropic 的 Claude 等闭源模型通常提供系统开发和更好的客户支持,但它们的中心化在成本和透明度方面带来了劣势。
- 数据:训练如LLM这样的AI模型需要巨大的数据集。法律安排,如谷歌每年支付6000万美元使用Reddit的数据,但也有许多关于未经授权的数据用于AI模型训练的诉讼,这提高了人们对数据主权的兴趣。







