近日,Meta发布了一份详细的研究报告,揭示了在训练Llama 3 405B参数模型过程中面临的重大挑战。该系统在包含16384个Nvidia H100 GPU的集群上运行,在54天的训练期间,经历了419次意外故障,平均每三个小时发生一次。这些故障中的一半以上归因于GPU及其高带宽内存(HBM3)。
什么是Llama 3.1?深度解析Llama 3.1研发思路
Meta刚刚发布开源Llama 3.1虽然自带论文,但依旧激起了广大网友强烈的好奇心和求知欲。Llama 3.1都使用了哪些数据?其中有多少合成数据?为什么不使用MoE架构?后训练与RLHF流程是如何进行的?模型评估是如何进行的?我们什么时候可以见到Llama 4?Meta是否会发展agent?
LLM的参数规模选择需要考虑多种因素,包括scaling law、训练时间、GPU和硬件的约束等等。不仅要考虑Meta所用的硬件,还要考虑整个AI社区的不同GPU型号和显存大小。此外,目前广泛应用于推理阶段的量化技术也会影响推理和训练/微调成本的比重。
在Scaling Law和训练token总量的限制内,进行了一些权衡,找到了一个有合适推理效率的平衡点。之所以做到405B这么大规模,一个真正与GPT-4比肩的开源模型。虽然目前还没有完全达到目标,但差距正在逐渐缩小。下一代模型将继续扩展。
Scaling Law主要关注模型权重和训练量。Chinchilla论文强调了训练数据token总量的重要性,认为在有限算力前提下,存在一个模型参数量和训练token数的最佳比率。
但是,Meta希望发布的旗舰模型需要更高的推理效率,因此选择增加训练的token数和训练时长,让模型达到“过度训练”的状态。我们希望模型有更好的推理表现,从而更多地应用于开源社区,因此需要做出一些超越Chinchilla定律的选择。
相比Llama 2,Llama 3的架构没有太多变化,但在扩展数据的规模和质量方面作出了很多努力,数据集从2T token增加到15T token。
目前的模型研发有一个趋势,即针对基准分数进行模型的后训练改进。模型评估是一个开放的研究问题,目前还没有很好的答案。当试图提升模型在某个基准上的分数时,可能会存在过拟合,分数提升未必能迁移成为相似的能力。Meta已经在6月开始训练Llama 4模型,重点可能围绕agent技术,并且已经在Toolformer等agent工具上进行了一些工作。
Llama 3训练任务为什么会多次遭遇故障?
由于Llama 3训练任务的规模庞大且高度同步,单个GPU的故障会导致整个训练过程中断,必须重新启动。在419次意外故障中,58.7%的故障与GPU相关,具体包括NVLink等各种GPU故障和HBM3内存故障。这种情况并不意外,因为Nvidia的H100 GPU消耗约700W并承受大量热应力。尽管出现了大量的故障,但只有三起事件需要显著的人工干预,其余的问题均能由自动化处理。
尽管存在这些问题,Llama 3团队通过支持自动化集群维护,实现了超过90%的有效训练时间(有效训练时间是指实际用于有用训练的时间与经过时间的比例)。Meta开发了多种工具和优化策略,包括减少任务启动和检查点时间、广泛使用PyTorch内置的NCCL飞行记录器,以及识别滞后的GPU。其中,NCCLX在故障检测和定位方面发挥了至关重要的作用,尤其是对于NVLink和RoCE相关问题。
PyTorch的NCCL飞行记录器能够将集体元数据和堆栈跟踪记录到环形缓冲区中,从而在大规模情况下快速诊断和解决挂起和性能问题。NCCLX通过与PyTorch的紧密协同设计,提高了故障检测和定位的速度和准确性,允许PyTorch访问NCCLX的内部状态并跟踪相关信息。
训练过程中,成千上万的GPU可能同时增加或减少功耗,例如等待检查点完成或集体通信结束,或整个训练任务的启动或关闭。这会导致数据中心的功耗瞬时波动达到几十兆瓦的数量级,可能使电网不堪重负。Meta必须确保其数据中心有足够的电力,以维持Llama 3 405B模型及未来更大规模模型的正常运转。
Meta还注意到,环境因素会影响大规模训练性能。Llama 3 405B训练期间,每天中午因温度较高影响了GPU的动态电压和频率调整,导致吞吐量波动1-2%。尽管这不是大问题,但它揭示了温度变化对GPU性能的潜在影响。
考虑到16384个H100 GPU的集群在54天内经历了419次意外故障,平均每24小时7.76次,xAI的孟菲斯超级计算机集群(配备10万个H100 GPU)可能会面临更高的故障率。埃隆·马斯克(Elon Musk)最近在社交平台上宣布启动了“世界上最强大的人工智能训练集群”,预计在今年12月前创建“世界上所有指标最强大的人工智能”。根据GPU规模比例,xAI的孟菲斯超级计算机集群可能会面临更多的故障和挑战。
随着人工智能模型参数量的不断增加,所需的计算资源也随之扩大。以 xAI 计划中的 10 万块 H100 显卡集群为例,故障率可能会成倍增长,给未来的 AI 训练带来更大的挑战。尽管挑战重重,Meta通过开发和应用多种技术和优化策略,展示了在大规模人工智能训练中克服故障、提升效率的能力。未来,随着人工智能模型参数量的不断增加,计算资源需求也将持续增长。Meta的经验为业界提供了宝贵的参考,也为未来更大规模模型的训练奠定了基础。
原创文章,作者:科技探索者,如若转载,请注明出处:https://www.kejixun.com/article/670512.html