近日,英伟达悄然开源了其最新的超强大模型——Nemotron-70B。一经发布,该模型便迅速在AI社区引发轰动,其性能在多个基准测试中超越了包括GPT-4、GPT-4 Turbo以及Claude 3.5 Sonnet在内的140多个开闭源模型,仅次于OpenAI的最新模型o1。
Nemotron-70B的基础模型是基于Llama-3.1-70B开发而成,并通过人类反馈强化学习进行了训练,特别是采用了“强化算法”。在训练过程中,英伟达使用了一种新的混合训练方法,包括Bradley-Terry和Regression在内的训练奖励模型,同时开源了训练数据集。该模型基于Llama-3.1-Nemotron-70B-Reward提供奖励信号,并利用HelpSteer2-Preference提示来引导模型生成符合人类偏好的答案。
在LMSYS大模型竞技场中的Arena Hard评测中,Nemotron-70B得分85,在AlpacaEval 2 LC上得分57.6,在GPT-4-Turbo MT-Bench上为8.98。这些成绩充分展示了其强大的性能。
网友们纷纷对Nemotron-70B进行了测试,发现该模型在处理复杂问题时表现出色。例如,在回答关于香蕉数量的问题时,Nemotron-70B能够准确地将问题所给信息进行分解,并一步一步推理得出正确答案。此外,在回答关于活到89岁的名人名单时,尽管模型将某人的去世日期弄错,但整体表现仍然令人印象深刻。
值得注意的是,Nemotron-70B在hard prompt上的表现也备受关注。虽然在一些测试中未能完全通过,但其给出的初步输出非常有趣且富有启发性。例如,在回答关于月球距离和步行到月球的合理性的问题时,Nemotron-70B从物理学的角度进行了详细分析,并得出了合理的结论。
业内专家表示,英伟达之所以不断开源超强模型,是为了推动芯片销售。随着模型变得越来越复杂,所有盈利公司都必须订购更多芯片来训练这些模型。因此,开源模型实际上是在为硬件销售铺路。
然而,对于大模型初创企业来说,巨头们的开源策略无疑带来了巨大的压力。这些企业往往难以在商业落地和名气上与巨头们竞争,如果无法创造利润,将很快失去风投的资助,面临倒闭的风险。
尽管如此,Nemotron-70B的开源仍然为AI社区带来了巨大的价值。该模型的出现不仅推动了AI技术的发展,还为研究人员和开发人员提供了更多的选择和可能性。
英伟达开源Nemotron-70B模型无疑为AI领域带来了新的活力和机遇。我们期待未来能够看到更多优秀的开源模型出现,共同推动AI技术的发展和进步。
原创文章,作者:AI,如若转载,请注明出处:https://www.kejixun.com/article/686939.html