当前位置:首页 > 职场 > 正文

20万颗GPU“烧出”Grok3:业界称“大力出奇迹”仍可行,算力仍是护城河

  • 职场
  • 2025-02-20 18:00:23
  • 16

Grok 3表明依靠算力堆积的“大力出奇迹”路径目前依旧可行。

2月18日,特斯拉创始人埃隆·马斯克旗下xAI推出最新大模型Grok 3。据介绍,虽然Grok起步较晚,但MMLU(大规模多任务语言理解基准测试)得分已追上ChatGPT,Grok 3和轻量化的Grok 3 mini在多个性能上都超过或媲美Gemini、DeepSeek和GPT-4o等对手。

Grok 3在xAI位于孟菲斯的Colossus超算中心进行训练。xAI透露,这一超算中心的算力已经翻倍,拥有的英伟达GPU数量已达到20万颗。

本以为是马斯克又在虚张声势,但这次Grok 3的确没有令人失望。

基于Grok 3的优秀表现,不少业内人士再度表露了对算力堆积这种“大力出奇迹”路径的认可。更有分析人士指出,Grok 3证明了缩放法则(scaling law)在达到上限之前仍有发展空间——这对整个行业来说是一个令人鼓舞的信号。

AI大牛、前OpenAI 研究员、前特斯拉AI负责人Andrej Karpathy在成为Grok 3首批用户后,在社交媒体上发布了一份详细的测评总结。他称赞了Grok 3 的逻辑推理能力,并指出其性能可与OpenAI的o1-pro模型相媲美,后者的月度费用为200美元。他还认为,Grok 3的推理能力略优于DeepSeek-R1、谷歌的Gemini 2.0 Flash Thinking。

不过,他也指出了Grok 3的一些局限性,包括搜索功能DeepSearch中偶尔出现的幻觉和事实错误。

“考虑到该团队大约1年前才从零开始,这真是令人难以置信,他们以前所未有的速度达到了几乎业内最高水平。”Karpathy表示。

不少科技领域的分析人士表明,Grok 3的成功,在很大程度上就是依靠算力堆积。

人工智能服务网站Maginative创始人兼主编Chris McKay认为,xAI自成立以来,仅用了一年多的时间就迅速开发出了具有竞争力的AI技术,其成功很大程度上得益于创新的计算基础设施和对大量计算资源的访问。随着更多超算集群的规划,xAI似乎有望继续提升模型能力。

沃顿商学院人工智能教授Ethan Mollick认为Grok 3完全符合预期。他指出,人工智能仍在加速发展,速度和算力都是护城河,“人才和芯片就是打造前沿模型的公开秘诀”。

“护城河可能不深,但足以淹死初创企业。”雪城大学公共传播学院教授、咨询公司The Palmer Group首席执行官Shelly Palmer评论说。在他看来,Grok 3的护城河“已经被金钱填满”。英伟达H100 GPU的价格在3万至4万美元之间,即使马斯克拿到了折扣,这仍然是一项30亿到50亿美元的庞大投资。

公开信息显示,OpenAI训练GPT-4用了大约2.5万张A100 GPU,而H100的训练吞吐量远高于A100;据DeepSeek公布的信息,DeepSeek-V3模型预训练费用仅为557.6万美元,在2048块英伟达H800 GPU(针对中国市场的低配版GPU)集群上耗时55天完成。

随着DeepSeek的横空出世,不少人提出缩放法则(scaling law)可能会失效或者不再完全适用。缩放法则是AI研究中的一个重要指导原则,它认为,在大多数情况下,增加规模(模型参数、数据量、算力)都能提高模型的表现,但效益递减。

科技领域博主Zain Kahn表示,近几个月来,有观点认为,向大模型投入更多数据和算力将不再奏效,但Grok 3证明了这种怀疑并不正确。xAI才进入这个领域两年,就已经与顶尖公司展开了激烈竞争,甚至击败了顶尖公司。

Kahn强调说,xAI庞大的Colossus超算集群将大模型推向了新的高度,“预训练缩放法则在达到上限之前仍有发展空间——这对整个行业来说是一个令人鼓舞的信号。”

机构也对算力的作用给出了肯定,指出算力堆积仍是模型进步的关键变量。

华泰证券在2月20日发布的研报中提出,Grok 3证明预训练在算力提升下仍能突破。虽然目前在预训练数据上存在瓶颈,但是合成数据、RL(强化学习)数据、工程能力优化,甚至Transformer架构迭代,或能逐步打破瓶颈,Grok 3已经证明预训练依然有突破空间。

国泰君安也提到,xAI算力资源储备与开源策略的平衡,凸显算力与算法的同等重要性。高昂的算力投入已经形成了显著的技术门槛。

中信证券指出,Grok 3作为全球首个在十万卡集群上训练的大模型,综合能力较前代模型Grok 2提升显著,意味着算力堆积仍是模型进步的关键变量之一。

有话要说...