V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
kirieievk
V2EX  ›  OpenAI

今天看小鹏发布会,说小鹏 AI 有 7000 张卡,这在中国算什么水平

  •  
  •   kirieievk · 14 天前 · 1622 次点击

    现在那个企业的算力最猛.

    8 条回复    2024-05-21 09:56:20 +08:00
    digd
        1
    digd  
       14 天前
    中国算卡最多的应该是字节
    jwangbyus
        2
    jwangbyus  
       13 天前
    搞出来 deepseek 的幻方了解一下
    egen
        3
    egen  
       13 天前
    记得 01 万物屯了 1 万张左右,阿里、腾讯和字节应该在 10 万规模
    egen
        4
    egen  
       13 天前
    比较好玩的是蔚来,蔚来 NT2.0 平台所有车型都配了 4 颗 orinx ,int8 大概 1000TOPS ,对比 A100 int8 大概 1200TOPS ,蔚来售出的 nt2.0 平台的车数量有 23 万+,如果利用好的话是相当可观的算力。

    其他车厂都是分智驾和非智驾的版本,导致真正售出带智驾芯片的车远不及蔚来。
    而且蔚来的算力芯片是超配的(大多数车只配了一颗 orinx ),有足够冗余的算力用来做额外计算。
    mythabc
        5
    mythabc  
       13 天前
    > Marking a major investment in Meta’s AI future, we are announcing two 24k GPU clusters

    llama3 的训练用了两个 24k 的 H100 集群。
    mythabc
        6
    mythabc  
       13 天前
    没发全。
    Marking a major investment in Meta’s AI future, we are announcing two 24k GPU clusters. We are sharing details on the hardware, network, storage, design, performance, and software that help us extract high throughput and reliability for various AI workloads. We use this cluster design for Llama 3 training.
    lpf0309
        7
    lpf0309  
       13 天前
    这么少么,我以为这些都是万级起步呢
    ywkk
        8
    ywkk  
       13 天前
    没戏,GPT4 级别的大模型需要 2-5 万张 A100 级别的,下一代大模型(正在训练中的)已经到 10 万张算力以上,META 有 60 万张,想想看这个军备竞赛。国内只能指望华为集群,解决了 5nm 制程后也能生产 A100 性能的 GPU 了,但还是要分一部分给麒麟芯片生产,用于训练服务器的升腾芯片不知道供应如何。
    关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   2906 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 23ms · UTC 14:26 · PVG 22:26 · LAX 07:26 · JFK 10:26
    Developed with CodeLauncher
    ♥ Do have faith in what you're doing.