V2EX = way to explore
V2EX 是一个关于分享和探索的地方
Sign Up Now
For Existing Member  Sign In
after1990s
V2EX  ›  Local LLM

intel b60 48G 可以买吗

  •  
  •   after1990s · Jan 15 via Android · 1538 views
    This topic created in 106 days ago, the information mentioned may be changed or developed.

    目前售价 12000

    9 replies    2026-03-05 18:36:35 +08:00
    vvhhaaattt
        1
    vvhhaaattt  
       Jan 15 via Android
    现在用的 a770 ,如果是个人用户为了 ai 推理,不建议买 intel 。
    其他情况不予评论。
    after1990s
        2
    after1990s  
    OP
       Jan 15 via Android
    @vvhhaaattt llama 能在 a770 上跑吗
    vvhhaaattt
        3
    vvhhaaattt  
       Jan 15 via Android
    llama.cpp 看你的模型要求了,如果经常试新模型,新模型又用了新的算子……
    gpt-oss 为例
    sycl 版本 12 月中旬的时候我记得是不能跑还是很慢,因为有算子不支持,会把相关操作退化为 cpu 操作,最近看有 issue 处理,不清楚现状。
    valkan 版本能跑,推理速度能用的程度,算子支持速度还行,不过相对 sycl 有折扣。

    @after1990s
    defaw
        4
    defaw  
       Jan 15
    曾经废了九牛二虎之力在 arc a750 上跑起来了 ipex-llm ,inter 跑 ai 还是不如 cuda 方便
    vvhhaaattt
        5
    vvhhaaattt  
       Jan 15 via Android
    ipex-llm 停止更新了~
    slowgen
        6
    slowgen  
       Jan 15
    这个售价飘了,不如 2 张 AMD 的 7900XTX
    coefu
        7
    coefu  
       Jan 16
    都能整 6 张 v100 32G 了。加一点可以 A100 40G 了。这波 H200 一旦进来,之前的 A 系列很大一部分都会被替换出来。
    kpprotector
        8
    kpprotector  
       Jan 30
    如果你只买一张的话没有必要……
    这种就是极限堆显存用的。普通的家用 CPU PCI E 总线也就只有 20~28 条通道。只够插一张这样的卡。
    不如买两张 3090 24G ,虽然价格差不多,但是 CUDA 生态给你后续避免很多麻烦,intel 的生态真的一言难尽……
    sch1111878
        9
    sch1111878  
       Mar 5
    公司的 8 卡 5080 大部分时间是闲置的 我能用来做点什么呢 学习也好?或者其他的
    About   ·   Help   ·   Advertise   ·   Blog   ·   API   ·   FAQ   ·   Solana   ·   2509 Online   Highest 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 37ms · UTC 12:20 · PVG 20:20 · LAX 05:20 · JFK 08:20
    ♥ Do have faith in what you're doing.