• 请不要在回答技术问题时复制粘贴 AI 生成的内容
libasten
V2EX  ›  程序员

几个国产大模型,用来对接用在 cc 上编程,哪家性价比高?

  •  
  •   libasten · 1 day ago · 4366 views
    codex 登录要手机号,加上之前的某境外大厂的账号莫名其妙被 ban ,想着用国产的得了,至少登录啥的省事不少。
    现在国内的哪家好用点?
    40 replies    2026-05-16 23:48:56 +08:00
    anghunk
        1
    anghunk  
       1 day ago   ❤️ 1
    百炼吧,目前我主力是这个
    yjz1409276
        2
    yjz1409276  
       1 day ago
    我用 gpt ,公司订了火山 pro ,只能说一言难尽
    Chisa
        3
    Chisa  
       1 day ago
    最强是 GLM5.1 ,性价比的话就是 opencode go 套餐用 DeepSeekV4 pro 。官网直接充钱也行
    zenfsharp
        4
    zenfsharp  
       1 day ago
    @Chisa 大佬你是怎么接的,为什么我用 opencode 家的 DS 接入,一思考就报错。
    wynemo
        5
    wynemo  
       1 day ago   ❤️ 1
    @zenfsharp #4 openai 格式再用 cliproxyapi 转成 cc 格式
    JerningChan
        6
    JerningChan  
       1 day ago
    我怎么觉得,自己在 5090 上部署 qwen3.6 27b 用 cc 对接写代码,也很不错,可能我的项目比较简单?
    最早时,接 qwen3.6-35b-a3b 也很不错
    frantic
        7
    frantic  
       1 day ago
    GLM 抢不到的话,我觉得 KIMI 199 档年费订阅最划算,其次是 deepseek 不走订阅,直接用 api, 我高强度用一天大概 20 不到
    rb6221
        8
    rb6221  
       1 day ago
    性价比肯定是 DS 啊毫无疑问。。现在阶段还有别的吗
    ptstone
        9
    ptstone  
       1 day ago
    我看抖音上的评测,最强编程应该时 kimi2.6
    ptstone
        10
    ptstone  
       1 day ago
    @JerningChan 你使用 vllm 吗
    hutng
        11
    hutng  
       1 day ago
    @JerningChan 开不开思考模式?怎么接入的?我也是本地,webui 看速度 40t 左右,我打开思考模式,cc 和 opencode 都感觉特别慢,寸步难行,使用的是 cc-switch 接入的。不知道是哪里出了问题
    sentinelK
        12
    sentinelK  
       1 day ago
    @hutng 用的是什么硬件?使用 Agent 工具调用本地 LLM 的时候,首次启动的输入 token 少则 5~6K ,多则 10k 起步。prefill 速度比 decode 速度还要重要。5090 的 prefill 速度大概是 3000+t/s 。

    如果设备的 prefill 速度不过千,那就相当于每次调用 LLM 都要罚站。
    hutng
        13
    hutng  
       1 day ago
    @sentinelK 2080ti ,那估计就是 prefill 的瓶颈了,算力瓶颈。
    sentinelK
        14
    sentinelK  
       1 day ago
    @hutng 是的,如果是 llama.cpp 可以用 llamabench 来验证下。pp 是输入速度,tg 是输出速度。

    Agent 执行一次任务要无数次交互 LLM(查网址、跑终端、改代码),每次都要罚站。和 chat 场景完全不同。
    sharpy
        15
    sharpy  
       1 day ago
    性价比的话 deepseek v4 flash
    pro 没有 coding plan 还是比较贵的

    综合下来,opencode go ,首月 5 刀
    yjxjn
        16
    yjxjn  
       1 day ago
    @Chisa GLM5.1 我看有人说不行,有人说挺好的,能达到 codex5.3 的水平么?
    hutng
        17
    hutng  
       1 day ago
    @sentinelK #14 好的,感谢,显卡不行,27B 不太行,换 35B A3B 了,开启 MTP 刚测 小上下文情况,预填充 1500 ,生成 100 勉强可用了。
    cvooc
        18
    cvooc  
       1 day ago
    @yjxjn glm 工作使用没什么问题, 最大的问题是现在抢不到, 我同事抢了一个月了
    mandex
        19
    mandex  
       1 day ago
    订阅了 Kimi Code 199 档那个,付了年费。DeepSeek 冲了点钱,感觉也还行。
    ooooo00000ooooo
        20
    ooooo00000ooooo  
       1 day ago
    https://www.coding-plan.xyz/
    这里有几乎所有国内套餐和网友评价。
    hiqxy
        21
    hiqxy  
       1 day ago
    cursor 吧 省事,auto 效果也比国产的好很多
    crocoBaby
        22
    crocoBaby  
       1 day ago
    vscode 的 trae 插件,免费使用不用排队~
    wy315700
        23
    wy315700  
       1 day ago
    论性价比当然是 DeepSeek
    wsbqdyhm
        24
    wsbqdyhm  
       1 day ago via iPhone
    @JerningChan #6 这个我也在用,五成 minimax ,三四成 ds4 的样子
    chaniqure
        25
    chaniqure  
       1 day ago
    @hiqxy auto 的额度怎么样呢?够用不?
    yazoox
        26
    yazoox  
       1 day ago
    @frantic 怎么直接用 API ?如何付费/订阅?客户端用啥? vscode 连接 deepseek api?
    watzds
        27
    watzds  
       1 day ago
    GLM5.1 还行
    Smileh
        28
    Smileh  
       1 day ago
    @yjxjn #16 我觉得 5.0 最多了
    renothing
        29
    renothing  
       1 day ago
    别买 kimi code 那种废物,一个会话没结束,就触发限制了.
    我现在主要是 DeepSeek pro 干活.配合 GLM 来验收
    ntdll
        30
    ntdll  
       1 day ago
    便宜的话,现阶段毫无疑问是 deepseek
    JerningChan
        31
    JerningChan  
       1 day ago
    @wsbqdyhm 哦?其实我觉得现在用 cc 对接,只要模型不是那种什么 9b 的小模型,其实用起来,协助改改代码的都很不错啊
    JerningChan
        32
    JerningChan  
       1 day ago   ❤️ 1
    @hutng 开啊
    -m /data/qwen3.6/Qwen3.6-35B-A3B-UD-IQ4_NL_XL.gguf \
    --mmproj /data/qwen3.6/35b-mmproj-F16.gguf \
    --ctx-size 73728 \
    -ngl 99 \
    --host 0.0.0.0 \
    --port 8080 \
    --temp 0.6 \
    --top-p 0.95 \
    --top-k 20 \
    --min-p 0.00 \
    --flash-attn on \
    --cont-batching \
    --cache-type-k q4_0 \
    --cache-type-v q4_0 \
    --threads 15 \
    --parallel -1 \
    -b 1024 \
    -ub 1024 \
    --chat-template-kwargs '{"enable_thinking": true, "preserve_thinking": true}' \
    --metrics \
    --jinja \
    --alias Qwen3.6
    JerningChan
        33
    JerningChan  
       1 day ago
    @hutng 这个是 2080ti 22g 的设置,公司 5090d 就可以调大上下文到 256k ,然后换 27b 模型
    JerningChan
        34
    JerningChan  
       1 day ago
    @ptstone 无,我纠结了下,还是用 llama.cpp 算了
    S0lution
        35
    S0lution  
       1 day ago
    现在国内就 GLM 、DeepSeek 、KIMI 、千问,性价比肯定是 DeepSeek 按量付费,质量最好的还是 GLM 。但是 GLM 是围城,买的人想退,没买的人想买,背刺老用户信誉分不佳
    shench
        36
    shench  
       1 day ago
    deepseek v4 目前用着感觉很不错。
    utodea
        37
    utodea  
       18h 57m ago
    开始拿 DeepSeek 当备用了,目前感觉不错。并且写了个 DeepSeek-native CLI: https://github.com/usewhale/whale
    xuhengjs
        38
    xuhengjs  
       17h 29m ago
    deepseek v4 flash 啊,一天 10 块钱用不完
    ptstone
        39
    ptstone  
       10h 51m ago
    @JerningChan 今天 vllm 更新到 21 版本,但是 qwen3.6 支持 turboquant 还是有 bug
    JerningChan
        40
    JerningChan  
       8h 16m ago
    @ptstone 这样吗?我还在使用 llama.cpp
    About   ·   Help   ·   Advertise   ·   Blog   ·   API   ·   FAQ   ·   Solana   ·   3654 Online   Highest 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 87ms · UTC 00:05 · PVG 08:05 · LAX 17:05 · JFK 20:05
    ♥ Do have faith in what you're doing.