V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
xuzhijian24
V2EX  ›  问与答

有没有 openclaw 调用本地 ollama 大模型的

  •  
  •   xuzhijian24 · 1 天前 · 836 次点击

    openclaw 调用本地 ollama 大模型,千问 7B 的模型,感觉就是个智障。

    有没有大神可以讲讲自己的体验

    8 条回复    2026-03-07 19:28:35 +08:00
    root71370
        1
    root71370  
       1 天前 via Android
    参数决定智商 无解
    Censhuang
        2
    Censhuang  
       1 天前
    今天刚研究,差两代出来。qwen 7b 应该是 qwen2.5 。中间跨越了 qwen3 ,qwen3.5
    default996
        3
    default996  
       1 天前
    在 macmini 上将了 qwen8b ,然后那个输出速度太慢了 ……
    iv8d
        4
    iv8d  
       1 天前
    可以是可以,要么慢,要么傻,你愿意等大半天出结果吗
    tthem
        5
    tthem  
       23 小时 41 分钟前
    m2max 部署 qwen35B q4 模型,问一个问题,要等 6 分钟出结果。。放弃了
    tthem
        6
    tthem  
       23 小时 41 分钟前
    @tthem 不过傻倒是不怎么傻,一些基础的都能给你搞出来
    zz177060
        7
    zz177060  
       21 小时 15 分钟前 via iPhone
    还没有实践,但是我理想的也是吊用本地 app 应该自动本地模型优先,因为就只打开 app ,这个跟模拟鼠标一样,不应该全部让云端实现🙁但是我不懂代码🥲
    hiccup00
        8
    hiccup00  
       14 小时 0 分钟前 via Android
    同样觉得这个比较有需求
    关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   Solana   ·   2350 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 25ms · UTC 01:29 · PVG 09:29 · LAX 17:29 · JFK 20:29
    ♥ Do have faith in what you're doing.