V2EX = way to explore
V2EX 是一个关于分享和探索的地方
Sign Up Now
For Existing Member  Sign In
spike0100
0.01D
V2EX  ›  Local LLM

经过我一个多月的测试,我发现本地部署的 qwen3-vl-8b 比 qwen3-8b 在新闻和游戏名词等翻译上面更有优势

  •  
  •   spike0100 · Nov 4, 2025 · 1709 views
    This topic created in 183 days ago, the information mentioned may be changed or developed.


    图中最后两条是 qwen3-vl-8b 翻译的,基本已经接近母语直接阅读的翻译水平。
    gemma3-4b ,qwen3-8b ,gpt-oss-20b 都达不到这个水平
    12 replies    2026-02-01 18:38:38 +08:00
    Tose
        1
    Tose  
       Nov 5, 2025 via Android
    你这 mac 上的 rss 阅读器 UI 很不错!
    spike0100
        2
    spike0100  
    OP
       Nov 5, 2025


    也有比较离谱的翻译。。。
    spike0100
        3
    spike0100  
    OP
       Nov 5, 2025
    @Tose 哈哈哈,这是我自己写的应用! https://sidefyapp.com/
    liuyuntian
        4
    liuyuntian  
       Nov 30, 2025
    问一下,除了新闻和游戏名词,整体的翻译是 8b 好,还是 vl-8b 好啊?多谢!
    spike0100
        5
    spike0100  
    OP
       Nov 30, 2025
    @liuyuntian 没严格测试过。主要拿来翻译新闻了
    spike0100
        6
    spike0100  
    OP
       Jan 23
    @liuyuntian 现在我确定 translategemma 是本地大模型里面最适合做通用翻译的。
    k4x7UW92WE8
        7
    k4x7UW92WE8  
       Jan 26
    @spike0100 比 Hunyuan-MT 还强吗
    liuyuntian
        8
    liuyuntian  
       Jan 26
    @spike0100 感谢提醒,没想到两个月后还能得到回复,我去下载一个试一下。
    spike0100
        9
    spike0100  
    OP
       Jan 26
    @gangstar902 我只测试了 ollama.com 的模型
    liuyuntian
        10
    liuyuntian  
       Jan 27
    @spike0100 真是好用好用,省了在本地加载多个模型!
    liuyuntian
        11
    liuyuntian  
       Jan 30   ❤️ 1
    @spike0100 不甘心又找了一下,发现这个似乎快一点点:rinex20/translategemma3:12b
    k4x7UW92WE8
        12
    k4x7UW92WE8  
       Feb 1
    @liuyuntian 你好 我想问一下 目前有没有什么手段可以把这种翻译模型精简化 只保留几种常用的需要的语言比方说中文和英语还有日语之类的 然后整体上让整个模型的参数降下来以适应各种设备的需要
    About   ·   Help   ·   Advertise   ·   Blog   ·   API   ·   FAQ   ·   Solana   ·   2772 Online   Highest 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 58ms · UTC 15:45 · PVG 23:45 · LAX 08:45 · JFK 11:45
    ♥ Do have faith in what you're doing.