V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
请不要把任何和邀请码有关的内容发到 NAS 节点。

邀请码相关的内容请使用 /go/in 节点。

如果没有发送到 /go/in,那么会被移动到 /go/pointless 同时账号会被降权。如果持续触发这样的移动,会导致账号被禁用。
guiyumin
V2EX  ›  NAS

NAS 怎样使用 ai 项目?

  •  
  •   guiyumin · 1 月 2 日 · 3643 次点击
    这是一个创建于 33 天前的主题,其中的信息可能已经有所发展或是发生改变。

    各位好

    nas 能用 gpu 吗?

    如果不能用,大家在 nas 上安装的 ai 项目可能就会比较慢,对吧

    这个怎么解决呢?谢谢

    我查了一下,似乎只有少数高端 nas 有 gpu ,难道 nas 就只能用于下载或者运行一些普通项目?

    第 1 条附言  ·  1 月 2 日
    问了 ChatGPT ,建议用 GPU Worker
    34 条回复    2026-01-10 23:03:40 +08:00
    yolee599
        1
    yolee599  
       1 月 2 日 via Android
    可以加算力卡
    cpstar
        2
    cpstar  
       1 月 2 日   ❤️ 2
    要不再温习一下 NAS 三个字母的意义呢。。。原本就是个存储。

    NAS 可以扩展 PCIE 的话,加一块卡就完活了。如果不能扩展,API 调用模型接口呗。核心不是本地算力,核心是算力用于干啥。
    renmu
        3
    renmu  
       1 月 2 日 via Android
    再买一个 ai 服务器,如果不行,那就用别人的服务吧
    evan9527
        4
    evan9527  
       1 月 2 日
    调用 api 呗。
    guiyumin
        5
    guiyumin  
    OP
       1 月 2 日 via iPhone
    @cpstar
    @renmu
    @evan9527

    我想把 vget 加上语音转文字,文字转语音,以及 ocr 功能

    但发现 NAS 没法用本地 gpu
    dilidilid
        6
    dilidilid  
       1 月 2 日
    你的这些需求,都是用现成的 API 会比较好,折腾本地 AI 的意义除了研究目的,就是生成一些云服务不能满足的色情、灰色内容,或者部分公司有极高的保密需求,你如果不是其中之一完全没有必要。
    SingeeKing
        7
    SingeeKing  
    PRO
       1 月 2 日
    标准的 NAS 确实完全没有必要配备 GPU ,因为通常根本没考虑需要连接显示器之类的,而想跑 AI 的 GPU 价格高到不可能作为标配

    如楼上所说,有空余 PCIe 的话完全可以自己插一块 GPU 上去

    不过我的建议是,去买一套英伟达 Jetson AGX Thor 单独用,毕竟加装会影响 NAS 的美观。。
    guiyumin
        8
    guiyumin  
    OP
       1 月 2 日
    @yolee599 查了一下, 算力卡不咋给力,都是 npu 这种,还是要用英伟达显卡

    问了 ChatGPT ,建议用 GPU Worker
    guiyumin
        9
    guiyumin  
    OP
       1 月 2 日
    @SingeeKing

    是的,问了 ChatGPT ,建议用 GPU Worker
    lymanbernadette6
        10
    lymanbernadette6  
       1 月 2 日
    NAS (Network Attached Storage)
    ntedshen
        11
    ntedshen  
       1 月 2 日
    bro 你这看起来还处在概念都搞不清楚的阶段。。。
    建议买个电脑。。。
    guiyumin
        12
    guiyumin  
    OP
       1 月 2 日 via iPhone
    @ntedshen 我没有 NAS
    ntedshen
        13
    ntedshen  
       1 月 2 日
    @guiyumin 你的需求:
    > 我想把 vget 加上语音转文字,文字转语音,以及 ocr 功能

    你的需求里需要包含的功能:
    下载电影
    tts/stt
    ocr

    你的附加条件:
    > 算力卡不咋给力,都是 npu 这种,还是要用英伟达显卡

    所以其实。。。
    你买一台正经 pc 加几个硬盘就可以解决上述全部需求,倒也不是非要搞个那种自称是 nas 的 nas 。。。
    反正现在这一摞 nas 系统都是 debian 底,自己装好了。。。
    Mrag
        14
    Mrag  
       1 月 3 日
    所以我没有用 nas ,我直接安装了一台常规配置的服务器+一个小机箱,能够插一张单风扇的显卡。不过我也没有用显卡的场景罢了= = ai 能力直接用 glm
    dimlau
        15
    dimlau  
       1 月 3 日
    把 Mac mini 当做 NAS 来用就是了。
    guiyumin
        16
    guiyumin  
    OP
       1 月 3 日
    @dimlau 可惜啊,docker 在 macos 里,不能用 metal
    guiyumin
        17
    guiyumin  
    OP
       1 月 3 日
    @Mrag 这个可以,这个是最靠谱的了
    zzutmebwd
        18
    zzutmebwd  
       1 月 3 日 via Android
    nas 干 nas 的活,另搞一台 ai 服务器,我的配置是 13700k+64g d5+4080s 32g
    guiyumin
        19
    guiyumin  
    OP
       1 月 3 日 via iPhone
    @zzutmebwd 可以,不错
    byuan04
        20
    byuan04  
       1 月 3 日
    我是 homelab
    14100 + 64G 内存 + 4T 固态 + tesla t10 16Gx2

    待机功耗 CPU 12w / tesla t10 每张 10w 满载 150w 1100rmb 一张
    keller
        21
    keller  
       1 月 3 日
    完全没必要在本地跑大模型,因为大多时间一定是闲置的,但是可以在本地搭建自己的知识库、agent 等。
    bowencool
        22
    bowencool  
       1 月 3 日
    @guiyumin #12 NAS 就是一台常年开机的电脑而已,什么 NAS 有这限制那限制的,别胡扯了,听起来太滑稽
    rockyastor
        23
    rockyastor  
       1 月 3 日
    我是 NAS 去调用有显卡的台式机的 Ollama Server 来实现的
    aliipay
        24
    aliipay  
       1 月 4 日
    @guiyumin 核显性能也很一般,如果没有太多速度要求倒是可以考虑下。
    zzutmebwd
        25
    zzutmebwd  
       1 月 4 日 via Android
    @keller 知识库求推荐方案 很多个人笔记和行业规范需要用
    guiyumin
        26
    guiyumin  
    OP
       1 月 4 日
    @rockyastor 这个可以
    gegewu0927
        27
    gegewu0927  
       1 月 4 日
    https://lazycat.cloud/ 有个组合拳
    312ybj
        28
    312ybj  
       1 月 4 日
    哈哈, 我研究过这个,想要 all in 1 挺难的。 但是如果做简单的还是可以的,比如相册归类,人脸聚类,这个下载开源的 clip 模型都能做,跑 cpu 就是了,模型量化下,内存加大点就能跑了,后台慢慢跑,性能消耗还行;要是 ASR 也行,本地 ASR 模型 + ffmpeg 转码 也能后台跑, 要是知识库,也行, 上一些大的向量模型也行。 基本上来说就是速度问题, 如果你能接受 n150 之类的 cpu 模型推理速度, 那就能上, 如果你自己加 GPU , 那当然是最好的,不然 nas 的低功耗 cpu 速度是真的慢
    SakuraYuki
        29
    SakuraYuki  
       1 月 4 日
    买块独显插上去呗,又不是没有 pcie 插槽
    DongFengPro
        30
    DongFengPro  
       1 月 4 日
    一看就知道楼主想买成品 nas ,自己组装不好吗,虽然现在硬件价格飙升就是了。装个 truenas 、unraid 之类的就行了,想复杂点就装个 pve 上去再装 nas 系统
    nexius
        31
    nexius  
       1 月 4 日
    请教一个问题:
    nexius
        32
    nexius  
       1 月 4 日
    请教一个问题:

    能否 nas 安装 Dify ,nas 充当一个知识库的角色,
    输入:
    文档-》分段与清洗-》 nas

    问答:
    ai 问答-》知识检索-》 LLM 服务器-》回答
    guiyumin
        33
    guiyumin  
    OP
       1 月 5 日
    @DongFengPro 我在做一个项目 https://vget.io

    有 cli 和 docker ,cli 里集成了 whisper 和 sherpa-onnx ,可以做语音转文字

    但 docker 就复杂了,因为 docker 要面对的是 windows ,linux ,和 macos

    macos 的 docker 是明确不能用 metal 的

    linux 和 windows 可以用宿主机的 gpu ,但需要一些配置

    然后我就了解到,大多数 nas 机器其实没有 gpu ,性能太差

    所以我就来问问

    现在大家的回复是,最靠谱就是用,如果真想用 gpu ,就不要用 nas ,而是单独配置一个机器带 gpu

    我觉得这是可行的
    aliipay
        34
    aliipay  
       1 月 10 日
    @guiyumin 绿联的 iDX 有 ai 对话、音频转文字、总结之类的功能
    关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   Solana   ·   1315 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 28ms · UTC 23:55 · PVG 07:55 · LAX 15:55 · JFK 18:55
    ♥ Do have faith in what you're doing.