V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
父节点
42
相关节点
 显示 37 个更多的相关节点
localllm
V2EX  ›  Local LLM
主题总数 239 RSS
这个节点讨论在本地电脑或者局域网里运行 LLM(大语言模型)的技术细节
1  2  3  4  5  6  7  8  9  10 ... 12  
guoguobaba mac studio 跑大模型也就那样啊
guoguobaba  •  2025 年 5 月 19 日  •  最后回复来自 fredweili
26
idblife 有没有能 mac 上直接跑的多语言翻译 LLM?
idblife  •  2025 年 5 月 31 日  •  最后回复来自 mili100
4
coefu llama.cpp/ollama 对于类似 vllm tensor parallel 功能的支持。
coefu  •  2025 年 10 月 29 日  •  最后回复来自 coefu
6
afkool 英语文本音频按句自动对齐的有推荐的吗?
afkool  •  2025 年 5 月 8 日  •  最后回复来自 barnetime
8
kid1412621 本地 llm client
kid1412621  •  2025 年 4 月 18 日  •  最后回复来自 kid1412621
5
Woolaman 公司要搭建本地大模型,推荐配置。
Woolaman  •  2025 年 4 月 18 日  •  最后回复来自 coefuqin
10
kisshere 跑 AI 大模型,到底是用 4090 魔改版好还是 Mac studio 好?
kisshere  •  2025 年 4 月 15 日  •  最后回复来自 egen
9
frankyzf 使用 dify 时代码如何管理?
frankyzf  •  2025 年 8 月 1 日  •  最后回复来自 ericguo
8
limatrix81 想自己上手跑跑 LLM 大模型,求推荐显卡和主机配置
limatrix81  •  2025 年 4 月 8 日  •  最后回复来自 coefuqin
28
paranoiagu 本地 llama.cpp 和 ollama 跑 相同 模型,效果不一样
paranoiagu  •  2025 年 4 月 7 日  •  最后回复来自 tool3d
7
BruceXu 打算用 AI 来做企业知识库,最佳的组合是什么?
BruceXu  •  2025 年 9 月 12 日  •  最后回复来自 GavinY
20
NoahBishop 单卡 2080ti 22gb 装机其他怎么配啊
NoahBishop  •  2025 年 4 月 3 日  •  最后回复来自 NoahBishop
8
fcten 本地 AI 工作站装机
fcten  •  2025 年 4 月 2 日  •  最后回复来自 coefuqin
17
nl101531 mcp 支持力度探讨
nl101531  •  2025 年 3 月 31 日  •  最后回复来自 nl101531
4
MimicOctopus 请教模型部署和管理的问题
MimicOctopus  •  2025 年 3 月 29 日  •  最后回复来自 Legman
4
crac ubuntu + 双 N 卡 本地部署 DS-R1,性能优化请教
crac  •  2025 年 4 月 1 日  •  最后回复来自 crac
6
1  2  3  4  5  6  7  8  9  10 ... 12  
第 81 到 100 / 共 239 个主题
266 人收藏了这个节点
关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   Solana   ·   2914 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 35ms · UTC 02:42 · PVG 10:42 · LAX 19:42 · JFK 22:42
♥ Do have faith in what you're doing.