
![]() |
对 Llama-3-8B 模型在指令跟随方面的测试。 smalltong02 • 317 天前 • 最后回复来自 qinfengge | 16 |
![]() |
electron 有没有办法集成开源 AI 模型? superliwei • 318 天前 • 最后回复来自 jones2000 | 19 |
![]() |
目前最快的模型, 微软 Phi-3 zsxzy • 321 天前 • 最后回复来自 xudong | 2 |
感谢巨硬, Phi-3 Mini 让我八年前的破笔记本也能玩本地大模型翻译了 iX8NEGGn • 321 天前 • 最后回复来自 SuperMaxine | 13 |
有啥好的开源分类工具或者模型供学习? kite16x • 322 天前 • 最后回复来自 kite16x | 4 |
![]() |
想离线运行下大模型玩玩,现在还能搞到 4090 么? sunfly • 337 天前 • 最后回复来自 doruison | 29 |
![]() |
想本地部署 AI 大模型,主要用于 AI 问答聊天,电脑配置需要什么样的,总预算 1w5 以内 dary141229 • 340 天前 • 最后回复来自 Motorola3 | 2 |
![]() |
假设有一批客户对话记录,怎么能用 AI 训练出来客服机器人? JohnChang • 341 天前 • 最后回复来自 mmdsun | 8 |
![]() |
Ollama 运行 Llama2 大模型,怎么友好的支持中文 xiaohupro • 233 天前 • 最后回复来自 kangfenmao | 13 |
离线大模型有支持文档翻译的吗 gtese • 344 天前 • 最后回复来自 MapleEve | 9 |
![]() |
Mac 上有哪些适合本地运行的 llm 呢 sheller • 346 天前 • 最后回复来自 sheller | 4 |
想用手头的硬件最低成本尝试下本地 LLM 推理,请教一下方案 avalox • 348 天前 • 最后回复来自 GeekGao | 15 |
Air M3 24G 能不能跑不量化的 7B 本地大模型推理? CatCode • 350 天前 • 最后回复来自 ozOGen | 14 |
推荐各位利用 ollama 在自有电脑上跑大模型,使用非常方便 keepRun • 238 天前 • 最后回复来自 kangfenmao | 24 |
![]() |
求推荐开源 AI 模型 balabalaguguji • 361 天前 • 最后回复来自 weixind | 11 |
![]() |
在 2024 年 3 月这个时间节点,有哪些可以开箱即用私有化部署的 gpt 大模型可以使用?内网部署仅对投喂导入的资料做回答这种? retrocode • 2024-03-13 08:52:26 +08:00 • 最后回复来自 retrocode | 2 |
有没有现成的 chrome 插件,能使用 gpt 一键翻译网页内容。 longchisihai • 333 天前 • 最后回复来自 sola97 | 40 |
![]() |
gemma:2b 这个模型想要流畅运行起来需要什么配置的电脑 abcfreedom • 2024-03-07 10:19:29 +08:00 • 最后回复来自 abcfreedom | 30 |
![]() |
如何系统的深入 LLM?求资源 lemoon • 2024-02-29 11:39:16 +08:00 • 最后回复来自 Morriaty | 12 |
7B 大模型不量化, 16G 显存就差那么一点儿,难道消费级显卡只有 90 系能跑? CatCode • 2024-03-05 16:55:47 +08:00 • 最后回复来自 basncy | 6 |