V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX  ›  GrayXu  ›  全部回复第 1 页 / 共 37 页
回复总数  739
1  2  3  4  5  6  7  8  9  10 ... 37  
14 小时 35 分钟前
回复了 darkings90 创建的主题 程序员 你们平时看博客吗?你们觉得哪个平台的博客质量最高
都博客了,直接自己维护个 rss list 吧,减少噪声
18 小时 7 分钟前
回复了 a7851578 创建的主题 信息安全 github 可以访问已删除 fork 信息
@cexll #1 你没改动哪来的新 commit hash 。再说没改动的话,也不存在需要保护的信息
试了一圈,国内地区大部分都是不可用的
这个还行 1 毛一条,但跑不跑路就不知道了
aff 链接如下
http://h5.yezi66.net:90/invite/1304063
2 天前
回复了 289396212 创建的主题 程序员 想买个 vr 头显,哪款性价比高呀?
如果需求只是 steam 串流,有啥推荐吗
2 天前
回复了 CNYoki 创建的主题 程序员 ollama 本地模型 GPU 跑不满
@CNYoki #2 就是后端问题,ollama 是依赖 llama.cpp 的吧,llama.cpp 只能模型并行,不能提升 token 速度。用 vllm 。
7 天前
回复了 GrayXu 创建的主题 问与答 求推荐一个轻量 RAG LLM chat 的部署方案
@zqqian #13
FastGPT ,感觉是满足功能需求的最轻的选择了。问题的话,还是存在一些小 bug ,然后看上去他们社区版维护的比较随意。
@wanwaneryide #22 +1 ,那么多大水管镜像站
猫扇猫扇猫扇 还是猫扇
@kangfenmao #41 感觉做 chatbot 前端产品已经很红海了,这种桌面端应该是和 chatall 一个生态位。chatall 现在还不能自定义 endpoint ,不能图片 langchain 等交互。加油
印象类似的产品不少吧,感觉速度都感人
11 天前
回复了 GrayXu 创建的主题 问与答 求推荐一个轻量 RAG LLM chat 的部署方案
@wm5d8b #11 12G 算上量化只能部署个 9B 的模型吧。只能说离“能用”还有很大距离
12 天前
回复了 GrayXu 创建的主题 问与答 求推荐一个轻量 RAG LLM chat 的部署方案
@echoless #6 你可以关注下 siliconflow ,最近上了 embedding ,后面会上 rerank 。
12 天前
回复了 GrayXu 创建的主题 问与答 求推荐一个轻量 RAG LLM chat 的部署方案
@echoless #6 有的是开源的,有的不是
12 天前
回复了 GrayXu 创建的主题 问与答 求推荐一个轻量 RAG LLM chat 的部署方案
@lixen9 #3 谢谢 试了一圈 fastgpt 确实是最好上手的。看了下小规模使用下,开源版本没啥问题,就是配置系统比较麻烦 XD
12 天前
回复了 GrayXu 创建的主题 问与答 求推荐一个轻量 RAG LLM chat 的部署方案
@mumbler #1 谢谢,这个方案看上去限制蛮多的,付费了也只有 8b 的模型。我们已经有 embedding, rerank, chat 的完整 api 服务了。
个人机器无所谓。
scale 到大型数据中心这个场景来讨论,内存错误就是常见的错误。
直接上数据,阿里云上二十五万台服务器在八个月时间里,有三万多台机器出现 CE 内存错误(七千万多次)。UE 导致的 failure 有三千多的工单。
@SlanWyf #10 没有那么多场景需要频繁改动 rules 的,vim is all u need
18 天前
回复了 dzdh 创建的主题 OpenAI 为什么有些中转平台定价比官网便宜那么多?
响应速度慢、支持不完整( func call 等)的一律是 chat2api 。
把这些筛掉就基本来到 6 元以上了。
1  2  3  4  5  6  7  8  9  10 ... 37  
关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   1537 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 36ms · UTC 00:01 · PVG 08:01 · LAX 17:01 · JFK 20:01
Developed with CodeLauncher
♥ Do have faith in what you're doing.