V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX  ›  mumbler  ›  全部回复第 23 页 / 共 107 页
回复总数  2134
1 ... 19  20  21  22  23  24  25  26  27  28 ... 107  
@tailaqumos #5 可以全部提供,包括 AI ,知识库,向量索引的 api ,我们正在做一个框架,方便启动 api 开发的应用
云端 AI 翻译长文档都比较贵,要几十到几百不等
可以用本地大模型翻译,gemma2 9B 翻译效果非常好,下载一个 flashai 就可以了,自带本地大模型和文档翻译功能,开箱即用
flashai.com.cn
@iorilu #2 一个包一个模型,需要哪个启动哪个,这个设计是为了做到开箱即用,否则还涉及到下载模型操作,其实 r 软件不大,模型大小占包 90%以上
@creazyrabbit #1 gamme2 9B 翻译超强,比 qwen2,llama3 都强得多,跟 deepl 没有肉眼区别
158 天前
回复了 aolifu 创建的主题 奇思妙想 想搞一个共享卫生间,一起聊聊?
抄袭滴滴拉屎的创意
用大模型写代码,可以在只懂 PHP 基础的情况下快速写出来,小项目一下午就能搞定
161 天前
回复了 SlanWyf 创建的主题 VMware 13500H 可以流畅使用 vmware 中的 win10 吗
看看宿主机空闲内存是否足够,如果动用了虚拟内存就会慢,一般 16G 机器,空闲内存就 5G 左右,如果开了很多浏览器页面,那就更少了
@shinsekai #46 可能是象形文字读取是图像思维,不走发音系统,弹幕就只有中日可以
只能是中文小说,可以一目十行,英文就算母语者也做不到,所以弹幕只能在象形文字母语者里流行
165 天前
回复了 libasten 创建的主题 问与答 现在新组装的机器,是无脑装 win11 了吗?
win10 2025 年就要退役了,win11 早就成熟了
做小工具最适合的是 delphi ,能编译一个几 M 的独立.exe 或者.app ,不依赖环境运行
166 天前
回复了 Nostalghia 创建的主题 OpenAI 有人试过用大模型翻译长篇英文书吗?
可以用 Flash AI 一键部署本地大模型,提供专门的长文档翻译功能,支持无限长度,专用工作流一段段的翻,稳定可靠,推荐 gemma2 9B 模型(需 6G 显存或内存),最好用 GPU ,如果用 CPU 也可用,但可能会比较慢

https://flashai.com.cn/t
167 天前
回复了 GrayXu 创建的主题 问与答 求推荐一个轻量 RAG LLM chat 的部署方案
个人用吗,可以试试 flashai.com.cn 的云端版,开箱即用,支持 mac 和 win ,本地知识库+本地向量化,另外还有带本地大模型版本
167 天前
回复了 Unboundwill 创建的主题 分享创造 PDF 转 Word(AI 加强版)
自己搭了个 nougat 吧,速度怎么样
1 ... 19  20  21  22  23  24  25  26  27  28 ... 107  
关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   977 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 36ms · UTC 23:10 · PVG 07:10 · LAX 15:10 · JFK 18:10
Developed with CodeLauncher
♥ Do have faith in what you're doing.