1
szxczyc 2023-05-01 19:45:52 +08:00 via iPhone
我也想实现这个功能,但是不想把数据放到网上,太敏感了
|
2
Aloento 2023-05-01 20:23:59 +08:00
|
3
neosfung 2023-05-01 23:30:25 +08:00 via Android
好巧,我最近基于清华的 chatglm 在做
|
4
QKgf555H87Fp0cth 2023-05-01 23:41:30 +08:00
看都看不懂,等日后再说吧
|
5
xupefei 2023-05-02 03:49:16 +08:00 via iPhone
|
6
ljlljl0 OP |
8
t41372 2023-05-02 10:47:58 +08:00
看不是很懂, 不过我知道有不少开源的语言模型, 像是上面有人提到的 OpenAssistant, chatGLM, dolly2, 以及 alpaca 模型和多模态的 miniGPT 。另外许多这些模型是基于 llama 模型进行调整的。我知道 llama.cpp 已经可以用 cpu 运算, 起码我的 m1 用 cpu 跑也很流畅, 好像也有人移植到手机上跑。其他模型我想可能还需要一点时间。感觉如果要学习资料夹中的本地数据, 感觉会用 fine-tuning, 也可以就直接把这些文档转换成文字, 然后再丢进 prompt 里面。我最近在看 langchain, 或许这玩意儿也会对你有帮助
|