1
qping 2023-12-29 09:03:20 +08:00
没说要什么样的机器,但是说了 Supported OSes and CPUs 和 GPU support
https://github.com/Mozilla-Ocho/llamafile 要不你下了试试? |
2
godmiracle 2023-12-29 09:09:40 +08:00
我用 m1 就能跑起来。x86 的好像不行,没跑成功
|
3
qping 2023-12-29 09:19:58 +08:00
amd 7950x 可以跑,还挺顺畅的
有意思 |
5
bfdh 2023-12-29 09:59:44 +08:00
i7-12700 Linux 可以跑
|
6
Seanfuck 2023-12-29 10:15:09 +08:00
貌似是可以直接运行的文件:
AMD64 微处理器必须具有 SSSE3 。否则 llamafile 将打印一个错误并拒绝运行。这意味着,如果你有一个英特尔 CPU ,它需要是英特尔酷睿或更高版本(大约 2006 年以上),如果你有一个 AMD CPU ,那么它需要是推土机或更高版本(大约 2011 年以上)。如果你有一个较新的 AVX CPU ,或者更好的 AVX2 ,那么 llamafile 将利用你的芯片组特性去更快。目前还不支持 AVX512+运行时调度。 话说支持中文吗? |
7
weilongs 2023-12-29 10:42:43 +08:00
两周前看到这个跑过一下,我用的 MacBook pro 2019 款哪个 intel 的本子跑了一下,提出一个问题风扇就起飞了。体验感觉还不错,我体验了 LLaVA 1.5 和 Mistral 7b 。
|
8
jifengg 2023-12-29 10:52:24 +08:00
有意思,去体验一下
|
9
titan2022 2023-12-29 10:58:04 +08:00
4800H 也能跑,速度不算快 有中文
|
10
paopjian 2023-12-29 12:44:21 +08:00
用默认模型跑起来崩溃,用 Mistral 试了试,真不错啊,速度也有
|
12
zsh2517 2023-12-29 14:08:17 +08:00
NAS 上下完了一个模型,先试了试,可能 D1851 太老了,而且这种活可能本来也不适合 CPU 跑。速度感觉一般,而且没有 stream 模式。晚上拿台式机试试
--- 对话截图 => ![]( https://s2.loli.net/2023/12/29/vFrw1DkhxbVc4m8.png) 控制台截图 => ![]( https://s2.loli.net/2023/12/29/yCoOD8TmZgkfIeG.png) 宿主环境 D-1581 32 核 64G ,pve LXC 容器 运行参数 ./llava-v1.5-7b-q4-server.llamafile --host 0.0.0.0 --port 1234 --threads 32 |
14
elonlo 2023-12-29 14:41:21 +08:00
我 windows 都跑起来了。i5-13500H
|
15
NoOneNoBody 2023-12-29 14:44:54 +08:00
|
16
Rache1 2023-12-29 15:50:49 +08:00
速度还行,就是不知道为啥,有时候会卡住 😂
|
17
iold 2023-12-29 16:15:24 +08:00
|