V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX  ›  beginor  ›  全部回复第 11 页 / 共 120 页
回复总数  2387
1 ... 7  8  9  10  11  12  13  14  15  16 ... 120  
2024-06-25 21:30:38 +08:00
回复了 PepperEgg 创建的主题 macOS macOS 如何通过命令行获取内存使用率
M 芯片的话可以试试 asitop

brew install asitop 或者 pip install asitop
2024-06-18 20:05:15 +08:00
回复了 gcl123 创建的主题 MacBook Pro 新 mbp 掉漆也太快了
银色,一直套黑色的外壳用,不过外壳的角已经有裂痕了,不知道机器本体咋样
听说隔壁家的 VMware 零折,一般人我不告诉他的。 🤭
2024-06-16 14:31:54 +08:00
回复了 talus 创建的主题 Apple Mac 能耗
brew install asitop 或者 pip install asitop
2024-06-16 14:30:04 +08:00
回复了 fengyouming 创建的主题 Apple mac studio 折抵 价格太低了吧。。。。。
不如成立一个拍卖区吧,价高着得。拍下来不买的封号!
2024-06-12 23:35:15 +08:00
回复了 kvibert1 创建的主题 Linux 统信 UOS 桌面软件用什么工具开发?
会 WPF 的话可以考虑 Avalonia ,跟 WPF 差不多的很容易上手。 而且已经有著名跨平台应用 Ryujinx 龙神模拟器,可以说是大名鼎鼎了。

不过就是第三方生态差点儿,没有成套的 UI 控件包(比如 Dev Extreme )等。
2024-06-05 15:10:57 +08:00
回复了 waino 创建的主题 MacBook Pro 升级 m2 的内存稳定吗?
64G 的 M1 Max 也要将显存调整到 56G 才勉强跑的起来 70b 参数的模型, 一秒钟大概一个 token ,还是老老实实跑 32b 左右的模型吧, 一秒钟 2~3 个 token ,自己玩一下还可以。

折腾 70b 以上的纯属虐待自己的 Mac 。
2024-06-02 12:11:55 +08:00
回复了 justincnn 创建的主题 macOS [help] 安卓手机的屏幕有办法投影到 mac 电脑么?
再来一个带界面的 [QtScrcpy]( https://github.com/barry-ran/QtScrcpy)
2024-06-01 14:02:43 +08:00
回复了 movq 创建的主题 Apple 现在买 mac 是不是 49 年入国军?要不要等 M4 系列?
但是目前的 npu 在本地跑 ai 大模型时是用不上的,不管是 pytorch 还是 mlx ,还是 llama.cpp
2024-05-31 07:06:28 +08:00
回复了 rookiemaster 创建的主题 Node.js 为什么浏览器环境的 js 无法调用 node_module 下的 axios 库
可以配置一个 [importmap]( https://developer.mozilla.org/en-US/docs/Web/HTML/Element/script/type/importmap) ,让浏览器知道你所需要的第三方库在哪里。

顺便晒一篇我的笔记 https://beginor.github.io/2021/08/16/using-es-modules-in-borwser-with-importmaps.html
2024-05-31 06:56:40 +08:00
回复了 Kathy1989 创建的主题 职场话题 技术团队,多快好省,是个伪命题吧,很多老板沉迷于此
你当老板的话,你也会这样想的
2024-05-28 07:24:49 +08:00
回复了 dog82 创建的主题 程序员 没人说前两天的软考吗?
毕业前就考过了网络工程师的路过,转眼 20 年了,一次也没用到过 😭
2024-05-27 23:23:35 +08:00
回复了 wsbqdyhm 创建的主题 macOS m1max64g+2t 目前在跑的三个模型,还有其他推荐吗?
@yjhatfdu2 现在 llama.cpp 默认转出来的 gguf 就是 f32 , 以前是 f16 。
2024-05-27 13:10:18 +08:00
回复了 wsbqdyhm 创建的主题 macOS m1max64g+2t 目前在跑的三个模型,还有其他推荐吗?
@wsbqdyhm 不好意思, 我搞错了,ollama 也提供了[各种量化版本的 llama-3 模型]( https://ollama.com/library/llama3/tags),q5_k_m 量化版本是这个 https://ollama.com/library/llama3:70b-instruct-q5_K_M , 你可以拉下来看看还能不能跑起来
2024-05-27 10:40:17 +08:00
回复了 wsbqdyhm 创建的主题 macOS m1max64g+2t 目前在跑的三个模型,还有其他推荐吗?
@wsbqdyhm ollama 只提供了 q4_0 版本的 [llama3]( https://ollama.com/library/llama3), 这个和原始模型相比,损失比较多,不推荐。

可以从 huggingface 直接下载 [meta/llama-3]( https://huggingface.co/meta-llama/Meta-Llama-3-70B-Instruct) 的原始模型,自己量化, 也可以下载 [已经转换好的 gguf 文件]( https://huggingface.co/MaziyarPanahi/Meta-Llama-3-70B-Instruct-GGUF)

一般推荐 q5_k_m 或 q4_k_m 版本的量化模型, 接近原始模型,如果配置够的话, 更建议运行 f16 版本模型 。

依据自己电脑的配置, 建议的优先级是:f32 > f16 > q5_k_m > q4_k_m > others .

另外我不玩 ollama ,ollama 虽然简单, 却隐藏了很多细节。 我玩的是 llama.cpp , 可以体会到更多的技术细节。

模型需要的内存大小大概就是模型文件的大小,量内存大小而行。64G 的 M1 Max 最多能分出 48G 内存来跑模型, 当然其它应用还要占用一些内存, 所以只能勉强运行 q4_k_m 的 70b 模型。
@kenvix 也有影响的,70b 的话 q5_k_m 跑不动, 提示超内存,q4_k_m 勉强能跑起来
2024-05-26 21:20:04 +08:00
回复了 wsbqdyhm 创建的主题 macOS m1max64g+2t 目前在跑的三个模型,还有其他推荐吗?
64G 跑 70b 的 llama3 ,应该是 q4_k_m 量化版本的吧,我跑 q5_k_m 版本的会报错的?
确实,13b 以下的都只能称之为小模型,用于学习其原理或者娱乐一下还可以。

真正能用的得 30b 以上的模型,最好是非量化版本的,然而 30b 以上的模型又不是一般电脑能跑得动的。
1 ... 7  8  9  10  11  12  13  14  15  16 ... 120  
关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   2537 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 37ms · UTC 10:53 · PVG 18:53 · LAX 03:53 · JFK 06:53
Developed with CodeLauncher
♥ Do have faith in what you're doing.