本人目前使用 macbook pro 2021 m1 pro 芯片的 MacBook 。由于有深度学习的一些相关需要,主要是运行 pytorch ,目前虽然 pytorch 和 apple 有合作,同时也推出了 gpu 加速版本的 pytorch ,但是目前我个人使用下来,在很多代码上运行起来会有各种报错,mac 的 gpu 还是不能做到像 Nvidia 显卡那样仅仅直接改 gpu 名字就能训练。所以我想咨询一下各位,m1 芯片的 MacBook 可以可以通过外接 Nvidia 的显卡拓展坞的方式来让 pytorch 可以在 Nvidia 显卡上运行吗?
1
tianshilei1992 2022-11-06 21:53:45 +08:00 via iPhone
macOS 上面的 CUDA 支持都早就停止了…所以用 Mac 做这种类型的东西应该是不可能的…
|
2
Schwinger777 OP 感谢,那我还是继续租用服务器吧。
|
3
xylitolLin 2022-11-06 22:50:58 +08:00 1
m1 并不支持拓展坞
|
4
Takizawa 2022-11-06 23:44:37 +08:00 via Android
好巧,今晚心血来潮跑了个 vgg+mnist 的训练,10 个 epoch 花了 10 多分钟。cpu 飙到 90 度风扇 4500rpm 。简直了。唯一我觉得不错的地方就是这个转速下噪音还是很小。。。建议老老实实 rtx 显卡吧。
|
5
findex 2022-11-07 06:04:30 +08:00
m1 不支持显卡扩展坞。一开始就说了。虽然 nvidia 有 arm64 linux 的驱动。
我的 m1 8 核心 GPU 跑不过谷歌免费的训练 GPU 。所以,要这个搞机器学习有何用。上多 GPU 核心的 M1 Pro/Max 也许快一些。 我也发现用 pytorch 的时候选择 GPU 并不是改 GPU 名字就行了。弄了半天,变成帮苹果改代码了。太耗费精力了。 @Takizawa 话说,你们都用什么显卡跑啊? |
6
jianzhao123 2022-11-07 08:41:53 +08:00 via iPhone
@findex 貌似是 apple 给 pytorch 捐钱了?我昨天跑一下简化的 Alexnet ,M1 Pro 是真的慢,不知道后续再优化优化会不会好点
|
8
findex 2022-11-08 03:51:47 +08:00
@Takizawa
> d2l.torch.device('mps') 也只是把 'cpu' 换成了 ‘mps’ 其他不知苹果在暗箱底下干了啥。 @jianzhao123 关键是 pytorch 目前只能使用 m 芯片的 gpu 核心,16 核心的机器学习核心没有用,必须要用苹果的机器学习模型才行,也就是苹果的 sdk 才能调用。pytorch 用不到这 16 颗核心。 |
9
Takizawa 2022-11-08 08:59:59 +08:00 via Android
@findex 你可以在训练的时候看到 gpu 是拉满了的,cpu 也没闲着。但是 npu 看不到,未来还是有机会加进去的。
|
10
jianzhao123 2022-11-08 09:33:51 +08:00 via iPhone
@findex GPU 确实占满了,怪不得,忘了还有 NPU 没用上😭
|