V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX  ›  beginor  ›  全部回复第 4 页 / 共 115 页
回复总数  2289
1  2  3  4  5  6  7  8  9  10 ... 115  
64 天前
回复了 jdjingdian 创建的主题 Apple Intel mac 目前是否还有用武之地?欢迎建议
64G 内存, 净身装 Ubuntu/Windows ,再战 8 年都不是问题。
64 天前
回复了 Ayanokouji 创建的主题 程序员 JDK 23 发布了
有没有 jdk6 继续苟活的?
64 天前
回复了 twinsant 创建的主题 Python 中年高龄开始学习 Deep Learning
那些动不动就说自己高龄的,现在刚退休的都说自己是低龄老人,怎么比呀?
66 天前
回复了 1039460820 创建的主题 MacBook Pro 要等 m4 mbp 吗
@1039460820 便携显示器有 15 寸 oled ,但是只有 60Hz , 没高刷。15 寸 oled 便携平就那几款, 可以选择的不多。
66 天前
回复了 HeyCaptainJack 创建的主题 程序员 有地图大佬吗,帮忙想一下方案?
@HeyCaptainJack 可以在中间加一个 AI 翻译,一键翻译成客户需要的语言
69 天前
回复了 ABCDiSDR 创建的主题 小米 千万不要买小米,再便宜也别买
红米 K40S ,刚出就买了,一直用,没啥毛病,运气好。
70 天前
回复了 HeyCaptainJack 创建的主题 程序员 有地图大佬吗,帮忙想一下方案?
国内为啥不直接用高德呢?

mapbox 的优势是矢量地图, 如果自己没有空间基础数据就没啥优势了。

另外听说有个叫 bigmap 的软件(需付费), 可以下载高德的地图数据,再自己处理成空间数据给 mapbox 用,比较折腾。
70 天前
回复了 weiqk 创建的主题 Python 这几天被 Python 搞得快崩溃了
我 ts/c# 用得多, 觉得 Python 有两个不爽的地方:

1. 变量不用预先声明, 经常会出现不知道变量开始出现的;
2. lambda 表达式只能一行,不能多行;

另外,其实 Python 的行尾可以加分号的,虽然大家基本上都不写分号,如果需要的话也可以强制加分号。
74 天前
回复了 toury 创建的主题 MacBook 请问下 intel macbook 装 Linux 怎么样
@aisk 24 目前不太稳定,22 比较稳,当然你愿意折腾也行。
74 天前
回复了 toury 创建的主题 MacBook 请问下 intel macbook 装 Linux 怎么样
不舍得出二手的话可以试试装 Ubuntu 22.04 ,开箱可用,效果还可以。

不过 18 款 MBP 应该是 7 代双核 CPU , 性能一般, 建议考虑出二手或者送人。
76 天前
回复了 wangyzj 创建的主题 前端开发 2024 年前端框架怎么选?
建议试试 angular ,谁用谁知道,不要总是局限于 vue ,更不要把 vue 和中国宝宝挂钩
@Feedmo continue 代码提示用 starcoder2-3b 即可, 问答应 llama3.1-8b , 其实代码提示不需要太大的模型, 主要看显卡
用 continue + 本地大模型吧,也挺舒服的。
95 天前
回复了 Ynna 创建的主题 macOS 旧电脑新用
以前的苹果很开放, 性价比也不错。

手上有台 2011 年末的 iMac , 装了 4 条 8G 内存, 换了 SATA 的固态盘, 现在还在用。

上一台笔记本是 2015 年的 13 寸 MBP (16+256) , 当是能上 16G 内存的笔记本只有索尼和三星, 都要 2W+, 而苹果只要 1W 出头, 屏幕还是 2560x1600 算是性价比无敌了。
散热不是问题,但是感觉这电视柜承重堪忧,电视机+下面一大堆电器,过段时间肯定会下驼变形 🫠 建议下面在加两个木条做物理支撑
@skyqiao 关注一下 llama.cpp 的这个议题 https://github.com/ggerganov/llama.cpp/issues/8913
@skyqiao Intel 的 Mac 应该没什么好的加速办法, 只能用 CPU 。 除非你装 Linux 或者 Windows , 还可以折腾下 vulkan 加速, 会比 CPU 快一些, 但是效果肯定不如 CUDA/ROCm/M1 。
@skyqiao 那怎么啦, 手上还有台双 CPU+96G 内存的服务器,没显卡加速的情况下, 也跑不过 M1Max 😂
ollama 底层也是调用 llama.cpp ,默认应该是没有显卡加速的, 打开 Activities 的 GPU 历史和 CPU 历史窗口看一下就知道了。

如果从源代码编译 llama.cpp 的话,可以自己看文档调参数看能不能启用 vulkan 或者 sycl 啥的。

CUDA 和 ROCm 都不支持 Mac ,所以肯定没有专用的硬件加速。
@skyqiao Intel 的应该是没有显卡加速的,llama.cpp 对 Mac 的优化仅限于 M 芯片系列,Intel 版本还是线上吧
1  2  3  4  5  6  7  8  9  10 ... 115  
关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   1581 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 42ms · UTC 17:00 · PVG 01:00 · LAX 09:00 · JFK 12:00
Developed with CodeLauncher
♥ Do have faith in what you're doing.