V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX  ›  beginor  ›  全部回复第 5 页 / 共 115 页
回复总数  2289
1  2  3  4  5  6  7  8  9  10 ... 115  
108 天前
回复了 loganovo 创建的主题 MacBook Pro 2023 款的 MBP 入气孔在哪边?
架起来,吹 D 面,有一定效果
111 天前
回复了 maninfog 创建的主题 MacBook Pro MBP 2015 已经很难再战了
@hanierming 如果开声音太大的话,喇叭还会爆音。

净身装个 Ubuntu 还可以续命
深信服有 docker 版本, 不管是什么系统,都推荐安装 docker 版本。
https://github.com/docker-easyconnect/docker-easyconnect
113 天前
回复了 sevenyangcc 创建的主题 macOS mac 上有什么单机摸鱼的小游戏啊?
装个龙神,下载几个 switch 游戏吧
119 天前
回复了 azev 创建的主题 Node.js 打算学下 node.js,请问 nvm 是标配吗?
直接 pnpm ,node 版本管理,包管理, 工作区, 一个全搞定,
不错,挺好看的,就是这个小东西居然要占用 40+M 的内存, 希望楼主能优化一下内存占用。

https://imgur.com/a/PqCNfDF
主材是 0 ,辅材是 1 ,或者反过来,然后两者都是数组,有么?觉得 0 ,1 不爽,可以自己定义成符号或者常量,这么容易就脑溢血,不怕熬不到 35 就退休的年纪
@horizon 16g 还是线上吧,一般都要 32g 起步
没人关注 phi-3-vision 么?
@1055619878 当用不到 copilot 或者网络不顺畅或者不允许联网的私密网络的时候,就有意义了。 再说显卡闲着也是闲着,还不如用来提供点儿智能提示,就当打游戏了。
@shuimugan 我测试本地做 embeddings 非常慢, 所以就用了默认的 transformers.js 。 我觉得最重要的是 tabAutocompleteModel , 这个才是最能体验到的。
@HelixG 70b 不是个人电脑能跑起来的, 代码提示这个至少要每秒中 20 ~ 30 个 token 才好用。 而且就代码提示这个功能来说, 官方给的建议也是 13b 以下的模型就足够了。

另外 JetBrains 也开始内置基于 LLM 的整行提示功能, 据说专门训练的 1b 模型,但是效果特别好。
@lithiumii 本地跑 Gemma2 27b , 这配置相当不错!
@cinlen 我本地就是用 llama.cpp + starcoder2-3b-q5_k_m.gguf , 效果自我感觉还算可以。

另外,ollama 给的模型默认是 q4-0 量化版本,虽然可以一秒钟多几个 token , 但是质量明显不如 q5_k_m 量化版本的。
128 天前
回复了 ygweric 创建的主题 OpenAI "通义灵码"和"Github Copilot" 差距大吗?
这玩意儿也可以自己搭一个玩一下 https://www.v2ex.com/t/1057608
把模板做一个 git 仓库, 公共的和基础的都放在模板仓库里面, 需要的时候从这个模板仓库做为上游仓库。
Docker 在 Mac 上是虚拟机, 所以 Mac 上使用 127.0.0.1 作为代理地址是肯定不行的, 必须设置成 Mac 本机的内网 IP 地址才能使用。

或者使用 Proxifier 来设置代理规则也行。
但是很多补丁装完还是会提示重启的
是否升级,取决于有多少付费用户还在使用 win7 ,能带来多少收入。

如果有,旧版本又不是不能用,如果没有,为啥不升级呢?
1  2  3  4  5  6  7  8  9  10 ... 115  
关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   1908 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 50ms · UTC 16:19 · PVG 00:19 · LAX 08:19 · JFK 11:19
Developed with CodeLauncher
♥ Do have faith in what you're doing.