V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX  ›  beginor  ›  全部回复第 2 页 / 共 117 页
回复总数  2327
1  2  3  4  5  6  7  8  9  10 ... 117  
继续用 continue + 本地模型,现在是推荐的模型是 qwen 2.5 coder 1.5b
Proxifier 一直在用,没啥问题。 系统更新了,Proxifier 也要装新版本才行
要说 Jetbrains 系列的 IDE 对 SQL 的智能提示是无敌的,这个应该都赞同吧?

连接数据库之后, 不管是独立的 SQL 文件, 还是嵌入在其它语言的 SQL 语句, 都有非常棒的只能提示!
47 天前
回复了 Aimirr 创建的主题 MacBook Pro 关于 MacBook Pro 使用 VNC 远程的疑惑
别吹 ARD , 其实就是 VNC , 远程的话效果很差
50 天前
回复了 dilidilid 创建的主题 macOS MacOS Sequoia 支持把 photo library 放到 NAS 上了
OneDrive 路过
52 天前
回复了 moyuman 创建的主题 程序员 最“流畅”的终端模拟器是什么?
warp +1 , 目前支持 Linux + Mac , 不过官方说 Win 也在路上了。

在 JetBrains IDE 2024.3 中的“新终端” 就是复制了 warp
53 天前
回复了 Livid 创建的主题 Local LLM Llama 3.3 70B
如果用 LM Studio 运行 mlx 版本的 [Llama-3.3-70B-Instruct-4bit]( https://huggingface.co/mlx-community/Llama-3.3-70B-Instruct-4bit) 可以稍微快一点点,5.x tokens / 秒。
53 天前
回复了 Livid 创建的主题 Local LLM Llama 3.3 70B
M1 Max 64G 用户, 在 `/etc/sysctl.conf` 文件中添加选项 `iogpu.wired_limit_mb=57344` ,这样最多可以分配 56G 内存给显卡用。

用 llama.cpp 可以运行 `llama-3.3-70b-instruct.q4_k_m.gguf` ,不过要限制一下上下文大小,不然还是内存不够, 生成速度大概是 4 token / second 。

```
main: server is listening on http://127.0.0.1:8080 - starting the main loop
srv update_slots: all slots are idle
slot launch_slot_: id 0 | task 0 | processing task
slot update_slots: id 0 | task 0 | new prompt, n_ctx_slot = 4096, n_keep = 0, n_prompt_tokens = 26
slot update_slots: id 0 | task 0 | kv cache rm [0, end)
slot update_slots: id 0 | task 0 | prompt processing progress, n_past = 26, n_tokens = 26, progress = 1.000000
slot update_slots: id 0 | task 0 | prompt done, n_past = 26, n_tokens = 26
slot release: id 0 | task 0 | stop processing: n_past = 354, truncated = 0
slot print_timing: id 0 | task 0 |
prompt eval time = 2035.41 ms / 26 tokens ( 78.29 ms per token, 12.77 tokens per second)
eval time = 79112.92 ms / 329 tokens ( 240.46 ms per token, 4.16 tokens per second)
total time = 81148.33 ms / 355 tokens
srv update_slots: all slots are idle
request: POST /v1/chat/completions 127.0.0.1 200
```
怎么忘了这个,play cover 玩原神 , 还有好多 iOS 游戏
本地跑大模型 llama.cpp / ollama 或者 lmstudio , 绝对是颠覆性的体验
打开 copilot 也经常会出现类似的错误
.NET 的话可以单文件发布啊,自带运行时就没有这个问题了。 如果是 C++的话,可以编译为静态依赖库, 做成绿色版
anywhere3
14 的福克斯,现在才跑了不到 6W 公里,换啥车? 刹车片都没换过,每天上下班 5 公里
66 天前
回复了 qingshui33 创建的主题 Android 红米 K80 感觉配置是真的拉满啊
想换,但是手上的 K40S 还感觉不卡顿🤔
如果你自己都不懂的事情,就不要问 AI 。 个人认为, 现阶段 AI 给人类打辅助还是可以的,自己解决不了的问题,不要太指望问下 AI 就能解决。
不是说达摩院都没了么,还有藏经阁么?
存钱,准备买!
74 天前
回复了 Leon6868 创建的主题 程序员 现代化 SSH 客户端求推荐
M1 Max 感觉 tabby 太慢了, 装了 warp 正在玩
74 天前
回复了 Leon6868 创建的主题 程序员 现代化 SSH 客户端求推荐
@hucw21750 谢谢,我看看
1  2  3  4  5  6  7  8  9  10 ... 117  
关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   1930 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 33ms · UTC 10:00 · PVG 18:00 · LAX 02:00 · JFK 05:00
Developed with CodeLauncher
♥ Do have faith in what you're doing.