V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX  ›  musi  ›  全部回复第 1 页 / 共 121 页
回复总数  2412
1  2  3  4  5  6  7  8  9  10 ... 121  
我一直认为使用 AI 代指 LLM 是个错误的方式,这会使人们看不到 LLM 的问题
@YUCOAT 没吃到上门安装的红利,打算最近看看有没有上门卸载的
每家每户都会做菜有影响到外面饭店的生意吗?
2 月 19 日
回复了 YanSeven 创建的主题 职场话题 26 年研发环境预测,更累?
不用预测,看这个

/t/1192730
2 月 6 日
回复了 SoraKasugano 创建的主题 程序员 GLM PRO 套餐疑问
不如先买 chatgpt 用着,对中国用户比 claude 友好,5.3-codex 能力不比 claude 差,现在还双倍用量
APP 点奶茶 = 牛逼???
2 月 2 日
回复了 cloudnb 创建的主题 程序员 一月 GLM Coding Pro Token 消耗六个亿
@cloudnb 我这是 lite ,周五晚上升的 pro
2 月 2 日
回复了 cloudnb 创建的主题 程序员 一月 GLM Coding Pro Token 消耗六个亿
https://i.v2ex.co/XjZeyd01l.png

也就我一周用量
op 是不是没听过“我在 B 站读大学”这句话
别小瞧了 B 站一些教学视频的质量,有些理论知识视频讲的比一些大学教的好多了
1 月 29 日
回复了 ion1ze 创建的主题 ☕Vibe Coding🤖 VibeCoding 前后端应该放一个仓库吗
如果不放一个仓库会给你 vibe coding 带来什么问题吗?
@darksword21 #33 我在一年前也是按照他那么想的,直到我自己试了一下本地部署 32b 模型,连任务分发都做不好,我对用本地小模型能保护隐私这种说辞就没有任何期待了,或许以后能有这种模型也说不定
@chason0806 语音识别和语音合成这类模型确实不太一样,豆包输入法的本地的模型只占用几百 MB 空间识别率就非常高


但是你有点低估了这类 agent 所需要的模型能力,不管是任务难度分析也好,还是直接处理也好,都对模型的能力有要求,或许以后真的有个小模型可以分辩出哪些任务需要给云端处理,哪些任务可以打码后给云端处理,哪些任务宁愿不处理也不能把用户的数据发给云端
@chason0806 本地模型也得有足够的能力才能判断什么任务本地处理就够了什么任务必须得用云端的模型。

我好奇的是你现在本地模型用在什么场景上
@chason0806 ok ,你觉得对也是对
希望以后真的能看到小模型打所有场景
@chason0806 你说我杠,那你倒是说你现在用的是几 B 的模型在写代码?

我确实没用小模型,以后也不打算把小模型用在这种通用场景
@chason0806 本地模型?你家是有矿吗可以让你部署 SOTA 模型只是为了自用?不然就 7B 32B 这类模型能有啥想象力?想象一下 AI 给你一行代码写出来三个 bug 吗?
有没有可能,人只是为了出自己手里的二手 macmini
1  2  3  4  5  6  7  8  9  10 ... 121  
关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   Solana   ·   3148 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 37ms · UTC 15:05 · PVG 23:05 · LAX 08:05 · JFK 11:05
♥ Do have faith in what you're doing.