V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX  ›  cmos  ›  全部回复第 15 页 / 共 38 页
回复总数  746
1 ... 11  12  13  14  15  16  17  18  19  20 ... 38  
2024-01-15 18:01:06 +08:00
回复了 cmos 创建的主题 分享发现 讲个联想不会做电脑的故事,以防有人需要
@V28a19cc 23#
这也太离谱了,严重拖后腿
2024-01-15 15:35:54 +08:00
回复了 cmos 创建的主题 分享发现 讲个联想不会做电脑的故事,以防有人需要
@opengps 13#
@Vindroid 19#
联想的轻薄本会给三种不同的散热/性能:1. 低功耗,2. 动态调整,3. 往死里跑。轻办公的时候,肯定是调到低功耗。偶尔剪辑视频,就需要往死里跑,也就是导出视频的时候发现主频只有 3GHz 的。
2024-01-15 12:26:16 +08:00
回复了 cmos 创建的主题 分享发现 讲个联想不会做电脑的故事,以防有人需要
@jasonyang9 1#
我看了主板,这款和独显版本公用一套主板,独显版能压住 i9 13905H 和 100W 的 RTX 4060 ,所以散热应该是没问题的。大概率还是 Windows 和联想的某个预装软件一起导致了 bug ,从而限制 3G 主频。
2024-01-10 08:11:18 +08:00
回复了 bigbear2046 创建的主题 上海 找 LLM 或 AI 职业或业余玩家一起折腾个商业项目
最近几个月已经在 v2 看到很多次要自己做 llm 的,都不知道这是个劳动密集型产业吗?能给每个人拿出 8 张 a100 卡吗?能搞到足够多的法律文书吗?能找到律师给数据做 label 吗?技术细节多一点的:用什么架构?自己写 transformer 还是用 llama2 ?谁能判断 llm 输出的质量?
@sentinelK 19#
明白了,技术问题+团队管理+人在江湖
@DOLLOR 16#
感谢,明白了。原来还是江湖问题,我还以为是技术线路的纷争,就像当年微内核宏内核一样。
@cat 20#
看了,但是我不会前端,我只能理解到"它们是用来快速写出复杂网页"这个程度。
@bzw875 17#
完全赞同!干活就是为了赚钱的,不能赚钱的一律不想管。
@chengxy 5#
啊,那不就是纯属没事找事,自己人搞自己人。。。
@Frankcox 3#
是的,Python 也有很多,而且每个人和每个项目的喜好都不一样,但也没见到吵架啊。我以为 React 和 Vue 之流是更底层的东西,比如涉及到语言优化之类的。
@nitmali 1#
不理解 React 和 Vue 这些是什么。我以为是类似于 Python PIP 的包,只是这些包恰好都是用 JS 写网页的。
2024-01-04 16:06:19 +08:00
回复了 sixlione 创建的主题 程序员 请问各位 V 友,现在哪个部署本地的 LLM 比较好?
自己部署一个用用:
- 模型:Chinese-LLaMA-Alpaca-2
- 软件:llama.cpp
- 部署:用 13B 版本模型,q8_0 或 Q6_K 量化。显卡上面跑 10 层,剩下的内存跑,每秒大概 4-8 个 token ,足够日常体验使用了。

自己训练知识库:
我 4 张 V100 都不够用,普通公司就别想了。就算公司给钱去买,现在也不好搞到设备了。英伟达的高性能显卡被禁售,华为昇腾要排队。

https://i.imgur.com/H8ejoOI.jpeg
2023-12-29 18:58:25 +08:00
回复了 CoreRax 创建的主题 香港 普通人在香港 IT 行业工作的体验是怎么样的
香港只是中转站:普通人过来读水硕中转一下学历,投资和热钱中转一下身份,有钱人过来中转一下护照等大略如此。除了个别职业和特殊机遇,香港完全没有吸引力。
1. 居住环境很差,我住的 20 平米公寓,月租一万三以上。
2. 生活消费高。两个人下馆子,轻轻松松 400+,同等餐饮下,深圳不到这个价格的一半。
3. 医疗就算了,不谈了。自己多买点保险,实在不行就去深圳看病。
4. 职业与收入不匹配。由于没有第一和第二产业,导致医生和律师最香,竞争压力也最大。别的专业,就算上完大学也受限于产业,一路读到博士的不在此类。中位数收入属于有点钱,但是买不起车买不起房,只好出去玩玩买点奢侈品的状态。
4. 关于孩子上学的问题,如果是信了网上说的,孩子轻轻松松申请清北,还是死了那条心吧,内地普通公司不会愿意折腾手续特意雇一个香港的清北毕业生,香港本地也不缺名校背景的人。
5. 语言看你的行业,内地人多的、公众性的就可以不会说粤语,~~英语是用来吵架的~~。
总而言之,香港属于:如果在深圳一个月 2 万,到了香港就是 10 万的,那这就是机遇,一定不能放过。不然,就算收入翻一番到 4 万,也就那样,生活质量说不定还下降了。
陶片放逐法?历史证明这个方法的缺点太多了:投票要不要权重、权重比例应该怎样设置、如何确保不会被利用。现代国家都是用的以法而治类型的,取一个公约数,大家都遵守,这样更合理一些,也符合社会发展的需求。
2023-12-25 22:55:34 +08:00
回复了 KKLeon 创建的主题 美酒与美食 羊肉还有什么好吃的做法?
风干,然后做羊肉火锅。
@weijancc 1#
@jtacm 2#
楼主是 vs code 团队的,能直接和产品组交流问题。
2023-12-19 21:21:30 +08:00
回复了 ljx626 创建的主题 程序员 求教: 如何基于 LLM 构建一个代码协助助手?
@ljx626 2#
肯定是有效果的,但是最终质量极其依赖训练的数据量。粗略估计,即使精馏,也得有个 20G 数据才行得通。
2023-12-19 20:41:28 +08:00
回复了 ljx626 创建的主题 程序员 求教: 如何基于 LLM 构建一个代码协助助手?
导入整个项目进行提问(单个文件有现成的 copilot chat 和 codium chat ),需要使用基座模型进行训练和精调。无论是全量预训练或者使用 LoRA ,对于个人而言,都是不现实的:
1. 没有那么多的数据;
2. 硬件要求很高。
比如,llama2-13b 只训练 LoRA 参数,单卡显存要求大于 20G ;全量预训练没有四张 V100 以上的卡基本没法高效开展。实在想尝试,可以看看 Chinese-LLaMA-Alpaca-2 我记得有现成的脚本可以上手微调,光加个中文就用了 50K 词表和 100G 纯文本。
2023-12-18 17:16:56 +08:00
回复了 tangpanqing 创建的主题 程序员 要不要先买个域名?为了我那自动剪辑音频的小工具...
可惜 V 站没有私信功能,不然我肯定出一个绝妙的域名给你.jpg
1 ... 11  12  13  14  15  16  17  18  19  20 ... 38  
关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   Solana   ·   1084 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 39ms · UTC 17:52 · PVG 01:52 · LAX 10:52 · JFK 13:52
♥ Do have faith in what you're doing.