V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX  ›  siriussilen  ›  全部回复第 3 页 / 共 20 页
回复总数  391
1  2  3  4  5  6  7  8  9  10 ... 20  
2024-02-26 15:56:46 +08:00
回复了 shakespark 创建的主题 宽带症候群 北京联通海外宽带加速(9929)体验
@shakespark 我开了三个月,还是退订了(我办理的是 9929+固定公网 ip 的)价格太贵,另一方面梯子完全可以没问题,而且梯子成本更低,我就不折腾了
2024-02-26 11:38:10 +08:00
回复了 PatrickLe 创建的主题 投资 有港卡怎么开 futu 呢?被存量投资者证明卡住了啊
用 IBKR 呗,利率低
2024-02-26 09:47:54 +08:00
回复了 shakespark 创建的主题 宽带症候群 北京联通海外宽带加速(9929)体验
@playingangel “我是开了 9929 跑的,1000 可以跑满,前两天下载 mac 上一个 70 多 g 的游戏测试的”
有确定流量走了 9929 吗?
2024-02-25 19:48:54 +08:00
回复了 shakespark 创建的主题 宽带症候群 北京联通海外宽带加速(9929)体验
@shakespark 我的是 2000M ,但是只能跑 300 ,是不是可以联通投诉一波啊,就说网速不达标
2024-02-25 19:48:15 +08:00
回复了 shakespark 创建的主题 宽带症候群 北京联通海外宽带加速(9929)体验
@shakespark 我说错了,是 300 左右,330
2024-02-25 19:12:23 +08:00
回复了 shakespark 创建的主题 宽带症候群 北京联通海外宽带加速(9929)体验
@playingangel 真的测过吗? 坐标朝阳,warp 最多只能跑 230M ,怀疑局端有限速模版
2024-02-25 19:10:30 +08:00
回复了 shakespark 创建的主题 宽带症候群 北京联通海外宽带加速(9929)体验
“9929 的带宽是和原有带宽一致的,即原有家宽千兆上行百兆,则测速 9929 到海外也是这么高(没有千兆海外机器,但是至少不是之前有人说的 200m ),这就有点牛了”
其实应该看的是 vps 的下行,和家宽上行没关系啊,如果看的话,能测出来 speedtest 只有 230M
2024-02-25 11:47:41 +08:00
回复了 412999826 创建的主题 Apple 看“再次感叹 airdrop 的黑科技”的帖子有感
同意很多人只是喜欢输出自己的情绪而已,并不是真正讨论问题
2024-02-23 14:18:07 +08:00
回复了 lmx07 创建的主题 阅读 学习批判性思维看什么书?
@ooee2016 独立思考和核心就是批判性思维吧
2024-02-23 13:45:49 +08:00
回复了 Jinnrry 创建的主题 Local LLM Google Gemma 开源没人讨论下吗?
@keepRun gpt3.5 是 20B 的模型……
2024-02-23 13:41:49 +08:00
回复了 Jinnrry 创建的主题 Local LLM Google Gemma 开源没人讨论下吗?
中文社区讨论大部分都在知乎上
2024-01-30 10:09:36 +08:00
回复了 onikage 创建的主题 问与答 ai 训练(非大模型)现在可以用 cpu 跑吗?
可以,就是慢了点
2024-01-29 14:49:07 +08:00
回复了 xitucheng 创建的主题 宽带症候群 北京的运营商可以申请固定的公网 IP 吗
@TXisfine 还能备案?????
2024-01-29 14:34:21 +08:00
回复了 TESTFLIGHT2021 创建的主题 宽带症候群 北京联通 AS9929 谁测试过?
用上了 限速 200M ,speedtest 最多能跑 230M
2024-01-20 22:10:40 +08:00
回复了 yuyue001 创建的主题 Local LLM 有人(个人)自己使用开源的 LLM 大模型吗?
@Azure99 看错了,5.98 是某个单项的。不是总分,如果只看这两个评测结果来看的话,确实感觉这批数据的效果还不错,不过我感觉还是说不清这个收益的提升是因为你的数据多样性、高质量带来的,还是因为引入中文语料的所带来提升,感觉再补充更多的评测证明工作的有效性会更好一点,已 star
2024-01-20 21:56:32 +08:00
回复了 yuyue001 创建的主题 Local LLM 有人(个人)自己使用开源的 LLM 大模型吗?
@Azure99 求解释下上面的信息👆
2024-01-20 21:55:37 +08:00
回复了 yuyue001 创建的主题 Local LLM 有人(个人)自己使用开源的 LLM 大模型吗?
是这样,我们都知道 sft 的时候需要保证样本的多样性以及使用高质量的样本是吧,以及你在上面也提到了现有的大部分 sft 工作就是把 chatgpt 或者人类编写的高质量回复作为一个 teacher 模型来指导相对小模型的学习。Orca 的意义在于给你了一种看似还不错的数据加工方法,让你能够在某一批通用数据的基础上使用这种方式组织样本后能够最大限度发挥 teacher 的能力,通过 sft 的方式迁移到小模型上还能取得一个不错的效果。Orca 也只是在 Flan 工作的基础上证明这条技术路线的有效性而已。

我刚刚看了一下您的数据精调模型( blossom-v4-qwen-14b )和其他通用精调模型( qwen-14b-chat )的对比
我看在你的 github 里 AlignBench 评估中,blossom-v4-qwen-14b 是 5.66 分,qwen-14b-chat 是 5.41 分。
但是我在 Align Bench 的 github ( https://github.com/THUDM/AlignBench )中看到的评测信息,qwen-14b-chat 是 5.98 分,这个怎么理解啊?
2024-01-20 17:38:46 +08:00
回复了 yuyue001 创建的主题 Local LLM 有人(个人)自己使用开源的 LLM 大模型吗?
@Azure99 看到介绍了,基于 OpenOrca 处理的
2024-01-20 17:33:16 +08:00
回复了 yuyue001 创建的主题 Local LLM 有人(个人)自己使用开源的 LLM 大模型吗?
@Azure99 而且 orca1 的工作在论文上做精调效果也不差,在指令遵循等方面都有不错的提升,orca2 放出了精调的模型,也可以瞅瞅看看它的能力边界,我认为不算差,是一个开源社区中通用精调相当不错的工作。
2024-01-20 17:29:57 +08:00
回复了 yuyue001 创建的主题 Local LLM 有人(个人)自己使用开源的 LLM 大模型吗?
@Azure99 1850 种不算少了吧,中文 orca 数据怎么做的?开源的吗? 还是自己复现了 orca1 的工作?
1  2  3  4  5  6  7  8  9  10 ... 20  
关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   2757 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 37ms · UTC 12:49 · PVG 20:49 · LAX 04:49 · JFK 07:49
Developed with CodeLauncher
♥ Do have faith in what you're doing.