V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX  ›  Jimmyisme  ›  全部回复第 1 页 / 共 11 页
回复总数  213
1  2  3  4  5  6  7  8  9  10 ... 11  
4 小时 58 分钟前
回复了 looveh 创建的主题 MacBook Pro 怎么管理自己的文件体系
@sakilascott 项目外一般都是井井有条,项目里面就开始放飞自我了
8 小时 46 分钟前
回复了 MEIerer 创建的主题 问与答 卖 GV 的通常是哪些国家的人在卖?
抽象
@Morii 微信 ocr 正常
12 小时 41 分钟前
回复了 flynnlemon 创建的主题 科技 若干年后,会有人羡慕我们这几年吗
现在大模型还不需要民工,因为成本太高只有大公司玩的起。大家都在摸着石头过河,再过个三五年可能才会慢慢有变化。现在的新闻都是什么 startup 因为 openai 的新功能然后就寄了,以后慢慢可能就会趋于稳定,小公司有小公司的玩法,大公司有大公司的业务
可以考虑一下菜鸟。大学四年被菜鸟恶心坏了,校区里面全部快递都被菜鸟垄断了。恶心是真恶心,赚钱是真赚钱。
可以尝试一下彩虹六号,虽然已经衰落了。但是体验一下还是不错的,和传统射击游戏完全不一样。
@maggch97 #11 应该是软件问题了,可能 Windows 和 mac 对长按的判定不一样。我的游戏本和你是一样的效果
3 天前
回复了 198plus 创建的主题 职场话题 什么工作越老越吃香
越老越吃香的,一般熬不到老。不然也不会越老越吃香
@bugu1986 #9 要是能提前加载进显存肯定更好啊,但是显存的成本明显比内存高。由于显存大部分情况下都是要加载模型,存不了多少数据。所以在实际工程中,比较实际的都是考虑将数据在 init dataset 的时候读入内存再 to('cuda')。
看你炼什么丹,数据集多大,模型多大。内存这种东西肯定是越大越好,但是如果你的数据集都没有 64G ,那就没有必要 128G 了。
数据集全部加载进内存,训练快很多也不用折腾很多其他东西。(类似 lmdb or 内存映射硬盘等等
@LeeReamond #34 500 万铁是上不了哈佛,我们学院是中外合办的。还真没听过有人氪金上过哈佛。(没背景,纯氪金估计得上亿?
上大学基本都是靠自己,国内国外都一样。
网卡坏了
6 天前
回复了 niming007zh2 创建的主题 宽带症候群 有没有某种便携式的软路由
hyper-v
1  2  3  4  5  6  7  8  9  10 ... 11  
关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   我们的愿景   ·   实用小工具   ·   2660 人在线   最高记录 6543   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 33ms · UTC 16:06 · PVG 00:06 · LAX 09:06 · JFK 12:06
Developed with CodeLauncher
♥ Do have faith in what you're doing.