lqf96

lqf96

V2EX 第 257551 号会员,加入于 2017-10-02 13:35:53 +08:00
今日活跃度排名 4708
据传苹果今年可能推出 Intel 版本的新 Mac Pro
Apple  •  lqf96  •  232 天前  •  最后回复来自 luoyich
6
Open-sourcing gVisor, a sandboxed container runtime
Docker  •  lqf96  •  2018-05-03 19:53:32 PM
NS1 看起来很不错的样子
DNS  •  lqf96  •  2018-04-18 10:46:30 AM  •  最后回复来自 isCyan
7
这算是 Cloudflare 的漏洞么?
CDN  •  lqf96  •  2018-04-06 09:50:47 AM  •  最后回复来自 Shura
7
貌似发现了一个 unpkg.com 在国内的镜像?
CDN  •  lqf96  •  2019-12-03 10:43:24 AM  •  最后回复来自 GINLSL
9
lqf96 最近回复了
64 天前
回复了 smileherd 创建的主题 分享发现 分享下我对挣大钱的一些思考
@smileherd 至于事实依据,看下福润排行榜上高净值家庭的数量,再看下全球净值超过 1600 万美元的个人有多少就知道了...
64 天前
回复了 smileherd 创建的主题 分享发现 分享下我对挣大钱的一些思考
@smileherd 我说的不但不是每个人,而且指的是非常小比例的人,你可以认为是 1%都远不到...但是你的文章给人的感觉,仍然是可观比例的人(假定是百分之几)能够达到这个财富水准,而事实是这都过于乐观,不符合现实
64 天前
回复了 smileherd 创建的主题 分享发现 分享下我对挣大钱的一些思考
这个帖子的不合理之处就在于由于市场经济的内在规律,人类社会的财富是幂律分布的,因此在货币不发生显著贬值的情况下,不可能人人都是亿万富翁...我觉得在初始资本充裕的情况下,赚一个小目标其实未尝不可,但是夸大这个目标的普遍性,轻视其中的困难和资本主义内在规律不可取...
总之学术界这边 lstm 和 rnn 给我的感觉都是上古的东西了...
其实 transformer 也分单向和双向模型,前者就是 gpt ,后者就是 bert 以及衍生出的一系列 mlm 模型...另外单向和双向模型拼接在一起就可以得到 seq2seq model ,比如 bart 或者 t5 ,或者通过构造特殊的 attention mask 也可以实现一个 transformer stack 的 seq2seq model (unlm v1/v2)
71 天前
回复了 aiamjay 创建的主题 Apple UCSD Bookstore 购买 Mac 系列免税
@tianshilei1992 ur 点数 yyds ,不过能蹭到员工优惠 75 折那更香…
78 天前
回复了 mh 创建的主题 MacBook Pro MacBook Pro 14"/16" (2021) 推力怎么样?
在 Reddit 看到过一个帖子,这次苹果对高阻抗耳机特别增强了推力,不需要开太大音量了…
92 天前
回复了 fyooo 创建的主题 Apple M1 Max tensorflow metal 跑分
@minsheng 可以,现在 Pytorch 官方就在把 TPU (确切说是 XLA )支持迁移到 Lazy Tensor 架构去…不过我平时还要做 research ,所以也不确定有没有时间搞这个…
93 天前
回复了 fyooo 创建的主题 Apple M1 Max tensorflow metal 跑分
@makeitwork 其实 PyTorch 最快支持 M1 的办法应该是开发一个基于 MLCompute 的 JIT 后端,然后利用正在开发的 Lazy Tensor 模拟 eager evaluation...等新电脑到了我准备看看能不能搞个 prototype 玩玩...
关于   ·   帮助文档   ·   API   ·   FAQ   ·   我们的愿景   ·   广告投放   ·   感谢   ·   实用小工具   ·   2546 人在线   最高记录 5497   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 23ms · UTC 04:53 · PVG 12:53 · LAX 20:53 · JFK 23:53
Developed with CodeLauncher
♥ Do have faith in what you're doing.