V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX  ›  dayeye2006199  ›  全部回复第 32 页 / 共 73 页
回复总数  1458
1 ... 28  29  30  31  32  33  34  35  36  37 ... 73  
2023-04-04 15:23:19 +08:00
回复了 xhldtc 创建的主题 Python Python Flask web 有哪些好用的插件?
sqlalchemy + marshmallow 这两个东西一般是最常用的。

说实话,开发快,并且有 MVC 经验的,还是建议 django 。个人感觉 flask 插件加来加去,就长的和 django 差不多了
2023-04-04 00:01:24 +08:00
回复了 johannyellow 创建的主题 程序员 twitter 开源推荐算法系统怎么编译?
你确定这玩意儿可以跑起来?感觉是公司的 monorepo 里面摘了一部分出来,外面还有其他的依赖和基建需求
Shopify 吧,自带防御,若干个 9 的稳定性,无限流量
2023-04-03 01:17:58 +08:00
回复了 annoygaga 创建的主题 程序员 AKS 和 godaddy 域名问题
2023-04-02 05:49:11 +08:00
回复了 annoygaga 创建的主题 程序员 AKS 和 godaddy 域名问题
@annoygaga 你找 ingress controller service 对应的对外 lb IP 地址就可以了
2023-04-02 01:51:26 +08:00
回复了 annoygaga 创建的主题 程序员 AKS 和 godaddy 域名问题
Ingress controller service 对应的就是个 lb ,把域名指向这个就行

证书制作和 k8s 不挂钩,除非你用 cert manager 这样的东西。外面把证书下载完了,做一个 secret 挂在 ingress 上就可以
2023-03-30 00:42:16 +08:00
回复了 sniperking1234 创建的主题 Kubernetes k8s 私有化部署,存储方案应该怎么选择?
Openebs
2023-03-30 00:41:27 +08:00
回复了 JavenXiao 创建的主题 程序员 要做个 小程序 + web 管理后台 的项目,求个省心的后端架构
Supabase
2023-03-30 00:40:23 +08:00
回复了 echoless 创建的主题 程序员 后端程序员进入前端为啥是进了迷宫一样
写 react 这样的感觉好些,基本还是在 js 的框架下可以解释,熟悉 js 需要特性有巨大加持
2023-03-28 13:14:55 +08:00
回复了 Cyshall 创建的主题 程序员 阿里开源有够恶心
不带你玩儿
@NoOneNoBody 现在的模型都可以不分词,可以字符进去一个一个喂。注意力机制,可以让模型根据上下文搞明白这些歧义的句子意思式什么。你说没上下文,人都搞不明白,那就别指望机器了。
2023-03-28 02:00:24 +08:00
回复了 liuqiongyu889 创建的主题 程序员 请教 AWS 容器部署的最佳实践?
Spot ec2 + asg + lb 应该最省钱
2023-03-23 06:46:47 +08:00
回复了 5200 创建的主题 程序员 后端想整点前端项目,学 vue 还是 react
React 把。
什么概念都可以用 JS 解释通。
你要是再懂点函数式编程,核心概念就更好理解了
2023-03-23 06:45:37 +08:00
回复了 wednesdayco 创建的主题 程序员 mini 主机装啥系统比较舒适(远程开发用)
fedora 或者 ubuntu 。软件安装一把梭,又不用像 arch 一样折腾安装
2023-03-23 06:43:50 +08:00
回复了 tg11 创建的主题 程序员 求推荐带 GUI 的 Linux 系统
桌面的尽头是平铺窗口管理器
能展开说说 vscode 做 go 开发存在什么问题吗?
2023-03-22 02:10:01 +08:00
回复了 peaWang 创建的主题 职场话题 知乎目前还值得去么
chatgpt 概念股,冲!
2023-03-22 01:42:17 +08:00
回复了 Aaron7Amelia 创建的主题 程序员 mac 上有什么好用的华丽花哨一点的 ssh 终端
花哨应该去调 server 端的 shell ,不要为难客户端,人家只是个 SSH 客户端。。
gthread ,甚至流量不大的时候 sync 模式都可以。
online inference 一般不会上 GPU ,因为往 GPU 上面来回搬数据也是有 overhead 的。特别是你自己写的服务,没有做 batching 的话,就是不断的搬很小的 tensor ,做很简单的运算。这个时候这个 IO 开销会超过运算开销。

如果是做批量 inference (比如在数据管道里),可以考虑上 GPU 。

几个程序一起用 GPU 我记得默认和多进程模型类似,timesharing 模式,不同进程切分为 time slices ,上 GPU 执行,CUDA 里面有个中央的调度器。
nvidia 也有更高级的执行模式(可能要收费的),可以几个 kernel 一起上 GPU 并行执行,这样程序就不用中断。
但这个 schedule 算法是闭源的,谁也说不清楚是咋弄的,
2023-03-21 06:26:48 +08:00
回复了 Allonsy 创建的主题 Python Python 进阶疑惑
Fluent Python
1 ... 28  29  30  31  32  33  34  35  36  37 ... 73  
关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   3458 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 53ms · UTC 04:16 · PVG 12:16 · LAX 21:16 · JFK 00:16
Developed with CodeLauncher
♥ Do have faith in what you're doing.