#RTX5090 发布了,个人汇总了从 GTX1080 到最新一代的性能/美元、性能/瓦特的图表。结论:一分钱一分货 + 性能在加速 + 性价比在提升。推论:基于中小等模型(几十到几百 B 参数)的桌面/手机 AI 也就 2 ~ 3 年的事儿了。
GPU | AI TOPS | TGP(W) | 首发价格($) | 性能/瓦特 (TOPS/W) | 性能/美元 (TOPS/$) |
---|---|---|---|---|---|
GTX1080 | 9.0¹ | 180 | 599 | 9.0 / 180 = 0.050 | 9.0 / 599 ≈ 0.015 |
RTX2080 | 84.8 | 215 | 699 | 84.8 / 215 ≈ 0.394 | 84.8 / 699 ≈ 0.121 |
RTX3090 | 284.7 | 350² | 1,499² | 284.7 / 350 ≈ 0.813 | 284.7 / 1499 ≈ 0.190 |
RTX4090 | 1321.2 | 450 | 1,599 | 1321.2 / 450 ≈ 2.936 | 1321.2 / 1599 ≈ 0.826 |
RTX5090 | 3352 | 575 | 1,999 | 3352 / 575 ≈ 5.825 | 3352 / 1999 ≈ 1.676 |
[img]https://i.imgur.com/Vy1gvo4.jpeg[/img]
1
yoiteshaw 1 天前
我记得如果不差钱,顶配 90 一直是性价比最高的吧?但是账不能那么算,对于个人 PC 用户而言,很少会需要那么大的算力,溢出太多也是一种低性价比的行为。
|
2
herozhang OP 不知道如何插入图片,就这样吧。。。
|
3
Remember 1 天前
4090 是 int8 ,5090 是 int4 ,要/2 =1676.
制程没进步怎么可能每瓦性能翻倍? |
4
Pil0tXia 1 天前 1
别光做 AI TOPS 嘛,来点儿游戏玩家需要的 3D 的,把 60 70 80 铺全,感谢数量至少翻一倍
|
5
privater 21 小时 5 分钟前 1
换个思路:既然老黄随心所欲扇用户耳刮子都能赚更多的钱,从 3080 开始,你就该只买 NVDA ,靠每年的利润来免费拿显卡。
|
6
CodeAllen 13 小时 23 分钟前
显卡的光栅性能是相对基础的,从 20 开始,推出的 DLSS 用某种投机取巧的思路解决了光栅性能跟不上的问题,以前性能不足都是要 SLI 或 CrossFire 才能把帧数搞上去,现在就靠 DLSS 调参数了,也不能说不是进步,起码把游戏多卡互联的需求砍掉了。
|
7
chengxiao 13 小时 12 分钟前 1
哎 游戏党感觉无所吊谓了,最近几年大作一个比一个屎,反而一些不吃显卡的游戏好玩的不得了
一块儿 4090 买了 2 年 多了 95%的时间负载不到 30% |
8
xz410236056 12 小时 41 分钟前
搞 AI 那肯定越来越强,玩游戏那性价比是一代不如一代,越来越贵。
|
9
xz410236056 12 小时 40 分钟前
@chengxiao 听说 25 年 gta6
|
10
abc0123xyz 12 小时 13 分钟前
@xz410236056 #9 pc 等等吧
|
11
xz410236056 11 小时 13 分钟前
@abc0123xyz 据说全平台同步
|
12
privater 10 小时 20 分钟前
@CodeAllen 你用过 SLI 就知道,这里面 bug 山一样高,只有跑 benchmark 能几乎发挥 1 + 1 = 2 的性能,绝大部分时间是新游戏没有任何兼容,1/3 概率这游戏引擎能兼容 SLI ,半年后才给个 profile ,性能也就提升 30-50%,能提升到 70% 都是烧高香了,更别提引入的延迟和画面撕裂问题。幸好现在两家把这个垃圾给毙了,才有了如今相对合理的 g-sync 解决画面撕裂,reflex 解决渲染延迟等等一系列进步。
|
13
tool2dx 10 小时 8 分钟前
你要看浮点计算能力(单精度)
5090 - 104.8 TFLOPS (575 W) 4090 - 82.58 TFLOPS (450 W) 每瓦特算力: 0.182 vs 0.183 ,还退步了。 |