刚刚发现了一个可以像 BitTorrent 一样 P2P 运行的 LLM https://petals.ml/
在想象一种可能性,GPU 通过运行算法模型获得币,用户支付币使用 LLM 。 不过一个问题是,怎么证明 GPU 的工作量是有效的?
1
lithiumii 2023-03-21 13:52:52 +08:00 via Android 2
把计算分布在多台用户机器上,这些计算要么用来解决真实的问题(叠蛋白质或者跑大语言模型),要么用来验证其他用户的计算(区块链)。你看,这是两个任务,不是必然要绑定在一起的,甚至会互相冲突(占资源)。
区块链解决互相不认识的扔之间的信任问题,拿来跑加密货币分布式记账,可以。但是对于跑程序来说,如果我不信任你,我从一开始就不会运行你的程序;如果我信任你,我很大可能也愿意信任你提供的基于传统数据库的中心化积分记账方式( BOINC 的积分榜都多少年了,petals 也说他们未来的积分系统不会基于区块链)。 |
2
zooo 2023-03-21 13:58:15 +08:00
看样子是像将大模型分布式运行在不同的节点
证明 GPU 的工作量,提供一个思路 冗余计算,比如相同计算都随机分配至少 5 个节点计算,取计算结果相同的节点的结果作为正确结果 这样就不会存在某个节点作弊,随机返回数据了,但是却也造成了计算浪费... 但是这算是一种比较有效的利用计算资源的方式,而不是挖矿纯无效浪费资源 |
3
zooo 2023-03-21 14:00:15 +08:00
此外,可能存在一种情况就是热点数据问题,相同的输入数据被多次请求计算,可以用存储换空间。
|
4
zooo 2023-03-21 14:04:11 +08:00
他这个项目现在好像和区块链没什么关系吧,单纯共享计算资源来运行大语言模型吧?
|
5
line 2023-03-21 14:23:58 +08:00
并行计算有方案吗?
|
6
kaddusabagei38 2023-03-22 10:11:25 +08:00
本来想进来就开喷又把什么技术扯上什么诈骗技术的...不过看了一下这个方向好像还不错
|
7
guajian 2023-03-23 09:06:47 +08:00
零知识证明、可信执行环境
|