V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX  ›  swhhaa  ›  全部回复第 2 页 / 共 5 页
回复总数  96
1  2  3  4  5  
2023-04-22 12:00:56 +08:00
回复了 snowspace 创建的主题 问与答 请教 TTS(Text to Speech) 有没有适合阅读唐诗的,免费收费均可
微信阅读,听小说感觉还行,唐诗估计有点难度。建议左拐喜马拉雅
2023-04-18 17:45:30 +08:00
回复了 Suigintou 创建的主题 问与答 大家有什么抗痘经验吗
阿达帕林。我坚持了 8 个月,最开始满脸都是,现在大概半个月冒个痘痘。
2023-04-15 21:09:47 +08:00
回复了 233373 创建的主题 程序员 诸位都是如何备份自己的照片的?
我放弃 iCloud 了。iCloud 只向 Google photo 做单向同步,同时其他例如 Windows 上的照片也单向同步到 gp 。另外 移动硬盘在留一份 backup
反正我是从《线性代数》开始看的,然后再看《机器学习》《 Deep Learning 》...准备在 Kaggle 上拿一个金牌后在去读著名的 Attention is you need...
2023-04-09 10:02:42 +08:00
回复了 swhhaa 创建的主题 程序员 ChatGPT 其实是通用人工智能的对立面
2023-04-09 10:02:04 +08:00
回复了 swhhaa 创建的主题 程序员 ChatGPT 其实是通用人工智能的对立面
一篇知乎上相关的问题
https://www.zhihu.com/question/581851946/
2023-04-08 15:22:00 +08:00
回复了 swhhaa 创建的主题 程序员 ChatGPT 其实是通用人工智能的对立面
@probe301
1. 是的,这个“结构”确实玄学,我这里图方便定义成“结构”,可能就会导致难以理解。

2. 微调有价值,但我认为它的能力也是有限的。如果某个 ChatGPT 的新功能可以通过梯度下降的方式训练出来,这个功能也可以直接通过和它对话来让它实现,我才认为勉强达到了通用的门槛,当然这里还有一个效率的问题。

3. 你发的知乎我没太仔细看。同第 2 点,无论 ChatGPT 现在多强大,但肯定有不如人的地方。如果是 AGI ,直接和她对话让它学到这些和人的差距就可以,但和 ChatGPT 对话只能是微调,我觉得没法做到梯度下降训练的效果。我质疑这点主要是因为,有一次我让 ChatGPT 写一段获取日语单词中单个汉字的假名的代码,可能需求比较奇葩,互联网上的资料从没人写过类似的需求,我让它改了很多次,无论怎么教它,都写不对。我用的是 v3.5 ,不知道 v4 版本的怎么样,但即便可以写出来,也一定存在某个需求它做不到,但你又教不会它。因为只能微调。

4. 最后那段没看太懂你的意思,就不回复了。
2023-04-08 10:05:28 +08:00
回复了 swhhaa 创建的主题 程序员 ChatGPT 其实是通用人工智能的对立面
@swhhaa 另外我理解的通用和是否多模态没有任何关系,如果我能通过和 chatgpt 对话的方式教会它写代码,我也认为它是通用的。
2023-04-08 10:03:30 +08:00
回复了 swhhaa 创建的主题 程序员 ChatGPT 其实是通用人工智能的对立面
@probe301 手机回复。简单说下,dx 里的 x 是数据, 不是 fx 里面的 x 。关于 gx 你可以类比高斯密度函数,密度函数的值没有物理意义,但它积分后就可以表示概率。关于你说的讨论话题,更应该是 1 。但我认为不存在主动改自身结构的智能,这里的“结构“指开始接收训练数据那一刻的全部状态。比如人的大脑,在成长过程中人脑神经元物理结构确实有变化,但假设两个刚出生婴儿的大脑物理分子层面上一模一样,出生后接收的外界信息也一模一样,一段时间后我认为这两个大脑在物理层面上也是一模一样的,我说的结构就是大脑在开始接收数据前的状态。所以 agi 的核心应该是去找出这个结构让它的 gx 足够高,而不是用一个很低的 gx 训练大量数据达到一个很高的| f |。


@Cha0s1 例子很好。我先认为你说的文科生就是 fin-tune 。但是否是 fine-tune 我觉得不是核心。fine-tune 只改变 f 却不改变 g 。假设现在的 ChatGPT 就是你说的文科生,并假设它不会写代码,我要教会它写代码只通过和它对话的方式肯定是不行的,只能用梯度下降的方式。但文科生可以,你和他对话就行。梯度下降的方式有它的优点,但对人来说是一种效率很低的学习方式。
2023-04-07 22:22:47 +08:00
回复了 swhhaa 创建的主题 程序员 ChatGPT 其实是通用人工智能的对立面
@LaurelHarmon 我就随便说点自己的想法…和 v 友们讨论讨论,不是要拉帮结派。不管怎么说,我还是希望 AGI 早日出现,现在的 ChatGPT 很难满足我的需求。有一个只属于自己的智能还是很让人兴奋的。
2023-04-07 21:52:04 +08:00
回复了 swhhaa 创建的主题 程序员 ChatGPT 其实是通用人工智能的对立面
@LaurelHarmon 而且我不太理解你为什么觉得 ChatGPT 学习效果不错,你觉得训练 ChatGPT 消耗的能量和一个科学家从出生到死亡消耗的食物中的能量哪个大。或者 ChatGPT 的智能程度明显超过了科学家?
2023-04-07 21:43:18 +08:00
回复了 swhhaa 创建的主题 程序员 ChatGPT 其实是通用人工智能的对立面
@LaurelHarmon 所以我哪里说错了吗…
2023-04-07 21:42:06 +08:00
回复了 swhhaa 创建的主题 程序员 ChatGPT 其实是通用人工智能的对立面
@LaurelHarmon 我没否认 ChatGPT 在某些方面的优越性。毕竟神经网络设计之初本就是为了拟合函数,给人一堆特征和 label ,人脑很难判断出这个函数是什么样的,神经网络直接梯度下降什么函数都能拟合。
我承认 ChatGPT 智能,因为它 |f| 很高,但它不通用。因为它的 g(x) 很低。只有当 g(x) 提高到一定程度,人可以很方便的传授给它新知识,才能算的上通用。
2023-04-07 20:38:44 +08:00
回复了 swhhaa 创建的主题 程序员 ChatGPT 其实是通用人工智能的对立面
@LaurelHarmon 请先读懂我的文章再评论… 你说的所谓量子速度根本不是在学习,只是执行 f(x) 的时间复杂度。
2023-04-07 14:58:57 +08:00
回复了 hsiaochi 创建的主题 Apple iPad pro 外接显示屏有什么方法可以竖屏显示吗
我也想知道...用英文 google 了很多也没啥好方案。而且你镜像模式也没法自动旋转吧,如果你显示器是竖着的,ipad 也是竖屏的... 它只会占用显示器中间很小一部分区域...
2023-04-07 14:56:00 +08:00
回复了 swhhaa 创建的主题 程序员 ChatGPT 其实是通用人工智能的对立面
@sillydaddy

我觉得不是 OpenAI 限定了这种能力,而是 ChatGPT 本身就没有这种能力。神经网络的监督学习肯定是要有 label ,你和 ChatGPT 对话时并没有 label ,如果是无监督学习,它也只能学到输入那句话的本身具有的性质,并不能理解其背后的含义。另一方面来,现在开源的本地跑的 LLM ,你可以试试单纯用自然语言和它对话,它的参数是否会改变。
2023-04-07 14:09:14 +08:00
回复了 swhhaa 创建的主题 程序员 ChatGPT 其实是通用人工智能的对立面
@neurocomputing

1. 这个我不懂,但我感觉我也没说大脑的连接属性由遗传决定啊?

2. 参考一下我给的定义。智力是结构的体现,而不是功能的象征,其中结构是功能的元数据,不随功能而改变。智力则决定了功能的上限,也决定了学习的效率。你说的结构单纯指物理上的结构,我说的结构更应该是一种新的定义,有一些限制的,不随功能改变的部分才属于结构。大脑的各种神经元肯定在不断变化,但也有不变的部分,正是这些不变的部分+ 输入才决定了变化的部分。

3. 智力现在也没有一个明确的定义,在文章中提到的智力仅指我给出的定义。你觉得定义为智力不可以,那也可以把它定义为 xxx ,并不影响。

4. 学习了,但不是很理解和我文章中的哪里冲突了?我感觉我并没提到这些啊?

5. 我理解 学习过程=突触形成和突触改建的过程,但是你和 ChatGPT 说话并不能改变 ChatGPT 的参数值,而和人说话却可以改变人大脑的突触形成... 参考我 104 楼的回复。
2023-04-07 13:50:10 +08:00
回复了 swhhaa 创建的主题 程序员 ChatGPT 其实是通用人工智能的对立面
@sillydaddy

我不知道你有没有理解我说的 ChatGPT 学习和人学习的本质区别。你尝试教 New Bing 去数数,在这过程中你给 Bing 发了一段话,这段话中既有定义又有例子(但这不重要),而且 New Bing 也根据你的要求正确给出了答案。但是 New Bing 在这个环节中只是相当于一个函数 f ,你说的话就是参数 x ,bing 的发给你的话就是 y 。y=f(x)。可无论你怎么和 bing 交流,你都得承认 f 本身是不会变的。想要 f 变化,只能是 openai 去训练,而不是你通过对话来训练。

你说的 ChatGPT 的两个关键点我承认,但我认为这两个观点不是通用人工智能的核心。

相比大模型,我更希望一个从零开始的模型,但这个模型的学习效率很高。比如我是一个数学家,某个商家推出了一款通用人工智能产品,我买了这个产品。
这个产品第一种形态就是 ChatGPT 这种,啥都懂,但又不是很精通,而且我没法改变 ChatGPT 本身。在数学方面,它可以做一些辅助性的工作而且效率很高。第二种形态就是像一个刚出生的婴儿一样,它啥的不懂,但我可以教它,而且学的很快,没多长时间就学完了大学数学,这时可以慢慢参与一些数学上的核心工作,最后它数学方面甚至可以超越数学家本身。(参考我 39 楼的回复)

预训练的大模型也许可以解决许多人的大部分需求,但没法解决一个人的全部需求,而我理解的通用人工智能可以。
2023-04-07 12:50:48 +08:00
回复了 swhhaa 创建的主题 程序员 ChatGPT 其实是通用人工智能的对立面
@sillydaddy 我觉得 lecun 的例子没问题,他主要是想指出学习效率的问题。

拿预训练后的模型对比未摸过方向盘的青少年当然可以。

假设现在的 ChatGPT 是预训练的模型,某个用户想传授给 gpt 一些知识,gpt 有了这些知识后可以满足自己的一些特殊需求。但用户没办法直接和 gpt 对话来传授这些知识(虽然 gpt 支持上下文,但数量也有限,我也不认为神经网络可以在 predict 的同时更新参数),只能把知识转化成各种数据走神经网络的方式去训练它。而且效率也有问题。假设 gpt 不知道什么是矩阵,只要把 矩阵的定义 这串字符告诉人,人就很容易理解什么是矩阵。但想让一个神经网络学到什么是矩阵,只能找各种例子(数据)而不是矩阵定义训练它。
1  2  3  4  5  
关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   我们的愿景   ·   实用小工具   ·   1086 人在线   最高记录 6543   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 22ms · UTC 23:57 · PVG 07:57 · LAX 16:57 · JFK 19:57
Developed with CodeLauncher
♥ Do have faith in what you're doing.