V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX  ›  sillydaddy  ›  全部回复第 31 页 / 共 94 页
回复总数  1861
1 ... 27  28  29  30  31  32  33  34  35  36 ... 94  
2023-04-12 20:01:27 +08:00
回复了 Sailwww 创建的主题 问与答 新人疑惑:现在开发一个新的编辑器还有前景吗
2023-04-12 20:00:33 +08:00
回复了 shineonme 创建的主题 硬件 分享下你在用的鼠标/键盘宏?
2023-04-12 15:25:05 +08:00
回复了 Rubbishsite 创建的主题 奇思妙想 想要谋求更好的发展真的是坏事吗?
乱发节点。 @Livid
2023-04-08 23:13:38 +08:00
回复了 PendingOni 创建的主题 程序员 [记录]-最近可以说是降薪入职了
楼主性情中人。刚刚偶然翻到了之前加班的一个帖子,还真是降薪啊,从楼主这真的感觉到形势有点可怕了。
@Ocean810975 #13
感谢分享长文,这个对 LLM 的讲解相当的 step by step 了。
2023-04-07 14:36:39 +08:00
回复了 swhhaa 创建的主题 程序员 ChatGPT 其实是通用人工智能的对立面
你纠结的地方是无法通过互动来改变 ChatGPT 的参数,也就是让它继续学习。但是使用「语料」给它训练的过程,就是它在学习啊。你说训练完成后,人类与其互动就不再改变它的参数了,这个只是 OpenAI 暂时这么限定的,放开的话 ChatGPT 是可以持续学习的啊。

跟人对比的话,人从一出生,也是接收了大量的数据,比如视觉、听觉、触觉等等,去建构这个世界的模型。这个过程跟 ChatGPT 的训练过程是一样的。跟人交流的过程,也是在学习,每分每秒都是。OpenAI 只是在训练了一段时候后,就不再让 ChatGPT 继续学习了。

也许你会说即使让 ChatGPT 继续学习,它可能也无法有大的进展,毕竟与训练数据相比,与人交流的数据量太小了。这点我也觉得是,我觉得区别就在于学习效率,毕竟人脑的学习方法也不全是梯度下降吧。
ChatGPT 从开始训练到定型,使用了大量的运算,但人出生后也是啊,比较之下到底哪个的效率更高呢,很难说。但后期的话,人可以仅仅因为一句话或一件事,就改变了人生观——少量的数据导致很大的改变。这恐怕是目前的 ChatGPT 做不到的。
2023-04-07 13:11:53 +08:00
回复了 swhhaa 创建的主题 程序员 ChatGPT 其实是通用人工智能的对立面
@swhhaa

你说的训练效率,确实是问题,但后面可以改进啊,大自然花了多少时间才完成这种改进啊。
我觉得 ChatGPT 的关键有 2 点:
1 是大模型的能力
2 是通过预测的方式去训练大模型,这算是一种通用的无监督训练方法。这种方法是可行的。
有了这 2 点,实现通用人工智能还差什么呢?效率是一个本质性的障碍吗,我觉得不是。

至于你说的定义和例子的区别,我尝试过教 New Bing 去数数:
「请你写一个句子,这个句子的要求是包含十一个字,必须是十一个字,不能比十一个字多,不能比十一个字少,一定是十一个字,甚至你可以不考虑语法结构,唯一的规则就是那句话必须由十一个字组成。标点符号不算字数。」

「字数不对,看起来你数数不太熟练,我来教你如何数字数。看下面的例子: “我是一个”,这句话,第一个字是“我”,标记为 1 ,紧跟着“我”的字是“是”,在前面标记 1 的基础上+1 得到标记为 2 ,那么“是”后面的字是“一”,在前面标记 2 的基础上+1 得到标记为 3 ,“一”后面是“个”,在前面标记 3 的基础上+1 得到标记为 4 ,“个”后面没有字了,所以不再标记。也即是说“我是一个”这句话的字数是 4 ,是最后一个字的标记。 明白了吗?请你数一下刚才你写的句子有几个字。」

不知道我这种算是例子还是定义。按照你说的,应该也属于例子吧。但是即使是人,通过例子学得也更快啊,是吧,至少大部分人是,你给一个干巴巴的定义,远远不如举个例子来得快。
2023-04-07 12:43:05 +08:00
回复了 wuwukai007 创建的主题 程序员 有没有觉得 mac 访达(finder)特别难用的
难用,看到楼上那么多用快捷键的,无语了,这不是 GUI 桌面吗?
另外,如果在满是文件的文件夹里面,想右键新建文件夹,先得切换到「网格」视图,因为其他视图没有地方点击右键。
2023-04-07 11:54:42 +08:00
回复了 swhhaa 创建的主题 程序员 ChatGPT 其实是通用人工智能的对立面
@silypie
我忘了是在哪里看到过了,llya 说 LeCun 说的,跟 OpenAI 在做的,其实没有什么大的区别。我理解的就是,大模型训练得到的能力,肯定是跟训练的输入有关的啊,你拿互联网的语料训练它,它肯定得不出世界运行的逻辑啊,但如果把现实世界的输入和反馈给到它一起训练呢?
2023-04-07 11:49:38 +08:00
回复了 swhhaa 创建的主题 程序员 ChatGPT 其实是通用人工智能的对立面
@silypie #95
「正如 Meta AI 首席人工智能科学家 Yann LeCun 所指出的那样,一个从未摸过方向盘的青少年可以在大约 20 个小时内学会开车,而当今最好的自动驾驶系统也需要数百万甚至数十亿带标签的训练数据和数百万次虚拟环境中的强化学习试验。即便如此,它们驾驶汽车也还是不如人类可靠。」

感觉 LeCun 拿这个举例子,比外行还要外行。

这不就是预训练大模型在做的事情吗:大模型预训练的基础能力就是对这个世界的常识认知(比如物体识别、障碍物、动机预测),开车仅仅需要微调训练即可?
就好比现在训练 ChatGPT 在每个句子中的每个字之间插入一个新的字,或者让 ChatGPT 统计段落的字数。唯一的区别是现在 ChatGPT 的预训练,只是通过自然语言和代码的语料来完成的(还有图像)。
2023-04-07 11:07:35 +08:00
回复了 8eacekeep 创建的主题 生活 我来传播焦虑了
农历年才是 deadline 。
2023 年 2 月 1 日是正月十一,2024 年 2 月 1 日是腊月二十二。相当于过了六分之一,也不少了。焦虑。
1 ... 27  28  29  30  31  32  33  34  35  36 ... 94  
关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   1130 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 36ms · UTC 18:57 · PVG 02:57 · LAX 10:57 · JFK 13:57
Developed with CodeLauncher
♥ Do have faith in what you're doing.