1
lithiumii 219 天前 via Android
简单来说就是让它概括你提供的资料,而不是让它回答你的问题
|
2
Rorysky 219 天前
ai 幻觉现象是早期的技术难点
|
3
geelaw 219 天前
古代人曾经认为日心说是胡扯,所以即使是人,想要准确定义“胡扯”还是很困难的。另外有一些工作 https://arxiv.org/abs/2401.11817 传达的信息是:LLM provably hallucinates. 但我本人没有认真读过这篇文章,所以它的形式化模型是否适合用来解释 LLM ,我无定论。
|
4
xmuli 219 天前 via iPhone 1
AI 的缺陷 1. 不知道自己的能力边界 2.也不知道物理世界的真实规矩 ---from 某外籍院士的前几天的分享
|
5
xmuli 219 天前 via iPhone 1
估计一段时间内无法彻底解决,若是做某垂直领域,可微调和迭代训练,努力提高📈正确率,用户感受体验截然不同。 一般通用模型正确率可达到 85 分,上而到 95 就需堆叠人力资源,也能做到,于是一个商业产品就出现了。
|
6
shuson 218 天前
用 lora 重新训练一个或者简单做个 RAG
|
7
BlackSiao 218 天前 1
这里涉及到一点微调的方面了,最简单的办法就是调用 LLM 的时候把温度调低点,看看能不能满足你的需求;其次就是做个 RAG ,提前把相应的知识存好让它到时候随机应变调用。不过最经济的办法应该还是去网上搜一下有没有人已经根据你的需求调出一个特定的项目来,比如学外语的肯定有很多已调好的
|
8
darson 217 天前 1
最近看了 hinton 的一个演讲,他说幻觉是所有神经网络的特性,可以降低但是无法杜绝。人也不例外,人对于短期发生的事情通常能够比较准确的召回,但是对于长期之前的事,事实上经常会对没发生过的事情深信不疑。例如曼德拉效应,或者孟子的故天将降大任于‘斯’人也 vs 故天将降大任于‘是’人也。所以比较简单的做法就是提供上下文,让 LLM 从中去找答案并提供出处。
|
9
MapleEve 217 天前
人也会有幻觉,AI 出幻觉是这个模型还太垃圾
你让 Opus 跑推理看看,幻觉概率很低很低 |