以前都说 LLM 是推理下一个字符,所以有可能算错 10+11 这种最基本的计算题
现在似乎不会了,agent 的逻辑之下,LLM 会发现这是一个计算题,所以会当场写一个脚本再来算,就不会算错了
很多以前纯靠预测字符的方案难以解决的问题现在似乎都被解决了(至少不会再犯离谱的错误
以前都说 LLM 是推理下一个字符,所以有可能算错 10+11 这种最基本的计算题
现在似乎不会了,agent 的逻辑之下,LLM 会发现这是一个计算题,所以会当场写一个脚本再来算,就不会算错了
很多以前纯靠预测字符的方案难以解决的问题现在似乎都被解决了(至少不会再犯离谱的错误
1
sentinelK 15h 7m ago
1 、各家后训练的算法技巧提升了。导致最终输出更加贴合用户的需求。
2 、AI 工具的能力逐渐丰满,让 LLM 不再是两眼一抹黑。 当初有这个问题有很多个维度的理解。 1 、为了占领市场(凸显效果好),各家都会有意的让模型随机性加大。 2 、各家的工具都太粗糙,一开始连联网能力都没有。普通人根本没有能力提供给 LLM 合理的上下文。就像是你的女朋友跟你说“我的那个在哪里”,你怎么答都是错的。 3 、模型预训练没形成范式,全靠大力出奇迹,没有基础认知这个概念。 |
2
beyondstars 14h 46m ago
接入一个 mathematica 的 skill/mcp 你甚至可以让 agent 准确无误地计算不定积分,只要 llm 足够聪明找得到正确的工具调用。
|
3
ntdll 14h 14m ago
以我浅薄的理解,LLM 对于数据计算不正确,更多的原因可能是分词导致的。
比如 1.0999 在分词的时候,有可能被分成 1.0 999 两个 token |