上下文支持到 10 万 token ,已经人类记忆力
1
Jacian 264 天前 via iPhone
每个大模型都说自己超过 GPT4 ,看效果吧🤣
|
2
locoz 264 天前
上下文长度通常看看就好,实际可以正常工作的长度会远低于宣称的长度,达到一定程度之后输出质量就会出现明显下降。
|
3
lyyQAQ 264 天前
没怎么用过,看别人说 claude 封号特别严重
|
4
Guesser 264 天前
希望更多的优秀模型出来,openai 无脑封号太难用了
|
5
holulu 263 天前 1
刚测了,在逻辑推理方面是比 gpt-4 好的,多点模型卷起来挺好的,一家独大就没得选了。
|