我大段文本,gpt-4o 3 秒左右就能返回,国内比如智谱清言,文心一言就要 10 秒多才能返回,有没有知道原因啊,真难搞
|  |      1kyor0      2024-05-22 11:49:01 +08:00 via iPhone 这不正常么 | 
|  |      2jr55475f112iz2tu      2024-05-22 11:51:09 +08:00 虽然 4o 本身就是牺牲质量换速度 但除了技术比不过,你觉得还能有什么其他影响因素? | 
|  |      3TheJustin      2024-05-22 11:56:09 +08:00 老黄专程送 H200 给奥特曼,国内还在用上一代的阉割算力,阉割不说,数量还跟不上…… | 
|      4Antihank      2024-05-22 11:57:46 +08:00 体会到了登子扼颈的窒息吧 | 
|  |      5ktqFDx9m2Bvfq3y4      2024-05-22 12:01:03 +08:00 还有就是人才的意愿问题,如果给人才一个选择的机会,去美或中,答案就是原因。 | 
|      6ronyin      2024-05-22 12:03:09 +08:00 百度文心一言还有人用么。。 | 
|      7pi7m1Dr691wfl95q      2024-05-22 12:06:01 +08:00  8 gpt-4o sleep()写太小了 | 
|  |      8weijancc      2024-05-22 12:28:24 +08:00 我目前对比了所有国内 AI 产品,抖音的豆包和讯飞的 AI 比较快, 但是训分的 UI 太丑了.. 抖音的回答质量会稍微弱一点, 但是够用了. | 
|      9kenvix      2024-05-22 12:42:18 +08:00 没钱 实际上你自己部署开源的国内大模型就会发现速度也很快的...比如阿里 Qwen1.5 | 
|  |      10Retas      2024-05-22 12:51:24 +08:00 via iPhone moonshot 基本秒回 | 
|      11yiwanjidanmian OP @Retas 那我试试 | 
|      13ardour      2024-05-22 14:18:00 +08:00 算力都不在一个级别 | 
|      15JoeDH      2024-05-22 15:57:38 +08:00 国内的那回复都是一个一个字返回来的,gpt 的是一大段直接吐出来给你 | 
|      16Donaldo      2024-05-22 16:01:06 +08:00 没钱 没卡 | 
|      17kenvix      2024-05-22 17:02:43 +08:00 @eastjoehan #15 你这说的,哪个 LLM 不是 token by ken ? | 
|  |      18wweerrgtc      2024-05-22 17:24:26 +08:00 也许是需要审核 输入和输出的内容 | 
|      19zhangdp      2024-05-22 17:37:03 +08:00  3 可能需要分析审核内容耗时了,不允许违法的特别的反动的词语 | 
|      20macaodoll      2024-05-22 22:15:36 +08:00 via Android 问就是制裁没显卡, | 
|      21yinmin      2024-05-23 10:23:15 +08:00 via iPhone 试试:海螺 ai 、通义 ai 、零一万物 ai 、deepseek v2 ,都是很快的。 |