V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
• 请不要在回答技术问题时复制粘贴 AI 生成的内容
exploretheworld
V2EX  ›  程序员

大模型现在能解析整个项目吗

  •  1
     
  •   exploretheworld · 31 天前 via Android · 4780 次点击
    搞 C++还没招进来,只能我自己先看了
    36 条回复    2025-02-25 09:06:40 +08:00
    azarasi
        1
    azarasi  
       31 天前
    不能 最多四五千行
    neutrino
        2
    neutrino  
       31 天前 via Android
    不能,而且提几个问题以后就会忘记项目代码
    GBdG6clg2Jy17ua5
        3
    GBdG6clg2Jy17ua5  
       31 天前
    不能,上下文长度有限。
    ShinichiYao
        4
    ShinichiYao  
       31 天前
    这是革了程序猿的命了
    liuguangxuan
        5
    liuguangxuan  
       31 天前
    C++的啥活?可以外包给我
    alexsz
        6
    alexsz  
       31 天前
    cursor 或者 windsurf 应该可以啊
    从 maint 入手,让 AI 讲解每个模块、方法
    kepenj
        7
    kepenj  
       31 天前
    长度有限制,别说代码了,就是让转义个数据结构,3000+行左右就开始各种漏数据/对不齐了,对了我用的 cursor pro.
    juzisang
        8
    juzisang  
       31 天前
    不能,根本没有破除大模型的上下文长度限制。只是把你的提供的语料存储到数据库,然后根据你输入的提示词找出相近的文本段落,输给大模型,大模型在根据这些预料来做出回应。cursor 就是这样的...
    HongJay
        9
    HongJay  
       31 天前
    以后行了,要你也没用了
    iLoveSS
        10
    iLoveSS  
       31 天前   ❤️ 1
    留些尊严,给条活路
    specita
        11
    specita  
       31 天前
    以后行了,就真没出路了
    zhongs
        12
    zhongs  
       31 天前   ❤️ 1
    windsurf 可以
    billbob
        13
    billbob  
       31 天前
    不行的,上下文不支持,你只能一段一段去解读
    guanhui07
        14
    guanhui07  
       31 天前
    不能,上下文长度有限
    hancai2
        15
    hancai2  
       31 天前
    吐槽一下 trae 好难用,vim 按键经常让代码乱套。 好在免费
    shadowyue
        16
    shadowyue  
       31 天前
    为啥 AI 现在做不记住上下文?存储不是比算力便宜多了吗?
    OBJECTION
        17
    OBJECTION  
       31 天前
    c++代码都相对比较长把。。 而且用了模板啥的 其实很多 ai 也不行。。o1 都干完了 还是得看自己。。
    raopeize
        18
    raopeize  
       31 天前
    类似 cursor 的 codebase indexing 功能吗
    crackidz
        19
    crackidz  
       31 天前
    只有 Gemini 能解析中小项目,你把所有文件打包成一个文件,传到网盘...
    imjiaoyuan
        20
    imjiaoyuan  
       31 天前
    不能吧,cursor 写多了就忘了前面的代码了,老是得给他重新提
    leverestfish
        21
    leverestfish  
       31 天前   ❤️ 1
    @shadowyue 因为计算复杂度和长度平方成正比,而且显存一点也不便宜
    jstony
        22
    jstony  
       31 天前   ❤️ 1
    @shadowyue 应该不是存储的限制,是太长的上下文会使得推理时长飞涨到不可接受。
    thinkm
        23
    thinkm  
       31 天前
    cursor 重构八九千行的项目好使不,我有个项目七八千行都在一个文件,变量 类什么的,看着就烦
    zhmouV2
        24
    zhmouV2  
       31 天前
    应该说是 transformer 本身的限制,理论上确实处理一个 token 可以关注到全局信息,但是受限复杂度的限制,context 不可能无限长。。。而且也受训练数据的影响。比如说 diffusion 画图模型最早在 512 / 640 的分辨率图片做训练,结果画更大分辨率的图总会崩掉,llm 也是一个道理,现在模型的上下文长度一般都是 128K / 256K ,ds 的 r1 好像只有 64k ,读取整个项目当然不够用。
    guts
        25
    guts  
       31 天前
    mohuani
        26
    mohuani  
       31 天前
    你想要的是不是这样的产品: https://gitseek.dev/
    zhangfannn
        27
    zhangfannn  
       31 天前
    想问下, 如果代码会限制上下文, 那为啥豆包的 AI 阅读能上传 50 个 100M 文件呢?
    R4rvZ6agNVWr56V0
        28
    R4rvZ6agNVWr56V0  
       31 天前
    @zhangfannn RAG 而已
    gjnevergo
        29
    gjnevergo  
       31 天前
    可以 上 rag
    imokkkk
        30
    imokkkk  
       31 天前
    我们内部工具 Aone Copilot ,好像可以总结整个仓库,具体没用过
    ForkNMB
        31
    ForkNMB  
       31 天前
    字节的 https://www.trae.ai 用着还行,一个 C 的大型项目,完全看不懂(C 的水平就是大一学过一点谭浩强的水平)。直接用这个打开项目,慢慢分析起码能看懂了,它会联系一定的上下文,比如你选个函数它起码是会分析这个函数所在文件内容的,对话里跨文件也可以,还能直接选中代码添加到对话,用起来很方便。
    fcten
        32
    fcten  
       30 天前
    不能,上下文长度有限。即使按 1M 上下文长度算,估计也就 5w~10w 行代码的长度。稍微复杂一些的项目应该都不止这个代码量了。
    但是其实解决绝大部分问题并不需要通读整个项目。
    ianisme
        33
    ianisme  
       30 天前
    cursor 是不是也只能编写那种小 app ,对于公司接别的大 APP 无从下手
    yippee0539
        34
    yippee0539  
       29 天前
    C++投简历都不面,
    大佬这是找不到
    笑死
    ningmengzhensuan
        35
    ningmengzhensuan  
       28 天前
    看你项目的文件多少,小型的项目可以喂给 Claude project ,有代码数量的限制,这个目前是最强的,
    unibrighter
        36
    unibrighter  
       27 天前
    1. 目前 llm 对学新技术栈是有用的,小规模的 app 等也勉强 handle
    2. 上下文变大了以后,你会明显感觉顾此失彼,变蠢了
    3. 就像那种临时接手又不愿意看屎山代码,入行 1-2 年程序员的水平.
    关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   2971 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 46ms · UTC 14:40 · PVG 22:40 · LAX 07:40 · JFK 10:40
    Developed with CodeLauncher
    ♥ Do have faith in what you're doing.