前途科技前途科技
  • 洞察
  • 服务
  • 关于
  • AI 资讯
    • 快讯
    • 产品
    • 技术
    • 商业
    • 政策
    • 初创
  • 洞察
  • 资源中心
    • 深度研究
      • AI 前沿
      • 案例研究
      • AI 知识库
    • 行业报告
      • 白皮书
      • 行业报告
      • 研究报告
      • 技术分享
      • 专题报告
    • 精选案例
      • 金融行业
      • 医疗行业
      • 教育行业
      • 零售行业
      • 制造行业
  • 服务
  • 关于
联系我们

谁来给企业端即将大规模入职的Agent盖办公室?

AI 前沿2026年5月13日· 5 分钟阅读0 阅读

话题背景假如让你给代码模型提需求,你会说什么?鹅厂程序员,在日常开发和工作提效中,越来越多的同学开始借助代码模型来辅助工作。我们邀请了9名鹅厂同事来聊聊:👉 一个好的code模型应该具备什么能力?下面这些想法,或许代表了未来开发的新趋势。当然,我们也想知道你的答案,欢迎大家在评论区分享你

话题背景

假如让你给代码模型提需求,你会说什么?

鹅厂程序员,在日常开发和工作提效中,越来越多的同学开始借助代码模型来辅助工作。

我们邀请了9名鹅厂同事来聊聊:
👉 一个好的code模型应该具备什么能力?
下面这些想法,或许代表了未来开发的新趋势。当然,我们也想知道你的答案,欢迎大家在评论区分享你的奇思妙想。(分享有奖)


鹅厂员工们的分享


@dan-后台开发

▼


“懂得不写代码"的智慧

现在无论是claude还是gemini,在写代码时,会把你仔细交代的任务完成的很好,但前提是要明确把一些工具库跟它说清楚,否则它可能会放飞自我,虽然实现了,但其实多做了很多冗余工作,比如为了实现某个结果,中间要用缓存或者DB,自己实现了个缓存或Dao,但实际上大仓里就有现成的实现,它们往往不知道复用。。。

并且现在越来越感觉很多人觉得代码模型牛就是可以狂写代码,比如最近看到很多讨论说XX大模型Agent狂写代码XX小时不停歇。。

但我觉得其实Code最高级的能力是知道什么时候不该写。比如用户想实现一个功能,模型得能说"诶,你这需求其实某个库已经有现成的了,直接用就行",或者"你这么搞会踩坑,换个思路吧",或者”你是不是想达到xx目的,有一种模式更适合实现这个目的,这样改造会更好“。这种“懂得不写代码"的智慧 判断力比单纯生成代码难多了。


图片

图片


@he-客户端开发

▼

最近使用agent写代码,总结下来的经验就是,AI很擅长模仿(cv工程师),在写代码之前,先让agent学习类似的功能实现架构和项目API调用规范,总结出一份技术方案后再开始写代码,代码质量显著提升。




@scar-应用研究
▼


其实把LLM当作程序猿来评价就OK了,对于Code能力基本要求都差不多。但是LLM烧的是Token,可以一直高速输出,所以有些要求可以适度降低(时间换能力),大概列几条吧:

1、好的开始是成功的一半:要求LLM能理解用户的需求,这里不是说要模型多聪明,程序猿确定需求时也是不停沟通拉会来完善对需求的理解,所以不能说“LLM可以一句话”开发才是厉害,因为一句话也没多少信息。平时真实的工作都是很细节的,需要模型和用户之间达成确定共识。比较推荐的让LLM给一个plan,然后修改到符合用户预期。

2、良好的代码风格:有了架子就是填肉了,我是喜欢LLM输出可读性高的代码,长点和慢点都还好,不好读的话确实浪费用户的理解时间,而且一般可读性差的代码质量也堪忧。

3、优秀的代码调试能力:与其要求模型能一次写对,不如要求模型能把有错误的代码改好。因为模型可以高速的24小时运行,所以试错成本比程序猿要低很多。但这里要求这里是真的改好,而不是那种看到一个Error去加一个 try-except分支那种”叠垃圾“的方式。

4、这点不是对模型的要求:要有一个LLM友好的开发环境,能让模型很好串联穿上面三个过程。让LLM有足够的资源可以使用,最好还能帮助LLM做Context工程。



@bun-后台开发
▼

1.能看懂现有代码, 了解现有代码的习惯,生成代码时别瞎改风格。

2.  出了问题,能修bug,看报错能秒懂是哪儿错了,直接给改好。

还能帮忙优化代码,发现哪里重复、哪里慢,给你更优雅的写法。

 3. 不能胡编乱造,不知道就说不知道,别瞎编代码坑人。



@fe-后台开发
▼

对于AI代码辅助还不够理想的领域的话,现在最头疼的就是调试和修Bug这块。微软最近的研究显示,连Claude、GPT这些大模型在调试任务上的成功率都不到50%,有的甚至只有20%出头——一个bug修完冒出三个新bug,简直是"打地鼠"现场。

还有就是处理复杂业务逻辑的时候,AI容易"想当然",它只会照着训练数据里的模式来,碰到你公司独特的业务规则,生成的代码往往差点意思。再加上它的上下文窗口有限,大项目里跨几个文件的改动,AI经常"丢三落四",前面改了后面忘。

目前Claude新出的debug模式我认为是一个很不错的尝试,感觉可以多探索不同模式进行优化,只有更多的探索才能知道更好的方式



@gam-客户端开发
▼

1.支持 200k 以上的上下文,codex模型已经支持400k上下文了;长时的异步任务会越来越多

2.function calling 高准确率;之前调过一些国内模型,在参数格式和要求上难以保证,这导致执行容易出错

3.高 Cache 能力;code 模型需要执行长任务,cache 比率会大大影响任务成本

4.低延时;这个自不必说了,在补全和NES场景下要求更高

5.Thinking 能力,需要能够做好规划和反思

6.多模态能力,随着编码范式的改变,语音和图片输入需求会越来越多;举例,页面程序UAT测试自动截图反馈场景

先做到以上,再在这个基础上继续迭代。



@fie-前端开发
▼

不懂就不懂,不要瞎说


图片



@jeff-产品策划
▼

更好的架构能力,更精准的纠错能力🐶



@ell-应用研究
▼

现在的代码模型在写单个函数、小模块这些方面已经很强了,但一碰到工程级别的大项目,就很容易暴露短板。最明显的问题就是——架构层面的把控能力不足。

AI生成代码的时候,往往是"头痛医头",你问它一个功能它就给你一段代码,但它很难站在整个项目的角度去思考模块划分、分层设计、依赖关系这些东西。一开始基础架构没搭好,后面越写越乱,最后就变成一坨屎山,重构的成本比重写还高。

所以我觉得一个真正好的 code 模型,除了基本的代码生成能力之外,还应该具备:

架构感知能力——能理解项目整体结构,生成的代码要符合当前项目的设计规范,而不是各写各的。

上下文一致性——在大工程里能保持命名风格、设计模式、模块职责的一致性,不要前后矛盾。

主动提醒和建议——比如发现你的设计有耦合过重、职责不清的问题时,能给出架构层面的优化建议。

所以,也说明架构设计能力短期内还是得靠人。AI可以当好帮手,但开发者自身的架构思维和工程素养,反而在AI时代变得更重要了


标签:AI大模型

想了解 AI 如何助力您的企业?

免费获取企业 AI 成熟度诊断报告,发现转型机会

//

24小时热榜

AI 交互的范式转变:从"回合制"到"实时协作"
TOP1

AI 交互的范式转变:从"回合制"到"实时协作"

回敬 Codex,Claude Code 推出 /goal 功能,不干完不睡觉
TOP2

回敬 Codex,Claude Code 推出 /goal 功能,不干完不睡觉

3

Claude Opus 4.7刚刚曝光!Claude Code一夜重构,7x24小时替你打工

2小时前
Claude Opus 4.7刚刚曝光!Claude Code一夜重构,7x24小时替你打工
4

XGBoost预测急诊量:数据驱动的排班决策

1小时前
XGBoost预测急诊量:数据驱动的排班决策
5

再也不用盯着几十个终端窗口!Claude Code推出Agent视图,一屏管所有

2小时前
再也不用盯着几十个终端窗口!Claude Code推出Agent视图,一屏管所有
6

对话OpenClacky李亚飞:把Harness做透,Token账单就不是问题了

2小时前
对话OpenClacky李亚飞:把Harness做透,Token账单就不是问题了
7

到底是谁会相信RAG已死啊?

2小时前
到底是谁会相信RAG已死啊?
8

RAG又进化了!微软整了个企业级AgenticRAG

2小时前
RAG又进化了!微软整了个企业级AgenticRAG
热门标签
大模型AgentRAG微调私有化部署Prompt EngineeringChatGPTClaudeDeepSeek智能客服知识管理内容生成代码辅助数据分析金融零售制造医疗教育AI 战略数字化转型ROI 分析OpenAIAnthropicGoogle

关注公众号

前途科技微信公众号

扫码关注,获取最新 AI 资讯

免费获取 AI 落地指南

3 步完成企业诊断,获取专属转型建议

已有 200+ 企业完成诊断

前途科技前途科技
服务关于快讯技术商业报告
前途科技微信公众号

微信公众号

扫码关注

Copyright © 2026 AccessPath.com, 前途国际科技咨询(北京)有限公司,版权所有。|京ICP备17045010号-1|京公网安备 11010502033860号|隐私政策|服务条款