大模型本身对代码,文档生成修改的影响
大模型本身对代码、文档生成与修改的影响
最近在给自己的 GitBook 项目扩展 skill,用于整理碎片化知识时,尝试一下免费的 qwen-code。原本只是一个简单的自动化改写与补全任务,却因为模型行为的不稳定,引发了一些新的思考。
在实际使用中,qwen-code 内置的 Qwen 3.5 Plus 模型表现出明显的“生成偏差”:中英文混排时频繁插入多余空格,导致输入结构被破坏,进而影响下游工具的运行。这种问题看似细微,但在工程化流程中却是致命的——自动化修改一旦不满足格式约束,就会从“提效工具”变成“错误放大器”。
更关键的是,在多轮修改任务中,模型未能正确理解“基于原文修改”的指令,而是不断偏离上下文,将修改任务演变为“新建内容”。
模型输出“格式污染”的问题
中英文混合输出时,会插入异常空格
例如:
1 | |
对人来说,这只是看着输出;
但对工具来说,这是灾难级别的。
为什么这是一个被低估的问题?
很多人在评估大模型时,关注点通常是:
- 是否聪明(推理能力)
- 是否全面(知识覆盖)
- 是否稳定(幻觉率)
但在工程实践中,还有一个被忽略的维度:
人可读 ≠ 工具可用
一个回答可以:
- 很流畅
- 很有逻辑
- 很“像人写的”
但只要它:
- 多了一个空格
- 少了一个符号
- 格式不稳定
它就无法进入自动化流程。
对比之下,切换到 codex 后,任务一次性完成。这并不意味着模型能力的绝对优劣,而是说明:在代码与文档修改场景中,稳定性、格式控制能力以及对指令边界的理解,往往比生成能力更重要。
最近 Qwen 团队本身也出现了较大的人员变动:包括技术负责人在内的多位核心成员相继离职,这在社区内引发了不小的震动。在模型刚刚快速迭代、能力持续释放的节点上出现这种变化,却出现这些影响使用的bug,我看github和社区已经是骂声一片了,Qwen也是国产开源王牌了,希望下次的升级能提高可用性吧。
大模型本身对代码,文档生成修改的影响
https://maocat.cc/2026/03/19/blog/ai/vbcode/TheImpactOfModelsOnCode/