42 条回复  ·  4473 次点击
notwaste 小成 2025-12-5 09:17:19
能跟大模型对齐业务需求逻辑才是最难的,现在不管 spec 还是 skill 都还差点意思
94 初学 2025-12-5 09:17:30
其实现在也有很多开发已经完全不看 AI 输出的结果,先无脑 Accept All 了再说。
Test22 初学 2025-12-5 09:24:35
@sillydaddy AI 自主生成测试用例,自动运行测试,与预期不符修改代码重新执行,这又何尝不是一种 debug 呢
4ever911 小成 2025-12-5 09:26:23
不要高估 ai 一年能做到的,也不要低估 ai 十年可能改变的
nkidgm 小成 2025-12-5 09:42:09
这个肯定的,楼上说的 AI 编译产物不确定(稳定),其实这个问题利用多个 AI 协同合作保证正确率,一个 AI 负责 compile 自然语言输出,另一个 AI 负责 review ,再由各种各种的 agent 验证,即使还有一定概率出现问题,但已经是小概率事件了。
sagnitude 初学 2025-12-5 09:46:05
编译器是翻译不是改写,是稳定的,是幂等的,同样的程序总给出同样的输出,所以才只需要看高等语言,而可以不关心机器码,只要维护编译器的人去看,世界上其他所有人都可以不看 但每个程序的需求、输入、输出、边界、功能都是不同的,就是需要人去看,至少短时间
alamaya 初学 2025-12-5 09:50:42
说实话现阶段的 ai 无法分辨对错,代码这种一出问题就有可能呢造成重大损失的,说不用 review 的出了事儿替 ai 背锅就行了
Esec 小成 2025-12-5 10:00:15
编译结果可以写测试覆盖,设计时约束输入来减少异常输出的可能,现在 ai 缺个固定部分网络只推理输入的功能
sillydaddy 初学 2025-12-5 10:00:27
@Test22 #12 我指的是断点 debug 那种,可以获取精确的状态信息。除非大模型能肉眼看出 bug 所在(现在显然还不太能做到),否则还是需要 debug 的吧?当然也可以不用打断点,而是通过打印日志。。。。 @cincout @kapr1k0rn #4 #5 原帖文意思是,当 AI 能像人类一样(持续)编码,就不需要**人类** review 代码了!即使输出的代码有不确定性,有 bug ,那也是 AI 自己修 bug 的事了。从自主性来说,给定了输入(需求),就无需人工介入了,人类需要检视的是给定的需求是否恰当,就像编译器的作者只需要检视编译器的规则一样。
cat9life 楼主 小成 2025-12-5 10:00:29
暴论:我们都天然的相信编译器,可能只是因为“所有在我出生之前发明出来的东西都是理所当然的;所有在我 15–35 岁之间发明的东西注定是要改变世界的;所有在我 35 岁之后的发明都是反人类的”。
返回顶部