39 条回复  ·  240 次点击
NoOneNoBody 小成 2024-9-14 13:30:07
gpt 3.5 出现过几次,4o 后没再见过(也可能是我提问的方式变了)
给出的代码很完整且阅读通畅,我觉得不是创作出来的,更像是从哪里抄的,应该是有人写了类似的简易模块开源,被 gpt 读到了,但作者并没有把这个模块打包为库,gpt 将人家引用自家模块的代码输出了,结果就是找不到
AoEiuV020JP 小成 2024-9-14 14:18:38
好几次了已经,我清清楚楚的问有没有第三方库实现了我说的功能,ai 几乎总是会信誓旦旦地告诉我某个库可以实现,明明白白的告诉我怎么使用, 一查就是没有,
nyxsonsleep 初学 2024-9-14 15:09:59
@layden #4 因为它的参考语料里没有承认不会的内容。并且由于数据太多,很容易混淆概念。
Terry05 小成 2024-9-14 16:51:08
早就发现它是在胡扯了,比较细节的东西,可以问问他方案,思路一类的,具体的现实内容绝对不能指望
J0seph 小成 2024-9-14 18:53:24
大模型是语言模型,只考虑给的回答通不通顺,又不管对不对
maemolee 小成 2024-9-14 18:56:27
你别管他有没有撒谎,你就说 AI 给你的回答,是不是像模像样的?

这就是 LLM 的第一要务。
cosmicray 小成 2024-9-14 19:52:56
反面是无论问什么都回答不知道,这个对模型来说更容易做到,但是也更没用。实际上人也经常编造内容,ai 更严重还是因为认知能力不足。
win301 小成 2024-9-15 14:27:49
这也算是收获了经验,下次可以先确定依赖库是否真的存在,然后在在确认一下依赖库里的方法是不是确实是你需要的,然后在开始设计程序
jqtmviyu 小成 2024-9-15 17:42:31
除了瞎编库, 还有一本正经的用 n 年前的废弃文档告诉你解决方法.
PeneceaQwQ 小成 2024-9-15 18:17:16
不带 RAG 相关的都存在幻觉的,就算有合适的 prompt 都可能存在瞎编,o1 稍微好点

还是把 AI 当成 idea 获取器和搜索引擎算了
1234
返回顶部