54 条回复  ·  5874 次点击
ZzzWatch 楼主 初学 2025-9-25 10:09:22
@xiaomushen 之前爆出过,但是我一直没用过国内的,我一般都是 chatgpt 刚刚刷到 Qwen3max 全球前三 https://www.fex.com/t/1161512#reply32 这个帖子,然后就体验了下国内的,就感觉应该不会犯这种低级错误了才对
MIUIOS 初学 2025-9-25 10:10:30
模型不存在什么底层不底层,我也是用这个插件,也是用的千问 coder3 ,我这随便换一个国外模型他也是说自己是 claude ,很明显这个插件内置了提示词,它是开源的,代码找找就知道了。 ![123]( https://m.360buyimg.com/i/jfs/t1/351065/24/7347/23604/68d4a46eFfbfd088d/e1f7ddfa07e50721.png)
rb6221 初学 2025-9-25 10:10:56
claude 不是闭源的吗,别家能拿来再训练?我不懂 AI 不知道这个是否合逻辑
ZzzWatch 楼主 初学 2025-9-25 10:12:55
@MIUIOS 那应该是内置的,因为我确实没有引入任何规则,我使用千问 coder 回答是 Claude3.5 但是我使用千问 3max 回答就是 Claude4 ,内置不应该回答是同一个模型吗?
Rat3 初学 2025-9-25 10:14:16
@rb6221 蒸馏不管你是开源闭源啊,我直接消费答案就好了
super452 小成 2025-9-25 10:14:52
这个问题几年前就有,早见怪不怪了,之前有人问 chatgpt 用的哪个模型,回复用的百度。。
zachariahss 初学 2025-9-25 10:15:45
@ZzzWatch 蛮正常的,不是说最新就最好,否则就没有那么多新的算法逻辑,工程逻辑弄出来的长上下文,高效推理技术,工具,多模态这些了.发展到这个时间了.基本就是各种蒸馏数据了.传统数据垃圾信息太多,不好做训练处理.蛮正常,越发展数据越雷同,最后就看各家的架构和算法了
xmh51 小成 2025-9-25 10:16:54
@ZzzWatch 这个问题恰好说明了 ai 的不可靠性,现在固定回复的,都是有规则干预的,原始训练的数据出来的 ai ,会出现乱回复的很正常,它本身没有一个自我的认知,真能感知自我,那乐子就大了去了。
stimw 小成 2025-9-25 10:34:37
@ZzzWatch #16 用一部分 claude 输入输出来训练,跟模型能力超过 claude ,完全不冲突。不恰当的比方,跟路边大妈问路,说明大妈学历高吗? “你是谁”或者“你是哪个模型”这种问题没啥意义,厂商微调过这类问题就能回答得很好,没关心这类问题就会回答的五花八门。
laikicka 初学 2025-9-25 10:37:03
知道为什么 claude 要禁止牢中公司使用了吧 😆
返回顶部