75 条回复  ·  8360 次点击
yyj08070631 小成 2025-6-23 16:58:58
提示词优化需求大的时期那是 gpt3.5 那阵,没有思维链,模型本身的推理能力也还不好,所以需要提示词去约束思维模式。现在有思维链,基本不太需要提示词优化了
benfafa 小成 2025-6-23 17:05:17
Gemini API 调用失败: Error code: 401 最新版 macOS edge 浏览器
dosmlp 初学 2025-6-23 17:20:27
想法挺好,但不适合创业,点太小,很容易被豆包这类优化了
frankies 小成 2025-6-23 17:20:59
尝试了下,感觉有的被歪曲理解了,可能是思维链推理还需要优化。chatGPT 的推理选项,特别是其自动记忆能力,貌似鲁棒性更好,提问触发记忆很丝滑无感。
silypie 初学 2025-6-23 17:26:20
门槛比较低,随便写一个优化 prompt 的 prompt ,就能实现
xxdd 小成 2025-6-23 17:55:22
我写了个 红烧肉 我是想学学红烧肉怎么做,但是提示词怎么一大串小作文。
blakezhaothinks 小成 2025-6-23 18:21:55
没啥门槛,而且有些模型厂商配套有类似的功能,和自家产品集成度更高。 你这个,我要先到你的网站上优化下提示词,再到其他的模型中进行对话,来回倒腾直接劝退了。 做个插件,集成到模型厂商的输入框上,给个按钮一件优化,可能会有些用户,但是收费的话我个人不太看好。
chen27 初学 2025-6-23 19:03:50
个人觉得玩一玩可以,依托于这个创业赚钱可行性不大。 prompt engineering 这件事情主要是用于弥补 llm 基座本身的不足,使得 llm 的回答更加优秀。这件事情热度很高是 llm 刚出的时候的事情了,当时的 llm 服务还很差,需要 C 端用户自己做这件事情,才能获得很好的回答。但是现在这件事现在已经不需要了,原因有两个: 1. llm 模型本身在进步。Tick-Tock 上升 (Data 和 Algorithm) 使得 llm 现在已经很强了,虽然离真正的 intelligence 还有一段距离,但是作为一个 assistant 已经够用了。现在 llm 的最大痛点是 hallucination ,这个不是能用 prompt engineering 解决的。 2. 现在 llm 提供商在开放 2C llm 服务时,本身就把它做成了 agent 。它内置了 prompt enhancement ,并且做了很多可用的 function call 。 所以说,你目前这项工作,实际上已经意义不大了。C 端用户自己写更好的 prompt 去获得更好的回答,这件事情已经被 llm 提供商解决了。现在想要获取更好的回答,只需要提问者具备更好的逻辑思维能力,提出人类能理解的足够有逻辑条理的要求就足够了。 再次说到这个产品的使用场景,它一定是 2C 的。你产品增加了用户的操作步骤,但价值增量有限。用户不会费力去做一件意义不大的事情的。 想创业的话,想清楚赚谁的钱。是赚 C 端用户的钱,还是 AD 的钱。前者要求你的产品真的足够好用,能够显著提升生产力,让用户缺你不可,才能从天生不爱在互联网产品上付费的人身上赚到钱。后者则需要你的产品拥有足够多的日活,也就是它足够好用且方便,让用户能够记住你的产品并且每天使用。就你项目的目前形态来看,两者都不可行。
chen27 初学 2025-6-23 19:08:57
@chen27 #67 省流:自己玩玩可以,糊弄老师也可以,但是赚不到钱。
AnotherSola 初学 2025-6-23 19:30:59
目前只有优化提示词这个功能么?我倒是有一个想法,你可以让 AI 去引导用户,多收集几轮用户的想法,然后再生成提示词,粗略的根据「我想学化学」这种做出来的提示词还是太泛化了。 比如我写了一个「我想学吉他」,他给的结果就是很基础的一些吉他知识和课程的提示词。 理想效果是: 用户:我想学吉他 AI:好的,了解到您的需求,请问您之前有吉他经验么? 用户:有的,我大概会一些简单的弹唱 AI:请问你的学习目标是什么? 用户:达到可以随心所欲即兴弹奏的水平 AI:生成中,巴拉巴拉,最后的结果可能就是带一些乐理性质,视唱等方面的学习方案和吉他进阶的提示词。 我觉得这种可能会更有帮助一点。既然你想做的是对「不知道如何与 AI 表达需求的人」提供提示词,我觉得可以在这个基础上再进一步,用 AI 来做引导来获得更准确的用户想法。
返回顶部