我是前端开发,最近在一个后台系统和业务组件库的场景去建立单元测试和端到端测试流程。

单元测试

最初调研了一些 AI 生成单元测试的垂直领域 AI ,比如EarlyAI,一个非常垂直细分,专门在 Typescript 技术栈生成单元测试的 AI 项目。 但是实际的结果是,Cursor+Claude3.7 完全可以达到同等甚至比 EarlyAI 更好的效果,真真切切的基座模型一升级,AI 应用白忙活

所以单元测试这块毫无疑问是可以通过 Cursor+一个较为聪明的模型可以去直接生成的,如果我们给定了贴合业务的测试用例给 AI ,效果更佳;没有测试用例给 AI 也没关系,一轮生成下来如果效果没达到预期,多来几轮基本也覆盖得差不多了,关键的是我们要能为 AI 兜底,去判断 AI 生成的测试用例合不合理、是否覆盖到了边界条件。

端到端测试

这块相比单元测试,不确定性和想象空间就会比较大了。我有这么几个想法,丢出来抛砖引玉,和各位F友交流一下。

  1. 最基础的,模型调用Playwright MCP实现端到端测试。这在较为复杂的场景会遇到这样几个问题:

    a. 你很可能需要在 Cursor 中运行它才能得到比较好的效果,因为在 Cursor 中你可以告诉 AI 它正在测试的是哪个页面/组件,从而根据实际的代码去执行更贴切的测试用例。 b. 当场景足够复杂,很可能触碰到 token 的长度上限。 c. 需要你编写足够语义化的 HTML/JSX 代码,否则它很可能不知道页面上一些非文字的元素是什么作用。

  2. 开发 MCP Server ,使 AI 可以动态获取到产品经理的 PRD 和测试同事使用的测试用例,再结合 Playwright MCP 去做端到端测试。

  3. 我们使用了 MCP Server 去做端到端测试,那么是否也可以让 AI 在执行单元测试的过程中,把测试过程以端到端测试代码的形式保存下来? https://github.com/executeautomation/mcp-playwright/pull/77

  4. AI-MCP 执行端到端测试平台化,如果在本地运行效果良好,把这样的服务弄到云端,24h 不间断运行,出问题的时候 AI 分析出问题的功能点,给出语义化的报错信息,然后就是常规化的规则、告警之类的东西了。

举报· 105 次点击
登录 注册 站外分享
快来抢沙发
0 条回复  
返回顶部