ai测试

测试一路到黑13 小时前
软件测试·功能测试·测试开发·playwright·ai测试
端到端测试自动化流水线:Playwright + GitHub Actions + Allure Reports 完整实践在当今快节奏的软件开发环境中,自动化测试对于交付高质量的 Web 应用程序至关重要。现代 CI/CD 流水线需要可靠、可扩展且透明的测试自动化,以确保对每次发布都充满信心。
旦莫15 小时前
python·测试开发·自动化·需求分析·ai测试
自动化测试需求分析:从“做对”到“做好”的前提目录一、为什么自动化测试需求分析不能少?二、自动化测试需求分析的核心内容2.1 明确测试范围:先筛掉“不适合自动化”的场景
旦莫2 天前
python·测试开发·pytest·ai测试
怎么才能算对自动化测试框架二次开发(以Pytest为例)目录一、先理清:pytest二次开发的核心定义二、pytest二次开发的3个核心判断标准1. 标准1:基于框架原生扩展机制
Cherry的跨界思维11 天前
人工智能·单元测试·集成测试·ai测试·全栈ai·全栈ai测试·社会测试
【AI测试全栈:质量模型】4、新AI测试金字塔:从单元到社会的四层测试策略落地指南在传统软件开发的黄金时代,测试金字塔模型(单元测试→集成测试→系统测试)一直是我们确保软件质量的基石。然而,当AI系统悄然渗透到金融风控、医疗诊断、智能推荐等关键领域时,这套行之多年的测试体系突然显得力不从心。
Cherry的跨界思维11 天前
人工智能·深度学习·机器学习·语言模型·ai测试·ai全栈·测试全栈
【AI测试全栈:认知升级】2、AI核心概念与全栈技术栈全景在上一篇中,我们探讨了AI测试的独特挑战与哲学。本篇将深入AI系统的核心,如同全栈开发需要理解“请求-路由-数据库-响应”的流程一样,AI测试工程师必须透彻掌握从数据到智能的完整链路。我们将把复杂的AI核心流程与传统全栈开发流程进行类比拆解,系统介绍机器学习三大范式、深度学习核心概念,并最终绘制出一幅清晰的全栈AI测试工具链全景图。无论你的背景是Python数据科学、Java后端工程还是Vue前端开发,都能在这里找到定位,并学会如何协同工作,为AI系统的质量保驾护航。
多则惑少则明24 天前
人工智能·ai测试·大模型测试
AI测试、大模型测试(九)spring集成大模型(AI4J)目录1.1 AI4J简介1.2 支持接入的大模型1.3 示例1.4 AI4J 源代码1.5 更多代码示例(调用openapi大模型)
多则惑少则明1 个月前
人工智能·ai测试·ai大模型测试
AI测试、大模型测试(七)Java主流大模型框架技术目录一、大模型按「应用领域」分类二、 主流框架技术特点2.1 Spring AI框架1、 pom依赖2、 Spring AI特点
多则惑少则明1 个月前
人工智能·prompt·ai测试·ai大模型测试
AI测试、大模型测试(六)AI agent简介与Prompt提示词目录一、AI Agent与大模型二、 市面上智能体1、墨刀AI Agent2、AI测试平台——Testin XAgent
多则惑少则明1 个月前
人工智能·ai测试·ai大模型测试
AI测试、大模型测试(八)SpringAI核心技术目录一、SpringAI特点二、SpringAI核心技术2.1 ChatModel(与其他大模型交互接口)
多则惑少则明1 个月前
人工智能·测试工具·ai测试·大模型测试
AI测试、大模型测试(五)AI测试工具有哪些目录一、AI测试工具分类1.1 智能测试生成工具1.2 智能测试执行与优化工具1.3 专项领域AI测试工具
多则惑少则明1 个月前
人工智能·ai测试·大模型测试·算法测试
AI测试、大模型测试(四)AI测试分类&AI测试岗位分工目录一、AI测试分类二、AI测试岗位分工说起AI测试可能过于模糊,下面来看看AI测试的分类。常见的分类方式包括按测试类型、测试对象、测试目标或AI应用场景划分。
多则惑少则明1 个月前
人工智能·ai测试·大模型测试
AI测试、大模型测试(一)目录一、AI测试与传统测试的区别二、AI大模型测试的独特挑战三、AI大模型测试对QA的要求1、AI大模型测试中,QA核心工作之一是需要评估从哪些方面评估模型的表现,准备好测试集
软件测试小仙女3 个月前
自动化测试·软件测试·人工智能·测试工具·cypress·ai测试·测试计划
AI驱动的测试:Cypress的cy.prompt功能实践测试人员的角色和测试工具正在迅速发展。Cypress 最近引入了一个实验性功能,可能会改变我们编写 Cypress 自动化测试的方式。
旦莫5 个月前
人工智能·python·测试开发·测试用例·ai测试·mtsc2025
MTSC2025参会感悟:AI 驱动的测试用例生成目录一、测试用例生成的背景与挑战二、用例平台的整体设计方案(一)平台核心组成(二)用例规范化语言设计三、AI 用例生成的场景与价值
blues_C9 个月前
人工智能·测试用例·需求分析·测试报告·ai测试·ai测试平台·测试建模
AI 智能测试平台:自动进行需求分析 & 测试建模 & 测试用例 & 测试报告「详细介绍」本项目是一个基于 Streamlit 构建的交互式 Web 应用,利用大语言模型 (LLM) 和检索增强生成 (RAG) 技术,辅助完成各种软件测试任务。用户可以输入需求描述,选择性地通过知识库和历史数据增强上下文,从而生成 需求规格说明书、测试用例、测试建模文档、和 测试报告。
小生测试1 年前
ai测试·ai生成测试计划·ai生成甘特图·测试任务甘特图·人工智能测试
3、AI测试辅助-测试计划编写(自动生成任务甘特图)测试计划格式内容: 一般需要包括以下几点: 1、测试目标 2、测试范围 3、测试人员 4、测试排期 5、测试资源 6、测试方法与方案 7、风险评估 8、测试报告
daopuyun1 年前
人工智能·ai测试
人工智能系统测试生命周期详解之测试分析前面的文章里我们已经整体介绍过了人工智能测试的生命周期,它需要经历测试需求的分析、测试环境的准备、数据的准备与验证、测试的执行预分析以及上线后的监控这样一个过程。前面的文章已经为大家介绍了人工智能系统测试生命周期的“需求分析”环节、“测试环境准备”环节、“测试数据准备”环节和“测试执行”环节,本文我们将继续介绍下一个环节“测试分析”。
向日葵花籽儿2 年前
人工智能·python·llm·prompt·aigc·测试·ai测试
#LLM入门|Prompt#2.10_评估、自动化测试效果(下)——当不存在一个简单的正确答案时 Evaluation Part2上一章我们探索了如何评估 LLM 模型在 有明确正确答案 的情况下的性能,并且我们学会了编写一个函数来验证 LLM 是否正确地进行了分类列出产品。 在使用LLM生成文本的场景下,评估其回答准确率可以是一个挑战。由于LLM是基于大规模的训练数据进行训练的,因此无法像传统的分类问题那样使用准确率来评估其性能。
向日葵花籽儿2 年前
自动化测试·llm·prompt·aigc·测试·ai测试
#LLM入门|Prompt#2.9_评估、自动化测试效果(上)——存在一个简单的正确答案时(Evaluation-part1)在构建基于LLM的应用程序后,我们需要评估其运行状况并持续优化回答质量。评估LLM输出的最佳实践包括逐步建立测试样例集合,调整Prompt以在小样本上起效,并添加难以处理的例子进行测试。 与传统的监督学习应用程序不同,基于LLM的应用程序不需要收集大量的训练样本,因为可以在几分钟内定义Prompt并在几小时内得到结果。因此,我们可以通过在一到三个样本的小样本中调整Prompt来逐步改进系统性能。如果遇到无法解决的棘手例子,我们可以将这些例子添加到测试集中,并开发衡量性能的指标,如平均准确度。 值得注意的是
我是有底线的