ai测试

多则惑少则明2 天前
人工智能·ai测试·大模型测试
AI测试、大模型测试(九)spring集成大模型(AI4J)目录1.1 AI4J简介1.2 支持接入的大模型1.3 示例1.4 AI4J 源代码1.5 更多代码示例(调用openapi大模型)
多则惑少则明6 天前
人工智能·ai测试·ai大模型测试
AI测试、大模型测试(七)Java主流大模型框架技术目录一、大模型按「应用领域」分类二、 主流框架技术特点2.1 Spring AI框架1、 pom依赖2、 Spring AI特点
多则惑少则明6 天前
人工智能·prompt·ai测试·ai大模型测试
AI测试、大模型测试(六)AI agent简介与Prompt提示词目录一、AI Agent与大模型二、 市面上智能体1、墨刀AI Agent2、AI测试平台——Testin XAgent
多则惑少则明6 天前
人工智能·ai测试·ai大模型测试
AI测试、大模型测试(八)SpringAI核心技术目录一、SpringAI特点二、SpringAI核心技术2.1 ChatModel(与其他大模型交互接口)
多则惑少则明7 天前
人工智能·测试工具·ai测试·大模型测试
AI测试、大模型测试(五)AI测试工具有哪些目录一、AI测试工具分类1.1 智能测试生成工具1.2 智能测试执行与优化工具1.3 专项领域AI测试工具
多则惑少则明7 天前
人工智能·ai测试·大模型测试·算法测试
AI测试、大模型测试(四)AI测试分类&AI测试岗位分工目录一、AI测试分类二、AI测试岗位分工说起AI测试可能过于模糊,下面来看看AI测试的分类。常见的分类方式包括按测试类型、测试对象、测试目标或AI应用场景划分。
多则惑少则明8 天前
人工智能·ai测试·大模型测试
AI测试、大模型测试(一)目录一、AI测试与传统测试的区别二、AI大模型测试的独特挑战三、AI大模型测试对QA的要求1、AI大模型测试中,QA核心工作之一是需要评估从哪些方面评估模型的表现,准备好测试集
软件测试小仙女2 个月前
自动化测试·软件测试·人工智能·测试工具·cypress·ai测试·测试计划
AI驱动的测试:Cypress的cy.prompt功能实践测试人员的角色和测试工具正在迅速发展。Cypress 最近引入了一个实验性功能,可能会改变我们编写 Cypress 自动化测试的方式。
旦莫4 个月前
人工智能·python·测试开发·测试用例·ai测试·mtsc2025
MTSC2025参会感悟:AI 驱动的测试用例生成目录一、测试用例生成的背景与挑战二、用例平台的整体设计方案(一)平台核心组成(二)用例规范化语言设计三、AI 用例生成的场景与价值
blues_C8 个月前
人工智能·测试用例·需求分析·测试报告·ai测试·ai测试平台·测试建模
AI 智能测试平台:自动进行需求分析 & 测试建模 & 测试用例 & 测试报告「详细介绍」本项目是一个基于 Streamlit 构建的交互式 Web 应用,利用大语言模型 (LLM) 和检索增强生成 (RAG) 技术,辅助完成各种软件测试任务。用户可以输入需求描述,选择性地通过知识库和历史数据增强上下文,从而生成 需求规格说明书、测试用例、测试建模文档、和 测试报告。
小生测试1 年前
ai测试·ai生成测试计划·ai生成甘特图·测试任务甘特图·人工智能测试
3、AI测试辅助-测试计划编写(自动生成任务甘特图)测试计划格式内容: 一般需要包括以下几点: 1、测试目标 2、测试范围 3、测试人员 4、测试排期 5、测试资源 6、测试方法与方案 7、风险评估 8、测试报告
daopuyun1 年前
人工智能·ai测试
人工智能系统测试生命周期详解之测试分析前面的文章里我们已经整体介绍过了人工智能测试的生命周期,它需要经历测试需求的分析、测试环境的准备、数据的准备与验证、测试的执行预分析以及上线后的监控这样一个过程。前面的文章已经为大家介绍了人工智能系统测试生命周期的“需求分析”环节、“测试环境准备”环节、“测试数据准备”环节和“测试执行”环节,本文我们将继续介绍下一个环节“测试分析”。
向日葵花籽儿2 年前
人工智能·python·llm·prompt·aigc·测试·ai测试
#LLM入门|Prompt#2.10_评估、自动化测试效果(下)——当不存在一个简单的正确答案时 Evaluation Part2上一章我们探索了如何评估 LLM 模型在 有明确正确答案 的情况下的性能,并且我们学会了编写一个函数来验证 LLM 是否正确地进行了分类列出产品。 在使用LLM生成文本的场景下,评估其回答准确率可以是一个挑战。由于LLM是基于大规模的训练数据进行训练的,因此无法像传统的分类问题那样使用准确率来评估其性能。
向日葵花籽儿2 年前
自动化测试·llm·prompt·aigc·测试·ai测试
#LLM入门|Prompt#2.9_评估、自动化测试效果(上)——存在一个简单的正确答案时(Evaluation-part1)在构建基于LLM的应用程序后,我们需要评估其运行状况并持续优化回答质量。评估LLM输出的最佳实践包括逐步建立测试样例集合,调整Prompt以在小样本上起效,并添加难以处理的例子进行测试。 与传统的监督学习应用程序不同,基于LLM的应用程序不需要收集大量的训练样本,因为可以在几分钟内定义Prompt并在几小时内得到结果。因此,我们可以通过在一到三个样本的小样本中调整Prompt来逐步改进系统性能。如果遇到无法解决的棘手例子,我们可以将这些例子添加到测试集中,并开发衡量性能的指标,如平均准确度。 值得注意的是
我是有底线的