ai测试

blues_C6 天前
人工智能·测试用例·需求分析·测试报告·ai测试·ai测试平台·测试建模
AI 智能测试平台:自动进行需求分析 & 测试建模 & 测试用例 & 测试报告「详细介绍」本项目是一个基于 Streamlit 构建的交互式 Web 应用,利用大语言模型 (LLM) 和检索增强生成 (RAG) 技术,辅助完成各种软件测试任务。用户可以输入需求描述,选择性地通过知识库和历史数据增强上下文,从而生成 需求规格说明书、测试用例、测试建模文档、和 测试报告。
小生测试6 个月前
ai测试·ai生成测试计划·ai生成甘特图·测试任务甘特图·人工智能测试
3、AI测试辅助-测试计划编写(自动生成任务甘特图)测试计划格式内容: 一般需要包括以下几点: 1、测试目标 2、测试范围 3、测试人员 4、测试排期 5、测试资源 6、测试方法与方案 7、风险评估 8、测试报告
daopuyun8 个月前
人工智能·ai测试
人工智能系统测试生命周期详解之测试分析前面的文章里我们已经整体介绍过了人工智能测试的生命周期,它需要经历测试需求的分析、测试环境的准备、数据的准备与验证、测试的执行预分析以及上线后的监控这样一个过程。前面的文章已经为大家介绍了人工智能系统测试生命周期的“需求分析”环节、“测试环境准备”环节、“测试数据准备”环节和“测试执行”环节,本文我们将继续介绍下一个环节“测试分析”。
向日葵花籽儿1 年前
人工智能·python·llm·prompt·aigc·测试·ai测试
#LLM入门|Prompt#2.10_评估、自动化测试效果(下)——当不存在一个简单的正确答案时 Evaluation Part2上一章我们探索了如何评估 LLM 模型在 有明确正确答案 的情况下的性能,并且我们学会了编写一个函数来验证 LLM 是否正确地进行了分类列出产品。 在使用LLM生成文本的场景下,评估其回答准确率可以是一个挑战。由于LLM是基于大规模的训练数据进行训练的,因此无法像传统的分类问题那样使用准确率来评估其性能。
向日葵花籽儿1 年前
自动化测试·llm·prompt·aigc·测试·ai测试
#LLM入门|Prompt#2.9_评估、自动化测试效果(上)——存在一个简单的正确答案时(Evaluation-part1)在构建基于LLM的应用程序后,我们需要评估其运行状况并持续优化回答质量。评估LLM输出的最佳实践包括逐步建立测试样例集合,调整Prompt以在小样本上起效,并添加难以处理的例子进行测试。 与传统的监督学习应用程序不同,基于LLM的应用程序不需要收集大量的训练样本,因为可以在几分钟内定义Prompt并在几小时内得到结果。因此,我们可以通过在一到三个样本的小样本中调整Prompt来逐步改进系统性能。如果遇到无法解决的棘手例子,我们可以将这些例子添加到测试集中,并开发衡量性能的指标,如平均准确度。 值得注意的是