71题
在 RAG 系统中,若发现模型生成的答案与检索到的文档内容无关,大概率是哪个环节出现了问题?
A. 文本切片时的字符长度设置过长
B. 嵌入模型(Embedding)的语义映射精度不足
C. 模型的 temperature 参数设置过低
D. 向量数据库的存储容量不足
答案:B
解析:A. 切片字符长度过长仅可能引入冗余信息,不会导致答案与文档无关;B. 嵌入模型负责将查询和文档转换为语义向量,若其精度不足,会导致检索到的文档与查询语义不匹配,模型基于无关文档自然无法生成相关答案,这是该问题的核心原因;C. temperature 参数过低仅会降低生成内容的随机性,与答案和文档的关联性无关;D. 向量数据库存储容量不足会导致无法存储完整文档向量,而非生成无关答案,因此 B 正确。
72题
以下代码用于构建 LlamaIndex 的检索引擎,请问代码中 similarity_cutoff=0.7 的作用是什么?
|--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
| Python from llama_index.core import VectorStoreIndex def build_query_engine(documents): index = VectorStoreIndex.from_documents(documents) query_engine = index.as_query_engine( similarity_top_k=5, similarity_cutoff=0.7 ) return query_engine |
A. 限制检索结果的最大数量为 0.7(向下取整为 0)
B. 仅保留与查询向量相似度大于等于 0.7 的文档片段
C. 设定嵌入模型的输出向量维度为 0.7(归一化处理)
D. 控制检索结果的排序权重,相似度权重占比 70%
答案:B
解析:similarity_cutoff 是 LlamaIndex 检索引擎的核心过滤参数,取值范围为 0-1;B. 该参数的作用是设置语义相似度阈值,仅保留与用户查询向量相似度大于或等于该阈值的文档片段,过滤掉低相似度的无关内容;A. 限制检索结果数量的是 similarity_top_k;C. 它与嵌入模型的向量维度无关,向量维度由嵌入模型本身决定;D. 它不参与排序权重计算,仅做过滤操作,因此 B 正确。
73题
关于大模型的"幻觉"问题,以下哪种解决方案最直接有效?
A. 提高模型的 temperature 参数,增加生成内容的随机性
B. 采用 RAG 架构,让模型基于检索到的真实文档生成答案
C. 减少模型的上下文窗口长度,降低模型的处理压力
D. 增加微调数据的数量,让模型记忆更多知识
答案:B
解析:大模型"幻觉"的核心是模型脱离真实依据,生成虚假或无支撑的内容;A. 提高 temperature 参数会增加随机性,反而可能加剧幻觉;B. RAG 架构的核心价值是为模型提供真实、相关的文档作为生成依据,从根源上约束模型不脱离事实,是解决幻觉问题最直接有效的方案;C. 减少上下文窗口长度会限制模型的信息处理能力,无法解决幻觉;D. 增加微调数据仅能扩充模型的记忆知识,无法避免模型在未知领域生成幻觉,且易导致过拟合,因此 B 正确。
74题
使用 LangChain 构建 RAG 应用时,以下哪个组件用于加载 PDF 格式文档?
A. PyPDFLoader
B. TextLoader
C. JSONLoader
D. ExcelLoader
答案:A
解析:LangChain 针对不同格式文档提供了专用 Loader 组件;A. PyPDFLoader 是专门用于加载 PDF 格式文档的组件,能正确解析 PDF 中的文本内容(支持多页解析);B. TextLoader 仅支持加载纯文本文件(.txt);C. JSONLoader 支持加载 JSON 格式文件;D. ExcelLoader 支持加载 Excel 格式文件,因此 A 正确。
75题
以下哪些属于大模型 API 调用中的常见请求头(Request Header)配置?
A. Content-Type: application/json
B. Authorization: Bearer {API_KEY}
C. User-Agent: My-LLM-Application/1.0
D. Response-Type: stream
E. Loss: 0.001
答案:ABC
解析:请求头用于传递请求的元数据信息,适配 API 接口要求;A. Content-Type 指定请求体的数据格式,JSON 格式是 API 调用的主流格式,该配置必不可少;B. Authorization 用于身份验证,通过 Bearer 令牌传递 API_KEY,确保调用权限;C. User-Agent 用于标识调用应用的信息,便于 API 提供方进行日志统计和问题排查;D. Response-Type 并非标准请求头,流式输出通常通过请求参数配置(如 stream=true);E. Loss 是模型训练过程中的指标,与 API 调用请求头无关,因此 ABC 正确。
76题
在大模型微调过程中,若出现"过拟合"现象,以下哪种做法可以缓解?
A. 增加微调数据的样本数量,提升数据多样性
B. 提高学习率,加快模型参数更新速度
C. 增加训练轮数(epochs),让模型充分学习数据特征
D. 移除所有正则化策略(如 Dropout、权重衰减)
答案:A
解析:过拟合的核心是模型过度学习训练数据的细节和噪声,泛化能力下降;A. 增加微调数据样本数量、提升数据多样性,能让模型学习更全面的任务特征,减少对局部噪声的依赖,是缓解过拟合的有效方法;B. 提高学习率可能导致模型训练不稳定,加剧过拟合或欠拟合;C. 增加训练轮数会让模型更深度地拟合训练数据,进一步加重过拟合;D. 移除正则化策略会失去对模型参数的约束,无法抑制过拟合,因此 A 正确。
77题
以下代码用于实现大模型生成内容的格式校验(校验是否为 JSON 格式),请问代码是否正确?
|--------------------------------------------------------------------------------------------------------------------------------------|
| Python import json def validate_json_output(content): try: json.loads(content) return True except json.JSONDecodeError: return False |
A. 正确,能有效校验内容是否为合法 JSON 格式
B. 错误,未处理 content 为 None 的情况
C. 错误,json.loads() 无法处理带注释的 JSON 内容
D. 错误,应使用 json.dumps() 进行格式校验
答案:A
解析:JSON 格式校验的核心是尝试解析内容,捕获解析异常;A. 代码正确使用 json.loads() 尝试解析输入 content,若解析成功返回 True(合法 JSON),若捕获 JSONDecodeError 异常返回 False(非法 JSON),是标准的 JSON 格式校验方法;B. 若 content 为 None,会抛出 TypeError,但该问题属于输入数据预处理范畴,并非校验逻辑本身的错误,且题目仅关注 JSON 格式校验;C. 带注释的 JSON 本身不属于标准 JSON 格式,无需支持;D. json.dumps() 是将Python对象转换为 JSON 字符串,并非用于校验,因此 A 正确。
78题
关于 RAG 系统的向量数据库,以下描述正确的是?
A. 向量数据库仅能存储文本向量,无法存储原始文本内容
B. 向量数据库的核心优势是高效支持向量相似度检索
C. 向量数据库的检索速度与向量维度成正比(维度越高,速度越快)
D. 向量数据库无需进行索引构建,直接即可进行高效检索
答案:B
解析:A. 错误,主流向量数据库(如 Milvus、Pinecone)均支持同时存储向量数据和原始文本内容(元数据),方便后续关联查询;B. 正确,向量数据库针对向量数据进行了专门优化,能高效支持余弦相似度、欧氏距离等多种相似度计算和检索,这是其与传统关系型数据库的核心区别;C. 错误,向量维度越高,计算复杂度越大,检索速度越慢;D. 错误,向量数据库需要构建专门的向量索引(如 IVF、HNSW),才能实现高效检索,直接检索的效率极低,因此 B 正确。
79题
在大模型提示词设计中,以下哪种做法能有效提升模型的回答质量?
A. 提示词尽可能简洁,仅保留核心问题,不添加额外信息
B. 明确模型的角色、任务目标和输出格式要求
C. 大量使用模糊化词汇(如"大概""可能"),给模型更多发挥空间
D. 避免提供示例,防止模型被示例限制思维
答案:B
解析:A. 提示词过于简洁会导致模型理解偏差,无法准确把握任务要求;B. 明确模型角色(如"资深数据分析师")、任务目标(如"分析销售数据趋势")和输出格式(如"以表格形式呈现"),能为模型提供清晰的引导,显著提升回答质量和贴合度;C. 模糊化词汇会让模型无法准确把握任务边界,导致回答偏离预期;D. 合理提供示例(Few-shot)能帮助模型快速理解任务逻辑,提升回答质量,而非避免提供,因此 B 正确。
80题
以下哪些属于大模型应用部署时的核心考虑因素?
A. 服务器的硬件配置(如 GPU、内存、显存)
B. 应用的并发访问量,确保服务的高可用
C. 模型 API 的调用成本,控制运营开支
D. 生成内容的合规审核机制,避免违规风险
E. 模型的参数量大小,必须选择参数量最大的模型
答案:ABCD
解析:A. 硬件配置直接决定模型推理速度和服务稳定性,是部署的基础;B. 并发访问量决定了服务的扩容策略,需确保高并发场景下服务不宕机、响应及时;C. 大模型 API 调用按 token 或次数计费,需控制成本,避免运营开支过高;D. 部署时必须搭建合规审核机制,对生成内容进行实时过滤,避免违规风险;E. 错误,模型参数量需与任务需求、硬件资源、成本预算匹配,并非越大越好,参数量过大可能导致部署成本过高、推理速度过慢,因此 ABCD 正确。