大模型高级工程师考试练习题8

81题

使用 Qwen 模型 API 进行对话时,若需实现多轮对话的上下文关联,以下哪种做法正确?

A. 每次调用 API 仅传入当前用户查询,无需携带历史对话

B. 将历史对话(用户消息+模型回复)按顺序放入 messages 参数中

C. 仅传入上一轮的模型回复,无需携带用户历史查询

D. 通过设置 context 参数单独传入历史对话摘要

答案:B

解析:多轮对话上下文关联的核心是让模型感知完整的历史交互逻辑;A. 仅传当前查询会导致模型将每轮对话视为独立会话,无法实现上下文关联;B. 正确,Qwen 模型 API 的 messages 参数支持按"用户-模型"的交互顺序传入历史对话列表(如 [{"role":"user","content":"xxx"}, {"role":"assistant","content":"xxx"}]),模型会基于完整上下文生成连贯回复;C. 仅传模型回复缺少用户查询信息,无法形成完整交互逻辑;D. Qwen 模型 API 无 context 参数,上下文关联需通过 messages 参数实现,因此 B 正确。

82题

以下代码用于 RAG 系统的文档加载与切片,请问代码中 chunk_size=500 和 chunk_overlap=50 的作用是?

|------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
| Python from langchain.document_loaders import TextLoader from langchain.text_splitter import RecursiveCharacterTextSplitter def load_and_split_doc(path): loader = TextLoader(path) documents = loader.load() text_splitter = RecursiveCharacterTextSplitter( chunk_size=500, chunk_overlap=50 ) splits = text_splitter.split_documents(documents) return splits |

A. 每个切片最大500字符,切片间重叠50字符,保留上下文关联

B. 每个切片固定500字符,丢弃前50字符以提升切片效率

C. 每个切片500字符,不足时补充50字符的空内容

D. 每个切片500字符,仅保留前50字符作为有效内容

答案:A

解析:RecursiveCharacterTextSplitter 是 LangChain 中基于语义的文本切片工具;chunk_size=500 表示每个切片的最大字符数为 500(非固定值,接近该长度且不割裂语义);chunk_overlap=50 表示相邻切片之间重叠 50 字符,核心目的是保留相邻切片的上下文关联,避免因机械切片导致语义丢失;B、C、D 对参数作用的理解均错误,未把握重叠参数的设计初衷,因此 A 正确。

83题

关于大模型的微调与 RAG 架构的区别,以下描述错误的是?

A. 微调是将知识固化到模型参数中,RAG 是实时检索外部知识

B. 微调适用于静态知识场景,RAG 适用于动态知识场景

C. 微调的知识更新成本低,RAG 的知识更新成本高

D. 微调需要大量标注数据,RAG 对标注数据的需求较低

答案:C

解析:A. 正确,微调通过训练更新模型参数,将知识"内化"到模型中;RAG 不改变模型参数,通过检索外部数据库获取实时知识;B. 正确,静态知识(如固定的行业规范、历史常识)适合微调固化,动态知识(如实时新闻、频繁更新的政策)适合 RAG 实时检索;C. 错误,微调的知识更新需重新准备数据、训练模型,成本高、周期长;RAG 仅需更新外部知识库中的文档,成本低、效率高;D. 正确,微调需大量高质量标注数据用于训练,RAG 主要依赖未标注的文档数据,对标注数据需求低,因此 C 正确。

84题

使用大模型 API 时,以下哪种做法能有效降低调用成本?

A. 尽可能增加模型的输出长度限制,确保信息完整

B. 选择参数量更大的模型,提升回答质量

C. 对输入文本进行精简,去除冗余信息

D. 每次调用时同时传入多个不相关的查询,批量获取结果

答案:C

解析:大模型 API 通常按输入输出的 token 数量计费,降低成本的核心是减少无效 token 消耗;A. 增加输出长度限制会导致生成更多 token,直接增加成本;B. 参数量更大的模型计费标准更高,且相同输入下消耗 token 更快,会提升成本;C. 正确,精简输入文本、去除冗余信息(如无关背景描述、重复内容),能减少输入 token 数量,直接降低调用成本;D. 同时传入多个不相关查询会导致输入 token 激增,且可能影响模型回答质量,增加无效成本,因此 C 正确。

85题

以下代码用于实现大模型生成内容的敏感信息过滤,请问代码存在什么核心问题?

|------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
| Python def filter_sensitive_info(content): sensitive_info = ["手机号", "身份证号", "银行卡号"] for info in sensitive_info: if info in content: content = content.replace(info, "***") return content |

A. 仅过滤敏感信息名称,未过滤实际的敏感数据(如138****1234)

B. 替换符号固定为"***",无法适配不同场景

C. 敏感信息列表硬编码,不便于维护

D. 未处理 content 为 None 的异常情况

答案:A

解析:该代码的核心功能缺陷是对"敏感信息过滤"的目标理解偏差;A. 正确,代码仅过滤了"手机号""身份证号"等敏感信息的名称,而非实际的敏感数据(如具体的手机号13800138000、身份证号110101********1234),无法实现真正的敏感信息防护;B、C、D 均为代码的次要问题,可通过优化改进,但并非核心功能缺陷;题目聚焦敏感信息过滤的核心目标,因此 A 是最主要的问题。

86题

在 LlamaIndex 中,以下哪个组件用于统一配置大模型、嵌入模型等核心依赖?

A. ServiceContext

B. VectorStoreIndex

C. DocumentLoader

D. QueryEngine

答案:A

解析:A. ServiceContext 是 LlamaIndex 中的核心配置组件,用于统一管理大模型、嵌入模型、文本切片器等依赖,可通过它设置模型类型、调用参数(如温度、最大输出长度)等;B. VectorStoreIndex 用于构建向量索引,实现文档检索功能;C. DocumentLoader 用于加载 PDF、文本等各类格式的文档;D. QueryEngine 用于执行查询任务,整合索引和模型生成答案,因此 A 正确。

87题

关于大模型应用的用户隐私保护,以下哪种做法违反相关规定?

A. 收集用户信息时明确告知收集目的和使用范围

B. 将用户的聊天记录用于模型微调,未告知用户

C. 对用户上传的敏感文件进行加密存储

D. 用户注销账号后,及时删除其相关数据

答案:B

解析:A. 符合《个人信息保护法》的"告知-同意"原则,做法合规;B. 错误,用户聊天记录属于个人敏感信息,未经用户明确同意将其用于模型微调,违反了个人信息保护的核心规定,侵犯用户隐私;C. 对敏感文件加密存储能有效防止数据泄露,做法合规;D. 用户注销账号后删除相关数据,符合"数据最小留存"和用户权利保障要求,做法合规,因此 B 正确。

88题

以下哪些属于 RAG 系统中"生成(Generation)"环节的核心操作?

A. 将用户查询转换为向量

B. 构建提示词,拼接查询和检索到的文档片段

C. 调用大模型生成答案

D. 对生成的答案进行格式校验和合规审核

E. 从向量数据库中检索相关文档

答案:BCD

解析:RAG 系统的核心流程为"检索-增强-生成";A. 查询向量化、E. 向量检索均属于"检索(Retrieval)"环节;B. 构建提示词并拼接查询与文档片段,是"增强(Augmentation)"环节的核心,为生成环节提供有效输入;C. 调用大模型生成答案是"生成"环节的核心执行操作;D. 对生成答案进行格式校验和合规审核,是"生成"环节的后处理步骤,确保输出质量和合规性,因此 BCD 正确。

89题

在大模型微调过程中,以下哪个指标特征可判断模型是否存在欠拟合?

A. 训练集损失低,验证集损失高

B. 训练集损失高,验证集损失也高

C. 训练集损失低,验证集损失低

D. 训练集损失高,验证集损失低

答案:B

解析:欠拟合的核心是模型未充分学习训练数据中的有效特征,泛化能力差;A. 训练集损失低、验证集损失高,是过拟合的典型特征(模型过度拟合训练数据,无法泛化到新数据);B. 正确,训练集损失高说明模型在训练数据上表现差,未学好核心特征;验证集损失也高说明模型无法将少量学到的特征迁移到新数据上,符合欠拟合的定义;C. 训练集和验证集损失均低,说明模型拟合效果好,无欠拟合或过拟合;D. 该情况极少出现,通常是数据划分异常(如验证集包含训练数据)或指标计算错误导致,因此 B 正确。

90题

使用 LangChain 调用 Qwen 模型时,以下代码片段正确的是?

|--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
| Python # 选项 A from langchain.llms import Qwen llm = Qwen(api_key="your-api-key", temperature=0.7) response = llm.generate("请介绍人工智能的发展历程") # 选项 B from langchain.chat_models import ChatQwen chat_llm = ChatQwen(api_key="your-api-key", temperature=0.7) response = chat_llm.predict("请介绍人工智能的发展历程") # 选项 C from langchain.llms import TongyiQwen llm = TongyiQwen(api_key="your-api-key", temperature=0.7) response = llm.call("请介绍人工智能的发展历程") # 选项 D from langchain.chat_models import TongyiChatQwen chat_llm = TongyiChatQwen(api_key="your-api-key", temperature=0.7) response = chat_llm.run("请介绍人工智能的发展历程") |

答案:B

解析:LangChain 中调用 Qwen 模型需区分文本模型和聊天模型;A. Qwen 是文本模型,无 generate 方法,正确调用方式为 llm.predict() 或 llm.run();B. 正确,ChatQwen 是 Qwen 的聊天模型(导入自 langchain.chat_models),可通过 predict() 方法接收文本输入并生成回复;C. 不存在 TongyiQwen 类,Qwen 文本模型的正确类名为 Qwen;D. 不存在 TongyiChatQwen 类,Qwen 聊天模型的正确类名为 ChatQwen,因此 B 正确。

相关推荐
A先生的AI之旅2 小时前
2025顶会TimeDRT快速解读
人工智能·pytorch·python·深度学习·机器学习
2301_800256112 小时前
【人工智能引论期末复习】第3章 搜索求解2 - 对抗搜索
人工智能·算法·深度优先
温柔只给梦中人2 小时前
深度学习:正则化
人工智能·深度学习
狮子座明仔2 小时前
DocDancer:北大联合腾讯提出端到端训练的文档问答Agent,将DocQA形式化为信息寻求过程
人工智能·深度学习·语言模型·自然语言处理
AI小怪兽2 小时前
RoLID-11K:面向小目标检测的行车记录仪路边垃圾数据集
人工智能·目标检测·计算机视觉
拉普拉斯妖1082 小时前
DAY41 简单CNN
人工智能·神经网络·cnn
_小苔藓_2 小时前
混合Token与LoRA结合Qwen3-VL高效微调(代码开源)
深度学习·开源·大模型·微调·多模态
木头左2 小时前
基于GARCH波动率聚类的指数期权蒙特卡洛定价模型
机器学习·数据挖掘·聚类
予枫的编程笔记2 小时前
【Java进阶】掌握布隆过滤器,守住高并发系统的第一道防线
人工智能