大模型高级工程师考试练习题2

11、下列哪些因素会影响大语言模型微调的效果?

A.是否采用数据增强技术

B.计算资源的限制

C.微调数据的质量和数量

D.预训练模型的选择

E.微调持续的轮数(epochs)

F.微调时使用的超参数设置

答案:ABCDEF

解析:A.数据增强技术可扩充有效训练数据、提升数据多样性,减少过拟合,直接影响微调效果;B.计算资源不足可能导致无法使用较大批次、较复杂模型或完整训练轮次,限制微调潜力;C.高质量、足量且贴合任务的微调数据是模型学习特定知识的基础,数据质量或数量不足会导致微调效果不佳;D.不同预训练模型的参数规模、知识储备、适配场景不同,选择适配任务的预训练模型是微调成功的关键;E.轮次过少模型未充分学习任务特征,轮次过多易过拟合,需合理设置;F.学习率、批大小等超参数直接影响模型参数更新节奏和效果,超参数配置不当会导致微调失败。因此所有选项均会影响微调效果。


12、用户上传了一个包含复杂表格的 Markdown 文档,使用默认的 RAG 流程进行问答。用户提问关于表格中特定单元格含义的问题时,大模型经常给出错误或不相关的答案。请问以下哪些方案可以尝试解决这个问题?

A. 对用户提问进行预处理,提取表格相关的关键词。

B. 在文档切片时,将表格的行列信息添加到每个单元格的 Chunk 中。

C.将表格转换成 JSON 格式,然后使用 JSON Loader 加载数据。

D. 使用 OCR 技术识别表格中的文字,并将识别结果添加到文本中。

E. 使用更强大的 Embedding 模型。

F. 增加训练数据,让大模型更好地理解表格内容。

答案:ABCE

解析:C 方案最彻底,JSON 格式能结构化保留表格行列关联信息,便于模型精准定位单元格含义;B+A 组合适用于快速改进,添加行列信息让 Chunk 包含上下文,提取关键词提升检索针对性;E 方案作为补充,更强大的 Embedding 模型能更好捕捉表格语义关联;D 不建议,文档本身是 Markdown 格式,表格文字可直接提取,OCR 适用于图片类表格,此处多余;F 不建议,大模型理解表格依赖结构化信息而非额外训练数据,增加训练数据无法解决表格解析和检索的核心问题。


13、下列代码片段中,哪些涉及模型训练过程中的正则化或优化策略?

A.weight_decay = 0.001

B.ACP 大模型-1.png

C.optimizer = SGD(model.parameters(), lr=0.01, momentum=0.9)

D.scheduler = StepLR(optimizer, step_size=10, gamma=0.1)

E.model = nn.Dropout(p=0.2)

F.criterion = nn.CrossEntropyLoss()

答案:ACDE

解析:A.weight_decay(权重衰减)通过对模型参数施加惩罚,减少参数冗余,防止过拟合,属于正则化策略;C.SGD(随机梯度下降)是经典优化算法,lr(学习率)和 momentum(动量)是优化策略的核心参数,用于调整参数更新节奏;D.StepLR 是学习率调度器,通过 step_size 和 gamma 动态调整学习率,属于优化策略;E.Dropout 层通过随机丢弃部分神经元,减少模型对局部特征的依赖,防止过拟合,属于正则化策略;B 为无关图片信息,不涉及训练策略;F.CrossEntropyLoss 是损失函数,用于计算预测与标签的差异,仅为训练中的损失度量工具,不涉及正则化或优化策略。


14、通过 LlamaIndex 创建 RAG 应用,在修改默认 prompt 时,包含以下哪些步骤?

A.定义新的 prompt 字符串,将 chunk 和 query 的位置空出来

B. 使用新的 prompt 初始化一个 PromptTemplate 对象

C. 对新的 prompt 进行保存,使得 LlamaIndex 中的源代码 prompt 也变成中文

D. 用 index 的 update_prompts 方法将新的 prompt 同步上去

答案:AB

解析:C 和 D 选项存在事实性错误。修改默认 prompt 的核心步骤为:首先明确新 prompt 的结构,预留 chunk(检索内容)和 query(用户问题)的占位位置(A);然后通过 PromptTemplate 类初始化新 prompt,使其符合 LlamaIndex 的调用规范(B)。C 错误,无需修改 LlamaIndex 源代码,通过 PromptTemplate 即可实现自定义 prompt 生效;D 错误,LlamaIndex 中没有 index.update_prompts 这一方法,自定义 prompt 需通过配置 query_engine 等组件实现应用。


15、有关输出格式要素的描述,以下哪项是正确的?

A.输出格式不影响大模型的应答

B.不需要明确不期望输出的内容

C.可使用案例来提示大模型的输出

D.应明确指出枚举值的范围

E.明确提供要输出的内容类型

F.无需结合样例来明确输出格式

答案:CDE

解析:A 错误,清晰的输出格式能引导大模型生成结构化、符合需求的结果,直接影响应答质量和可用性;B 错误,明确不期望输出的内容(如冗余信息、违规格式)可减少无效输出,提升应答精准度;C 正确,通过具体案例能直观展示期望的输出形式,帮助大模型理解格式要求;D 正确,明确枚举值范围(如"输出选项仅限 A、B、C")可避免大模型生成超出预期的结果;E 正确,明确内容类型(如"输出 JSON 格式""输出表格")能让大模型聚焦目标格式,减少歧义;F 错误,结合样例是明确输出格式最有效的方式之一,尤其对于复杂格式要求。


16、以下哪些选项是把 DASHSCOPE_API_KEY 配置为环境变量的原因?

A.防止 KEY 泄漏

B.配置为环境变量可以减少代码的行数。

C.环境变量会自动被 SDK 读取和使用。

D.环境变量可以加快程序的运行速度。

答案:AC

解析:B 配置环境变量本身不会减少代码行数,而是通过 SDK 自动读取环境变量来简化认证流程,与代码行数无关;D 环境变量的读取属于系统级操作,对程序运行速度的影响可忽略不计,不会显著提升性能;A 正确,将 API_KEY 配置在环境变量中,避免直接硬编码在代码里,降低代码泄露时 KEY 被窃取的风险;C 正确,多数 SDK 支持自动读取环境变量中的 API_KEY,无需手动在代码中传入,简化开发流程。


17、在进行 RAGAS 评测时,使用通过自定义 API 封装的 langchain LLM 对象主要有哪些优点?

A. 可以在 API 中定义 langchain LLM 类中不支持指定的参数

B. 由于 langchain 官方封装好的模型有限,因此通过自定义方法选择更多模型

C.可以打印出中间结果,帮助评测人员了解分数来源

D.无需输入 API Key 即可使用大模型

答案:ABC

解析:D 选项违反 API 调用基本原则,使用大模型 API 必须提供合法 API Key 进行身份验证,因此 D 错误;A 正确,自定义 API 封装可灵活扩展参数,补充 langchain 官方 LLM 类未支持的配置项;B 正确,langchain 官方封装的模型数量有限,自定义封装可对接更多未被官方支持的大模型,扩大选择范围;C 正确,自定义封装时可在 API 中添加日志打印逻辑,输出评测过程中的中间结果(如检索片段、评分依据等),方便评测人员排查问题、理解分数来源。


18、以下哪些代码片段可以用于检测用户输入中是否包含敏感词?

A.python

def detect_sensitive_words(text, sensitive_words):

for word in text.split():

if word in sensitive_words:

return True

return False

B.python

def detect_sensitive_words(text, sensitive_words):

return any(word in text for word in sensitive_words)

C.python

def detect_sensitive_words(text, sensitive_words):

added error handling

try:

return any(word in text.lower() for word in [w.lower() for w in sensitive_words])

except AttributeError: # in case text is not a string

return False

D.python

import nltk

def detect_sensitive_words(text, sensitive_words):

tokens = nltk.word_tokenize(text)

return any(token in sensitive_words for token in tokens)

E.python

def detect_sensitive_words(text, sensitive_words):

return text in sensitive_words

答案:ABCD

解析:E 错误,该代码判断整个输入文本是否完全等同于某个敏感词,无法检测文本中包含敏感词的情况(如文本为"这是假货",敏感词为"假货"时,E 会返回 False);A 正确,通过分割文本为单词,逐个匹配敏感词,可检测完整单词形式的敏感词;B 正确,使用 any() 函数简化匹配逻辑,只要文本中包含任一敏感词即返回 True;C 正确,增加了大小写不敏感匹配和异常处理,适配更多场景,鲁棒性更强;D 正确,通过 nltk 的分词工具拆分文本为tokens(词元),能更精准地匹配敏感词,适配复杂文本场景。


19、以下哪些选项属于提示词要素中的样例(Sample)?

A.请你扮演一位医生。

B.输入:汽车,输出:交通工具

C.用户输入:"我想了解一下人工智能。" 你的回复:"人工智能是......"

D.请用表格形式展示结果。

E.输入:苹果,输出:水果

F.请你总结这篇文章的中心思想 。

答案:BCE

解析:样例是指在提示词中提供具体的输入输出示例,用于指导模型生成符合期望的格式或内容;A 属于角色设定,明确模型的身份;D 属于输出格式要求,指定结果的展示形式;F 属于任务目标,明确模型需要完成的工作;B、C、E 均提供了具体的输入和对应的输出示例,属于提示词中的样例要素,能帮助模型理解任务要求和输出规范。


20、Assistant API 的 Assistant 类的各项功能中涵盖了以下哪些操作?

A.列举

B.剪切

C.复制

D.删除

E.更新

F.创建

答案:ADEF

解析:B/C 不属于原生功能,剪切和复制通常是文件或数据操作的功能,并非 Assistant API 中 Assistant 类的核心操作;A.列举(list)可获取已创建的 Assistant 实例列表;D.删除(delete)可移除不需要的 Assistant 实例;E.更新(update)可修改 Assistant 的配置信息(如描述、功能等);F.创建(create)可新建 Assistant 实例,以上 A/D/E/F 是标准 CRUD 操作,属于 Assistant 类的核心功能。


相关推荐
wangsir.6 小时前
C++接入AI大模型SDK--环境搭配
人工智能
papaofdoudou6 小时前
从贝克莱的质问到ε-δ的胜利:微积分如何走向严密
人工智能
人工智能技术咨询.6 小时前
【无标题】数字孪生与航空发动机结合的关键技术点
人工智能
deephub6 小时前
知识图谱的可验证性:断言图谱的设计原理
人工智能·知识图谱·大语言模型·rag
小王努力学编程6 小时前
LangChain——AI应用开发框架(核心组件2)
linux·服务器·c++·人工智能·python·langchain·信号
_Soy_Milk7 小时前
【算法工程师】—— Pytorch
人工智能·pytorch·算法
bing.shao7 小时前
文心大模型 5.0 正式版上线:用 Golang 解锁全模态 AI 工业化落地新路径
人工智能·golang·dubbo
lina_mua7 小时前
Cursor模型选择完全指南:为前端开发找到最佳AI助手
java·前端·人工智能·编辑器·visual studio
高洁017 小时前
数字孪生应用于特种设备领域的技术难点
人工智能·python·深度学习·机器学习·知识图谱
秋97 小时前
idea中如何使用Trae AI插件,并举例说明
java·人工智能·intellij-idea