11、下列哪些因素会影响大语言模型微调的效果?
A.是否采用数据增强技术
B.计算资源的限制
C.微调数据的质量和数量
D.预训练模型的选择
E.微调持续的轮数(epochs)
F.微调时使用的超参数设置
答案:ABCDEF
解析:A.数据增强技术可扩充有效训练数据、提升数据多样性,减少过拟合,直接影响微调效果;B.计算资源不足可能导致无法使用较大批次、较复杂模型或完整训练轮次,限制微调潜力;C.高质量、足量且贴合任务的微调数据是模型学习特定知识的基础,数据质量或数量不足会导致微调效果不佳;D.不同预训练模型的参数规模、知识储备、适配场景不同,选择适配任务的预训练模型是微调成功的关键;E.轮次过少模型未充分学习任务特征,轮次过多易过拟合,需合理设置;F.学习率、批大小等超参数直接影响模型参数更新节奏和效果,超参数配置不当会导致微调失败。因此所有选项均会影响微调效果。
12、用户上传了一个包含复杂表格的 Markdown 文档,使用默认的 RAG 流程进行问答。用户提问关于表格中特定单元格含义的问题时,大模型经常给出错误或不相关的答案。请问以下哪些方案可以尝试解决这个问题?
A. 对用户提问进行预处理,提取表格相关的关键词。
B. 在文档切片时,将表格的行列信息添加到每个单元格的 Chunk 中。
C.将表格转换成 JSON 格式,然后使用 JSON Loader 加载数据。
D. 使用 OCR 技术识别表格中的文字,并将识别结果添加到文本中。
E. 使用更强大的 Embedding 模型。
F. 增加训练数据,让大模型更好地理解表格内容。
答案:ABCE
解析:C 方案最彻底,JSON 格式能结构化保留表格行列关联信息,便于模型精准定位单元格含义;B+A 组合适用于快速改进,添加行列信息让 Chunk 包含上下文,提取关键词提升检索针对性;E 方案作为补充,更强大的 Embedding 模型能更好捕捉表格语义关联;D 不建议,文档本身是 Markdown 格式,表格文字可直接提取,OCR 适用于图片类表格,此处多余;F 不建议,大模型理解表格依赖结构化信息而非额外训练数据,增加训练数据无法解决表格解析和检索的核心问题。
13、下列代码片段中,哪些涉及模型训练过程中的正则化或优化策略?
A.weight_decay = 0.001
B.ACP 大模型-1.png
C.optimizer = SGD(model.parameters(), lr=0.01, momentum=0.9)
D.scheduler = StepLR(optimizer, step_size=10, gamma=0.1)
E.model = nn.Dropout(p=0.2)
F.criterion = nn.CrossEntropyLoss()
答案:ACDE
解析:A.weight_decay(权重衰减)通过对模型参数施加惩罚,减少参数冗余,防止过拟合,属于正则化策略;C.SGD(随机梯度下降)是经典优化算法,lr(学习率)和 momentum(动量)是优化策略的核心参数,用于调整参数更新节奏;D.StepLR 是学习率调度器,通过 step_size 和 gamma 动态调整学习率,属于优化策略;E.Dropout 层通过随机丢弃部分神经元,减少模型对局部特征的依赖,防止过拟合,属于正则化策略;B 为无关图片信息,不涉及训练策略;F.CrossEntropyLoss 是损失函数,用于计算预测与标签的差异,仅为训练中的损失度量工具,不涉及正则化或优化策略。
14、通过 LlamaIndex 创建 RAG 应用,在修改默认 prompt 时,包含以下哪些步骤?
A.定义新的 prompt 字符串,将 chunk 和 query 的位置空出来
B. 使用新的 prompt 初始化一个 PromptTemplate 对象
C. 对新的 prompt 进行保存,使得 LlamaIndex 中的源代码 prompt 也变成中文
D. 用 index 的 update_prompts 方法将新的 prompt 同步上去
答案:AB
解析:C 和 D 选项存在事实性错误。修改默认 prompt 的核心步骤为:首先明确新 prompt 的结构,预留 chunk(检索内容)和 query(用户问题)的占位位置(A);然后通过 PromptTemplate 类初始化新 prompt,使其符合 LlamaIndex 的调用规范(B)。C 错误,无需修改 LlamaIndex 源代码,通过 PromptTemplate 即可实现自定义 prompt 生效;D 错误,LlamaIndex 中没有 index.update_prompts 这一方法,自定义 prompt 需通过配置 query_engine 等组件实现应用。
15、有关输出格式要素的描述,以下哪项是正确的?
A.输出格式不影响大模型的应答
B.不需要明确不期望输出的内容
C.可使用案例来提示大模型的输出
D.应明确指出枚举值的范围
E.明确提供要输出的内容类型
F.无需结合样例来明确输出格式
答案:CDE
解析:A 错误,清晰的输出格式能引导大模型生成结构化、符合需求的结果,直接影响应答质量和可用性;B 错误,明确不期望输出的内容(如冗余信息、违规格式)可减少无效输出,提升应答精准度;C 正确,通过具体案例能直观展示期望的输出形式,帮助大模型理解格式要求;D 正确,明确枚举值范围(如"输出选项仅限 A、B、C")可避免大模型生成超出预期的结果;E 正确,明确内容类型(如"输出 JSON 格式""输出表格")能让大模型聚焦目标格式,减少歧义;F 错误,结合样例是明确输出格式最有效的方式之一,尤其对于复杂格式要求。
16、以下哪些选项是把 DASHSCOPE_API_KEY 配置为环境变量的原因?
A.防止 KEY 泄漏
B.配置为环境变量可以减少代码的行数。
C.环境变量会自动被 SDK 读取和使用。
D.环境变量可以加快程序的运行速度。
答案:AC
解析:B 配置环境变量本身不会减少代码行数,而是通过 SDK 自动读取环境变量来简化认证流程,与代码行数无关;D 环境变量的读取属于系统级操作,对程序运行速度的影响可忽略不计,不会显著提升性能;A 正确,将 API_KEY 配置在环境变量中,避免直接硬编码在代码里,降低代码泄露时 KEY 被窃取的风险;C 正确,多数 SDK 支持自动读取环境变量中的 API_KEY,无需手动在代码中传入,简化开发流程。
17、在进行 RAGAS 评测时,使用通过自定义 API 封装的 langchain LLM 对象主要有哪些优点?
A. 可以在 API 中定义 langchain LLM 类中不支持指定的参数
B. 由于 langchain 官方封装好的模型有限,因此通过自定义方法选择更多模型
C.可以打印出中间结果,帮助评测人员了解分数来源
D.无需输入 API Key 即可使用大模型
答案:ABC
解析:D 选项违反 API 调用基本原则,使用大模型 API 必须提供合法 API Key 进行身份验证,因此 D 错误;A 正确,自定义 API 封装可灵活扩展参数,补充 langchain 官方 LLM 类未支持的配置项;B 正确,langchain 官方封装的模型数量有限,自定义封装可对接更多未被官方支持的大模型,扩大选择范围;C 正确,自定义封装时可在 API 中添加日志打印逻辑,输出评测过程中的中间结果(如检索片段、评分依据等),方便评测人员排查问题、理解分数来源。
18、以下哪些代码片段可以用于检测用户输入中是否包含敏感词?
A.python
def detect_sensitive_words(text, sensitive_words):
for word in text.split():
if word in sensitive_words:
return True
return False
B.python
def detect_sensitive_words(text, sensitive_words):
return any(word in text for word in sensitive_words)
C.python
def detect_sensitive_words(text, sensitive_words):
added error handling
try:
return any(word in text.lower() for word in [w.lower() for w in sensitive_words])
except AttributeError: # in case text is not a string
return False
D.python
import nltk
def detect_sensitive_words(text, sensitive_words):
tokens = nltk.word_tokenize(text)
return any(token in sensitive_words for token in tokens)
E.python
def detect_sensitive_words(text, sensitive_words):
return text in sensitive_words
答案:ABCD
解析:E 错误,该代码判断整个输入文本是否完全等同于某个敏感词,无法检测文本中包含敏感词的情况(如文本为"这是假货",敏感词为"假货"时,E 会返回 False);A 正确,通过分割文本为单词,逐个匹配敏感词,可检测完整单词形式的敏感词;B 正确,使用 any() 函数简化匹配逻辑,只要文本中包含任一敏感词即返回 True;C 正确,增加了大小写不敏感匹配和异常处理,适配更多场景,鲁棒性更强;D 正确,通过 nltk 的分词工具拆分文本为tokens(词元),能更精准地匹配敏感词,适配复杂文本场景。
19、以下哪些选项属于提示词要素中的样例(Sample)?
A.请你扮演一位医生。
B.输入:汽车,输出:交通工具
C.用户输入:"我想了解一下人工智能。" 你的回复:"人工智能是......"
D.请用表格形式展示结果。
E.输入:苹果,输出:水果
F.请你总结这篇文章的中心思想 。
答案:BCE
解析:样例是指在提示词中提供具体的输入输出示例,用于指导模型生成符合期望的格式或内容;A 属于角色设定,明确模型的身份;D 属于输出格式要求,指定结果的展示形式;F 属于任务目标,明确模型需要完成的工作;B、C、E 均提供了具体的输入和对应的输出示例,属于提示词中的样例要素,能帮助模型理解任务要求和输出规范。
20、Assistant API 的 Assistant 类的各项功能中涵盖了以下哪些操作?
A.列举
B.剪切
C.复制
D.删除
E.更新
F.创建
答案:ADEF
解析:B/C 不属于原生功能,剪切和复制通常是文件或数据操作的功能,并非 Assistant API 中 Assistant 类的核心操作;A.列举(list)可获取已创建的 Assistant 实例列表;D.删除(delete)可移除不需要的 Assistant 实例;E.更新(update)可修改 Assistant 的配置信息(如描述、功能等);F.创建(create)可新建 Assistant 实例,以上 A/D/E/F 是标准 CRUD 操作,属于 Assistant 类的核心功能。