大语言模型面试心路历程【0 offer版】

记录自己大语言模型面试的经历,旨在可以帮助更多想要从事此方面的小伙伴。

北银金科

1.InstructGPT的训练过程

2.critic网络的作用

3.LSTM的原理,GRU与LSTM有什么不同

4.讲一下Bert的结构

5.讲一下自己的论文【KBQA相关】

6.GLM的结构和微调了哪些参数

7.LoRA和P-tuning的原理分别是什么

8.还了解哪些参数微调的方法

9.GLM和baichuan之间的比较

10.检索增强式大模型的理解

11.快速排序

12.计算单词的编辑距离

好未来

1.算法题977. 有序数组的平方

2.算法题 快速排序

3.算法题 按字典中value数组中第一个值进行排序

4.Transformer中self-attention的计算公式 为什么除以dk

5.为什么用多头注意力机制

6.大模型在多头注意力机制方面有哪些改进

7.微调过什么大模型

8.self-instruct如何根据种子数据集生成数据

9.P-tuning、Prefix tuning、LoRA的原理 隐式token向量是什么 怎么产生的

10.SGD的原理 一阶导数二阶导数

相关推荐
血小板要健康14 分钟前
Java基础常见面试题复习合集1
java·开发语言·经验分享·笔记·面试·学习方法
阿杰学AI2 小时前
AI核心知识78——大语言模型之CLM(简洁且通俗易懂版)
人工智能·算法·ai·语言模型·rag·clm·语境化语言模型
玄同7653 小时前
Llama.cpp 全实战指南:跨平台部署本地大模型的零门槛方案
人工智能·语言模型·自然语言处理·langchain·交互·llama·ollama
玄同7654 小时前
LangChain v1.0+ Prompt 模板完全指南:构建精准可控的大模型交互
人工智能·语言模型·自然语言处理·langchain·nlp·交互·知识图谱
cyforkk4 小时前
09、Java 基础硬核复习:异常处理(容错机制)的核心逻辑与面试考点
java·数据库·面试
菜青虫嘟嘟5 小时前
Expert Iteration:一种无需人工标注即可显著提升大语言模型推理能力的简单方法核心
人工智能·语言模型·自然语言处理
MaoziShan7 小时前
[ICLR 2026] 一文读懂 AutoGEO:生成式搜索引擎优化(GEO)的自动化解决方案
人工智能·python·搜索引擎·语言模型·自然语言处理·内容运营·生成式搜索引擎
Warren987 小时前
Pytest Fixture 作用域详解:Function、Class、Module、Session 怎么选
面试·职场和发展·单元测试·pytest·pip·模块测试·jira
努力学算法的蒟蒻8 小时前
day73(2.1)——leetcode面试经典150
面试·职场和发展
Warren988 小时前
接口测试理论
docker·面试·职场和发展·eureka·ansible