大语言模型面试心路历程【0 offer版】

记录自己大语言模型面试的经历,旨在可以帮助更多想要从事此方面的小伙伴。

北银金科

1.InstructGPT的训练过程

2.critic网络的作用

3.LSTM的原理,GRU与LSTM有什么不同

4.讲一下Bert的结构

5.讲一下自己的论文【KBQA相关】

6.GLM的结构和微调了哪些参数

7.LoRA和P-tuning的原理分别是什么

8.还了解哪些参数微调的方法

9.GLM和baichuan之间的比较

10.检索增强式大模型的理解

11.快速排序

12.计算单词的编辑距离

好未来

1.算法题977. 有序数组的平方

2.算法题 快速排序

3.算法题 按字典中value数组中第一个值进行排序

4.Transformer中self-attention的计算公式 为什么除以dk

5.为什么用多头注意力机制

6.大模型在多头注意力机制方面有哪些改进

7.微调过什么大模型

8.self-instruct如何根据种子数据集生成数据

9.P-tuning、Prefix tuning、LoRA的原理 隐式token向量是什么 怎么产生的

10.SGD的原理 一阶导数二阶导数

相关推荐
han_1 天前
从一道前端面试题,谈 JS 对象存储特点和运算符执行顺序
前端·javascript·面试
AiTop1001 天前
英伟达Rubin芯片提前量产,物理AI“ChatGPT 时刻” 降临
人工智能·chatgpt
蝎子莱莱爱打怪2 天前
我的2025年年终总结
java·后端·面试
我的写法有点潮2 天前
JS中对象是怎么运算的呢
前端·javascript·面试
镜花水月linyi2 天前
Cookie、Session、JWT 的区别?
后端·面试
青莲8432 天前
Java内存模型(JMM)与JVM内存区域完整详解
android·前端·面试
青莲8432 天前
Java内存回收机制(GC)完整详解
java·前端·面试
CCPC不拿奖不改名2 天前
python基础:python语言中的函数与模块+面试习题
开发语言·python·面试·职场和发展·蓝桥杯
数据分享者2 天前
对话对齐反馈数据集:12000+高质量人类-助手多轮对话用于RLHF模型训练与评估-人工智能-大语言模型对齐-人类反馈强化学习-训练符合人类期望的对话模型
人工智能·语言模型·自然语言处理
黑客思维者2 天前
二次函数模型完整训练实战教程,理解非线性模型的拟合逻辑(超详细,零基础可懂)
人工智能·语言模型·非线性拟合·二次函数模型