大语言模型面试心路历程【0 offer版】

记录自己大语言模型面试的经历,旨在可以帮助更多想要从事此方面的小伙伴。

北银金科

1.InstructGPT的训练过程

2.critic网络的作用

3.LSTM的原理,GRU与LSTM有什么不同

4.讲一下Bert的结构

5.讲一下自己的论文【KBQA相关】

6.GLM的结构和微调了哪些参数

7.LoRA和P-tuning的原理分别是什么

8.还了解哪些参数微调的方法

9.GLM和baichuan之间的比较

10.检索增强式大模型的理解

11.快速排序

12.计算单词的编辑距离

好未来

1.算法题977. 有序数组的平方

2.算法题 快速排序

3.算法题 按字典中value数组中第一个值进行排序

4.Transformer中self-attention的计算公式 为什么除以dk

5.为什么用多头注意力机制

6.大模型在多头注意力机制方面有哪些改进

7.微调过什么大模型

8.self-instruct如何根据种子数据集生成数据

9.P-tuning、Prefix tuning、LoRA的原理 隐式token向量是什么 怎么产生的

10.SGD的原理 一阶导数二阶导数

相关推荐
搬砖者(视觉算法工程师)2 小时前
检索增强生成(RAG)与大语言模型微调(Fine-tuning)的差异、优势及使用场景详解
人工智能·语言模型·自然语言处理
ToTensor5 小时前
Tree of Thoughts:让大语言模型像人类一样思考
人工智能·语言模型·自然语言处理
therese_1008610 小时前
面试试试试试试题-答
面试
二川bro12 小时前
Python大语言模型调优:LLM微调完整实践指南
开发语言·python·语言模型
前端布鲁伊14 小时前
再来聊聊,Vue3 项目中 Pinia 的替代方案
前端·面试
黑客思维者14 小时前
为什么大语言模型需要海量训练数据?
人工智能·语言模型·自然语言处理
好学且牛逼的马15 小时前
【MyBatis-Plus | 常见问题与面试重点】
面试·mybatis
一只叫煤球的猫16 小时前
从 JDK1.2 到 JDK21:ThreadLocal的进化解决了什么问题
java·后端·面试
魔镜前的帅比16 小时前
Few-shot / Chain-of-Thought 提示技巧
人工智能·chatgpt
随风飘的云17 小时前
synchronized 的底层原理及优化机制
面试