大语言模型面试心路历程【0 offer版】

记录自己大语言模型面试的经历,旨在可以帮助更多想要从事此方面的小伙伴。

北银金科

1.InstructGPT的训练过程

2.critic网络的作用

3.LSTM的原理,GRU与LSTM有什么不同

4.讲一下Bert的结构

5.讲一下自己的论文【KBQA相关】

6.GLM的结构和微调了哪些参数

7.LoRA和P-tuning的原理分别是什么

8.还了解哪些参数微调的方法

9.GLM和baichuan之间的比较

10.检索增强式大模型的理解

11.快速排序

12.计算单词的编辑距离

好未来

1.算法题977. 有序数组的平方

2.算法题 快速排序

3.算法题 按字典中value数组中第一个值进行排序

4.Transformer中self-attention的计算公式 为什么除以dk

5.为什么用多头注意力机制

6.大模型在多头注意力机制方面有哪些改进

7.微调过什么大模型

8.self-instruct如何根据种子数据集生成数据

9.P-tuning、Prefix tuning、LoRA的原理 隐式token向量是什么 怎么产生的

10.SGD的原理 一阶导数二阶导数

相关推荐
曼城周杰伦3 小时前
自然语言处理:第六十三章 阿里Qwen2 & 2.5系列
人工智能·阿里云·语言模型·自然语言处理·chatgpt·nlp·gpt-3
Guofu_Liao5 小时前
大语言模型---梯度的简单介绍;梯度的定义;梯度计算的方法
人工智能·语言模型·矩阵·llama
我爱学Python!5 小时前
大语言模型与图结构的融合: 推荐系统中的新兴范式
人工智能·语言模型·自然语言处理·langchain·llm·大语言模型·推荐系统
果冻人工智能5 小时前
OpenAI 是怎么“压力测试”大型语言模型的?
人工智能·语言模型·压力测试
日出等日落5 小时前
Windows电脑本地部署llamafile并接入Qwen大语言模型远程AI对话实战
人工智能·语言模型·自然语言处理
段传涛5 小时前
PAL(Program-Aided Language Model)
人工智能·语言模型·自然语言处理
weixin_443290696 小时前
【阅读记录-章节3】Build a Large Language Model (From Scratch)
人工智能·语言模型·自然语言处理
uzong6 小时前
7 年 Java 后端,面试过程踩过的坑,我就不藏着了
java·后端·面试
LZXCyrus8 小时前
【杂记】vLLM如何指定GPU单卡/多卡离线推理
人工智能·经验分享·python·深度学习·语言模型·llm·vllm
J老熊10 小时前
JavaFX:简介、使用场景、常见问题及对比其他框架分析
java·开发语言·后端·面试·系统架构·软件工程