大语言模型面试心路历程【0 offer版】

记录自己大语言模型面试的经历,旨在可以帮助更多想要从事此方面的小伙伴。

北银金科

1.InstructGPT的训练过程

2.critic网络的作用

3.LSTM的原理,GRU与LSTM有什么不同

4.讲一下Bert的结构

5.讲一下自己的论文【KBQA相关】

6.GLM的结构和微调了哪些参数

7.LoRA和P-tuning的原理分别是什么

8.还了解哪些参数微调的方法

9.GLM和baichuan之间的比较

10.检索增强式大模型的理解

11.快速排序

12.计算单词的编辑距离

好未来

1.算法题977. 有序数组的平方

2.算法题 快速排序

3.算法题 按字典中value数组中第一个值进行排序

4.Transformer中self-attention的计算公式 为什么除以dk

5.为什么用多头注意力机制

6.大模型在多头注意力机制方面有哪些改进

7.微调过什么大模型

8.self-instruct如何根据种子数据集生成数据

9.P-tuning、Prefix tuning、LoRA的原理 隐式token向量是什么 怎么产生的

10.SGD的原理 一阶导数二阶导数

相关推荐
eric-sjq1 小时前
基于xiaothink对Wanyv-50M模型进行c-eval评估
人工智能·python·语言模型·自然语言处理·github
AI敲代码的手套3 小时前
解读目前AI就业岗位——大语言模型(LLM)应用工程师学习路线、就业前景及岗位全解析
人工智能·学习·语言模型
小言从不摸鱼5 小时前
【AI大模型】探索GPT模型的奥秘:引领自然语言处理的新纪元
人工智能·gpt·深度学习·语言模型·自然语言处理·transformer
sp_fyf_20245 小时前
【大语言模型】ACL2024论文-36 利用NLI和ChatGPT及编码簿知识进行零样本政治关系分类
深度学习·神经网络·机器学习·语言模型·chatgpt·分类·数据挖掘
sp_fyf_20248 小时前
【大语言模型】ACL2024论文-35 WAV2GLOSS:从语音生成插值注解文本
人工智能·深度学习·神经网络·机器学习·语言模型·自然语言处理·数据挖掘
AITIME论道8 小时前
论文解读 | EMNLP2024 一种用于大语言模型版本更新的学习率路径切换训练范式
人工智能·深度学习·学习·机器学习·语言模型
心软小念10 小时前
外包干了27天,技术退步明显。。。。。
软件测试·面试
请站在我身后12 小时前
复现Qwen-Audio 千问
人工智能·深度学习·语言模型·语音识别
小k_不小15 小时前
C++面试八股文:指针与引用的区别
c++·面试
知来者逆17 小时前
Binoculars——分析证实大语言模型生成文本的检测和引用量按学科和国家明确显示了使用偏差的多样性和对内容类型的影响
人工智能·深度学习·语言模型·自然语言处理·llm·大语言模型