精选20个大模型高频面试题

我精选20个大模型高频面试题,分享给大家

  1. 简述GPT和BERT的区别
  2. 讲一下GPT系列模型是如何演进的?
  3. 为什么现在的大模型大多是decoder-only的架构?
  4. 讲一下生成式语言模型的工作机理
  5. 哪些因素会导致LLM的偏见?
  6. LLM中的因果语言建模与掩码语言建模有什么区别?
  7. 如何减轻LLM中的幻觉现象?
  8. 解释ChatGPT的零样本和少样本学习的概念
  9. 你了解大型语言模型中的哪些分词技术?
  10. 如何评估大语言模型(LLMs)的性能?
  11. 如何缓解LLMs重复读问题?
  12. 请简述Transformer基本原理
  13. 为什么Transformer的架构需要多头注意力机制?
  14. transformers需要位置编码吗?
  15. transformer中,同一个词可以有不同的注意力权重吗?
  16. Wordpiece与BPE之间的区别是什么?
  17. 有哪些常见的优化LLMs输出的技术?
  18. GPT-3拥有的1750亿参数,是怎么算出来的?
  19. 温度系数和top-p,top-k参数有什么区别?
  20. 为什么transformer块使用LayerNorm而不是BatchNorm?

用通俗易懂的方式讲解系列

相关推荐
金井PRATHAMA9 分钟前
框架系统的多维赋能——论其对自然语言处理深层语义分析的影响与启示
人工智能·自然语言处理·知识图谱
面壁的熊猫12 分钟前
目标检测概述
人工智能·目标检测·计算机视觉
Learn Beyond Limits17 分钟前
Using per-item Features|使用每项特征
人工智能·python·神经网络·算法·机器学习·ai·吴恩达
greentea_201319 分钟前
Codeforces Round 863 A. Insert Digit (1811)
数据结构·算法
石臻臻的杂货铺24 分钟前
如何让AI实现自动化 —— PlayWright MCP 实测
运维·人工智能·自动化
之墨_25 分钟前
【大语言模型】—— Transformer的QKV及多头注意力机制图解解析
人工智能·语言模型·transformer
我的offer在哪里33 分钟前
九月技术奇点观察:当量子算力与 AI 认知同时突破临界点
人工智能·量子计算
小南家的青蛙35 分钟前
LeetCode第51题 - N 皇后
算法·leetcode·职场和发展
文火冰糖的硅基工坊42 分钟前
[创业之路-682]:实即虚,虚即实。真正的技术壁垒,藏在光路之外、电路之下、代码之中。
人工智能·算法·系统架构·制造·创业·产业链
nju_spy1 小时前
大模型面经(一) Prompt + RAG + 微调
人工智能·面试·lora·大模型·rag·提示词工程·peft微调