英伟达算法岗面试,问的贼专业。。。

节前,我们星球组织了一场算法岗技术&面试讨论会,邀请了一些互联网大厂朋友、参加社招和校招面试的同学。

针对算法岗技术趋势、大模型落地项目经验分享、新手如何入门算法岗、该如何准备、面试常考点分享等热门话题进行了深入的讨论。

合集:

《大模型面试宝典》(2024版) 正式发布!
持续火爆!《AIGC 面试宝典》已圈粉无数!


这两天求职群分享了很多大厂的算法岗面试真题(暑期实习基本结束了,校招即将开启)。

这里特别整理了部分英伟达的最新面试题,希望对你有所帮助。

  1. 介绍MoE和变体

  2. 介绍LoRA和变体

  3. LoRA 参数更新机制

  4. MLM和MIM的关系和区别?

  5. Stable Diffusion的技术原理

  6. 解決LLM Hallucination的方法

  7. Occupancy预测的出发点是什么?

  8. 2D图像预训练怎么迁移到3D点云任务

  9. 把Transformer模型训深的问题有哪些?怎么解决

  10. 现在车道线检测的主流的loss是什么?你有哪些想法?

  11. 为什么GAN中经常遇到mode collapse,而Diffusion比较少?

我还特别整理15道Transformer高频面试题求职群里有数百道Transformer题目,还有答案

  1. 介绍Transformer和ViT

  2. 介绍Transformer的QKV

  3. 介绍Layer Normalization

  4. Transformer训练和部署技巧

  5. 介绍Transformer的位置编码

  6. 介绍自注意力机制和数学公式

  7. 介绍Transformer的Encoder模块

  8. 介绍Transformer的Decoder模块

  9. Transformer和Mamba(SSM)的区别

  10. Transformer中的残差结构以及意义

  11. 为什么Transformer适合多模态任务?

  12. Transformer的并行化体现在哪个地方?

  13. 为什么Transformer一般使用LayerNorm?

  14. Transformer为什么使用多头注意力机制?

  15. Transformer训练的Dropout是如何设定的?

精选

相关推荐
IT_陈寒1 分钟前
为什么我的JavaScript异步回调总是乱序执行?
前端·人工智能·后端
_深海凉_3 分钟前
LeetCode热题100-颜色分类
python·算法·leetcode
Moment4 分钟前
AI全栈入门指南:NestJs 中的 DTO 和数据校验
前端·后端·面试
Zzj_tju5 分钟前
大语言模型技术指南:Transformer 为什么能成为基础架构?核心模块与参数怎么理解
人工智能·语言模型·transformer
gorgeous(๑>؂<๑)11 分钟前
【CVPR26-韩国科学技术院】令牌扭曲技术助力多模态大语言模型从邻近视角观察场景
人工智能·语言模型·自然语言处理
AC赳赳老秦25 分钟前
OpenClaw email技能:批量发送邮件、自动回复,高效处理工作邮件
运维·人工智能·python·django·自动化·deepseek·openclaw
hetao173383736 分钟前
2026-04-09~12 hetao1733837 的刷题记录
c++·算法
6Hzlia38 分钟前
【Hot 100 刷题计划】 LeetCode 136. 只出现一次的数字 | C++ 哈希表&异或基础解法
c++·算法·leetcode
用户78245208077944 分钟前
一些容易混淆的点(个人记录)
人工智能
胡志辉1 小时前
OpenClaw 教程:新 Mac 从 0 配到国产 AI、飞书微信和无人值守
人工智能·神经网络