李飞飞主讲,斯坦福2024 CS231n开课,依旧座无虚席

「这是自 Karpathy 和我 2015 年启动这门课程以来的第 9 个年头,这是人工智能和计算机视觉令人难以置信的十年!」

知名 AI 科学家李飞飞的计算机视觉「神课」CS231n,又一次开课了。

总共 600 多位学生报名,第一堂课的现场座无虚席:

从 2015 年到如今,CS231n 已经走到九个年头,也成为了一代计算机视觉专业学生心中的「必修课」:

虽然课程代码不变,但可以猜到,2024 年的课程相比 2021 年版本的课程有不少新增内容,这还要归因于视觉生成技术三年来的巨大飞跃。

在今年初的国际消费类电子产品展览会(CES)对话中,李飞飞还给出了对今年计算机视觉领域发展的预测:

「从计算机视觉和所谓的以像素为中心的 AI 领域来说,我确实认为我们正处于非常激动人心的技术进步的边缘。我们一直在关注生成式 AI,我们一直在研究扩散模型,有人可能听说过高斯泼溅(Gaussian Splatting)或这方面的内容。我认为目前的技术浪潮中,有许多成果几乎就要实现突破了。我不确定它是否会像一年多以前的大型语言模型那样成熟,但我越来越多地看到这一点。我对此非常兴奋。」

2024 年的 CS231n 仍由李飞飞主讲:

课程主页:cs231n.stanford.edu/

参与本年度 CS231n 的另一位讲师是来自斯坦福医学院的教员 Ehsan Adeli,他与斯坦福人工智能实验室(SAIL)、斯坦福大学人工智能研究所 (Stanford HAI) 均有合作:

课程简介如下:

计算机视觉在我们的社会中已无处不在,在搜索、图像理解、应用程序、制图、医疗、无人机和自动驾驶汽车中都有应用。其中许多应用的核心是视觉识别任务,如图像分类、定位和检测。神经网络(又称深度学习)方法的最新发展大大提高了这些最先进的视觉识别系统的性能。本课程深入探讨深度学习架构的细节,重点是学习这些任务的端到端模型,尤其是图像分类。在为期 10 周的课程中,学生将学习实现和训练自己的神经网络,并详细了解计算机视觉领域的前沿研究。此外,期末作业将让他们有机会在自己选择的真实世界视觉问题上训练和应用数百万参数的网络。通过多个实践作业和期末课程项目,学生将掌握设置深度学习任务的工具集,以及训练和微调深度神经网络的实用工程技巧。

据介绍,2024 CS231n 课程的每个讲座视频都会发布在 Canvas 上。坏消息是,这些视频资料只有在斯坦福大学就读的学生才能获得。

CS231n 课程的迭代,可以说是见证了计算机视觉技术十年来的演进,曾带领许多人完成对这一领域理论的入门。

即使是几年前的 CS231n 课程录像,至今也有很多人在学习、怀念:

众所周知,斯坦福大学的 CS 课程覆盖范围很广。与此同时,斯坦福的另外一个热门课程「CS25:Transformers United V4」的更新,也引起了大家的高度关注:

课程主页:web.stanford.edu/class/cs25/

自 2017 年推出以来,Transformer 彻底改变了自然语言处理 (NLP) 领域。现在,Transformer 在深度学习中被广泛使用,无论是计算机视觉 (CV)、强化学习 (RL)、生成对抗网络 (GAN)、语音甚至是生物学。除此之外,Transformer 还能够创建强大的语言模型(如 GPT-3),并在 AlphaFold2 中发挥了重要作用,该算法解决了蛋白质折叠问题。

这就是斯坦福 CS 25 课程诞生的背景。这门课邀请过不同领域 Transformer 研究的前沿人士进行客座讲座,比如 AI 教父 Geoff Hinton 就曾做过讲座,还有 OpenAI 的研究科学家 Mark Chen,主要介绍基于 Transformers 的 GPT-3、Codex;Google Brain 的科学家 Lucas Beyer,主要介绍 Transformer 在视觉领域的应用;Meta FAIR 科学家 Aditya Grover,主要介绍 RL 中的 Transformer 以及计算引擎等。

此前,CS25 会在 Youtube 平台同步课程视频,已经累积了百万播放量。但这一次,CS25 决定把影响力再提升一下:

第一,CS25 会向所有人开放,任何人都可以通过 Zoom 接入直播参与课程。

第二,CS25 每次都会邀请 Transformer 研究前沿的专家分享最新突破 ------ 从 GPT 和 Gemini 等 LLM 架构到生成艺术(例如 DALL-E 和 Sora)、生物学和神经科学应用、机器人、复杂游戏的创意用例。

目前已经确定的嘉宾有:OpenAI 的 Jason Wei / Hyung Won Chung、Edward Hu,艾伦人工智能研究所 (AI2) 的 Nathan Lambert,Mistral AI / 剑桥大学的 Albert Jiang 和来自中国公司智谱 AI 的丁铭博士。

第三,参加这门课程的学生唯一的作业是每周参加讲座。

值得注意的是,在 CS25 课程中,除了基于自然语言处理(NLP)的演讲内容之外,也覆盖了视觉 Transformer 的相关内容。

在这个生成式 AI 技术不断更新的时代,如果你也想「紧跟时代潮流」,不妨收藏、学习一番?

相关推荐
摘星编程几秒前
MCP提示词工程:上下文注入的艺术与科学
人工智能·提示词工程·a/b测试·mcp·上下文注入
W.KN1 小时前
PyTorch 数据类型和使用
人工智能·pytorch·python
虾饺爱下棋1 小时前
FCN语义分割算法原理与实战
人工智能·python·神经网络·算法
点云SLAM4 小时前
Eigen 中矩阵的拼接(Concatenation)与 分块(Block Access)操作使用详解和示例演示
人工智能·线性代数·算法·矩阵·eigen数学工具库·矩阵分块操作·矩阵拼接操作
木枷5 小时前
NAS-Bench-101: Towards Reproducible Neural Architecture Search
人工智能·物联网
BAOYUCompany6 小时前
暴雨服务器更懂人工智能+
运维·服务器·人工智能
飞哥数智坊6 小时前
Coze实战第17讲:工资条自动拆分+一对一邮件发送
人工智能·coze
cwn_6 小时前
自然语言处理NLP (1)
人工智能·深度学习·机器学习·自然语言处理
点云SLAM6 小时前
PyTorch中flatten()函数详解以及与view()和 reshape()的对比和实战代码示例
人工智能·pytorch·python·计算机视觉·3d深度学习·张量flatten操作·张量数据结构
智海观潮6 小时前
Unity Catalog与Apache Iceberg如何重塑Data+AI时代的企业数据架构
大数据·人工智能·ai·iceberg·catalog