论文阅读--深度学习基础文献

AlphaGo Zero

论文信息:Silver D, Schrittwieser J, Simonyan K, et al. Mastering the game of go without human knowledge[J]. nature, 2017, 550(7676): 354-359.

参考文章:
深入浅析AlphaGo Zero与深度强化学习
AlphaGo Zero论文解析

Attention is all you need

论文信息:Vaswani A, Shazeer N, Parmar N, et al. Attention is all you need[C]//Advances in neural information processing systems. 2017: 5998-6008.

参考文章:
Self-Attention和Transformer
Transformer论文逐段精读【论文精读】-- 李沐视频
白话机器学习-Encoder-Decoder框架

Transformer 抛弃了传统的 CNN 和 RNN,没用循环和卷积,整个网络使用了 Attention 机制组成。Transformer 由 Muiti-Attenion 和 Feed Forward Neural Network 组成。可以将时序信息完全做并行处理。

相关推荐
数智工坊几秒前
R-CNN目标检测算法精读全解
网络·人工智能·深度学习·算法·目标检测·r语言·cnn
俊哥V6 分钟前
每日 AI 研究简报 · 2026-04-22
人工智能·ai
Are_You_Okkk_10 分钟前
非结构化文档破局:BeeParser+PandaWiki赋能车企技术资料规范化管理
大数据·人工智能·开源
南湖北漠17 分钟前
避免电子设备的电磁波干扰和电磁波互相干扰对我们生活的危害
网络·人工智能·计算机网络·其他·安全·生活
ZStack开发者社区18 分钟前
从 “制造” 到 “智造”,ZStack助力制造企业破局而上
人工智能·云计算·制造
科技峰行者23 分钟前
解析OpenClaw安全挑战及应对策略 构筑AI Agent安全新边界
网络·人工智能·科技·安全·aws·亚马逊·亚马逊云科技
MediaTea29 分钟前
Scikit-learn:一个最小机器学习工作流示例
人工智能·python·机器学习·scikit-learn
EnCi Zheng31 分钟前
01b-上下文向量与信息瓶颈
人工智能
张忠琳31 分钟前
【vllm】(五)vLLM v1 Attention — 模块超深度分析之二
人工智能·深度学习·ai·架构·vllm
Yuer202536 分钟前
幻觉量化(Hallucination Quantization):从随机语言模型到确定性交付系统的工程范式
大数据·人工智能·语言模型