论文阅读--深度学习基础文献

AlphaGo Zero

论文信息:Silver D, Schrittwieser J, Simonyan K, et al. Mastering the game of go without human knowledge[J]. nature, 2017, 550(7676): 354-359.

参考文章:
深入浅析AlphaGo Zero与深度强化学习
AlphaGo Zero论文解析

Attention is all you need

论文信息:Vaswani A, Shazeer N, Parmar N, et al. Attention is all you need[C]//Advances in neural information processing systems. 2017: 5998-6008.

参考文章:
Self-Attention和Transformer
Transformer论文逐段精读【论文精读】-- 李沐视频
白话机器学习-Encoder-Decoder框架

Transformer 抛弃了传统的 CNN 和 RNN,没用循环和卷积,整个网络使用了 Attention 机制组成。Transformer 由 Muiti-Attenion 和 Feed Forward Neural Network 组成。可以将时序信息完全做并行处理。

相关推荐
数据智能老司机1 小时前
PyTorch 深度学习——使用张量表示真实世界数据
pytorch·深度学习
踩着两条虫1 小时前
AI 智能体如何重构开发工作流
前端·人工智能·低代码
大模型真好玩1 小时前
大模型训练全流程实战指南工具篇(八)——EasyDataset问答数据集生成流程
人工智能·langchain·deepseek
Johny_Zhao3 小时前
OpenClaw中级到高级教程
linux·人工智能·信息安全·kubernetes·云计算·yum源·系统运维·openclaw
比尔盖茨的大脑4 小时前
AI Agent 架构设计:从 ReAct 到 Multi-Agent 系统
前端·人工智能·全栈
数据智能老司机5 小时前
PyTorch 深度学习——它始于一个张量
pytorch·深度学习
后端小肥肠5 小时前
OpenClaw 实战|多 Agent 打通小红书:数据收集 + 笔记编写 + 自动发布一步到位
人工智能·aigc·agent
银河系搭车客指南5 小时前
OpenClaw 多 Agent 实战指南:Multi-Agent Routing 与 Sub-Agents 的正确打开方式
人工智能
手机不死我是天子5 小时前
拆解大模型二:Transformer 最核心的设计,其实你高中就学过
人工智能·llm
gustt5 小时前
MCP协议进阶:构建多工具Agent实现智能查询与浏览器交互
人工智能·agent·mcp