文章目录
-
- 1.阅读第一篇论文
- 2.使用GPT辅助论文的阅读与写作
- 3.专有名词
- 4.文献翻译软件
- 5.如何判断(你自己的)研究工作的价值or贡献【论文精读·李沐】
- 6.经典论文
-
- [(1)AlexNet 2012](#(1)AlexNet 2012)
- [(2)FCN 全卷积 2014](#(2)FCN 全卷积 2014)
- [(3)ResNet:残差学习(Residual Learning)](#(3)ResNet:残差学习(Residual Learning))
- [(4)Attention is All You Need 2017](#(4)Attention is All You Need 2017)
1.阅读第一篇论文
作为一个研一新生,科研新手,第一次阅读论文,应该如何入门?读一篇论文,应该抓住哪些重点?
(1)论文结构
①标题 (Title)
②摘要 (Abstract)
③引言 (Introduction)
④方法 (Method)
⑤实验 (experience)
⑥结论 (conclusion)
⑦关键词
⑧参考文献
(2)目标
看文献抓重点,只看你想要的东西
1.看模型实现了什么目标,拿什么实现的
2.摘要或引言里,看他自己说的创新点,然后在文章里找他怎么实现的这个创新点
3.先看摘要和结论,有些他们创新的算法要看挺久
2.使用GPT辅助论文的阅读与写作
1.用GPT简述内容,整理创新点,写综述,解析代码
①将几篇文章放上去,让GPT帮忙写成综述,将每篇论文用两句话总结,然后整理共同点和不同点。
②用传统的方式肉眼逐篇逐字去看,一些细节一开始很难看懂,有些专有名词不认识,需要一个个查,用GPT会方便理解。
③写毕设的时候,用GPT来写毕业论文的第一章 很爽。
④用GPT来拓展思路也很有用。
3.专有名词
(1)架构
1.Transformer :Transformer模型架构是一种基于自注意力机制的神经网络结构。
2.Pytorch 、TensorFlow:两种深度学习框架。2019年起,Pytorch逐步取代TensorFlow成为主流。
(2)网络
1.CNN:卷积神经网络。
在 Transformer 被广泛应用之前,CNN 是计算机视觉领域的主流架构,用于图像分类、目标检测、图像分割等任务。许多经典的视觉模型(如 ResNet、VGG、Inception 等)都是基于 CNN 的。
2.U-Net :基于CNN,主要用于生物医学图像分割。
3.ResNet :基于CNN,何凯明提出,为了解决深度神经网络中的梯度消失和梯度爆炸问题(解决深层网络退化问题),使得训练更深的神经网络成为可能。ResNet 的核心思想:残差模块,残差学习 。应用:图像分类、目标检测(Faster R-CNN)与图像分割(Mask R-CNN模型都采用ResNet作为特征提取的主干网络)、迁移学习(医学图像分析、遥感图像分类)
(3)机器学习
1.机器学习的两种主要学习方法:
①有监督学习 (Supervised Learning):一种机器学习方法,其中模型通过使用带有标签的训练数据来学习预测目标变量的关系。
②无监督学习(Unsupervised Learning):使用未标记的数据,算法必须自行发现数据中的结构
2.baseline:在深度学习和机器学习中,baseline(基线)指的是在某项任务中用来作为参照的基础模型或标准方法。它为新模型的性能提供一个基准,以便评估新方法的改进效果或有效性。许多图像分割任务中,U-Net 经常被用作 baseline。U-Net 因其卓越的分割能力和易于实现的结构,已经成为医学图像分割、语义分割等任务中的标准模型。因此,很多研究都会使用 U-Net 作为 baseline,对比新方法在分割任务中的表现。
3.欠拟合与过拟合
①欠拟合 (Underfitting):训练集和测试集表现很都差。因此模型太简单、训练数据不够。
②过拟合 (Overfitting):训练集表现好,测试集表现差。模型记住了训练集的太多噪声。
4.训练集、验证集、测试集
①训练集 (Training Set):模型训练
②验证集 (Validation Set):模型调优
③测试集 (Test Set):测试模型
4.文献翻译软件
1.知云文献翻译:知云官网:https://www.zhiyunwenxian.cn/
2.Zotero:
①Zotero官网:https://www.zotero.org/download/
3.ReadPaper
4.小绿鲸
5.直接搓pdf,然后不会的单词查字典
5.如何判断(你自己的)研究工作的价值or贡献【论文精读·李沐】
新意度 × 有效性 × 问题大小 = 价值
6.经典论文
(1)AlexNet 2012
(2)FCN 全卷积 2014
(3)ResNet:残差学习(Residual Learning)
(4)Attention is All You Need 2017
1.Transformer model的开山奠基之作,首次引入了自注意力机制(self-attention mechanism) :《Attention is All You Need》,2017年6月12日