一、进度概述
1、对 inversionnet 的再一次重读
2、python 补完计划(详见 python 专题)
3、相关论文阅读
二、详情
1、对 inversionnet 的再一次重读
在初步过了一遍关于机器学习的基本知识后,现在回过头再来看,又有了一些新的理解。同时对于原来摸不着头脑的原理,这下也能大概看懂了。
同时补充一点,有时候第一时间读不懂,可以去学长学姐的博客里找找当时他们的学习笔记,能有助于自己的理解的。
这里再补充一个知识点:"编码器-解码器 "。
最先的时候我粗心的认为 "编码器-解码器" 结构是一种类似于 U-Net 的结构,结果后来发现,逻辑搞反了。实际上 "编码器-解码器" 是一种架构,很多神经网络都运用到了这点。
在卷积神经网络中,图片先经过卷积层,然后再经过线性层,最终输出分类结果。其中卷积层用于特征提取,而线性层用于结果预测。从另一个角度来看,可以把特征提取看成一个编码器,将原始的图片编码成有利于机器学习的中间表达形式,而解码器就是把中间表示转换成另一种表达形式。
因此就可以把编码器-解码器 抽象成一个框架。一个模型就可以分成两块,一部分叫做编码器,另一部分叫做解码器。编码器将输入编码成一个中间状态(或者中间语义表示),解码器将这些中间状态进行处理然后输出,当然解码器也可以获取输入与中间状态一起生成输出。编码器和解码器也可以由好多个编码器解码器组成,即由多层组成。其中编码器可以是各种网络,如线性网络,CNN,RNN,亦或是像transformer编码器那种复杂的结构;解码器与编码器也可以是一样的网络,也可以是不同的网络。
典型的具有 "编码器-解码器" 架构的一个神经网络便是 Seq2Seq,相关介绍可以参考以下博客:
seq2seq原理介绍_sequence2sequence原理-CSDN博客
2、相关论文阅读
关于 inversionnet 的五篇论文。
全英文论文还是有点压力的,不过今天有点还行,至少没直接全篇翻译了。
在向老板、学长学姐咨询完后记中的问题后,要补充!!!
后记
完成今天的任务后,有一个很大的问题,在于如何读论文?或者说,如何才能算作读好了一篇论文?再言之,我读完一篇论文,总结笔记里应该有些什么?
工科论文和以往的社会学类论文还是有很多不同的。根据以往的阅读经验,what?how?这两个问题应该还是着重需要处理的点。
同时,工科全英文论文读起来感觉比社会学难读一点,论文阅读能力也需要提升。
以上这几点需要在下一次会议中提出来。(惭愧,今天的会议记错时间了,等上线的时候发现都开完了,实属惭愧,下一次应该写个便利贴的,忙起来脑子容易忘)
同时对于下一步的规划,目前安排是边快速刷一下学姐建议的视频,同时准备下一个的复现(咨询学长)。还有就是对 pytorch 的相关练习,这一点是通过复现学姐建议的分类项目来实现