第六十三周周报

学习目标:

项目

实验和论文

学习时间:

2023.11.18-2023.11.24

学习产出:

论文

对论文进行了润色和修改

实验

1、上周Diffusion+Relative的结果无法再次复现,新跑的FID与以前实验跑的结果相差不大,上周的结果应该是偶然

2、Relative+Fourier消融实验产生了一个可用的结果

3、处理了LSUN Bedroom64和128数据集,实验正在跑

项目

由于一开始小程序后端的模块没分配好,漏了一个民生实事模块,因此这周花了部分时间写这个模块的代码。与前端进行联调的过程中修改了一些数据的返回。

相关推荐
佚明zj1 小时前
全卷积和全连接
人工智能·深度学习
阿_旭5 小时前
一文读懂| 自注意力与交叉注意力机制在计算机视觉中作用与基本原理
人工智能·深度学习·计算机视觉·cross-attention·self-attention
王哈哈^_^5 小时前
【数据集】【YOLO】【目标检测】交通事故识别数据集 8939 张,YOLO道路事故目标检测实战训练教程!
前端·人工智能·深度学习·yolo·目标检测·计算机视觉·pyqt
Power20246666 小时前
NLP论文速读|LongReward:基于AI反馈来提升长上下文大语言模型
人工智能·深度学习·机器学习·自然语言处理·nlp
YRr YRr6 小时前
深度学习:循环神经网络(RNN)详解
人工智能·rnn·深度学习
sp_fyf_20247 小时前
计算机前沿技术-人工智能算法-大语言模型-最新研究进展-2024-11-01
人工智能·深度学习·神经网络·算法·机器学习·语言模型·数据挖掘
红客5977 小时前
Transformer和BERT的区别
深度学习·bert·transformer
多吃轻食7 小时前
大模型微调技术 --> 脉络
人工智能·深度学习·神经网络·自然语言处理·embedding
charles_vaez7 小时前
开源模型应用落地-glm模型小试-glm-4-9b-chat-快速体验(一)
深度学习·语言模型·自然语言处理
YRr YRr7 小时前
深度学习:Transformer Decoder详解
人工智能·深度学习·transformer