第六十三周周报

学习目标:

项目

实验和论文

学习时间:

2023.11.18-2023.11.24

学习产出:

论文

对论文进行了润色和修改

实验

1、上周Diffusion+Relative的结果无法再次复现,新跑的FID与以前实验跑的结果相差不大,上周的结果应该是偶然

2、Relative+Fourier消融实验产生了一个可用的结果

3、处理了LSUN Bedroom64和128数据集,实验正在跑

项目

由于一开始小程序后端的模块没分配好,漏了一个民生实事模块,因此这周花了部分时间写这个模块的代码。与前端进行联调的过程中修改了一些数据的返回。

相关推荐
机器视觉的发动机18 分钟前
波士顿动力机器人技术全解析从四足Spot到人形Atlas的机器人革命
大数据·人工智能·深度学习·机器人·视觉检测·机器视觉
HyperAI超神经23 分钟前
软银/英伟达/红杉资本/贝佐斯等参投,机器人初创公司Skild AI融资14亿美元,打造通用基础模型
人工智能·深度学习·机器学习·机器人·ai编程
小马爱打代码1 小时前
Spring AI 进阶:RAG 技术原理拆解与本地知识库检索落地
人工智能·深度学习·spring
咚咚王者1 小时前
人工智能之核心技术 深度学习 第五章 Transformer模型
人工智能·深度学习·transformer
逄逄不是胖胖1 小时前
《动手学深度学习》-57长短期记忆网络LSTM
人工智能·深度学习·lstm
Echo_NGC22372 小时前
【联邦学习完全指南】Part 5:安全攻防与隐私保护
人工智能·深度学习·神经网络·安全·机器学习·联邦学习
清铎2 小时前
项目_华为杯’数模研赛复盘_第二问
深度学习·算法·机器学习
八月瓜科技2 小时前
AI侵权频发:国内判例定边界,国际判决敲警钟
大数据·人工智能·科技·深度学习·机器人
汗流浃背了吧,老弟!2 小时前
LangChain RAG PDF 问答 Demo
人工智能·深度学习
Wilber的技术分享2 小时前
【大模型面试八股 1】Transformer注意力机制:MHA、MQA、GQA、MLA原理解析与对比
人工智能·深度学习·transformer·大语言模型·大模型面试题·面试八股