Day64_0121
专注时间:目标是:5h30~6h。实际:5h47min
每日任务: 饭后的休息(25min),学习间歇的休息(15min)都用手表计时器来监督
{step1} 40min =二刷 1 道力扣hot100 +昨天的题再做一遍 (如果是hard,只做一道就好 , 完成情况及时长: 二刷昨日题目:15min,今日题目:32 min );【学习资源:PyTorch官方文档:https://docs.pytorch.ac.cn/tutorials/beginner/basics/intro.html】1.5h=PyTorch工程实操(完成情况及时长: 0。把第二个pytorch网页的"局部禁用梯度计算"看懂,就去看第一个pytorch网页 ); {step4} 1h=周志华机器学习(完成情况及时长: 0min ); {setp3} 1.5h+(claude的RL4LLM学习路径,时长: 25+63+8min ) ; {step2,学习《考试重点.pdf》8页并每日复习和1h学习时间都要满足。} 1h= 计算机网络复习 [学习和背诵《考试重点.pdf》+1题历年考题,循环地做。不懂的可以看网课和问豆包] (完成情况及时长: 很多时间 +已看完,明天复习该文件+做历年试卷 );
学完机器学习,然后是深度学习。学完PyTorch,之后是Transformer与大模型架构(见Gemini3pro生成的阶段2)。学快一点。准备一个GitHub Repo把所有手撕过的算法整理进去,这会是最好的复习资料。
必须熟记的API、最简洁的GPT实现、带注释的Transformer实现、推荐系统模型库(包含主流模型实现)还有"Let's build GPT"系列学习视频见Claude的第20页。 冰哥听讲座,老师说: GPT是最好的老师,不需要其他家教,清华学生智商120,GPT有140。多用大模型来帮助学习。
学习内容:如上
总结与心得:早上赖床5分钟,成功早起。从17号开始看计算机网络的考试重点.pdf,刚开始觉得难抽象记忆内容多,不过当时提醒自己万事开头难,最难的时候就是进步最快的时候,5天后终于是看完了,之后还要复习模式识别和做这两门课的试卷。最近入睡困难,应该是看手机看多了,睡前冥想会更容易入睡,并且发现专注数数也能马上入睡,今天把健身出发时间改到19.00,看看会不会好入睡。接触深度阅读之后(阅读公众号的文章),自己变得更专注了,很少会思绪不定地打乱手头的专注事。进入学习状态之后,到了休息时间都不会想刷抖音而是想继续学,所以还是要逼自己放下抖音去学习,进入状态之后就好了。今天抢课成功。中午早上的时间都没浪费,下午抖音多刷了25分钟(也就是一次一共刷了40分钟),得改。回宿舍刷了40分钟抖音游戏直播。今天还是比较充实的,以为专注时长会比较高,没想到也就还好,看来抖音拿走的时间还是很多的,明天改改。
《46.全排列》
python
class Solution(object):
def permute(self, nums):
"""
:type nums: List[int]
:rtype: List[List[int]]
"""
res = []
def backtrack(path,used):
if len(path) == len(nums):
#错在这里了,注意要用拷贝,不能直接append(path)
#在Python中,列表是可变对象,如果直接append(path),那么实际上是将path的引用添加到结果列表res中。在后续的回溯过程中,path会被不断地修改(添加元素和弹出元素),那么之前添加到res中的path也会随之改变,因为它们是同一个对象。因此,我们需要在找到一个完整排列时,将当前path的副本(即一份独立的数据)添加到res中。这样即使后续path发生变化,已经添加到res中的副本也不会受到影响。具体来说,有两种常见方式创建副本:使用切片:path[:];使用copy方法:path.copy()
res.append(path[:])
return
for i in range(len(nums)):
if used[i]:
continue
used[i]=True
path.append(nums[i])
backtrack(path,used)
used[i]=False
path.pop()
backtrack( [], [False]*len(nums) )
return res