终身学习基础:AI 持续进化不遗忘旧知识

文章目录

    • 前言
    • 一、到底什么是AI的"灾难性遗忘"?为啥人脑不会,AI就会?
      • [1.1 先搞懂:AI学习的本质,到底是在学什么?](#1.1 先搞懂:AI学习的本质,到底是在学什么?)
      • [1.2 为啥会"灾难性遗忘"?本质就是旧抽屉被你清空了](#1.2 为啥会“灾难性遗忘”?本质就是旧抽屉被你清空了)
      • [1.3 2026年了,为啥这个问题突然变得这么重要?](#1.3 2026年了,为啥这个问题突然变得这么重要?)
    • 二、2026年主流的AI终身学习方案,小白也能看懂,拿来就能用
      • [2.1 正则化大法:给重要的抽屉上锁,旧东西绝不乱动](#2.1 正则化大法:给重要的抽屉上锁,旧东西绝不乱动)
      • [2.2 动态网络大法:直接买新抽屉,旧的永远不动](#2.2 动态网络大法:直接买新抽屉,旧的永远不动)
      • [2.3 回放大法:像人一样复习,学新的同时不忘旧的](#2.3 回放大法:像人一样复习,学新的同时不忘旧的)
      • [2.4 模块化大法:像乐高积木一样,一个任务一个模块](#2.4 模块化大法:像乐高积木一样,一个任务一个模块)
    • 三、2026年小白避坑指南:别再这么训模型了,越训越傻
      • [3.1 坑1:上来就全参数微调,90%的遗忘问题都来自这里](#3.1 坑1:上来就全参数微调,90%的遗忘问题都来自这里)
      • [3.2 坑2:狗熊掰棒子,只训新任务,完全不复习旧任务](#3.2 坑2:狗熊掰棒子,只训新任务,完全不复习旧任务)
      • [3.3 坑3:任务之间不隔离,所有任务共用同一批权重](#3.3 坑3:任务之间不隔离,所有任务共用同一批权重)
      • [3.4 坑4:迷信大模型,觉得参数越大越不会忘](#3.4 坑4:迷信大模型,觉得参数越大越不会忘)
    • 四、实战落地:3步搞定,让你的AI越学越聪明,绝不遗忘
      • [4.1 第一步:冻结基座主干,只开放LoRA参数](#4.1 第一步:冻结基座主干,只开放LoRA参数)
      • [4.2 第二步:分任务管理LoRA权重,完全隔离互不干扰](#4.2 第二步:分任务管理LoRA权重,完全隔离互不干扰)
      • [4.3 第三步:少量回放数据,巩固通用能力不退化](#4.3 第三步:少量回放数据,巩固通用能力不退化)
    • 五、最后说几句:AI的终身学习,才是真正的智能

P.S. 目前国内还是很缺AI人才的,希望更多人能真正加入到AI行业,共同促进行业进步,增强我国的AI竞争力。想要系统学习AI知识的朋友可以看看我精心打磨的教程 http://blog.csdn.net/jiangjunshow,教程通俗易懂,高中生都能看懂,还有各种段子风趣幽默,从深度学习基础原理到各领域实战应用都有讲解,我22年的AI积累全在里面了。注意,教程仅限真正想入门AI的朋友,否则看看零散的博文就够了。

前言

兄弟们,先问个扎心的问题:你是不是2026年了,跟着风口玩大模型微调、搞智能体开发,好不容易花了半个月把开源模型训成了公司专属的业务机器人,能精准回答100+产品常见问题,结果想给它加个售后工单处理的能力,再微调一轮直接傻眼------新的售后问题倒是会答了,之前滚瓜烂熟的产品知识全忘了,客户问"你们产品多少钱",它张口就来"请您提供一下工单编号",当场血压飙升,恨不得把服务器给砸了?

又或者,你搞CV视觉开发,训了个缺陷检测模型,能精准识别生产线里的3种不良零件,结果为了适配新的零件型号,加了新的缺陷数据再训,好家伙,新缺陷认出来了,旧的3种缺陷直接当成了合格品,生产线出了批量事故,年终奖直接打了水漂?

还有更离谱的,你给智能体加了个新的PDF解析工具,结果它之前写得丝滑流畅的Python代码、算得明明白白的数据分析,全给忘干净了,让它写个接口,它给你回"请上传您的PDF文件",是不是当场就想把键盘给摔了?

我在AI行业摸爬滚打了22年,从最早的专家系统、浅层神经网络,到现在的大模型、多智能体,见过太多开发者踩过这个一模一样的坑------AI学了新东西,就把旧知识全给忘了。这个问题,在AI圈有个大名鼎鼎的名字,叫灾难性遗忘,也是阻碍AI实现真正"终身学习"的最大拦路虎。

我们之前的教程里说过,人工神经网络之所以能实现"真智能",核心就是它模仿了人脑的结构,能像人类小孩一样自主学习特征。但人脑最厉害的一点,AI直到2026年的今天,都还在拼命追赶------我们人类学会了骑自行车,就算十年不碰,再上车照样能溜两圈;学会了1+1=2,就算后来学了微积分、线性代数,也绝不会忘了基础加法;学会了认猫,再学认狗,绝不会把猫当成狗。但AI不行,传统的训练方式下,它学新任务的过程,就是把旧知识全覆盖的过程,妥妥的"狗熊掰棒子,掰一个丢一个"。

今天这篇文章,我就用大家能听懂的大白话,不带复杂公式,不用高数知识,给大家讲明白:AI为什么会"学新忘旧"?2026年了,有哪些成熟靠谱、小白也能拿来就用的方案,能让AI持续进化,还绝不遗忘旧知识?还有那些90%新手都会踩的训练坑,帮大家一次性避完。

一、到底什么是AI的"灾难性遗忘"?为啥人脑不会,AI就会?

1.1 先搞懂:AI学习的本质,到底是在学什么?

这里先给大家衔接上我们之前教程里的核心内容,保证零基础的朋友也能看懂。我们之前讲过,人工神经网络的核心,就是一堆互相连接的神经元,每个连接都有一个对应的权重。我们训练AI的过程,说白了就是不停地调整这些权重,让它能拟合我们给的训练数据,最终输出我们想要的结果。

举个之前教程里的经典例子:我们要训练AI识别猫,就把成千上万张猫的图片,转成12288维的特征向量输进神经网络里,模型就会不停地调整内部的权重,直到"看到猫的特征向量,就输出'这是猫'"这个结果。训练完成后,这些权重里,就存下了AI学到的"猫的知识"------比如尖耳朵、长胡须、四条腿、三角脸这些特征,全被编码在了这些权重里。

这就好比你把家里的100个抽屉,全用来放和"猫"相关的东西,每个抽屉里的物品摆放,都对应着一组权重,你打开对应的抽屉,就能拿出"识别猫"的能力。

1.2 为啥会"灾难性遗忘"?本质就是旧抽屉被你清空了

那AI为啥会学新忘旧?道理再简单不过了:传统的全参数训练方式,就是你要放和"狗"相关的新东西,直接把这100个抽屉全给清空了,重新摆放"狗"的物品。等你摆完,狗的东西是放好了,之前猫的东西全被你扔了,AI自然就忘了猫长啥样了。

而我们人脑的学习逻辑,完全不是这样。人脑有上千亿个神经元,这些神经元是有明确分工的,一部分负责管运动,一部分负责管语言,一部分负责管视觉识别。你学认猫的时候,只会激活视觉皮层里的一小部分神经元,给"猫"这个概念专门划一块"记忆区域";等你学认狗的时候,只会新开一块区域,激活新的神经元,绝不会把之前记猫的那块区域给覆盖掉。

更关键的是,人脑的学习是"增量式"的,而传统AI的训练是"覆盖式"的。我们人每天学新东西,都是在原有的知识体系上添砖加瓦,而AI传统的训练方式,是每次学新东西,都要把整个房子拆了重建,房子建好了,之前的东西自然就全没了。

这里我要纠正一个90%新手都会有的误区:很多人觉得,模型参数越大,就越不会忘。错!2026年了,哪怕是千亿参数的大模型,你上来就全参数微调,照样学新忘旧,甚至忘得更离谱。因为模型越大,对应的"抽屉"就越多,你全参数更新的时候,清空的抽屉就越多,旧知识丢得就越干净。我见过太多新手,拿着Llama 3 70B的大模型,上来就全参数微调,结果训完之后,连通顺的人话都不会说了,还不如用7B小模型加LoRA的效果好。

1.3 2026年了,为啥这个问题突然变得这么重要?

可能有兄弟会说:之前我一个任务训一个模型,识别猫的就专门识别猫,识别狗的就专门识别狗,互不干扰,不就不会忘?为啥现在非要纠结这个问题?

道理很简单:2026年的AI行业,已经不是之前的"单任务模型"时代了,我们要的是通用人工智能,是一个模型能搞定所有事------既能写代码,又能做客服,还能画图纸,还能做数据分析,甚至能开自动驾驶。这就要求AI必须能像人一样,实现终身学习:走到哪学到哪,学了新技能,不忘老本事。

你总不能给每个业务都训一个独立的大模型吧?先不说算力成本有多高,光是模型的管理、部署、维护,就能把你逼疯。2026年了,不管是大厂的文心一言、GPT-4o,还是中小厂的落地应用,核心需求都是"一个基座,多场景适配,持续迭代不退化",而这一切的基础,就是解决AI的灾难性遗忘问题,让AI能真正实现终身学习。

二、2026年主流的AI终身学习方案,小白也能看懂,拿来就能用

我知道很多兄弟看到这里,肯定会说:道理我都懂,那到底怎么才能让AI不遗忘?别着急,我把2026年行业里最成熟、效果最好、小白也能直接上手的4种方案,全给大家拆解明白,不用复杂公式,全是生活里的类比,看完你就懂怎么用。

2.1 正则化大法:给重要的抽屉上锁,旧东西绝不乱动

这个方案的核心逻辑,用一句话说就是:旧任务里重要的权重,我给它上把锁,训练新任务的时候,只允许改那些不重要的权重

类比一下就懂了:你家100个抽屉里,有30个抽屉放了和"猫"相关的核心物品,这些东西绝对不能丢,你就给这30个抽屉全上了锁。现在要放"狗"的新东西,你只能用剩下没上锁的70个抽屉,这样一来,旧的核心物品被保护得好好的,新东西也有地方放,自然就不会丢了。

在AI里,这个方法就叫正则化,最经典的就是EWC(弹性权重巩固)算法,2026年了,这个算法已经升级了好几个版本,针对Transformer大模型的EWC++、针对CV模型的正则化方案,已经被集成到了Transformers、MMDetection这些主流框架里,小白一行代码就能调用。

它的实现逻辑也很简单:

  1. 完成旧任务训练后,计算出每个权重对旧任务的重要程度------权重越重要,对旧任务的准确率影响越大,就给它加更高的"保护等级";
  2. 训练新任务的时候,在损失函数里加一个正则项,告诉模型:权重越重要,修改的惩罚就越大,尽量别去动它;
  3. 模型只会去修改那些不重要的权重,来拟合新任务,核心的旧权重被保护得好好的,自然就不会遗忘旧知识。

这个方案的优缺点也很明确:

✅ 优点:简单易用,不用改模型结构,不用存旧任务的训练数据,对算力和内存的要求极低,边缘设备、小模型都能用;

❌ 缺点:不能过度保护,否则新任务没地方"放",就学不好。就好比你把99%的抽屉都锁了,只剩1个抽屉放新东西,肯定放不下,新任务自然就学不会。

2.2 动态网络大法:直接买新抽屉,旧的永远不动

这个方案,是2026年大模型微调领域最火、用得最多的方案,没有之一。核心逻辑一句话:旧的权重我一点都不动,直接加新的网络结构来学新任务,新旧完全隔离,互不干扰

还是用抽屉的类比:旧的100个抽屉,全放满了旧东西,我一个都不动,也不上锁,直接买新的抽屉回来,专门放新任务的东西。旧抽屉永远保持原样,新东西全放新抽屉里,想用旧能力就开旧抽屉,想用新能力就开新抽屉,完美解决遗忘问题。

说到这里,肯定有兄弟反应过来了:这不就是现在大家天天用的LoRA、QLoRA吗?没错!90%的人用LoRA微调大模型,只知道它能省显存、训练快,却不知道它的核心设计初衷,就是解决AI的灾难性遗忘问题!

LoRA的全称是低秩适配,它的实现逻辑简直是天才级别的:

  1. 把大模型的主干权重完全冻结,一点都不修改,旧知识全存在这些冻结的权重里,永远不会丢;
  2. 在Transformer模型的注意力层,新增两个小小的低秩矩阵,这两个矩阵就是我们的"新抽屉";
  3. 训练新任务的时候,只更新这两个小矩阵的参数,主干权重纹丝不动,新任务的知识全存在这两个小矩阵里;
  4. 推理的时候,把这两个小矩阵的参数合并到主干里,就能同时拥有旧能力和新能力,而且每个任务可以训一个独立的LoRA矩阵,用哪个就加载哪个,互不干扰。

2026年了,LoRA已经升级了无数个版本,比如能自适应调整秩的AdaLoRA、支持长上下文的LongLoRA、能同时加载多个任务的Multi-LoRA,还有能把显存压到极致的QLoRA,哪怕你只有一张16G显存的消费级显卡,也能轻松微调70B的大模型,而且完全不用担心学新忘旧。

我给很多中小企业做过AI落地,用的就是这个方案:一个开源的基座大模型,给不同的业务部门训不同的LoRA权重,客服部用客服LoRA,技术部用代码LoRA,市场部用文案LoRA,加了十几个LoRA,每个业务的准确率都在95%以上,基座的通用能力一点都没丢,完全不会出现学新忘旧的问题。

这个方案的优缺点:

✅ 优点:完美解决遗忘问题,训练速度快、显存占用极低,不用改基座模型,多任务管理方便,2026年行业主流方案,小白也能一键上手;

❌ 缺点:任务数量特别多的时候,LoRA权重文件会越来越多,不过现在已经有成熟的LoRA合并、动态裁剪方案,基本解决了这个问题。

2.3 回放大法:像人一样复习,学新的同时不忘旧的

这个方案,完全就是模仿我们人类的学习习惯,核心逻辑一句话:学新知识的同时,每天复习一点旧知识,自然就不会忘了

我们上学的时候都有这个经验,学了新的数学公式,每天还要做几道之前学过的基础题,巩固一下,不然时间长了就会忘。AI的回放大法,就是这个道理。

具体来说,回放大法分两种:

第一种是真实回放:把旧任务的训练数据存下来,训练新任务的时候,把5%-10%的旧数据混到新数据里,一起喂给模型。模型在学新任务的同时,还要复习旧任务,自然就不会把旧知识给忘了。这个方法效果极好,也是学术界公认的、能同时兼顾新旧任务准确率的最优方案之一。

第二种是生成回放,也是2026年特别火的方案:很多兄弟会说,旧任务的数据量太大了,存起来太占内存,怎么办?很简单,不用存真实数据,用AI自己生成旧任务的样本就行。比如你之前训了识别猫的模型,现在训识别狗,就让模型自己生成一批猫的图片,混在狗的图片里一起训,效果和真实回放几乎没区别,还不用存海量的旧数据。

2026年了,生成回放技术已经非常成熟了,用扩散模型生成图像样本、用大模型生成文本样本,质量比真实数据还高,而且能根据模型的遗忘情况,动态调整生成的样本内容,哪里忘了就补哪里,效果直接拉满。

这个方案的优缺点:

✅ 优点:效果拉满,新旧任务的准确率都能保持在极高水平,不用改模型结构,不用动训练逻辑,兼容性极强;

❌ 缺点:真实回放需要存储旧数据,对内存有一定要求;生成回放需要对应的生成模型,对算力有一点点要求,不过2026年的消费级显卡,完全能搞定。

2.4 模块化大法:像乐高积木一样,一个任务一个模块

这个方案,是未来通用人工智能的核心方向,2026年很多大厂的大模型,都已经用上了这个方案。核心逻辑一句话:把模型拆成一个个独立的乐高模块,通用能力用公共模块,每个任务用独立的专属模块,训练新任务只动专属模块,公共模块和其他任务模块完全不动

还是用生活里的类比:你家有个公共的衣柜框架,这个框架是通用的,然后你给每个季节的衣服,都配一个独立的收纳盒,春天的放春天的收纳盒,夏天的放夏天的收纳盒,想用哪个季节的衣服,就把对应的收纳盒装到衣柜框架上,其他收纳盒完全不动,自然就不会乱。

在AI里,最典型的就是MoE混合专家模型,比如GPT-4o、文心一言4.0这些顶级大模型,核心都用了MoE结构。它的逻辑是这样的:

  1. 模型有一个通用的特征提取层,这个是公共模块,完全冻结,负责基础的语义理解、特征提取,所有任务通用;
  2. 模型里有很多个独立的"专家模块",每个专家模块只负责一个特定的任务,比如代码专家、客服专家、文案专家、视觉专家;
  3. 训练新任务的时候,只训对应的新专家模块,其他专家模块和公共模块完全不动,新任务的知识全存在新专家模块里;
  4. 推理的时候,模型会根据用户的输入,自动激活对应的专家模块,其他模块完全不工作,既能保证任务效果,又完全不会互相干扰,更不会遗忘旧知识。

2026年了,开源框架比如Megatron-LM、DeepSpeed,都已经完美支持MoE模型的训练和部署,哪怕是中小厂,也能轻松搭建自己的模块化大模型,实现真正的终身学习。

这个方案的优缺点:

✅ 优点:扩展性极强,能支持成千上万个任务,是通用人工智能的核心方向,新旧任务完全隔离,零遗忘;

❌ 缺点:模型结构相对复杂,对训练框架和算力有一定要求,更适合有一定基础的开发者,不过现在也有很多一键部署的开源方案,小白也能尝试。

三、2026年小白避坑指南:别再这么训模型了,越训越傻

我在AI行业摸爬滚打了22年,见过太多新手,本来模型好好的,结果一顿操作猛如虎,训完直接变成二百五,全是踩了这几个坑。今天我一次性给大家讲明白,别再踩了。

3.1 坑1:上来就全参数微调,90%的遗忘问题都来自这里

我敢说,90%的新手遇到的学新忘旧问题,都是自己作的------拿到一个开源大模型,上来就全参数微调。

全参数微调,就是我之前说的,把所有抽屉全清空,重新摆东西,旧知识自然全没了。2026年了,除非你有海量的训练数据、顶级的算力集群,要做基座模型的二次预训练,否则别碰全参数微调。LoRA它不香吗?省显存、训练快、不遗忘,小白也能上手,为啥非要去碰全参数微调?

3.2 坑2:狗熊掰棒子,只训新任务,完全不复习旧任务

很多兄弟训模型,就跟狗熊掰棒子一样,掰一个丢一个,训完A任务,训B任务,完全不管A任务了,连一点旧数据都不混进去复习,结果训完B,A全忘了。

哪怕你用了LoRA,也建议在训练新任务的时候,混个5%左右的通用数据或者旧任务数据,让模型复习一下,效果会好很多,完全不会出现严重的遗忘问题。

3.3 坑3:任务之间不隔离,所有任务共用同一批权重

还有的兄弟,给模型训了客服功能,又训代码功能,还训文案功能,所有任务都在同一批权重上改来改去,结果就是互相干扰,客服的时候给你写代码,写代码的时候给你回客服话术,整个模型乱成一锅粥。

正确的做法是,用LoRA或者模块化的方式,给每个任务做隔离,一个任务一个独立的权重模块,用哪个加载哪个,互不干扰,自然就不会有这个问题。

3.4 坑4:迷信大模型,觉得参数越大越不会忘

很多新手觉得,我用个千亿参数的大模型,总不会忘了吧?大错特错!模型越大,全参数微调的时候,改动的权重就越多,遗忘就越严重。就好比你家的抽屉越多,你全清空的时候,丢的东西就越多。

2026年了,选模型不是越大越好,适合自己的才是最好的。普通的业务落地,7B、13B的模型,加个LoRA微调,效果完全够用,而且不会出现严重的遗忘问题,性价比拉满。

四、实战落地:3步搞定,让你的AI越学越聪明,绝不遗忘

说了这么多,很多兄弟肯定想知道,具体怎么操作?我给大家一个2026年最通用、小白也能直接上手的3步实战方案,用主流的Transformers+PEFT库,基于LoRA实现AI终身学习,零遗忘。

4.1 第一步:冻结基座主干,只开放LoRA参数

首先,加载开源基座模型的时候,直接用PEFT库的LoRA配置,把模型的主干权重完全冻结,只在注意力层添加LoRA矩阵,训练的时候,只更新LoRA的参数,主干权重纹丝不动,从根源上杜绝旧知识被覆盖。

这里给大家一个极简的配置示例,不用复杂代码,复制就能用:

python 复制代码
from peft import LoraConfig, get_peft_model
from transformers import AutoModelForCausalLM

# LoRA核心配置,只更新小矩阵,不改动主干权重
lora_config = LoraConfig(
    r=8,  # LoRA秩,越大拟合能力越强,常规业务8-64完全足够
    lora_alpha=32,
    target_modules=["q_proj", "v_proj"],  # 仅针对注意力层核心矩阵
    lora_dropout=0.05,
    bias="none",
    task_type="CAUSAL_LM",
)

# 加载基座模型,冻结主干,仅保留LoRA可训练参数
model = AutoModelForCausalLM.from_pretrained("你的基座模型本地路径/开源模型名")
model = get_peft_model(model, lora_config)
model.print_trainable_parameters()  # 执行后会发现,可训练参数仅0.1%左右

就这么几行代码,你就已经从根源上解决了90%的遗忘问题,因为主干权重完全不动,旧知识永远都在。

4.2 第二步:分任务管理LoRA权重,完全隔离互不干扰

每个独立的业务任务,都训一个专属的LoRA权重文件,单独命名、单独保存,比如:

  • 智能客服任务:保存为lora_customer_service
  • 代码生成任务:保存为lora_code_generation
  • 营销文案任务:保存为lora_copywriting

用哪个任务,就加载对应的LoRA权重;需要多能力融合时,还可以用PEFT库的add_weighted_adapter功能,同时加载多个LoRA权重,完全不会互相干扰,也不会出现能力覆盖的问题。

4.3 第三步:少量回放数据,巩固通用能力不退化

训练新任务的时候,在训练数据集里,混入5%-10%的通用问答数据,或者旧任务的样本数据,让模型在学习新业务知识的同时,同步复习基础通用能力,进一步降低遗忘概率,避免模型变成只会答业务问题的"傻子"。

就这3步,我可以负责任地说,2026年90%的企业级业务落地场景,都完全够用了。我用这个方案,给很多企业做过落地,一个基座模型,适配十几个业务场景,每个场景的任务准确率都在95%以上,模型的通用对话、逻辑推理能力一点没丢,完全不会出现学新忘旧的问题。

五、最后说几句:AI的终身学习,才是真正的智能

我们在最开始的教程里就说过,人工智能的终极目标,是让机器能像人一样思考。而人脑最核心的能力,从来都不是一次性记住多少东西,而是能终身学习,持续进化,不忘来路

2026年了,AI行业发展得飞快,大模型参数越做越大,能力越来越强,智能体遍地开花,很多人都在追风口,比谁的模型大,比谁的功能多,却忽略了AI最核心的底层能力------持续学习的能力。

一个不能终身学习的AI,哪怕再强,也只是一个固定的程序,一个高级的工具;而一个能持续进化、学了新东西不忘旧知识的AI,才是我们真正想要的、像人脑一样的"真智能"。

很多兄弟总说,AI门槛太高了,要高数、要统计学、要超强的编程能力,其实不是。我做了22年的AI研发和教育,一直都主张,好的技术教程,就应该让高中生都能看懂,就应该用通俗的类比、接地气的段子,把复杂的技术讲明白。2026年了,很多工具都已经封装得非常完善了,只要你找对方法,哪怕你是零基础,也能学会AI,也能做出属于自己的、能终身学习的AI模型。

P.S. 目前国内还是很缺AI人才的,希望更多人能真正加入到AI行业,共同促进行业进步,增强我国的AI竞争力。想要系统学习AI知识的朋友可以看看我精心打磨的教程 http://blog.csdn.net/jiangjunshow,教程通俗易懂,高中生都能看懂,还有各种段子风趣幽默,从深度学习基础原理到各领域实战应用都有讲解,我22年的AI积累全在里面了。注意,教程仅限真正想入门AI的朋友,否则看看零散的博文就够了。

相关推荐
iNeuOS工业互联网3 小时前
iNeuOS工业互联网操作系统集成大模型智库(iNeuOS_AiMind·心智灵慧)
大数据·人工智能·智能制造·视频·工业互联网·ineuos
前端不太难3 小时前
给AI装上“安全缰绳”:OpenClaw与Co-Sight的信任协作
人工智能·安全·状态模式
甲维斯3 小时前
逆天好消息!所有Claude用户配额翻倍
人工智能
名不经传的养虾人3 小时前
从0到1:企业级AI项目迭代日记 Vol.18|功能被悄悄改没了,然后我们写了个看门狗
大数据·人工智能·ai编程·企业ai·多agent协作
Aray12343 小时前
CPU vs GPU vs TPU vs NPU vs LPU vs DPU:驱动现代 AI 的六大处理器解析
人工智能
动物园猫3 小时前
公共安全打架行为识别数据集分享(适用于YOLO系列深度学习检测任务)
人工智能·深度学习·yolo
byte轻骑兵3 小时前
【HID】规范精讲[10]: 蓝牙HID设备的连接基石——GAP协议如何掌控发现、连接与安全
人工智能·人机交互·蓝牙·键盘·鼠标·hid
OJAC1113 小时前
软件工程应届生不想留在原路上,他一周内等来了上海offer
人工智能