AI技术学习笔记系列004:GPU常识

显卡架构是GPU设计的核心,不同厂商有其独特的架构演进。以下是主要厂商的显卡架构概述:

一、NVIDIA

  1. Tesla(2006-2010)

    • 代表产品:GeForce 8000系列(G80)。
    • 特点:首款统一着色架构,支持CUDA。
  2. Fermi(2010)

    • 产品:GTX 400/500系列。
    • 特点:引入L2缓存,支持ECC内存。
  3. Kepler(2012)

    • 产品:GTX 600/700系列。
    • 特点:能效提升,支持GPU Boost。
  4. Maxwell(2014)

    • 产品:GTX 900系列。
    • 特点:高能效比,SMM单元优化。
  5. Pascal(2016)

    • 产品:GTX 10系列(如1080)。
    • 特点:16nm工艺,支持NVLink。
  6. Volta(2017)

    • 产品:Tesla V100(数据中心)。
    • 特点:Tensor Core加速AI计算。
  7. Turing(2018)

    • 产品:RTX 20系列。
    • 特点:首次支持光线追踪和DLSS。
  8. Ampere(2020)

    • 产品:RTX 30系列、A100。
    • 特点:第二代光追,第三代Tensor Core。
  9. Ada Lovelace(2022)

    • 产品:RTX 40系列。
    • 特点:DLSS 3,第四代光追。
  10. Hopper(2022)

    • 产品:H100(数据中心)。
    • 特点:Transformer引擎,HBM3内存。

二、AMD

  1. GCN(Graphics Core Next)(2012-2018)

    • 产品:Radeon HD 7000系列至RX 500系列。
    • 特点:统一计算架构,支持Mantle API。
  2. RDNA(Radeon DNA)

    • RDNA 1(2019):RX 5000系列,7nm工艺,提升能效。
    • RDNA 2(2020):RX 6000系列(如6900 XT),支持光线追踪和FSR。
    • RDNA 3(2022):RX 7000系列,5nm工艺,Chiplet设计。
  3. CDNA(2020-至今)

    • 产品:Instinct MI系列(如MI250X)。
    • 特点:专为计算优化,支持Infinity Fabric。

三、Intel

  1. Xe架构
    • Xe LP(2020):集成显卡(如Iris Xe)。
    • Xe HPG(2022):Arc A系列(如A770),支持光线追踪和XeSS。
    • Xe HPC(2022):Ponte Vecchio(数据中心)。
    • Xe HP:多芯片设计,面向服务器。

四、其他厂商

  1. Imagination PowerVR

    • 用于移动设备(如旧款iPhone),低功耗设计。
  2. ARM Mali

    • 集成于移动SoC(如三星Exynos),侧重能效。
  3. 高通 Adreno

    • 源自ATI Imageon,用于骁龙芯片(如Adreno 740)。

五、应用领域

  • 游戏/消费级:NVIDIA Ada Lovelace、AMD RDNA、Intel Xe HPG。
  • 数据中心:NVIDIA Hopper、AMD CDNA、Intel Xe HPC。
  • 移动/嵌入式:ARM Mali、PowerVR、Adreno。

六、英伟达Blackwell架构

以下是英伟达Blackwell架构的历史发展脉络,结合技术演进、市场背景与行业影响进行综合分析:


一、起源与命名

  1. 发布背景

    Blackwell架构是英伟达在AI算力需求爆炸式增长、摩尔定律逐渐放缓的背景下推出的新一代GPU架构。其目标是通过技术创新解决用户对高画质、高帧率与低功耗的双重需求,同时支撑万亿参数级AI模型的训练与推理。

  2. 命名由来

    架构以美国数学家David Blackwell(首位入选美国国家科学院的黑人学者)命名,延续了英伟达以科学家命名的传统(如Turing、Ampere等),旨在致敬其对统计学和博弈论的贡献。


二、研发投入与时间线

  1. 研发周期与成本

    • 研发始于2021年,历时3年,投入约2.5万名工程师,人力成本估算达163亿美元(仅薪酬部分)。
    • 作为对比,前代Hopper架构研发成本约为其一半,但Blackwell的复杂性与技术突破显著提升。
  2. 发布与延迟

    • 2024年3月,英伟达在GTC开发者大会上首次公布Blackwell架构,并推出首款产品GB200芯片。
    • 原计划2024年底量产,但因台积电CoWoS封装工艺问题推迟至2025年第一季度。

三、技术演进与架构继承

  1. 前代架构的积累

    Blackwell继承了英伟达GPU架构的迭代基因:

    • Pascal(2016):首推统一着色器设计,奠定CUDA核心灵活性基础。
    • Volta(2017):引入Tensor Core,开启AI专用加速时代。
    • Ampere(2020):NVLink 3.0与HBM2e显存提升多卡协作效率。
    • Hopper(2022):HBM3显存与FP8精度优化大模型训练。
  2. Blackwell的核心突破

    • 晶体管与工艺 :采用台积电4nm工艺,集成2080亿晶体管(Hopper的两倍)。
    • 显存技术 :配备192GB HBM3e显存,带宽达8TB/s,支持万亿参数模型实时推理。
    • 计算单元 :第五代Tensor Core支持FP4/FP6低精度计算 ,AI算力提升至20千万亿次/秒(H100的5倍)。
    • 互联技术 :NVLink 5提供1.8TB/s双向带宽,支持576个GPU无缝互联,构建超大规模集群。

四、产品化与市场布局

  1. 关键产品线

    • 数据中心:GB200 NVL72系统(72个GPU + 36个Grace CPU),专为万亿参数大语言模型设计,推理性能较H100提升30倍。
    • 消费级显卡:RTX 50系列(如RTX 5090),采用GDDR7显存(30Gbps带宽)与神经网络着色器,支持DLSS 4与8K 165Hz显示。
    • AI芯片:B300芯片(288GB HBM3e显存),TDP提升至1400W,面向超大规模AI训练。
  2. 行业合作与生态

    • 亚马逊、谷歌、微软等云服务商首批采用Blackwell平台。
    • 与CUDA生态深度绑定,巩固英伟达在AI芯片市场90%的份额,同时面临"UXL基金会"等开源联盟的挑战。

五、历史意义与行业影响

  1. 技术里程碑

    Blackwell标志着GPU从"图形处理器"向"通用AI加速器"的彻底转型,其多精度计算、海量互联与能效优化重新定义了高性能计算的标准。

  2. 市场格局重塑

    • 推动AI模型规模从万亿向十万亿参数迈进,加速生成式AI(如3D视频生成)的平民化。
    • 巩固英伟达在AI芯片市场的垄断地位,但也引发对技术依赖与生态封闭性的争议。
  3. 未来方向

    • Chiplet与光互联:Blackwell的模块化设计为后续多芯片集成铺路,硅光技术或成下一代互联核心。
    • 量子计算协同:通过cuQuantum项目探索GPU加速量子模拟,拓展异构计算边界。

Blackwell架构是英伟达继Hopper后的又一里程碑,其技术突破与市场策略体现了"AI驱动计算"的行业趋势。从研发投入、性能指标到生态布局,Blackwell不仅延续了英伟达的技术霸权,更将AI算力推向了新的高度,成为2020年代中后期全球AI基础设施的核心支柱。


补充内容:历史架构与冷门厂商

1. 经典老架构(已退出市场)
  • 3dfx Voodoo(1990年代)

    • Voodoo Graphics(1996):首款3D加速卡,支持Glide API。
    • Voodoo2(1998):SLI多卡互联技术先驱。
  • NVIDIA NV1(1995)

    • 集成2D+3D+声卡功能,但采用四边形渲染(非主流三角形),最终失败。
  • ATI Rage/R300(1990s-2000s)

    • Rage 128(1998):对抗Voodoo的早期尝试。
    • Radeon 9700(R300)(2002):首款支持DirectX 9的显卡,击败同期NVIDIA FX 5800。
  • S3 Graphics

    • S3 Virge(1995):首款"2D+3D加速"消费级显卡,但3D性能较弱。
    • S3 Savage(1998):支持纹理压缩,但驱动问题导致市场失利。
  • Matrox

    • Parhelia(2002):首款支持三屏输出的显卡,主打专业多屏市场。

2. 技术细节补充
  • 统一着色器架构(Unified Shaders)

    • 起源:2006年NVIDIA Tesla架构首次实现,取代了传统的固定管线(VS/PS分离)。
    • 意义:允许GPU动态分配计算资源,提升通用计算能力。
  • 显存技术演进

    • GDDR3→GDDR5→GDDR6→GDDR6X:带宽与频率逐代提升。
    • HBM(High Bandwidth Memory):AMD Fury系列(2015)首次采用,通过3D堆叠实现高带宽。
    • HBM3:Hopper架构的H100使用,带宽达3TB/s。
  • 制造工艺节点

    • NVIDIA Fermi(40nm)→Pascal(16nm)→Ampere(8nm)→Ada Lovelace(4nm)。
    • AMD RDNA 3(5nm+6nm Chiplet) vs Intel Xe HPG(TSMC 6nm)。

3. 架构对比关键指标
架构 核心创新 制程工艺 代表技术
NVIDIA Turing 光线追踪硬件单元(RT Core) 12nm DLSS 1.0、RTX Voice
AMD RDNA 2 Infinity Cache(高速缓存优化) 7nm FSR 1.0、硬件光追加速
Intel Xe HPG 独立显卡市场突破 6nm XeSS超分、Deep Link协同计算

4. 未来趋势

  1. Chiplet设计

    • AMD RDNA 3和CDNA 2采用多芯片模块化设计,提升良率与扩展性。
    • NVIDIA未来可能跟进(如Hopper的MCM布局)。
  2. AI与GPU深度融合

    • DLSS/FSR/XeSS:超分辨率技术依赖AI计算。
    • AI降噪:光线追踪中加速渲染(如OptiX AI)。
  3. 量子计算与GPU混合

    • NVIDIA cuQuantum项目探索GPU加速量子模拟。
  4. 存算一体架构

    • 三星、SK海力士研发HBM-PIM(内存内计算),减少数据搬运延迟。

5. 小众/新兴玩家

  • 国产GPU

    • 摩尔线程MTT S80:基于PowerVR架构,支持PCIe 5.0。
    • 壁仞科技BR100:7nm工艺,对标数据中心GPU。
  • 开源架构

    • RISC-V GPU:如Imagination推出的RISC-V兼容GPU IP。
    • Mesa 3D:开源驱动推动老旧显卡兼容新API(如Vulkan)。

6. 冷知识

  • NVIDIA的代号来源:历代架构以科学家命名(如Turing→艾伦·图灵,Ampere→安培)。
  • AMD的"RDNA"含义:源自"Radeon DNA",强调架构基因革新。
  • Intel Xe的野心:Xe涵盖集成显卡、游戏卡、数据中心,试图统一GPU生态。

以下是基于显卡架构演进历程,对显卡通信技术与**AI专用硬件("AI颗粒")**两大方面的综合分析:


一、显卡通信技术的演进

1. 高带宽显存与互联技术
  • GDDR到HBM的跨越
    早期显卡依赖GDDR显存(如GDDR3到GDDR6X),带宽逐步提升至1TB/s以上(如RTX 4090)。2015年AMD首次引入HBM(High Bandwidth Memory),通过3D堆叠实现更高带宽;英伟达在Blackwell架构中采用HBM3e,显存带宽达8TB/s,为大规模AI模型训练提供数据吞吐保障。
  • NVLink与PCIe的协同
    NVIDIA在Pascal架构(2016)推出NVLink,单卡互联带宽达160GB/s,解决多GPU协作瓶颈。Volta架构(2017)扩展至6通道NVLink,双向带宽提升至300GB/s。PCIe 6.0的引入(带宽128GB/s)进一步优化CPU-GPU通信,降低延迟。
2. 多卡协同与分布式计算
  • 数据中心级互联方案
    Blackwell架构的GB200机架方案采用CPO(共封装光学)技术,通过光引擎与芯片集成,缩短传输距离,降低功耗。H200 GPU支持多卡协同训练,效率较H100提升4倍,显存容量扩展至192GB HBM3e,适用于千亿参数大模型。
  • 消费级多卡潜力
    用户通过魔改多张RTX 4090实现本地大模型推理(如70B参数Llama-2),借助PCIe 5.0与NVLink的混合方案,平衡成本与性能。
3. 未来趋势:光互联与Chiplet设计
  • 硅光技术与Chiplet
    AMD的RDNA 3和CDNA 2采用Chiplet设计,分离计算单元与I/O模块,提升良率与扩展性。英伟达探索硅光技术,通过光互联优化数据中心内GPU集群通信效率。
  • 存算一体架构
    三星HBM-PIM(内存内计算)技术将部分计算逻辑嵌入显存,减少数据搬运延迟,适用于实时AI推理场景。

二、AI专用硬件("AI颗粒")的演进

1. 从通用计算到专用加速单元
  • Tensor Core的诞生与进化
    Volta架构(2017)首次引入Tensor Core,专为张量计算优化,支持FP16混合精度。Turing架构(2018)扩展至INT8/INT4量化计算,Ampere架构(2020)新增TF32与BF16支持,Blackwell架构(2024)引入FP4/FP6精度,降低大模型存储与计算开销。
  • NPU与CUDA核心的协同
    NVIDIA在RTX 500系列笔记本显卡中集成NPU(神经网络处理单元),专用于轻型AI任务(如语音识别),与GPU的Tensor Core分工协作,提升能效比。
2. AI计算与图形渲染的融合
  • DLSS/FSR/XeSS超分技术
    基于AI的超分辨率技术(如DLSS 3)利用Tensor Core实时生成高分辨率帧,减少原生渲染负载。AMD FSR与Intel XeSS通过算法优化,实现类似效果。
  • 光线追踪与AI降噪
    RT Core处理光线追踪路径计算,Tensor Core通过AI算法(如OptiX AI)加速降噪,提升实时渲染效率。例如《赛博朋克2077》的路径追踪模式依赖二者协同。
3. 未来趋势:AI驱动的硬件定制化
  • 量化与低精度计算
    Blackwell架构支持FP4/FP6精度,结合模型压缩技术,使70B参数模型可在单卡运行,推理速度提升2倍。
  • AI辅助芯片设计
    英伟达CuLitho技术利用GPU加速光刻模拟,将芯片设计周期从2周缩短至8小时,推动更高效的AI芯片迭代。
  • 开源生态与国产GPU
    摩尔线程MTT S80基于PowerVR架构支持PCIe 5.0,壁仞科技BR100对标数据中心GPU,国产GPU逐步融入AI计算生态。

以下是关于显卡通信技术提升与AI专用硬件("AI颗粒")发展的综合分析,结合了当前技术趋势和厂商动态:


一、显卡通信技术的革新

  1. 高带宽显存与互联技术

    • HBM3e与GDDR6X:英伟达Blackwell架构的HBM3e显存带宽翻倍,达3TB/s,显著提升AI大模型的数据吞吐效率。AMD的RDNA 3也采用HBM3,而消费级显卡如RTX 4090使用GDDR6X,带宽突破1TB/s。
    • NVLink与PCIe 6.0:NVLink在Blackwell中带宽翻倍,支持多GPU高速互联;PCIe 6.0的引入进一步降低CPU与GPU间的通信延迟,适用于数据中心和高端计算场景。
  2. 光模块与芯片互联优化

    • CPO(共封装光学)技术:通过将光引擎与芯片集成,缩短传输距离,降低功耗(如英伟达GB200机架方案)。
    • 硅光技术:提升数据中心内GPU集群的通信效率,支持大规模AI训练。
  3. 多卡协同与分布式计算

    • 英伟达的GB200方案通过优化CPU:GPU配比,降低总拥有成本(TCO),同时支持多卡协同训练,效率达H100的4倍。
    • 消费级用户可通过魔改多张RTX 4090实现本地大模型推理(如70B参数模型)。

二、AI专用硬件("AI颗粒")的演进

  1. Tensor Core与NPU的融合

    • 英伟达Tensor Core:第四代Tensor Core(Ada Lovelace架构)支持FP8精度,AI计算效率提升3倍,适用于DLSS 3和生成式AI任务。
    • NPU(神经网络处理单元):英伟达RTX 500/1000系列笔记本显卡集成NPU,专用于轻型AI任务(如语音识别),与GPU协同降低功耗。
  2. CUDA核心的双模式设计

    • 英伟达RTX 50系列(Blackwell架构)的CUDA核心支持FP32/INT32双数据模式,复兴Pascal时代的灵活设计,提升AI推理和游戏渲染的并行效率。
  3. 英特尔与AMD的AI加速方案

    • 英特尔XMX引擎:Xe2架构集成增强版XMX单元,支持VVC编解码和AI图像生成(如AI Playground应用)。
    • AMD CDNA架构:专为计算优化,Infinity Fabric技术提升多GPU协作能力,适用于数据中心AI训练。

三、技术融合与未来趋势

  1. AI与图形计算的深度结合

    • 实时AI渲染:通过Tensor Core加速光线追踪降噪(如OptiX AI),或动态生成游戏场景(如《方舟:生存飞升》中的G-Assist AI助手)。
    • 创作工具革新:AI Playground、DALL-E等工具依赖显卡的并行计算能力,实现本地化图像生成与编辑。
  2. Chiplet与存算一体架构

    • AMD RDNA 3和CDNA 2采用Chiplet设计,提升良率与扩展性;三星HBM-PIM技术探索内存内计算,减少数据搬运延迟。
    • 未来显卡可能集成量子计算模块(如NVIDIA cuQuantum),加速复杂模拟任务。
  3. 能效与生态整合

    • 英伟达DLSS/AMD FSR/Intel XeSS等超分技术依赖AI优化,在提升画质的同时降低GPU负载。
    • 开源社区推动RISC-V GPU与Mesa 3D驱动发展,降低AI开发门槛。

以下是基于NVIDIA、AMD和Intel等厂商的显卡架构演进历程,对其技术改进方向及驱动原因的分析:


一、NVIDIA架构演进的技术方向

1. 早期架构(Tesla → Fermi → Kepler)
  • 统一计算与并行化(Tesla架构)

    • 技术改进:首次引入统一着色器模型(Unified Shaders),支持CUDA编程,将顶点、几何和像素处理统一为通用计算单元。
    • 原因:满足通用计算需求(如科学模拟),突破传统固定管线限制,为GPU计算奠定基础。
  • 双精度计算与缓存优化(Fermi架构)

    • 技术改进:增加双精度浮点单元(FP64)、ECC内存支持和L2缓存层级设计。
    • 原因:进军高性能计算(HPC)市场,提升数据中心应用的可靠性和计算精度。
  • 能效与SM单元重构(Kepler架构)

    • 技术改进:引入SMX单元,CUDA核心数激增(每组SMX含192核心),优化功耗比。
    • 原因:应对移动设备和云计算对能效的敏感需求,降低单位计算成本。
2. 现代架构(Maxwell → Pascal → Volta → Turing → Ampere → Blackwell)
  • 能效与架构精简(Maxwell架构)

    • 技术改进:SMM单元采用模块化设计,CUDA核心精简但逻辑控制增强,显存压缩技术提升带宽利用率。
    • 原因:优化游戏显卡的功耗表现,适应轻薄笔记本和嵌入式设备需求。
  • 深度学习与互联技术(Pascal架构)

    • 技术改进:16nm工艺、NVLink多GPU互联、支持FP16半精度计算。
    • 原因:AI浪潮兴起,需加速深度学习训练(如AlphaGo),提升多卡协同效率。
  • 专用AI单元(Volta架构)

    • 技术改进:首次集成Tensor Core,支持混合精度(FP16/FP32)计算,提升AI推理速度。
    • 原因:应对AI模型复杂化(如Transformer),降低训练成本。
  • 实时光追与AI超分(Turing架构)

    • 技术改进:引入RT Core(光线追踪硬件单元)和DLSS(AI超分辨率)。
    • 原因:推动游戏画质革命,解决光追性能瓶颈,通过AI降低渲染负载。
  • 多领域融合(Ampere架构)

    • 技术改进:第三代Tensor Core支持稀疏计算,显存带宽提升(HBM2e/GDDR6X),支持PCIe 4.0。
    • 原因:兼顾游戏、数据中心和AI推理,满足多任务场景需求。
  • 神经网络渲染与显存革新(Blackwell架构)

    • 技术改进:第五代Tensor Core支持FP4低精度计算,GDDR7显存(PAM3编码),引入神经网络着色器和AI管理处理器(AMP)。
    • 原因:应对万亿参数大模型训练需求,降低显存占用,提升AI推理效率;通过神经网络渲染优化游戏材质生成效率。

二、AMD架构演进的技术方向

1. GCN架构(2012-2018)
  • 统一计算与显存优化
    • 技术改进:统一计算单元(CU)、HBM显存首次应用(Fury系列)。
    • 原因:对标NVIDIA的通用计算能力,提升带宽密集型任务(如4K游戏)表现。
2. RDNA架构(2019至今)
  • 能效与游戏优化(RDNA 1/2/3)
    • 技术改进:Infinity Cache(高速缓存)、硬件光追加速、Chiplet设计(RDNA 3)。
    • 原因:缩小与NVIDIA的游戏性能差距,通过模块化设计提升良率和扩展性。
3. CDNA架构(2020至今)
  • 计算专用优化
    • 技术改进:Infinity Fabric互联、双精度计算强化,支持ROCm生态。
    • 原因:争夺数据中心和AI市场,针对HPC和机器学习任务优化。

三、Intel Xe架构的技术方向

  • 多场景覆盖(Xe LP/HPG/HPC)
    • 技术改进:Xe HPG支持硬件光追和XeSS超分,Xe HPC采用Chiplet和HBM显存。
    • 原因:进军独立显卡市场,覆盖从集成显卡到数据中心的多元化需求,挑战NVIDIA和AMD的垄断。

四、技术改进的共性驱动因素

  1. 市场需求变化

    • 游戏画质升级(光追、高帧率)推动硬件加速单元(RT Core);
    • AI计算需求(如ChatGPT)催生专用AI核心(Tensor Core)。
  2. 制程工艺进步

    • 从28nm(Kepler)到4nm(Blackwell),晶体管密度提升支持更复杂架构。
  3. 能效与环保压力

    • GDDR7显存功耗降低50%,Chiplet设计减少芯片废品率。
  4. 竞争与生态建设

    • NVIDIA通过CUDA生态绑定开发者,AMD以开源ROCm和性价比策略应对。

显卡架构的演进始终围绕性能提升能效优化场景适配三大核心方向。从早期的通用计算到如今的AI与光追融合,每一次技术革新都反映了市场需求(如游戏、AI、HPC)、工艺突破(如先进制程、HBM)和竞争格局的演变。未来,随着Chiplet、存算一体和量子计算协同技术的发展,显卡将进一步打破传统边界,成为异构计算的基石。

总结

显卡架构随技术进步不断演进,NVIDIA在光追和AI领先,AMD注重能效与性价比,Intel通过Xe进军独立显卡市场,移动端则由ARM、高通等主导。

除了之前提到的核心架构,还有一些补充内容,包括历史架构、技术细节和新兴趋势:

显卡架构不仅是硬件设计的进化史,更是计算需求的缩影------从早期3D加速到光追与AI,从固定管线到通用计算。未来,随着Chiplet、存算一体等技术的成熟,GPU可能进一步模糊与CPU、专用加速器的边界,成为异构计算的"万能胶水"。


架构演进的核心驱动力**

  1. 通信技术:从GDDR到HBM3e,从PCIe到NVLink/光互联,显存带宽与多卡协作效率的持续提升,支撑了AI大模型的训练与推理需求。
  2. AI硬件:从通用CUDA核心到专用Tensor Core/NPU,计算精度与能效的优化,使GPU从图形处理器进化为通用AI加速器。

未来,随着Chiplet、存算一体等技术的成熟,显卡将进一步模糊与专用AI芯片的边界,成为异构计算的"万能胶水",推动游戏、创作与科学计算的全面革新。

显卡通信技术的提升(如HBM3e、NVLink)与AI专用硬件(Tensor Core、NPU)的演进,共同推动了AI计算的高效化与平民化。未来,随着Chiplet、存算一体等技术的成熟,显卡将进一步成为异构计算的核心,同时支持游戏、创作与科学计算等多重场景。

相关推荐
Zucker n14 分钟前
Docker命令笔记
笔记·docker·eureka
寻丶幽风1 小时前
论文阅读笔记——ADALORA: ADAPTIVE BUDGET ALLOCATION FOR PARAMETER-EFFICIENT FINE-TUNING
论文阅读·人工智能·笔记·语言模型
cyong8883 小时前
深度学习中的向量的样子-DCN
人工智能·深度学习
Python数据分析与机器学习3 小时前
《基于深度学习的高分卫星图像配准模型研发与应用》开题报告
图像处理·人工智能·python·深度学习·神经网络·机器学习
OKay_J4 小时前
使用VSCode开发STM32补充(Debug调试)
ide·经验分享·笔记·vscode·stm32·学习·编辑器
BineHello4 小时前
强化学习 - PPO控制无人机
人工智能·算法·自动驾驶·动态规划·无人机·强化学习
牛不才4 小时前
ChatPromptTemplate的使用
人工智能·ai·语言模型·chatgpt·prompt·aigc·openai
从零开始学习人工智能5 小时前
深度学习模型压缩:非结构化剪枝与结构化剪枝的定义与对比
人工智能·深度学习·剪枝
肥肠可耐的西西公主5 小时前
前端(vue)学习笔记(CLASS 4):组件组成部分与通信
前端·vue.js·学习
訾博ZiBo5 小时前
AI日报 - 2025年3月18日
人工智能