绿色AI与低功耗推理架构

一、引言

在数字经济高速发展的今天,人工智能(AI)技术已深度融入医疗、交通、工业、消费电子等众多领域,成为推动社会进步的核心驱动力。然而,AI技术的广泛应用背后伴随着巨大的能源消耗问题。据相关数据统计,全球数据中心的能耗占比逐年攀升,其中AI模型的训练与推理过程是主要能耗来源之一。尤其是随着大语言模型、计算机视觉等大参数量模型的涌现,传统高功耗AI架构已难以满足可持续发展的需求。

绿色AI理念应运而生,其核心目标是在保证AI模型性能的前提下,最大限度地降低能源消耗,实现AI技术与生态环境的协调发展。低功耗推理架构作为绿色AI的关键支撑技术,直接决定了AI模型在终端设备和边缘计算场景中的能效表现。相较于模型训练阶段,推理阶段具有部署范围广、运行时间长、终端设备资源受限等特点,因此降低推理过程的功耗成为绿色AI发展的重中之重。

本文将围绕绿色AI的核心内涵,深入探讨低功耗推理架构的技术原理、关键优化策略、主流实现方案及典型应用场景,并分析当前技术发展面临的挑战与未来发展趋势,为绿色AI技术的落地与推广提供参考。

二、绿色AI的核心内涵与发展意义

2.1 绿色AI的定义与核心目标

绿色AI是人工智能领域与可持续发展理念深度融合的产物,其定义为:在AI系统的全生命周期(包括模型设计、训练、推理、部署与运维)中,通过技术创新与流程优化,最大限度地降低能源消耗和碳排放量,同时保障模型的性能、精度与可靠性。绿色AI并非简单地追求"低功耗",而是在能耗、性能、成本三者之间寻求最佳平衡,实现AI技术的可持续发展。

绿色AI的核心目标主要包括三个方面:一是降低AI系统的能源消耗,减少对传统化石能源的依赖;二是降低AI系统的碳足迹,助力"双碳"目标的实现;三是提升AI技术在资源受限场景(如边缘设备、移动终端)的部署能力,拓展AI的应用边界。

2.2 绿色AI的发展意义

从全球能源格局来看,传统化石能源的储量有限且开采利用过程会对环境造成污染,绿色AI的发展能够有效降低AI产业对能源的消耗,缓解全球能源紧张问题。据国际能源署(IEA)预测,若不采取有效节能措施,到2030年全球数据中心的能耗将占全球总能耗的10%以上,而绿色AI技术的应用有望将这一比例降低30%-50%。

从产业发展角度来看,绿色AI能够推动AI技术向更广泛的场景渗透。在边缘计算、物联网、可穿戴设备等资源受限场景中,终端设备的电池容量和算力有限,高功耗的AI架构难以部署。低功耗推理架构的发展使得AI模型能够在这些设备上高效运行,催生了智能手表、智能摄像头、工业传感器等一系列智能终端产品,推动了AI产业的规模化发展。

从社会发展层面来看,绿色AI符合全球可持续发展的趋势,是实现"双碳"目标的重要支撑。AI技术在能源管理、环境监测、智能电网等领域的应用,能够提升能源利用效率、减少污染物排放,而绿色AI自身的低功耗特性进一步强化了这些领域的环保效果,形成"AI助力环保,环保约束AI"的良性循环。

三、低功耗推理架构的技术原理

3.1 推理架构的基本组成

AI推理架构是指将训练好的AI模型部署到实际应用场景中,接收输入数据并输出推理结果的硬件与软件系统。其基本组成包括计算单元、存储单元、数据传输单元和软件调度模块。计算单元是推理架构的核心,负责执行模型的运算任务;存储单元用于存储模型参数、输入数据和中间计算结果;数据传输单元负责各模块之间的数据交互;软件调度模块则负责统筹管理硬件资源,优化任务分配,提升推理效率。

传统推理架构多采用通用计算芯片(如CPU、GPU),这些芯片为了满足多样化的计算需求,设计了复杂的指令集和运算单元,导致能效比较低。而低功耗推理架构通过专用化设计、硬件优化、软件协同等方式,在保证计算性能的前提下,最大限度地降低各模块的能耗。

3.2 低功耗推理的核心技术原理

低功耗推理架构的核心技术原理是"能效优化",即通过减少不必要的计算、存储和数据传输操作,降低硬件模块的工作电压和频率,从而减少能源消耗。具体来说,主要包括以下几个方面:

一是计算精简。AI模型的推理过程包含大量的矩阵乘法、卷积运算等重复计算操作,低功耗推理架构通过专用计算单元(如TPU、NPU)对这些操作进行硬件加速,同时采用量化、剪枝等技术减少计算量。例如,将模型参数从32位浮点数量化为8位整数,能够减少75%的计算量和存储量,显著降低能耗。

二是存储优化。存储单元的访问和数据读写是推理架构的主要能耗来源之一。低功耗推理架构通过层级存储设计(如寄存器、缓存、内存的合理搭配),减少数据的重复读写;同时采用压缩技术对模型参数和中间数据进行压缩,降低存储容量需求,从而减少存储模块的能耗。

三是数据传输优化。数据在各模块之间的传输过程会产生大量能耗,尤其是在芯片内部的互连和外部接口传输中。低功耗推理架构通过优化数据传输路径、采用高效的数据编码方式、减少数据冗余传输等方式,降低数据传输过程中的能耗。例如,采用片上网络(NoC)替代传统的总线结构,能够提升数据传输效率,减少能耗。

四是动态功耗管理。低功耗推理架构采用动态电压频率调节(DVFS)、电源门控(Power Gating)等技术,根据推理任务的负载情况,动态调整硬件模块的工作电压和频率,或者关闭闲置模块的电源,实现"按需供电",最大限度地减少空闲能耗。

四、低功耗推理架构的关键优化策略

4.1 模型层面优化

模型层面的优化是低功耗推理的基础,通过对AI模型的结构和参数进行优化,减少推理过程中的计算量和存储量,从源头上降低能耗。主要优化技术包括模型量化、剪枝、知识蒸馏和轻量化模型设计。

模型量化是将高精度的模型参数(如32位浮点数)转换为低精度数据(如16位浮点数、8位整数、4位整数甚至1位二进制数)的过程。量化后的模型参数占用的存储空间更小,计算过程中的数据传输量和运算量也显著减少,从而降低能耗。例如,在图像识别任务中,将ResNet-50模型从32位量化为8位,推理速度提升4倍以上,能耗降低60%以上,而精度损失仅为1%-2%。目前,主流的量化方法包括均匀量化、非均匀量化、混合精度量化等,其中混合精度量化在保证模型精度的前提下,能够更好地平衡能耗和性能。

模型剪枝是指去除AI模型中冗余的参数、神经元或网络层,保留对模型性能影响较大的核心部分。根据剪枝粒度的不同,可分为结构化剪枝和非结构化剪枝。结构化剪枝去除整个神经元或网络层,剪枝后的模型无需专用硬件支持,兼容性较好;非结构化剪枝去除单个冗余参数,剪枝效果更显著,但需要专用硬件配合才能发挥能效优势。例如,对VGG-16模型进行结构化剪枝,去除50%的冗余卷积层后,模型参数减少60%,推理能耗降低55%,精度基本保持不变。

知识蒸馏是将复杂的大模型(教师模型)的知识迁移到简单的小模型(学生模型)中的技术。教师模型具有较高的精度,但能耗和计算量较大;学生模型结构简单,能耗较低,但精度相对较差。通过知识蒸馏,学生模型能够学习教师模型的决策逻辑和特征表示,在保证精度接近教师模型的前提下,显著降低推理能耗。例如,在自然语言处理任务中,通过蒸馏BERT大模型得到的DistilBERT模型,参数减少40%,推理速度提升60%,能耗降低50%,而精度仅下降1%-2%。

轻量化模型设计是指从模型设计之初就考虑低功耗需求,通过简化网络结构、采用高效的卷积操作等方式,构建轻量化的AI模型。典型的轻量化模型包括MobileNet、ShuffleNet、EfficientNet等。例如,MobileNet采用深度可分离卷积替代传统的标准卷积,将卷积操作分解为深度卷积和逐点卷积,计算量减少75%,能耗显著降低,同时保持了较高的图像识别精度,广泛应用于移动终端和边缘设备。

4.2 硬件层面优化

硬件层面的优化是低功耗推理架构的核心,通过设计专用的硬件芯片和优化硬件电路,提升计算能效比。主要优化技术包括专用集成电路(ASIC)设计、异构计算架构、低功耗电路设计和先进工艺制程。

专用集成电路(ASIC)是为特定AI推理任务设计的芯片,能够针对性地优化计算单元、存储单元和数据传输单元,避免了通用芯片的冗余设计,能效比远高于CPU和GPU。例如,谷歌的TPU(张量处理单元)专为深度学习推理任务设计,采用脉动阵列架构,能够高效执行矩阵乘法运算,能效比是传统GPU的10倍以上;华为的昇腾310芯片针对边缘推理场景设计,采用达芬奇架构,支持多种精度的量化计算,能耗仅为几瓦,广泛应用于智能摄像头、智能音箱等终端设备。

异构计算架构是指将多种不同类型的计算单元(如CPU、GPU、NPU、DSP)集成在同一芯片或系统中,通过软件调度模块合理分配任务,充分发挥各计算单元的优势,提升整体能效比。例如,在边缘计算设备中,CPU负责任务调度和逻辑处理,NPU负责AI推理的核心计算,DSP负责信号处理,三者协同工作,能够在保证性能的前提下,最大限度地降低能耗。异构计算架构的关键在于高效的任务调度算法,确保各计算单元负载均衡,避免资源闲置。

低功耗电路设计是通过优化芯片的电路结构和工作模式,降低电路的静态功耗和动态功耗。静态功耗是指芯片在闲置状态下的漏电流功耗,动态功耗是指芯片在工作过程中由于电压变化和电容充放电产生的功耗。低功耗电路设计采用的技术包括电源门控、时钟门控、多阈值电压(MVT)设计等。例如,电源门控技术通过在闲置模块和电源之间增加开关,关闭闲置模块的电源,从而消除漏电流功耗;时钟门控技术通过关闭闲置模块的时钟信号,减少不必要的电容充放电操作,降低动态功耗。

先进工艺制程是提升芯片能效比的重要手段。随着半导体工艺的进步,芯片的晶体管尺寸不断缩小,单位面积内的晶体管数量增加,同时工作电压和频率也可以进一步降低,从而显著降低能耗。例如,采用7nm工艺制程的芯片相比14nm工艺,能耗降低50%以上,性能提升20%以上;而5nm工艺相比7nm工艺,能耗又可降低30%左右。目前,主流的低功耗推理芯片多采用7nm、5nm等先进工艺制程,未来3nm、2nm工艺的应用将进一步提升芯片的能效比。

4.3 软件层面优化

软件层面的优化通过优化推理引擎、调度算法和数据处理流程,提升软件与硬件的协同效率,进一步降低能耗。主要优化技术包括推理引擎优化、任务调度优化和数据预处理优化。

推理引擎是连接AI模型和硬件芯片的核心软件模块,负责将模型的计算任务转换为硬件能够执行的指令。低功耗推理引擎通过优化指令生成、内存管理和并行计算策略,提升计算效率,减少能耗。例如,TensorRT是英伟达推出的深度学习推理引擎,能够对AI模型进行优化(如量化、剪枝、层融合),并生成高效的硬件指令,使推理速度提升2-10倍,能耗降低30%-60%;ONNX Runtime是微软推出的跨平台推理引擎,支持多种AI框架和硬件芯片,通过优化内存分配和任务并行,提升了推理能效比。

任务调度优化是通过合理分配推理任务到不同的硬件模块,优化任务的执行顺序和并行度,提升整体系统的能效比。在多任务并发的场景中,任务调度算法需要考虑各任务的优先级、计算量和截止时间,避免硬件资源的竞争和闲置。例如,采用动态任务调度算法,能够根据实时的硬件负载情况,调整任务的分配策略,使各硬件模块始终处于高效工作状态,减少能源浪费;采用批处理调度算法,将多个小批量的推理任务合并为一个大批量任务,能够提升硬件的并行计算效率,降低单位任务的能耗。

数据预处理优化是指在推理任务执行前,对输入数据进行优化处理,减少推理过程中的计算量和数据传输量。例如,对输入图像进行尺寸缩放、裁剪和归一化处理,去除冗余的像素信息;对文本数据进行分词、编码优化,减少数据的存储空间和传输量。此外,通过数据缓存技术,将常用的输入数据和中间计算结果缓存到高速缓存中,减少对低速内存的访问,也能够降低能耗。

五、低功耗推理架构的主流实现方案

5.1 边缘计算低功耗推理方案

边缘计算是指将计算任务部署在靠近数据产生端的边缘设备上,能够减少数据传输到云端的延迟和带宽消耗,是低功耗推理架构的重要应用场景。边缘计算低功耗推理方案主要面向智能摄像头、智能手表、工业传感器等资源受限的终端设备,其核心需求是在有限的功耗和算力条件下,实现高效的AI推理。

该方案的硬件部分多采用低功耗的专用AI芯片,如华为昇腾310、地平线征程2、黑芝麻A100等,这些芯片采用先进的工艺制程和专用架构,功耗仅为几瓦甚至几百毫瓦,能够满足终端设备的电池供电需求。软件部分采用轻量化的推理引擎,如TensorRT Lite、MNN、Tengine等,支持多种轻量化模型的快速部署和优化。此外,该方案还会结合模型量化、剪枝等技术,进一步降低推理能耗。

例如,在智能摄像头场景中,边缘计算低功耗推理方案将YOLOv8等目标检测模型量化为INT8精度,部署到搭载地平线征程2芯片的智能摄像头上。该方案的推理功耗仅为3W左右,能够实时检测画面中的行人、车辆等目标,检测精度达到95%以上,广泛应用于智能安防、交通监控等领域。

5.2 云端低功耗推理方案

云端推理场景虽然算力资源相对充足,但由于需要同时处理大量用户的推理请求,能耗问题依然突出。云端低功耗推理方案的核心目标是提升数据中心的整体能效比,降低单位推理任务的能耗。该方案主要采用异构计算架构和大规模并行处理技术,结合软件优化,实现高效的批量推理。

硬件部分采用由CPU、GPU、TPU等组成的异构计算集群,通过高速网络互连,实现大规模并行计算。例如,谷歌的TPU Pod由数千个TPU芯片组成,能够高效处理大规模的深度学习推理任务,能效比是传统GPU集群的5倍以上;亚马逊的AWS Inferentia芯片专为云端推理设计,支持多种AI框架,能够将推理成本降低70%以上。软件部分采用分布式推理引擎,如TensorFlow Serving、PyTorch Serve等,支持负载均衡、弹性伸缩和批量推理优化,能够根据用户请求的数量动态调整资源分配,提升资源利用率。

例如,在电商平台的商品推荐场景中,云端低功耗推理方案将推荐模型部署到由GPU和Inferentia芯片组成的异构集群上,通过批量推理优化,将每千次推理的能耗降低60%以上,同时保证推荐结果的实时性和准确性。

5.3 移动终端低功耗推理方案

移动终端(如智能手机、平板电脑)的功耗和算力受到电池容量和硬件尺寸的严格限制,低功耗推理方案需要在保证用户体验的前提下,最大限度地降低能耗。该方案的核心技术包括轻量化模型设计、硬件加速和动态功耗管理。

硬件部分采用集成在手机SoC中的专用AI处理单元,如苹果的Neural Engine、高通的Hexagon DSP、联发科的APU等,这些单元专为移动场景设计,能耗低、体积小,能够高效执行AI推理任务。软件部分采用移动端专用的推理引擎,如Core ML、NNAPI、MNN等,支持模型的轻量化优化和硬件加速,能够将推理任务高效分配到专用AI单元上执行。此外,该方案还采用动态功耗管理技术,根据手机的电量和负载情况,调整推理模型的精度和运行频率,在电量充足时保证高性能,在电量较低时降低能耗。

例如,在智能手机的人脸识别场景中,移动终端低功耗推理方案采用轻量化的FaceNet模型,通过INT8量化和硬件加速,推理功耗仅为0.5W左右,能够在1秒内完成人脸识别,同时保证识别精度达到99%以上,广泛应用于手机解锁、支付验证等场景。

六、低功耗推理架构的典型应用场景

6.1 智能安防

智能安防是低功耗推理架构的重要应用领域之一,主要包括视频监控、入侵检测、人脸识别等场景。在这些场景中,安防设备(如智能摄像头、门禁终端)通常需要24小时不间断运行,且多采用电池供电或太阳能供电,对功耗要求极高。低功耗推理架构能够保证设备在低功耗情况下,实时完成目标检测、行为分析等推理任务。

例如,在偏远地区的太阳能智能摄像头中,低功耗推理架构将轻量化的目标检测模型部署到边缘AI芯片上,推理功耗仅为2W左右,能够实时检测画面中的异常行为(如入侵、徘徊),并通过无线通信模块将报警信息发送到监控中心。该方案无需外接电源,能够在恶劣环境下长期稳定运行,大幅降低了安防系统的部署和运维成本。

6.2 医疗健康

在医疗健康领域,低功耗推理架构主要应用于便携式医疗设备(如智能手环、血糖仪、心电图仪)和远程医疗诊断场景。这些设备需要在保证检测精度的前提下,最大限度地降低功耗,延长电池续航时间,方便用户日常使用和携带。

例如,智能手环中的心率监测功能采用低功耗推理架构,通过部署轻量化的心率异常检测模型,实时分析传感器采集的心率数据。该方案的推理功耗仅为几十毫瓦,能够连续监测用户的心率状态,当检测到心率异常时及时发出预警。此外,在远程医疗诊断场景中,低功耗推理架构能够将医学影像分析模型部署到边缘设备上,医生可以在现场快速获得诊断结果,无需将数据传输到云端,提高了诊断效率,同时保护了患者的隐私。

6.3 工业互联网

工业互联网场景中,低功耗推理架构主要应用于设备状态监测、预测性维护、质量检测等领域。工业传感器和边缘设备通常部署在生产车间、户外等环境中,功耗和环境适应性要求较高。低功耗推理架构能够实时分析传感器采集的数据,及时发现设备的异常状态,避免设备故障导致的生产中断。

例如,在工业电机的预测性维护场景中,低功耗推理架构将振动分析模型部署到边缘AI芯片上,实时分析电机运行过程中的振动数据。该方案的推理功耗仅为3W左右,能够准确识别电机的异常振动模式,提前预测电机的故障风险,并通知维护人员进行检修。通过该方案,企业能够降低设备维护成本,提高生产效率。

6.4 智能交通

智能交通场景中,低功耗推理架构主要应用于自动驾驶、交通信号控制、车辆识别等领域。在自动驾驶场景中,车载AI系统需要实时处理大量的传感器数据(如摄像头、雷达数据),对推理的实时性和功耗都有极高的要求;在交通信号控制场景中,边缘设备需要长期稳定运行,降低功耗能够减少运维成本。

例如,在自动驾驶L2级辅助驾驶系统中,低功耗推理架构采用异构计算架构,将摄像头采集的图像数据和雷达采集的距离数据分别分配到专用的AI芯片和DSP中进行处理。该方案的推理功耗控制在10W以内,能够实时完成车道线检测、前车距离检测、交通标志识别等任务,为驾驶员提供车道偏离预警、自动刹车等辅助功能,提高驾驶安全性。

七、低功耗推理架构面临的挑战与未来趋势

7.1 面临的挑战

尽管低功耗推理架构已经取得了显著的发展,但在实际应用中仍然面临诸多挑战:

一是精度与能耗的平衡问题。模型量化、剪枝等优化技术在降低能耗的同时,会不可避免地导致模型精度的损失。在一些对精度要求较高的场景(如医疗诊断、自动驾驶),如何在保证精度的前提下最大限度地降低能耗,仍然是亟待解决的问题。

二是硬件与软件的协同优化难度大。低功耗推理架构需要硬件和软件的深度协同,但目前不同厂商的硬件芯片接口不统一,软件推理引擎的兼容性较差,导致协同优化的难度较大。此外,硬件和软件的迭代速度不一致,也影响了整体能效比的提升。

三是复杂场景的适应性不足。在多任务并发、动态负载变化等复杂场景中,低功耗推理架构的调度算法和动态功耗管理技术还不够成熟,难以实现能耗和性能的动态平衡。例如,在智能交通场景中,车辆流量的突然增加会导致推理任务激增,此时架构的能耗会显著上升,影响系统的稳定性。

四是成本问题。采用先进工艺制程和专用AI芯片的低功耗推理架构,研发和生产成本较高,限制了其在中低端终端设备中的应用。如何降低低功耗推理架构的成本,实现规模化推广,是当前产业发展面临的重要挑战。

7.2 未来趋势

未来,低功耗推理架构将朝着以下几个方向发展:

一是高精度低功耗模型的融合设计。随着深度学习技术的发展,未来将出现更多精度与能耗兼顾的AI模型。通过模型结构搜索(NAS)、自适应量化等技术,能够自动设计出适合低功耗推理的模型,实现精度与能耗的最优平衡。例如,基于NAS技术的轻量化模型能够在保证精度的前提下,进一步降低计算量和能耗,适应更多资源受限场景。

二是硬件与软件的全栈协同优化。未来,低功耗推理架构将打破硬件和软件的壁垒,实现从模型设计、训练到推理部署的全栈协同优化。硬件厂商将推出更多标准化的接口和开发工具,软件厂商将针对硬件特性进行深度优化,形成"硬件-软件-模型"协同优化的生态体系。例如,谷歌的TensorFlow与TPU、英伟达的PyTorch与GPU的深度协同,将进一步提升推理能效比。

三是自适应与智能化的推理架构。未来的低功耗推理架构将具备更强的自适应能力,能够根据场景的变化、任务的需求和硬件的状态,动态调整模型精度、计算资源分配和功耗管理策略。例如,在自动驾驶场景中,架构能够根据道路环境的复杂程度,动态调整目标检测模型的精度和推理速度,在保证安全的前提下降低能耗。

四是新型低功耗硬件技术的应用。随着半导体技术的发展,新型低功耗硬件技术(如存算一体、光计算、量子计算)将逐渐应用于推理架构中。存算一体技术能够将存储和计算功能集成在同一芯片中,减少数据传输过程中的能耗;光计算技术利用光子进行计算,具有能耗低、速度快的优势;量子计算技术则能够实现指数级的计算加速,大幅降低推理能耗。这些新型硬件技术的应用,将为低功耗推理架构带来革命性的突破。

五是绿色AI生态的完善。未来,绿色AI将成为行业发展的主流趋势,低功耗推理架构将与绿色能源、碳足迹监测等技术深度融合,形成完善的绿色AI生态。例如,边缘设备将采用太阳能、风能等绿色能源供电,推理架构将实时监测自身的碳排放量,并通过优化算法降低碳足迹,助力"双碳"目标的实现。

八、结论

绿色AI是人工智能产业可持续发展的必然趋势,而低功耗推理架构作为绿色AI的核心支撑技术,在降低AI系统能耗、拓展AI应用边界、推动产业升级等方面发挥着重要作用。本文从绿色AI的核心内涵出发,深入探讨了低功耗推理架构的技术原理、关键优化策略、主流实现方案和典型应用场景,并分析了当前面临的挑战与未来发展趋势。

低功耗推理架构的优化是一个系统性的工程,需要从模型、硬件、软件三个层面进行协同创新。模型层面的量化、剪枝、知识蒸馏等技术能够从源头上减少计算量和能耗;硬件层面的专用芯片设计、异构计算架构、先进工艺制程能够提升计算能效比;软件层面的推理引擎优化、任务调度优化能够提升软硬件协同效率。通过这些技术的融合应用,低功耗推理架构已经在边缘计算、云端、移动终端等场景中得到了广泛应用,为智能安防、医疗健康、工业互联网、智能交通等领域带来了革命性的变化。

尽管低功耗推理架构仍然面临精度与能耗平衡、软硬件协同优化、复杂场景适应性等挑战,但随着高精度低功耗模型设计、全栈协同优化、新型硬件技术等的发展,未来低功耗推理架构将实现更高的能效比、更强的适应性和更广泛的应用。相信在绿色AI理念的引领下,低功耗推理架构将不断创新突破,为人工智能产业的可持续发展注入新的动力,推动社会向更加绿色、智能、高效的方向发展。

相关推荐
G皮T2 小时前
【Elasticsearch】查询性能调优(三):track_total_hits 和 terminate_after 可能的冲突
大数据·elasticsearch·搜索引擎·全文检索·索引·性能·opensearch
智算菩萨2 小时前
【Python机器学习】K-Means 聚类:数据分组与用户画像的完整技术指南
人工智能·python·机器学习
fantasy_arch2 小时前
LSTM模型学习分析
人工智能·学习·lstm
Java后端的Ai之路2 小时前
【神经网络基础】-前向传播说明指南
人工智能·深度学习·神经网络·前向传播
熊猫钓鱼>_>2 小时前
GLM4.6多工具协同开发实践:AI构建智能任务管理系统的完整指南
人工智能·python·状态模式·ai编程·glm·分类系统·开发架构
川西胖墩墩2 小时前
中文PC端跨职能流程图模板免费下载
大数据·论文阅读·人工智能·架构·流程图
Keep_Trying_Go3 小时前
MaskGIT掩码生成图算法详解(MaskGIT: Masked Generative Image Transformer)
人工智能·深度学习·transformer
致Great3 小时前
大模型对齐核心技术:从第一性原理完整推导 PPO 算法!
人工智能·算法·大模型·agent·智能体
TDengine (老段)3 小时前
TDengine 企业用户建表规模有多大?
大数据·数据库·物联网·时序数据库·iot·tdengine·涛思数据