【回归算法】弹性网络回归(Elastic Net Regression)详解

弹性网络回归(Elastic Net Regression)详解

本内容专为本科生、研究生梳理,用通俗语言讲解弹性网络回归的核心概念、数学原理、求解方法和实战案例,清晰阐述其与Lasso、Ridge回归的关联与优势,兼顾基础理解实战落地,是正则化线性回归算法的核心进阶内容。

弹性网络回归是结合L1正则化(Lasso)和L2正则化(Ridge)的混合正则化线性回归算法 ,既继承了Lasso的特征选择能力 (将无关特征系数压缩为0),又保留了Ridge的抗多重共线性能力(平滑系数,让模型更稳定),通过两个超参数实现正则化的灵活权衡,完美解决了Lasso在高维共线性数据中特征选择不稳定、Ridge无法筛选特征的问题,是高维数据、冗余特征场景下的最优正则化回归选择。

一、核心前置认知:回归与正则化基础

在学习弹性网络回归前,先快速回顾核心前置知识,本科阶段需熟记,为后续理解打基础:

1. 线性回归的核心公式

线性回归的本质是找到特征与目标值的线性映射关系,公式为:
y=w1x1+w2x2+⋯+wpxp+by=w_{1} x_{1}+w_{2} x_{2}+\cdots+w_{p} x_{p}+by=w1x1+w2x2+⋯+wpxp+b

  • x1,x2,...,xpx_1,x_2,...,x_px1,x2,...,xp:ppp个输入特征(自变量);
  • w1,w2,...,wpw_1,w_2,...,w_pw1,w2,...,wp:特征对应的回归系数(权重);
  • bbb:偏置项(基础值);
  • yyy:目标值的预测值(连续值)。

模型训练的目标是找到最优的www和bbb,让预测值与真实值的均方误差(MSE)最小

2. 两类正则化的核心作用

普通线性回归易出现过拟合多重共线性问题,因此引入L1、L2两种正则化,二者作用互补:

正则化类型 核心形式 核心作用 对应算法
L1正则化 ∣w∣1=∑j=1p∣wj∣|w|1 = \sum{j=1}^p |w_j|∣w∣1=∑j=1p∣wj∣(系数绝对值和) 将无关/弱相关特征的系数压缩为0 ,实现特征选择,生成稀疏模型 Lasso回归
L2正则化 ∣w∣22=∑j=1pwj2|w|2^2 = \sum{j=1}^p w_j^2∣w∣22=∑j=1pwj2(系数平方和) 让系数平滑收缩但不会为0 ,缓解多重共线性,防止过拟合,提升模型稳定性 Ridge回归

3. 弹性网络回归的核心价值:弥补单一正则化的缺陷

Lasso和Ridge各自存在明显局限性:

  • Lasso的问题 :当特征数量远大于样本数、或特征间存在高度多重共线性时,Lasso的特征选择会变得不稳定(随机剔除其中一个相关特征);
  • Ridge的问题 :仅能平滑系数,无法筛选特征,会保留所有特征,导致模型复杂、冗余。

弹性网络回归的核心解决思路同时加入L1和L2正则化 ,既实现特征选择,又处理多重共线性,兼顾模型的稀疏性稳定性

二、弹性网络回归的核心概念与通俗案例

1. 通俗理解:水果店供应商选择

预测水果店供应商综合满意度的实际案例,直观理解弹性网络回归的作用:

场景设定

需根据**价格(x1x_1x1)、配送时间(x2x_2x2)、水果质量(x3x_3x3)3个特征,预测供应商的综合满意度(yyy,1-10分),已有历史数据,且特征间存在轻微共线性(如价格低的供应商配送时间可能更长)。

单一正则化的问题
  • 用Lasso:可能随机将"配送时间"的系数压缩为0,丢失重要特征;
  • 用Ridge:会保留所有3个特征,若存在冗余特征(如后续加入"运费",与价格高度相关),模型会冗余。
弹性网络的优势

既会将真正无关的特征(如后续加入的"供应商名称")系数压缩为0,又会对高度相关的特征(价格、运费)做系数平滑,让模型既稀疏又稳定。

2. 弹性网络回归的核心定义

弹性网络回归通过在普通线性回归的损失函数中同时加入L1和L2正则化项 ,实现两种正则化的混合,其核心是两个超参数 :控制正则化强度的α\alphaα,和平衡L1/L2比例的ρ\rhoρ。

三、弹性网络回归的数学原理(本科理解核心,研究生掌握推导)

弹性网络回归的数学原理基于线性回归的均方误差损失,结合L1、L2正则化项构建损失函数,通过优化算法求解最优系数,研究生需掌握推导和求解,本科生理解损失函数和超参数含义即可。

3.1 核心损失函数

弹性网络回归的损失函数是数据误差项 + L1正则化项 + L2正则化项 的组合,标准形式为:
L(w,b)=1n∥y−(Xw+b)∥22+α(ρ∥w∥1+1−ρ2∥w∥22)L(w, b)=\frac{1}{n}\| y-(X w+b)\| _{2}^{2}+\alpha\left(\rho\| w\| _{1}+\frac{1-\rho}{2}\| w\| _{2}^{2}\right)L(w,b)=n1∥y−(Xw+b)∥22+α(ρ∥w∥1+21−ρ∥w∥22)

各部分含义
  1. 数据误差项 :1n∥y−(Xw+b)∥22=1n∑i=1n(yi−y^i)2\frac{1}{n}\| y-(X w+b)\| {2}^{2} = \frac{1}{n}\sum{i=1}^n (y_i - \hat{y}_i)^2n1∥y−(Xw+b)∥22=n1∑i=1n(yi−y^i)2,即均方误差(MSE) ,最小化预测值与真实值的误差,nnn为样本数;
  2. L1正则化项 :ρ∥w∥1\rho\| w\| _1ρ∥w∥1,∥w∥1=∑j=1p∣wj∣\|w\|1 = \sum{j=1}^p |w_j|∥w∥1=∑j=1p∣wj∣,实现特征选择,ρ\rhoρ控制其权重;
  3. L2正则化项 :1−ρ2∥w∥22\frac{1-\rho}{2}\|w\|_2^221−ρ∥w∥22,∥w∥22=∑j=1pwj2\|w\|2^2 = \sum{j=1}^p w_j^2∥w∥22=∑j=1pwj2,平滑系数、处理共线性,1−ρ1-\rho1−ρ控制其权重;
  4. 超参数α>0\alpha>0α>0正则化强度 ,控制正则化项与数据误差项的权重:
    • α=0\alpha=0α=0:无正则化,退化为普通线性回归;
    • α\alphaα越大:正则化力度越强,系数收缩越明显;
    • α\alphaα越小:正则化力度越弱,系数越接近普通线性回归结果。
  5. 超参数ρ∈[0,1]\rho \in [0,1]ρ∈[0,1]L1/L2平衡系数 ,控制两种正则化的比例,是弹性网络的核心:
    • ρ=1\rho=1ρ=1:L2项权重为0,退化为Lasso回归
    • ρ=0\rho=0ρ=0:L1项权重为0,退化为Ridge回归
    • ρ∈(0,1)\rho \in (0,1)ρ∈(0,1):混合L1和L2正则化,兼顾特征选择和稳定性。
简化形式(无偏置项bbb)

偏置项bbb通常可通过特征矩阵扩展 (加入全1列)融入XXX,因此简化后的损失函数(更常用)为:
L(w)=1n∥y−Xw∥22+α(ρ∥w∥1+1−ρ2∥w∥22)L(w)=\frac{1}{n}\| y-X w\| _{2}^{2}+\alpha\left(\rho\| w\| _{1}+\frac{1-\rho}{2}\| w\| _{2}^{2}\right)L(w)=n1∥y−Xw∥22+α(ρ∥w∥1+21−ρ∥w∥22)

3.2 损失函数的矩阵展开(研究生掌握)

将均方误差项展开为矩阵形式,便于后续梯度计算和优化:
∥y−Xw∥22=(y−Xw)T(y−Xw)=yTy−2yTXw+wTXTXw\| y-X w\| _{2}^{2}=(y-X w)^{T}(y-X w)=y^{T} y-2 y^{T} X w+w^{T} X^{T} X w∥y−Xw∥22=(y−Xw)T(y−Xw)=yTy−2yTXw+wTXTXw

代入损失函数得:
L(w)=1n(yTy−2yTXw+wTXTXw)+α(ρ∥w∥1+1−ρ2∥w∥22)L(w)=\frac{1}{n}\left(y^{T} y-2 y^{T} X w+w^{T} X^{T} X w\right)+\alpha\left(\rho\| w\| _{1}+\frac{1-\rho}{2}\| w\| _{2}^{2}\right)L(w)=n1(yTy−2yTXw+wTXTXw)+α(ρ∥w∥1+21−ρ∥w∥22)

3.3 模型的优化目标

弹性网络回归的本质是带约束的凸优化问题 ,目标是找到最优的回归系数www,让损失函数最小:
min⁡w1n∥y−Xw∥22+α(ρ∥w∥1+1−ρ2∥w∥22)\min _{w} \frac{1}{n}\| y-X w\| _{2}^{2}+\alpha\left(\rho\| w\| _{1}+\frac{1-\rho}{2}\| w\| _{2}^{2}\right)wminn1∥y−Xw∥22+α(ρ∥w∥1+21−ρ∥w∥22)

3.4 弹性网络回归的求解方法

由于L1正则化项的存在,损失函数在wj=0w_j=0wj=0处不可导,因此无法直接用普通梯度下降法求解,常用两种优化方法,研究生需掌握原理,本科生了解适用场景即可。

方法1:梯度下降法(次梯度求解)

针对L1正则化的不可导问题,采用次梯度替代梯度,将L1、L2的梯度(次梯度)与数据误差项的梯度合并,进行参数更新。

  1. 数据误差项的梯度 :∇w1n∥y−Xw∥22=−2nXT(y−Xw)\nabla_{w} \frac{1}{n}\| y-X w\| _{2}^{2}=-\frac{2}{n} X^{T}(y-X w)∇wn1∥y−Xw∥22=−n2XT(y−Xw);
  2. L2正则化项的梯度 :∇w1−ρ2∥w∥22=(1−ρ)w\nabla_w \frac{1-\rho}{2}\|w\|_2^2 = (1-\rho)w∇w21−ρ∥w∥22=(1−ρ)w;
  3. L1正则化项的次梯度
    ∂∣wj∣∂wj={1wj>0−1wj<0任意值∈[−1,1]wj=0\frac{\partial|w_j|}{\partial w_j}= \begin{cases}1 & w_j>0 \\ -1 & w_j<0 \\ 任意值 \in[-1,1] & w_j=0\end{cases}∂wj∂∣wj∣=⎩ ⎨ ⎧1−1任意值∈[−1,1]wj>0wj<0wj=0
  4. 参数更新规则
    w(k+1)=w(k)−η∇wL(w(k))w^{(k+1)}=w^{(k)}-\eta \nabla_{w} L\left(w^{(k)}\right)w(k+1)=w(k)−η∇wL(w(k))
    其中η\etaη为学习率,kkk为迭代次数。
方法2:坐标下降法(最常用,重点)

弹性网络回归的主流求解方法 ,核心是对每个系数wjw_jwj逐一优化,固定其他系数不变 ,将多变量优化转化为单变量优化,结合软阈值函数求解,步骤简单、计算高效。

  1. 单变量优化 :固定 w1,w2,...,wj−1,wj+1,...,wp{w_{1},w_2,...,w_{j-1},w_{j+1},...,w_p}w1,w2,...,wj−1,wj+1,...,wp,仅优化wjw_jwj;
  2. 更新公式
    wj=S(1n∑i=1nxij(yi−y^i+wjxij),αρ)w_{j}=S\left(\frac{1}{n} \sum_{i=1}^{n} x_{i j}\left(y_{i}-\hat{y}{i}+w{j} x_{i j}\right), \alpha \rho\right)wj=S(n1i=1∑nxij(yi−y^i+wjxij),αρ)
  3. 软阈值函数S(z,λ)S(z, \lambda)S(z,λ) :实现L1正则化的系数收缩,λ=αρ\lambda=\alpha\rhoλ=αρ为阈值:
    S(z,λ)={z−λz>λ0∣z∣≤λz+λz<−λS(z, \lambda)= \begin{cases}z-\lambda & z>\lambda \\ 0 & |z| \leq \lambda \\ z+\lambda & z<-\lambda\end{cases}S(z,λ)=⎩ ⎨ ⎧z−λ0z+λz>λ∣z∣≤λz<−λ
    作用 :当计算值zzz的绝对值小于阈值λ\lambdaλ时,将系数wjw_jwj置0,实现特征选择。

四、弹性网络回归的实战案例(本科/研究生可复现)

用Python+Scikit-learn实现弹性网络回归,使用模拟高维数据集 (500样本+10特征),步骤包含数据生成、预处理、建模、评估、可视化,代码可直接复现,适合课程设计和课题入门。

4.1 实战核心步骤

  1. 生成模拟高维数据集,模拟特征间的轻微共线性;
  2. 数据预处理:标准化(消除量纲影响,正则化模型必做)、划分训练集/测试集;
  3. 构建弹性网络回归模型,设置超参数α\alphaα和ρ\rhoρ;
  4. 模型评估:用R2R^2R2(决定系数)和MSE(均方误差)衡量拟合效果;
  5. 可视化分析:特征重要性、真实值vs预测值、残差分布、模型性能指标。

4.2 可复现代码(含详细注释)

python 复制代码
import numpy as np
import pandas as pd
import matplotlib.pyplot as plt
import seaborn as sns
# 导入数据集生成、模型、评估指标、数据处理工具
from sklearn.datasets import make_regression
from sklearn.model_selection import train_test_split
from sklearn.preprocessing import StandardScaler
from sklearn.linear_model import ElasticNet
from sklearn.metrics import r2_score, mean_squared_error

# ===================== 步骤1:生成模拟高维数据集 =====================
# 500个样本,10个特征,加入轻微噪声,random_state保证结果可复现
X, y = make_regression(n_samples=500, n_features=10, noise=0.1, random_state=42)
# 转换为DataFrame/Series,方便查看和处理
X = pd.DataFrame(X, columns=[f"Feature_{i}" for i in range(10)])
y = pd.Series(y, name="Target")
print("数据集形状(样本数×特征数):", X.shape)
print("特征名称:", X.columns.tolist())

# ===================== 步骤2:数据预处理 =====================
# 1. 划分训练集(80%)和测试集(20%)
X_train, X_test, y_train, y_test = train_test_split(
    X, y, test_size=0.2, random_state=42
)
# 2. 特征标准化(正则化回归模型必做,消除量纲影响)
scaler = StandardScaler()
X_train_scaled = scaler.fit_transform(X_train)  # 训练集拟合+转换
X_test_scaled = scaler.transform(X_test)        # 测试集仅转换,避免数据泄露

# ===================== 步骤3:构建弹性网络回归模型 =====================
# 超参数设置:alpha=0.1(正则化强度),l1_ratio=0.5(L1/L2平衡,各占50%)
elastic_net = ElasticNet(alpha=0.1, l1_ratio=0.5, random_state=42)
elastic_net.fit(X_train_scaled, y_train)  # 模型训练

# ===================== 步骤4:模型预测与评估 =====================
# 对训练集和测试集进行预测
y_pred_train = elastic_net.predict(X_train_scaled)
y_pred_test = elastic_net.predict(X_test_scaled)
# 计算评估指标:R²(越接近1越好)、MSE(越小越好)
r2_train = r2_score(y_train, y_pred_train)
r2_test = r2_score(y_test, y_pred_test)
mse_train = mean_squared_error(y_train, y_pred_train)
mse_test = mean_squared_error(y_test, y_pred_test)
# 输出评估结果
print("========== 弹性网络回归模型性能 ==========")
print(f"训练集R²:{r2_train:.4f},训练集MSE:{mse_train:.4f}")
print(f"测试集R²:{r2_test:.4f},测试集MSE:{mse_test:.4f}")

# ===================== 步骤5:多维度可视化分析 =====================
plt.figure(figsize=(15, 10))  # 设置画布大小

# 子图1:特征重要性(回归系数值,系数为0表示被筛选掉)
plt.subplot(2, 2, 1)
coef = elastic_net.coef_  # 获取回归系数
colors = sns.color_palette("coolwarm", len(coef))
plt.barh(X.columns, coef, color=colors)
plt.title('Feature Importance (ElasticNet Coefficients)', fontsize=16)
plt.xlabel('Coefficient Value', fontsize=12)
plt.ylabel('Feature', fontsize=12)

# 子图2:测试集真实值 vs 预测值(点越靠近红线,拟合效果越好)
plt.subplot(2, 2, 2)
plt.scatter(y_test, y_pred_test, c=y_pred_test, cmap='cool', alpha=0.7, edgecolor='k')
plt.plot([min(y_test), max(y_test)], [min(y_test), max(y_test)], color='red', linewidth=2)
plt.title('Predicted vs True Values', fontsize=16)
plt.xlabel('True Values', fontsize=12)
plt.ylabel('Predicted Values', fontsize=12)
plt.colorbar(label="Predicted Value Intensity")

# 子图3:残差分布(残差=真实值-预测值,越靠近0线,模型越稳定)
plt.subplot(2, 2, 3)
residuals = y_test - y_pred_test
plt.scatter(y_pred_test, residuals, c=residuals, cmap='Spectral', alpha=0.7, edgecolor='k')
plt.axhline(y=0, color='red', linestyle='--', linewidth=2)
plt.title('Residuals vs Predicted Values', fontsize=16)
plt.xlabel('Predicted Values', fontsize=12)
plt.ylabel('Residuals', fontsize=12)
plt.colorbar(label="Residual Intensity")

# 子图4:模型性能指标对比(训练集vs测试集)
plt.subplot(2, 2, 4)
metrics = ['Train R²', 'Test R²', 'Train MSE', 'Test MSE']
values = [r2_train, r2_test, mse_train, mse_test]
colors = sns.color_palette("viridis", len(metrics))
plt.bar(metrics, values, color=colors)
plt.title('Model Performance Metrics', fontsize=16)
plt.ylabel('Score / Error', fontsize=12)

# 调整子图间距,显示图像
plt.tight_layout()
plt.show()

# 输出被筛选掉的特征(系数为0的特征)
zero_coef_features = X.columns[coef == 0].tolist()
if zero_coef_features:
    print(f"\n被弹性网络筛选掉的无关特征:{zero_coef_features}")
else:
    print("\n无特征被筛选,所有特征均为重要特征")

4.3 结果解读(本科/研究生需掌握)

  1. 特征重要性:回归系数的绝对值越大,特征对目标值的影响越大;系数为0表示该特征被L1正则化筛选掉,实现特征选择;
  2. 真实值vs预测值:散点越靠近红色对角线,模型的预测精度越高;
  3. 残差分布:残差点越均匀分布在0红线两侧,无明显趋势,说明模型无系统性误差,拟合效果稳定;
  4. 性能指标 :训练集和测试集的R2R^2R2、MSE越接近,说明模型无过拟合/欠拟合,泛化能力强;
  5. 超参数调优 :若模型效果差,可通过GridSearchCV网格搜索优化α\alphaα(0.001,0.01,0.1,1,10)和l1_ratio(0.1,0.3,0.5,0.7,0.9)。

五、弹性网络回归的优缺点(本科/研究生必记)

弹性网络回归是正则化线性回归的最优综合方案,但也存在一定局限性,需结合场景判断是否适用,核心优缺点如下:

5.1 优点

  1. 兼顾特征选择与抗多重共线性:核心优势,同时拥有Lasso的特征选择能力和Ridge的抗共线性能力,解决了单一正则化的缺陷;
  2. 对高维数据鲁棒性强 :当特征数p>p>p>样本数nnn(如基因组、文本数据)时,仍能稳定进行特征选择和回归拟合,普通回归会直接失效;
  3. 超参数灵活可调 :通过α\alphaα控制正则化强度,ρ\rhoρ控制L1/L2比例,可根据数据特点灵活调整,适配不同场景;
  4. 平衡模型稀疏性与稳定性:既可以剔除无关特征,让模型稀疏、易解释,又可以平滑相关特征的系数,让模型更稳定、泛化能力更强;
  5. 适配稀疏数据:对文本、图像等稀疏特征矩阵,能高效筛选重要特征,降低计算成本。

5.2 缺点

  1. 模型解释性略弱于Lasso:由于加入L2正则化,部分相关特征的系数不会完全为0,仅会平滑收缩,相比纯Lasso的稀疏模型,解释性稍差;
  2. 对超参数敏感 :模型性能高度依赖α\alphaα和ρ\rhoρ的选择,需通过交叉验证+网格搜索调优,增加了计算成本;
  3. 非稀疏数据下效率不如Ridge:若数据无稀疏性、无冗余特征,弹性网络的计算复杂度高于Ridge,此时Ridge是更高效的选择;
  4. 计算复杂度高于单一正则化:同时优化L1和L2正则化,计算量比纯Lasso或Ridge更高,大规模数据集下训练速度稍慢。

六、弹性网络回归的适用场景与算法选型(研究生实战指南)

弹性网络回归是高维、冗余、共线性数据场景的首选正则化回归算法,本科阶段了解适用场景,研究生需熟练掌握算法选型逻辑,结合数据特点和业务需求选择最优算法。

6.1 优先选择弹性网络回归的场景

  1. 高维数据(p>np>np>n):特征数远大于样本数,如基因组数据分析、文本特征建模、图像像素特征回归;
  2. 特征多且存在冗余/共线性:数据集中有大量特征,且部分特征高度相关(如价格与运费、身高与体重),需要同时筛选特征和处理共线性;
  3. 需要平衡模型稀疏性与稳定性:既希望剔除无关特征,简化模型,又希望模型对数据变化不敏感,泛化能力强;
  4. Lasso特征选择不稳定时:当特征间存在强共线性,Lasso随机剔除相关特征,此时用弹性网络可实现稳定的特征选择;
  5. 稀疏数据建模:如词袋模型的文本数据、one-hot编码的分类特征数据,特征矩阵稀疏,需要高效筛选重要特征。

6.2 考虑其他算法的场景

  1. 数据无冗余、无共线性,仅需特征选择 :选Lasso回归,模型更稀疏、解释性更强;
  2. 数据有共线性,无需特征选择,追求计算效率 :选Ridge回归,计算更简单、速度更快;
  3. 数据存在复杂非线性关系 :弹性网络是线性模型,无法拟合非线性,选随机森林/梯度提升树SVR(支持向量机回归)
  4. 大规模数据集(百万级以上) :选XGBoost/LightGBM,计算效率更高,泛化能力更强;
  5. 需要预测不确定性 :选贝叶斯回归,能给出预测的置信区间,适合医疗、金融等风险敏感场景。

6.3 正则化回归算法选型总表(核心)

算法 核心优势 核心缺陷 首选场景
弹性网络回归 兼顾特征选择与抗共线性,高维数据鲁棒性强 超参数敏感,计算复杂度较高 高维数据、特征冗余/共线性、需要平衡稀疏性与稳定性
Lasso回归 特征选择,模型稀疏、解释性强 共线性数据下特征选择不稳定 低维数据、无强共线性、需要严格特征选择
Ridge回归 抗共线性,计算高效、模型稳定 无法特征选择,保留所有特征 有共线性、无需特征选择、追求计算效率

七、总结

弹性网络回归是正则化线性回归的集大成者 ,核心是结合L1和L2正则化 ,通过超参数α\alphaα和ρ\rhoρ实现正则化的灵活权衡,完美解决了Lasso特征选择不稳定、Ridge无法筛选特征的问题,是高维、冗余、共线性数据场景下的最优正则化回归选择。

对于本科生和研究生来说,学习弹性网络回归的核心要点:

  1. 理解混合正则化的本质 :L1实现特征选择,L2实现系数平滑,二者结合是为了兼顾模型的稀疏性稳定性
  2. 掌握超参数的含义 :α\alphaα控制正则化强度,ρ\rhoρ控制L1/L2比例,ρ=1\rho=1ρ=1退化为Lasso,ρ=0\rho=0ρ=0退化为Ridge;
  3. 熟记适用场景:高维数据、特征共线性、需要特征选择的场景,优先选弹性网络;
  4. 掌握实战调优方法 :通过网格搜索+交叉验证 优化α\alphaα和ρ\rhoρ,是提升模型性能的关键;
  5. 明确算法选型逻辑:线性数据看是否有共线性/稀疏性,非线性数据直接放弃正则化线性回归,选树模型/SVR。

弹性网络回归是机器学习回归任务中的核心算法,也是本科课程设计、研究生课题入门的常用算法,掌握其原理和实战,能为后续学习更复杂的回归算法(如高斯过程、梯度提升)打下坚实的基础。

相关推荐
DeepModel1 小时前
【回归算法】贝叶斯回归——用概率思维做预测
人工智能·数据挖掘·回归
小雨中_2 小时前
3.7 GSPO:Group Sequence Policy Optimization(组序列策略优化)
人工智能·python·深度学习·机器学习·自然语言处理
qyr67892 小时前
分布式光纤传感全球市场调研报告分析
大数据·人工智能·物联网·分布式光纤传感·市场分析·市场报告
njsgcs2 小时前
qwen3.5-plus识别原神按钮groundingbox
人工智能
systeminof2 小时前
从静态到实时对抗:首例安卓Runtime AI病毒解析
android·人工智能
向哆哆2 小时前
白血病细胞与正常细胞识别数据集:医学影像与智能诊断的细胞分析数据
人工智能·目标检测·计算机视觉
龙亘川2 小时前
城管住建领域丨市政设施监测功能详解(4)——路灯设施监测
大数据·人工智能·路灯设施监测
winfreedoms2 小时前
ROS2坐标转换,正解反解——黑马程序员ROS2课程上课笔记(5)
人工智能·笔记
正宗咸豆花2 小时前
混合精度NPU,爱芯元智如何登顶全球中高端边缘AI芯片市场
人工智能