ICLR 2026低秩Transformer解决方案:多变量时间序列异常检测与定位的数学原理

ICLR 2026低秩Transformer解决方案:多变量时间序列异常检测与定位的数学原理

作者:WeeJot | 本文为算法深潜系列文章,深入解析前沿AI论文中的数学原理与实现细节

引言:多变量时间序列异常诊断的挑战

在物联网(IoT)、工业监测、金融交易等复杂系统中,多变量时间序列(MTS) 异常诊断是确保系统安全可靠性的关键任务。传统方法主要依赖基于重建误差的检测,但在理论和实践上存在两大核心挑战:

  1. 理论空缺:现有深度学习模型缺乏对时间序列统计特性的严格数学建模
  2. 定位困境:异常检测仅能识别时间点,无法精确定位到具体变量

ICLR 2026的最新论文《LOW RANK TRANSFORMER FOR MULTIVARIATE TIME SERIES ANOMALY DETECTION AND LOCALIZATION》提出了**注意力低秩Transformer(ALoRa-T)**框架,首次建立了Transformer与经典时间序列统计模型的严格数学联系,并实现了异常检测与定位的统一解决方案。

第一部分:低秩Transformer的数学原理推导

1.1 嵌入层与可学习VMA滤波的数学等价性

给定一个长度为TTT、维度为ddd的MTS窗口Y[t]∈RT×dY_{[t]} \in \mathbb{R}^{T \times d}Y[t]∈RT×d,标准的Transformer使用1D卷积层将其嵌入到高维空间:

y~t(k)=∑i=1d(∑j=−m−12m−12wi,j(k)⋅yt+j(i))⏟(1) \tilde{y}t^{(k)} = \sum{i=1}^{d} \underbrace{\left( \sum_{j=-\frac{m-1}{2}}^{\frac{m-1}{2}} w_{i,j}^{(k)} \cdot y_{t+j}^{(i)} \right)}_{(1)} y~t(k)=i=1∑d(1) j=−2m−1∑2m−1wi,j(k)⋅yt+j(i)

定理1(嵌入层等价性) :式(1)在数学上等价于可学习向量滑动平均(VMA)滤波器 ,其中权重wi,j(k)w_{i,j}^{(k)}wi,j(k)决定了变量iii对输出特征kkk在滞后jjj处的影响。

证明思路:将式(1)重写为向量形式:

Y~[t]=∑j=−m−12m−12Wj⋅Y[t+j] \tilde{Y}{[t]} = \sum{j=-\frac{m-1}{2}}^{\frac{m-1}{2}} W_j \cdot Y_{[t+j]} Y~[t]=j=−2m−1∑2m−1Wj⋅Y[t+j]

其中WjW_jWj是权重张量在滞后jjj处的切片。这与VMA模型y~t=∑j=−qqΦjyt−j+εt\tilde{y}t = \sum{j=-q}^{q} \Phi_j y_{t-j} + \varepsilon_ty~t=∑j=−qqΦjyt−j+εt具有完全相同的数学结构。

1.2 注意力机制的空间-时间自回归(STAR)结构

标准的自注意力机制计算:

S(l)=softmax(Q(l)(K(l))⊤dmodel+M) S^{(l)} = \text{softmax}\left( \frac{Q^{(l)} (K^{(l)})^\top}{\sqrt{d_{\text{model}}}} + M \right) S(l)=softmax(dmodel Q(l)(K(l))⊤+M)

通过展开Transformer的残差连接,可以得到最终潜在表示的精确数学表达式。

命题1(STAR结构):在无跳跃连接的情况下,Transformer的潜在空间遵循**空间-时间自回归(STAR)**结构:

zt(j)=∑k=1dmodelbkj(∑q=1tatqy~q(k)) z_t^{(j)} = \sum_{k=1}^{d_{\text{model}}} b_{kj} \left( \sum_{q=1}^{t} a_{tq} \tilde{y}_q^{(k)} \right) zt(j)=k=1∑dmodelbkj(q=1∑tatqy~q(k))

其中bkjb_{kj}bkj是投影矩阵元素,atqa_{tq}atq是注意力权重的函数。

证明要点

  1. 无跳跃连接情况 :通过式(4) Zt=AtY~[t]BZ_t = A_t \tilde{Y}_{[t]} BZt=AtY~[t]B展开
  2. 含跳跃连接情况:通过式(5)获得多个STAR过程的线性组合
  3. 前馈层不影响结构:证明即使添加前馈层,潜在空间仍保持STAR特性

1.3 低秩正则化的Geman核范数

论文的核心创新在于提出**注意力低秩正则化(ALoRa)**损失:

LALoRa(S(l))=∑i=r+1Tσi(l)(σi(l)+1) \mathcal{L}{\text{ALoRa}}(S^{(l)}) = \sum{i=r+1}^{T} \frac{\sigma_i^{(l)}}{(\sigma_i^{(l)} + 1)} LALoRa(S(l))=i=r+1∑T(σi(l)+1)σi(l)

数学性质

  1. 截断特性 :惩罚从r+1r+1r+1到TTT的奇异值,保留前rrr个主导奇异值
  2. 渐近行为 :当σi→0\sigma_i \to 0σi→0时,σi(σi+1)∼σi\frac{\sigma_i}{(\sigma_i + 1)} \sim \sigma_i(σi+1)σi∼σi;当σi→∞\sigma_i \to \inftyσi→∞时,σi(σi+1)→1\frac{\sigma_i}{(\sigma_i + 1)} \to 1(σi+1)σi→1
  3. 数值稳定性 :分母(σi+1)(\sigma_i + 1)(σi+1)避免除零错误和数值溢出

理论依据:基于矩阵补全理论中的Geman核范数,该正则化鼓励注意力矩阵保持低秩结构。

1.4 多注意力头的低秩聚合

对于多头注意力(MHA),定义聚合的注意力矩阵:

S(l)=1H∑h=1HSh(l) S^{(l)} = \frac{1}{H} \sum_{h=1}^{H} S_h^{(l)} S(l)=H1h=1∑HSh(l)

这种聚合具有以下数学优势:

  1. 秩上界 :rank(S(l))≤∑h=1Hrank(Sh(l))\text{rank}(S^{(l)}) \leq \sum_{h=1}^{H} \text{rank}(S_h^{(l)})rank(S(l))≤∑h=1Hrank(Sh(l))
  2. 奇异值平滑:聚合减少极端奇异值的影响
  3. 稳定性增强:不同注意力头的误差相互抵消

第二部分:异常检测与定位算法详析

2.1 ALoRa-T异常检测评分函数

异常检测分数结合重建误差注意力矩阵秩

AS(yt)=∥yt−y^t∥22⋅ALoRa-T(yt;S(L)) \text{AS}(y_t) = \| y_t - \hat{y}_t \|_2^2 \cdot \text{ALoRa-T}(y_t; S^{(L)}) AS(yt)=∥yt−y^t∥22⋅ALoRa-T(yt;S(L))

其中ALoRa-T评分为:

ALoRa-T(yt;S(L))=∑i=1T1{σi(L)>h1} \text{ALoRa-T}(y_t; S^{(L)}) = \sum_{i=1}^{T} \mathbb{1}_{\{\sigma_i^{(L)} > h_1\}} ALoRa-T(yt;S(L))=i=1∑T1{σi(L)>h1}

算法逻辑

  1. 正常模式:注意力矩阵保持低秩,重建误差小
  2. 异常模式:注意力矩阵秩增高,重建误差增大
  3. 综合评分:两者乘积放大异常信号

2.2 ALoRa-Loc异常定位算法

核心思想:通过量化变量间的贡献权重,逆向追踪异常传播路径。

步骤分解

步骤1:计算输入变量对潜在空间的贡献权重

Eij=∑k=1dmodel(∑l=−m−12m−12wi,l(k))bkj E_{ij} = \sum_{k=1}^{d_{\text{model}}} \left( \sum_{l=-\frac{m-1}{2}}^{\frac{m-1}{2}} w_{i,l}^{(k)} \right) b_{kj} Eij=k=1∑dmodel l=−2m−1∑2m−1wi,l(k) bkj

步骤2:计算输入变量对重建输出的贡献权重

Cij=∑k=1dmodelwkjout⋅Eik C_{ij} = \sum_{k=1}^{d_{\text{model}}} w_{kj}^{\text{out}} \cdot E_{ik} Cij=k=1∑dmodelwkjout⋅Eik

步骤3:定义定位异常分数(LAS)

LASt(i)=∣yt(i)−y^t(i)∣max⁡(Ci1,...,Cid)⋅∑j=1d∣Cij∣ \text{LAS}t^{(i)} = \frac{|y_t^{(i)} - \hat{y}t^{(i)}|}{\max(C{i1}, \ldots, C{id})} \cdot \sum_{j=1}^{d} |C_{ij}| LASt(i)=max(Ci1,...,Cid)∣yt(i)−y^t(i)∣⋅j=1∑d∣Cij∣

数学解释:LAS结合了变量的重建误差、最大贡献度和总体贡献强度,能够准确识别异常源变量。

2.3 动态阈值与自适应检测

论文提出双阈值机制:

  1. 奇异值阈值h1h_1h1:基于训练数据奇异值分布的统计量
  2. 异常评分阈值h2h_2h2:基于正常样本评分的百分位数

自适应更新策略

  • 在线学习:随着新数据到达,动态更新阈值
  • 滑动窗口:基于最近WWW个样本的统计特性
  • 增量统计:使用Welford算法在线计算均值和方差

第三部分:实现细节

LightMTS-Embed实现细节

稀疏卷积核设计

python 复制代码
class LightMTSEmbedding(nn.Module):
    def __init__(self, input_dim, embedding_dim, kernel_size=3, top_k_pairs=512):
        # 仅保留top_k个最相关的变量对
        self.actual_k = min(top_k_pairs, input_dim*(input_dim-1)//2)
        self.weights = nn.Parameter(torch.randn(self.actual_k, embedding_dim, kernel_size)*0.1)
        self.pair_indices = None

Spearman相关性选择

  1. 计算训练数据中所有变量对的Spearman相关系数
  2. 按绝对值排序,选择前KKK个最相关的变量对
  3. 为每个选择的变量对分配稀疏卷积核

数学优势

  • 参数量减少:从O(d2)O(d^2)O(d2)降至O(K)O(K)O(K)
  • 可解释性增强:明确建模变量间相关性
  • 计算效率:稀疏卷积降低计算复杂度

第四部分:性能对比与实验分析

4.1 方法对比分析表

方法类别 代表模型 计算复杂度 定位精度 理论可解释性 适用场景
传统统计方法 ARIMA、VMA O(T2d)O(T^2d)O(T2d) 线性、低维
深度重建方法 LSTM-VAE、OmniAnomaly O(Td2L)O(Td^2L)O(Td2L) 中低 非线性、中等维度
注意力基础方法 Anomaly-Transformer、SARAD O(T2dL)O(T^2dL)O(T2dL) 中低 长序列、复杂依赖
低秩Transformer ALoRa-T (本文) O(KT+T2rL)O(KT + T^2rL)O(KT+T2rL) 高维、强相关

关键指标解释

  • TTT:序列长度
  • ddd:变量维度
  • LLL:Transformer层数
  • KKK:保留的变量对数量(K≪d2K \ll d^2K≪d2)
  • rrr:保留的奇异值数量(r≪Tr \ll Tr≪T)

4.2 在基准数据集上的性能表现

论文在六个标准MTS异常检测数据集上进行了评估:

数据集 样本数 变量数 异常比例 ALoRa-T AUC 最优基线 AUC 提升幅度
SMD 52,800 38 6.8% 0.971 0.942 +3.1%
MSL 17,056 55 10.5% 0.964 0.931 +3.5%
SMAP 129,712 25 13.1% 0.953 0.927 +2.8%
PSM 21,504 25 27.8% 0.989 0.975 +1.4%
SWaT 467,220 51 12.1% 0.985 0.964 +2.2%
WADI 1,049,184 127 5.8% 0.972 0.948 +2.5%

统计显著性 :所有提升的ppp值均小于0.010.010.01,表明ALoRa-T在统计上显著优于现有方法。

4.3 消融实验分析

实验设计:系统性地移除ALoRa-T的关键组件,评估各自贡献:

配置 LightMTS-Embed 低秩正则化 定位模块 检测AUC 定位F1
完整ALoRa-T 0.971 0.892
无稀疏嵌入 0.953 0.841
无低秩正则 0.947 0.823
无定位模块 0.968 0.000
标准Transformer 0.926 0.735

主要发现

  1. 稀疏嵌入贡献最大:提升约2.4%的AUC
  2. 低秩正则关键作用:增强异常敏感性,特别是对于隐蔽异常
  3. 定位模块独立价值:在不影响检测性能的前提下实现精确定位

4.4 计算效率对比

模型 参数量 训练时间(s/epoch) 推理延迟(ms) 内存占用(MB)
Standard Transformer 3.2M 42.6 15.3 1240
LSTM-VAE 1.8M 38.2 12.8 876
OmniAnomaly 2.4M 45.1 16.7 1052
ALoRa-T 1.1M 31.5 10.2 642

优化效果

  • 参数量减少66%:通过稀疏嵌入和低秩约束
  • 训练速度提升26%:减少了计算密集型操作
  • 推理延迟降低33%:得益于更紧凑的模型结构

第五部分:Python实现与代码解析

5.1 核心模块实现

以下是ALoRa-T关键模块的简化实现:

python 复制代码
import torch
import torch.nn as nn
import torch.nn.functional as F

class LowRankAttentionRegularization(nn.Module):
    """低秩自注意力正则化模块"""
    
    def __init__(self, lambda_reg=0.1, threshold_h1=0.01):
        super().__init__()
        self.lambda_reg = lambda_reg
        self.threshold_h1 = threshold_h1
        
    def forward(self, attention_matrix):
        batch_size, T, _ = attention_matrix.shape
        
        total_loss = 0.0
        total_rank = 0.0
        
        for b in range(batch_size):
            S = attention_matrix[b]
            
            # 奇异值分解
            sigma = torch.linalg.svdvals(S)
            
            # 保留前r个奇异值
            r = 1
            
            if len(sigma) > r:
                penalty_terms = sigma[r:] / (sigma[r:] + 1)
                loss = torch.sum(penalty_terms)
            else:
                loss = torch.tensor(0.0)
            
            # 秩估计:奇异值大于阈值的数量
            rank = torch.sum(sigma > self.threshold_h1).float()
            
            total_loss += loss
            total_rank += rank
        
        avg_loss = total_loss / batch_size
        avg_rank = total_rank / batch_size
        
        reg_loss = self.lambda_reg * avg_loss
        
        return reg_loss, avg_rank.detach().cpu().numpy()

class LightMTSEmbedding(nn.Module):
    """轻量级MTS嵌入模块"""
    
    def __init__(self, input_dim, embedding_dim, kernel_size=3, top_k_pairs=512):
        super().__init__()
        self.input_dim = input_dim
        self.embedding_dim = embedding_dim
        
        total_pairs = input_dim * (input_dim - 1) // 2
        self.actual_k = min(top_k_pairs, total_pairs)
        
        self.weights = nn.Parameter(
            torch.randn(self.actual_k, embedding_dim, kernel_size) * 0.1
        )
        
        self.pair_indices = None
        self.spearman_correlations = None
    
    def forward(self, x):
        batch_size, seq_len, input_dim = x.shape
        
        if self.pair_indices is None:
            # 使用简化实现(实际应基于相关性选择)
            output = torch.zeros(batch_size, seq_len, self.embedding_dim, 
                               device=x.device)
            for k in range(self.actual_k):
                i, j = k % input_dim, (k + 1) % input_dim
                for d in range(self.embedding_dim):
                    output[:, :, d] += (
                        x[:, :, i] * self.weights[k, d, 0] +
                        x[:, :, j] * self.weights[k, d, 1]
                    )
            return output / self.actual_k
        
        # 使用预计算的变量对
        output = torch.zeros(batch_size, seq_len, self.embedding_dim,
                           device=x.device)
        
        for k, (i, j) in enumerate(self.pair_indices):
            for d in range(self.embedding_dim):
                output[:, :, d] += (
                    x[:, :, i] * self.weights[k, d, 0] +
                    x[:, :, j] * self.weights[k, d, 1]
                )
        
        return output / len(self.pair_indices)

5.2 完整训练与评估流程

python 复制代码
def train_alora_model(model, train_loader, num_epochs=50, learning_rate=0.001):
    """训练ALoRa-T模型"""
    
    optimizer = torch.optim.Adam(model.parameters(), lr=learning_rate)
    
    training_losses = []
    attention_ranks = []
    
    model.train()
    
    for epoch in range(num_epochs):
        total_recon_loss = 0
        total_reg_loss = 0
        
        for batch in train_loader:
            optimizer.zero_grad()
            
            # 前向传播
            reconstructed, reg_loss, rank_estimate = model(batch)
            
            # 重建损失
            recon_loss = F.mse_loss(reconstructed, batch)
            
            # 总损失
            total_loss = recon_loss + reg_loss
            
            # 反向传播
            total_loss.backward()
            optimizer.step()
            
            total_recon_loss += recon_loss.item()
            total_reg_loss += reg_loss.item()
        
        avg_recon_loss = total_recon_loss / len(train_loader)
        avg_reg_loss = total_reg_loss / len(train_loader)
        
        training_losses.append(avg_recon_loss + avg_reg_loss)
        
        if (epoch + 1) % 10 == 0:
            print(f"Epoch [{epoch+1}/{num_epochs}], "
                  f"Recon Loss: {avg_recon_loss:.4f}, "
                  f"Reg Loss: {avg_reg_loss:.4f}")
    
    return training_losses

def evaluate_anomaly_detection(model, test_loader, normal_loader):
    """评估异常检测性能"""
    
    model.eval()
    
    normal_scores = []
    anomalous_scores = []
    
    with torch.no_grad():
        # 正常样本
        for batch in normal_loader:
            reconstructed, _, _ = model(batch)
            scores = model.compute_anomaly_score(batch, reconstructed)
            normal_scores.extend(scores)
        
        # 异常样本
        for batch in test_loader:
            reconstructed, _, _ = model(batch)
            scores = model.compute_anomaly_score(batch, reconstructed)
            anomalous_scores.extend(scores)
    
    # 计算ROC AUC
    from sklearn.metrics import roc_auc_score
    
    y_true = [0] * len(normal_scores) + [1] * len(anomalous_scores)
    y_scores = normal_scores + anomalous_scores
    
    auc_score = roc_auc_score(y_true, y_scores)
    
    return normal_scores, anomalous_scores, auc_score

第六部分:数学深度解析

6.1 注意力矩阵秩与异常敏感性的数学证明

定理2(秩异常敏感性) :对于行随机矩阵S∈RT×TS \in \mathbb{R}^{T \times T}S∈RT×T,其秩的变化对矩阵的谱特性有显著影响。

证明

设SSS的奇异值分解为S=UΣV⊤S = U\Sigma V^\topS=UΣV⊤,其中Σ=diag(σ1,...,σT)\Sigma = \text{diag}(\sigma_1, \ldots, \sigma_T)Σ=diag(σ1,...,σT),σ1=1\sigma_1 = 1σ1=1(因为SSS是行随机矩阵)。

定义有效秩为:

Reff(S)=(∑i=1Tσi)2∑i=1Tσi2 R_{\text{eff}}(S) = \frac{\left( \sum_{i=1}^{T} \sigma_i \right)^2}{\sum_{i=1}^{T} \sigma_i^2} Reff(S)=∑i=1Tσi2(∑i=1Tσi)2

关键观察 :当异常发生时,SSS的小奇异值σi(i>1)\sigma_i (i > 1)σi(i>1)会显著增大,导致Reff(S)R_{\text{eff}}(S)Reff(S)增加。

量化关系

ΔReff∝∑i=2Tσi2(σi+ϵ)2 \Delta R_{\text{eff}} \propto \sum_{i=2}^{T} \frac{\sigma_i^2}{(\sigma_i + \epsilon)^2} ΔReff∝i=2∑T(σi+ϵ)2σi2

其中ϵ\epsilonϵ是小的正则化常数。这表明低秩正则化通过惩罚小奇异值,放大了异常引起的秩变化。

6.2 贡献权重的梯度传播分析

命题2(梯度传播稳定性) :ALoRa-Loc的贡献权重CijC_{ij}Cij具有稳定的梯度传播特性。

证明框架

定义重建误差E=∥Y−Y^∥F2E = \| Y - \hat{Y} \|_F^2E=∥Y−Y^∥F2,其对输入YYY的梯度为:

∂E∂Y=2(Y−Y^)⋅∂Y^∂Y \frac{\partial E}{\partial Y} = 2(Y - \hat{Y}) \cdot \frac{\partial \hat{Y}}{\partial Y} ∂Y∂E=2(Y−Y^)⋅∂Y∂Y^

其中∂Y^∂Y\frac{\partial \hat{Y}}{\partial Y}∂Y∂Y^可以分解为:

∂y^t(k)∂ys(i)=∑j=1dmodelwkjout⋅∂zt(j)∂ys(i) \frac{\partial \hat{y}t^{(k)}}{\partial y_s^{(i)}} = \sum{j=1}^{d_{\text{model}}} w_{kj}^{\text{out}} \cdot \frac{\partial z_t^{(j)}}{\partial y_s^{(i)}} ∂ys(i)∂y^t(k)=j=1∑dmodelwkjout⋅∂ys(i)∂zt(j)

而∂zt(j)∂ys(i)\frac{\partial z_t^{(j)}}{\partial y_s^{(i)}}∂ys(i)∂zt(j)可以表示为注意力权重的函数。

重要性质 :通过低秩正则化,∂Y^∂Y\frac{\partial \hat{Y}}{\partial Y}∂Y∂Y^的条件数得到改善,使得梯度传播更稳定,定位更准确。

6.3 时空依赖性的谱分析

谱理论视角 :将Transformer视为图信号处理器,其中注意力矩阵定义了动态图结构。

频谱能量分布

定义时间序列YYY在注意力图上的平滑度:

S(Y)=∑i,jSij∥yi−yj∥2 \mathcal{S}(Y) = \sum_{i,j} S_{ij} \| y_i - y_j \|^2 S(Y)=i,j∑Sij∥yi−yj∥2

定理3(异常频谱特征):异常会增加时间序列在注意力图上的平滑度。

证明概要

设λ1≤λ2≤⋯≤λT\lambda_1 \leq \lambda_2 \leq \cdots \leq \lambda_Tλ1≤λ2≤⋯≤λT是归一化图拉普拉斯矩阵L=I−SL = I - SL=I−S的特征值。

异常信号的平滑度可以表示为:

S(Y)=∑k=1Tλk∣y^k∣2 \mathcal{S}(Y) = \sum_{k=1}^{T} \lambda_k |\hat{y}_k|^2 S(Y)=k=1∑Tλk∣y^k∣2

其中y^k\hat{y}_ky^k是YYY在图傅里叶基下的系数。

当异常发生时,高频分量∣y^k∣2(k大)|\hat{y}_k|^2 (k \text{大})∣y^k∣2(k大)的权重增加,导致S(Y)\mathcal{S}(Y)S(Y)增大。

第七部分:前沿应用与未来展望

7.1 工业4.0中的应用场景

  1. 智能制造异常诊断

    • 生产线传感器数据的实时监测
    • 设备故障的早期预警与定位
    • 工艺参数优化的异常检测
  2. 能源系统监控

    • 智能电网的异常负荷检测
    • 可再生能源发电的稳定性分析
    • 电力设备状态的在线评估

7.2 金融风控中的创新应用

  1. 高频交易异常检测

    • 市场操纵行为的实时识别
    • 算法交易故障的早期预警
    • 流动性异常的精准定位
  2. 信用风险分析

    • 多维度金融数据的异常关联
    • 系统性风险的早期信号识别
    • 机构间传染效应的量化分析

7.3 技术发展趋势

研究方向 关键挑战 潜在解决方案 预期突破时间
可解释性增强 黑盒模型决策不可追溯 注意力可视化的数学理论 2027-2028
实时性优化 长序列计算复杂度高 滑动窗口增量SVD算法 2026-2027
多模态融合 跨模态异常关联建模 图神经网络的扩展应用 2028-2029
自监督学习 无标签异常样本学习 对比学习与重构的结合 2027-2028

总结

ICLR 2026提出的**低秩Transformer(ALoRa-T)**框架在多变量时间序列异常检测与定位领域实现了重要突破:

  1. 理论创新:首次建立了Transformer与经典时间序列统计模型的严格数学联系
  2. 方法创新:提出低秩正则化损失和贡献权重定位算法
  3. 性能突破:在多个基准数据集上显著优于现有方法
  4. 应用价值:为工业监测、金融风控等关键领域提供可靠解决方案

本文从数学原理、算法设计、实现细节到应用展望,为读者提供了全面而深入的技术解析。期待这一前沿技术在实际应用中发挥更大价值,推动时间序列分析领域的持续发展。

相关推荐
lijianhua_97123 小时前
国内某顶级大学内部用的ai自动生成论文的提示词
人工智能
EDPJ3 小时前
当图像与文本 “各说各话” —— CLIP 中的模态鸿沟与对象偏向
深度学习·计算机视觉
蔡俊锋3 小时前
用AI实现乐高式大型可插拔系统的技术方案
人工智能·ai工程·ai原子能力·ai乐高工程
自然语3 小时前
人工智能之数字生命 认知架构白皮书 第7章
人工智能·架构
大熊背3 小时前
利用ISP离线模式进行分块LSC校正的方法
人工智能·算法·机器学习
eastyuxiao4 小时前
如何在不同的机器上运行多个OpenClaw实例?
人工智能·git·架构·github·php
诸葛务农4 小时前
AGI 主要技术路径及核心技术:归一融合及未来之路5
大数据·人工智能
光影少年4 小时前
AI Agent智能体开发
人工智能·aigc·ai编程
ai生成式引擎优化技术4 小时前
TSPR-WEB-LLM-HIC (TWLH四元结构)AI生成式引擎(GEO)技术白皮书
人工智能
帐篷Li4 小时前
9Router:开源AI路由网关的架构设计与技术实现深度解析
人工智能