什么是时空学习(Spatiotemporal Learning)

一段视频,你不仅仅是看到一帧帧孤立的图片,你会注意到物体在空间中的位置 (比如,一只猫在桌子上),以及它随着时间如何变化(比如,猫从桌子上跳了下来)。

时空学习 ,顾名思义,就是让AI模型像我们一样,同时理解和学习空间(Spatial)信息和时间(Temporal)信息

简单来说:

  • 空间信息 (Spatial):指的是某一时刻,画面中各个物体是什么、在哪里、它们之间有什么关系。比如,在一张街景图片中,AI需要识别出汽车、行人、交通灯,以及它们各自的位置。
  • 时间信息 (Temporal):指的是事物如何随着时间的推移而发生变化、移动或发展。比如,在一段监控视频中,AI需要理解一个人从A点走到B点的连续动作,或者交通流量随时间的变化。

为什么时空学习很重要?

很多现实世界的数据都具有时空特性。如果AI只关注空间或只关注时间,就会丢失很多关键信息,无法做出准确的判断和预测。

几个例子:

  1. 视频理解

    • 动作识别:要判断视频里的人是在跑步、跳舞还是挥手,AI不仅要看某一帧的姿态(空间),还要看连续帧之间的动作变化(时间)。
    • 事件检测:要判断视频中是否发生了交通事故,AI需要分析车辆在空间中的位置随时间的变化,以及它们之间交互的动态过程。
    • 视频字幕生成:AI需要理解画面内容(空间)和正在发生的事情(时间)才能生成准确的描述。
  2. 自动驾驶

    • 轨迹预测:无人车需要预测其他车辆和行人的未来轨迹,这需要同时考虑它们当前的位置(空间)和运动趋势(时间)。
    • 环境感知:理解道路标志、交通信号灯的变化,以及周围物体的动态。
  3. 天气预报/气候变化

    • 预测未来的天气状况,需要分析气象数据(如温度、湿度、风速)在不同地理位置(空间)随时间的变化模式(时间)。
  4. 医疗影像分析

    • 分析动态的医学影像(如超声波、MRI),观察器官的运动或病变的发展,需要理解解剖结构(空间)及其随时间的变化(时间)。
  5. 机器人技术

    • 机器人与环境交互,需要理解自身和周围物体在空间中的位置,并规划随时间变化的动作序列。

核心挑战与方法:

时空学习的主要挑战在于如何有效地融合和建模这两种不同但又紧密相关的信息。AI研究者们开发了各种模型和技术来应对这些挑战,例如:

  • 卷积神经网络 (CNN) 通常用于提取空间特征。
  • 循环神经网络 (RNN) , 特别是 LSTM (长短期记忆网络)GRU (门控循环单元), 常用于捕捉时间序列信息。
  • 3D卷积网络 (3D CNNs):可以直接处理视频这类具有三维(空间x空间x时间)结构的数据。
  • 注意力机制 (Attention Mechanisms):帮助模型关注时空数据中最重要的部分。
  • 图神经网络 (Graph Neural Networks, GNNs):可以用来建模物体之间复杂的时空关系。

时空学习就是教会AI像我们观察世界一样,既能看懂"此时此刻是什么样子",又能理解"接下来会发生什么变化"。 它让AI能够更好地理解和预测动态的、复杂的世界,并在视频分析、自动驾驶、气象预测等众多领域发挥关键作用。

正如我们之前讨论的,时空学习的核心在于让AI模型同时理解和处理空间信息("是什么,在哪里")和时间信息("如何变化")。

近几年来,时空学习领域取得了显著的进展,主要体现在以下几个方面:

  1. Transformer架构的崛起与制霸:

    • 核心思想: 最初在自然语言处理 (NLP) 领域大放异彩的Transformer模型,凭借其强大的自注意力机制 (Self-Attention),能够有效捕捉长距离依赖关系。研究者发现,这种能力同样适用于时空数据。时间序列可以看作一种"序列",而空间特征也可以通过一定方式"序列化"或与时间维度一同输入Transformer。
    • 进展:
      • Video Transformers (ViT, TimeSformer, VideoMAE): 将视频切分成小块 (patches),然后将这些时空块序列化后输入Transformer编码器。VideoMAE等模型还引入了自监督学习中的掩码自编码 (Masked Autoencoders) 思想,通过重建被遮挡的时空块来学习表征,大幅提升了在少量标注数据下的学习效率。
      • 时空联合建模: 通过巧妙设计的注意力机制(例如,分解的空间注意力和时间注意力,或联合的时空注意力)来同时捕捉空间内的关系和时间上的动态。
    • 趋势: 更高效的Transformer变体(减少计算复杂度)、更大规模的预训练模型、以及在更多样化的时空任务上的应用。
  2. 图神经网络 (GNN) 在不规则时空数据上的应用:

    • 核心思想: 很多时空数据并非规则的网格结构(如视频、图像),例如交通网络、社交网络中的信息传播、分子动力学等。GNN能够直接在图结构数据上进行学习,节点表示空间实体,边表示它们之间的关系,而节点和边的特征可以随时间演化。
    • 进展:
      • 时空图神经网络 (Spatiotemporal Graph Neural Networks, STGNNs): 结合图卷积(用于空间聚合)和循环神经网络或Transformer(用于时间建模)来处理动态图数据。
      • 交通流量预测: 传感器网络可以看作图,GNN能有效捕捉路网拓扑结构和车流的时空依赖性。
      • 人体骨骼动作识别: 将人体关节点视为图节点,骨骼为边,GNN可以学习动作的时空模式。
    • 趋势: 动态图表示学习、异构图(不同类型的节点和边)的时空建模、GNN与Transformer的结合。
  3. 自监督学习 (Self-Supervised Learning, SSL) 的深入应用:

    • 核心思想: 时空数据(尤其是视频)的标注成本非常高昂。自监督学习通过设计各种"借口任务"(pretext tasks) 从无标签数据中学习有用的表征,例如预测视频的播放速度、时间顺序、被遮挡的部分等。
    • 进展:
      • 对比学习 (Contrastive Learning): 将一个视频片段的不同增强版本(例如,裁剪、颜色抖动)视为正样本,其他视频片段视为负样本,学习拉近正样本、推远负样本的表征。
      • 掩码建模 (Masked Modeling): 如前述的VideoMAE,随机遮挡一部分时空块,然后让模型去重建它们。
    • 趋势: 设计更有效、更通用的自监督预训练任务,以学习到更鲁棒、更可迁移的时空表征。
  4. 多模态时空学习:

    • 核心思想: 现实世界的信息往往是多模态的,例如视频通常伴随着音频、文字描述等。融合不同模态的信息可以提供更丰富的上下文,从而提升模型的理解能力。
    • 进展:
      • 视听联合学习 (Audio-Visual Learning): 在事件识别、声源定位等任务中,同时利用视觉和听觉信息。
      • 视频-文本对齐 (Video-Text Alignment): 学习视频内容和文本描述之间的对应关系,用于视频检索、视频字幕生成等。
    • 趋势: 更复杂的模态融合机制、跨模态生成任务(例如,根据文本生成视频片段)。
  5. 对效率和可解释性的关注:

    • 核心思想: 随着模型越来越复杂、数据量越来越大,模型的计算效率和可解释性变得越来越重要。
    • 进展: 模型压缩、知识蒸馏、轻量化网络设计、注意力可视化等技术被用于提升时空模型的效率和可解释性。
    • 趋势: 在保持高性能的同时,持续优化模型的资源消耗和推理速度,并提供更可靠的决策依据。

下面提供几个概念性的PyTorch伪代码片段,帮助理解上述一些核心思想。请注意,这些是高度简化的伪代码,仅用于说明概念,并非可直接运行的完整模型。

1. 基于CNN+LSTM的时空模型 (概念性)

这种模型常用于视频动作识别等任务,CNN提取每帧的空间特征,LSTM处理这些特征的时间序列。

python 复制代码
import torch
import torch.nn as nn

class ConvLSTMNet(nn.Module):
    def __init__(self, num_classes, cnn_output_dim, lstm_hidden_dim, lstm_layers):
        super(ConvLSTMNet, self).__init__()
        # 假设有一个预训练的CNN用于特征提取
        self.cnn_feature_extractor = nn.Sequential(
            nn.Conv2d(3, 64, kernel_size=3, padding=1),
            nn.ReLU(),
            nn.MaxPool2d(2),
            # ... 更多CNN层 ...
            nn.AdaptiveAvgPool2d((1, 1)), # 输出固定大小
            nn.Flatten()
            # 最后一层可能是一个 nn.Linear(..., cnn_output_dim)
        )
        # 假设CNN输出维度为 cnn_output_dim
        # (这里为了简化,直接假设Flatten后就是cnn_output_dim, 实际需要调整)
        # 实际中,cnn_output_dim 通常是最后一个卷积层展平后或某个全连接层的输出

        self.lstm = nn.LSTM(input_size=cnn_output_dim, # 替换为实际CNN输出维度
                              hidden_size=lstm_hidden_dim,
                              num_layers=lstm_layers,
                              batch_first=True) # (batch, seq, feature)
        self.fc = nn.Linear(lstm_hidden_dim, num_classes)

    def forward(self, video_clips):
        # video_clips: (batch_size, num_frames, channels, height, width)
        batch_size, num_frames, C, H, W = video_clips.shape

        # 1. 逐帧提取空间特征
        frame_features_list = []
        for t in range(num_frames):
            # (batch_size, C, H, W)
            frame = video_clips[:, t, :, :, :]
            # (batch_size, cnn_output_dim)
            # 实际应用中,CNN可能在所有帧上共享权重,并且可以并行处理
            # 这里为了清晰,用了循环
            # 更好的做法是将 (batch_size * num_frames, C, H, W) 一次性喂给CNN
            # 然后再 reshape 回 (batch_size, num_frames, cnn_output_dim)
            features = self.cnn_feature_extractor(frame)
            frame_features_list.append(features)

        # (batch_size, num_frames, cnn_output_dim)
        frame_features_sequence = torch.stack(frame_features_list, dim=1)

        # 2. LSTM处理时间序列特征
        # lstm_out: (batch_size, num_frames, lstm_hidden_dim)
        # hidden_state: (num_layers, batch_size, lstm_hidden_dim)
        lstm_out, (h_n, c_n) = self.lstm(frame_features_sequence)

        # 3. 使用最后一个时间步的输出进行分类 (或者对所有时间步输出进行池化)
        # (batch_size, lstm_hidden_dim)
        last_time_step_out = lstm_out[:, -1, :]
        output = self.fc(last_time_step_out) # (batch_size, num_classes)

        return output

# 使用示例 (概念)
# model = ConvLSTMNet(num_classes=10, cnn_output_dim=512, lstm_hidden_dim=256, lstm_layers=2)
# dummy_video = torch.randn(4, 16, 3, 224, 224) # (batch, frames, C, H, W)
# preds = model(dummy_video)
# print(preds.shape) # torch.Size([4, 10])

2. 基于Transformer的时空模型 (概念性 - 类似Video Transformer)

这里我们简化地展示一个用于视频的Transformer编码器结构。

python 复制代码
import torch
import torch.nn as nn

class SpatioTemporalTransformerEncoder(nn.Module):
    def __init__(self, input_dim, model_dim, num_heads, num_layers, dim_feedforward):
        super(SpatioTemporalTransformerEncoder, self).__init__()
        self.embedding = nn.Linear(input_dim, model_dim) # 将patch特征映射到模型维度
        self.pos_encoder = nn.Parameter(torch.zeros(1, 500, model_dim)) # 简化的时空位置编码 (假设最大长度500)
                                                                      # 实际中需要更复杂的时空位置编码方案
        encoder_layer = nn.TransformerEncoderLayer(d_model=model_dim,
                                                   nhead=num_heads,
                                                   dim_feedforward=dim_feedforward,
                                                   batch_first=True)
        self.transformer_encoder = nn.TransformerEncoder(encoder_layer, num_layers=num_layers)
        self.cls_token = nn.Parameter(torch.zeros(1, 1, model_dim)) # 类似于BERT的[CLS] token

    def forward(self, spatio_temporal_patches):
        # spatio_temporal_patches: (batch_size, num_patches, patch_feature_dim)
        # 假设视频已经被切分成patches,并且每个patch已经提取了初始特征
        # 例如,每个patch可以是一个小的3D立方体,或者2D帧patch加上时间戳

        batch_size, num_patches, _ = spatio_temporal_patches.shape

        # 1. 嵌入 + 位置编码
        x = self.embedding(spatio_temporal_patches) # (batch_size, num_patches, model_dim)

        # 2. 添加 [CLS] token
        cls_tokens = self.cls_token.expand(batch_size, -1, -1) # (batch_size, 1, model_dim)
        x = torch.cat((cls_tokens, x), dim=1) # (batch_size, num_patches + 1, model_dim)
        x += self.pos_encoder[:, :(num_patches + 1)] # (batch_size, num_patches + 1, model_dim)

        # 3. Transformer 编码
        encoded_features = self.transformer_encoder(x) # (batch_size, num_patches + 1, model_dim)

        # 4. 获取 [CLS] token 的输出作为整个序列的表示
        sequence_representation = encoded_features[:, 0] # (batch_size, model_dim)

        return sequence_representation # 可以接一个分类头

# 使用示例 (概念)
# model_transformer_encoder = SpatioTemporalTransformerEncoder(input_dim=256, model_dim=512, num_heads=8, num_layers=6, dim_feedforward=2048)
# dummy_patches = torch.randn(4, 100, 256) # (batch, num_patches, patch_feature_dim)
# representation = model_transformer_encoder(dummy_patches)
# print(representation.shape) # torch.Size([4, 512])

3. 基于图神经网络 (GNN) 的时空模型 (概念性 - 交通流量预测)

这里我们概念性地展示如何使用GNN处理时空图数据。

python 复制代码
# 需要 torch_geometric 或类似库
# from torch_geometric.nn import GCNConv # 示例
# from torch_geometric.data import Data, Batch

class SpatioTemporalGNN(nn.Module):
    def __init__(self, node_feature_dim, gcn_hidden_dim, rnn_hidden_dim, num_nodes):
        super(SpatioTemporalGNN, self).__init__()
        # 空间建模:图卷积层
        # 这里的 GCNConv 是一个例子,实际可以是 ChebConv, GATConv 等
        # self.gcn1 = GCNConv(node_feature_dim, gcn_hidden_dim)
        # self.gcn2 = GCNConv(gcn_hidden_dim, gcn_hidden_dim)
        self.spatial_encoder = nn.ModuleList() # 伪代码,用ModuleList代替具体的GCN层
        self.spatial_encoder.append(nn.Linear(node_feature_dim, gcn_hidden_dim)) # 简化GCN为线性层
        self.spatial_encoder.append(nn.ReLU())
        self.spatial_encoder.append(nn.Linear(gcn_hidden_dim, gcn_hidden_dim))


        # 时间建模:RNN (例如 GRU 或 LSTM)
        # 输入是每个节点经过GCN后的特征
        self.temporal_encoder = nn.GRU(gcn_hidden_dim, rnn_hidden_dim, batch_first=True)

        self.fc = nn.Linear(rnn_hidden_dim, 1) # 假设预测未来一个时间步的流量

    def forward(self, node_features_sequence, edge_index_sequence):
        # node_features_sequence: (batch_size, num_timesteps, num_nodes, node_feature_dim)
        # edge_index_sequence: (batch_size, num_timesteps, 2, num_edges) 描述图的连接性,可能随时间变化或固定
        # 为了简化,假设 edge_index 在时间上是固定的,或者GCN层内部会处理动态图

        batch_size, num_timesteps, num_nodes, _ = node_features_sequence.shape
        all_time_step_outputs = []

        # 逐个时间步处理
        for t in range(num_timesteps):
            # (batch_size, num_nodes, node_feature_dim)
            current_node_features = node_features_sequence[:, t, :, :]
            # (2, num_edges) - 假设边是固定的,且对batch中的所有样本都一样,或已处理成batch形式
            current_edge_index = edge_index_sequence # 简化:可能需要 batch.edge_index

            # 空间建模 (GCN) - 对每个图样本操作
            # 实际的GCN输入是 (num_nodes_in_batch, node_feature_dim) 和 (2, num_edges_in_batch)
            # 这里需要将batch中的每个图分别通过GCN
            # 为了简化,我们假设可以这样批处理 (num_nodes_in_batch = batch_size * num_nodes)
            # 或者对每个样本循环
            # gcn_out = current_node_features # 初始值
            # for layer in self.spatial_encoder:
            #     if isinstance(layer, GCNConv): # 假设有 GCNConv
            #         gcn_out = layer(gcn_out, current_edge_index)
            #     else:
            #         gcn_out = layer(gcn_out)
            # spatial_features = gcn_out.view(batch_size, num_nodes, -1) # (batch_size, num_nodes, gcn_hidden_dim)

            # 简化版空间编码 (不使用实际GCNConv)
            spatial_features_list_batch = []
            for b_idx in range(batch_size):
                # (num_nodes, node_feature_dim)
                sample_node_features = current_node_features[b_idx]
                # (num_nodes, gcn_hidden_dim)
                sample_spatial_features = sample_node_features # 初始
                for layer in self.spatial_encoder: # 假设是线性层和激活函数
                    sample_spatial_features = layer(sample_spatial_features)
                spatial_features_list_batch.append(sample_spatial_features)
            # (batch_size, num_nodes, gcn_hidden_dim)
            spatial_features = torch.stack(spatial_features_list_batch, dim=0)

            all_time_step_outputs.append(spatial_features) # 收集每个时间步的空间表征

        # (batch_size, num_timesteps, num_nodes, gcn_hidden_dim)
        spatial_sequence_features = torch.stack(all_time_step_outputs, dim=1)

        # 时间建模 (RNN) - 对每个节点的特征序列进行处理
        # 需要将数据变形为 (batch_size * num_nodes, num_timesteps, gcn_hidden_dim)
        rnn_input = spatial_sequence_features.view(batch_size * num_nodes, num_timesteps, -1)
        rnn_out, _ = self.temporal_encoder(rnn_input) # (batch_size * num_nodes, num_timesteps, rnn_hidden_dim)

        # 取最后一个时间步的输出
        last_step_rnn_out = rnn_out[:, -1, :] # (batch_size * num_nodes, rnn_hidden_dim)
        predictions = self.fc(last_step_rnn_out) # (batch_size * num_nodes, 1)
        predictions = predictions.view(batch_size, num_nodes, 1) # (batch_size, num_nodes, 1) 预测每个节点的流量

        return predictions

# 使用示例 (概念)
# NUM_NODES = 200 # 例如交通网络中的传感器数量
# NODE_FEATURE_DIM = 5 # 例如速度、占有率等
# model_stgnn = SpatioTemporalGNN(node_feature_dim=NODE_FEATURE_DIM, gcn_hidden_dim=64, rnn_hidden_dim=128, num_nodes=NUM_NODES)

# dummy_node_features = torch.randn(4, 10, NUM_NODES, NODE_FEATURE_DIM) # (batch, timesteps, nodes, features)
# 假设 edge_index 是固定的,代表图的邻接关系
# dummy_edge_index = torch.randint(0, NUM_NODES, (2, 500)) # (2, num_edges) - 简化,未处理batch
# preds = model_stgnn(dummy_node_features, dummy_edge_index)
# print(preds.shape) # torch.Size([4, 200, 1])

时空学习正朝着更强大、更通用、更高效、更易于应用的方向发展。Transformer和GNN的结合,以及自监督学习的助力,使得模型能够从海量的、多样的、甚至无标签的时空数据中学习到深刻的规律。未来的研究可能会更加关注:

  • 大规模预训练时空模型: 类似于NLP和CV领域的"基础模型",能够适应多种下游任务。
  • 物理知识与数据驱动的融合: 在气象、流体力学等领域,将物理规律嵌入到模型设计中。
  • 可解释性和因果推断: 不仅知道"是什么",还要知道"为什么",以及干预措施可能带来的影响。
  • 更高效的计算范式: 处理超大规模时空数据的挑战。

时空学习的数据形态 (Data Formats)

时空数据,顾名思义,同时包含空间和时间维度。以下是一些常见的数据形态及其表示:

  1. 视频数据 (Video Data):

    • 形态: 一系列连续的图像帧。
    • 表示: 通常表示为一个高维张量 (Tensor)。
      • 形状:(批量大小, 帧数, 通道数, 高度, 宽度)(B, T, C, H, W)
      • B (Batch Size): 一次处理的视频片段数量。
      • T (Time/Frames): 视频片段中的帧数,代表时间序列。
      • C (Channels): 图像通道数(例如,RGB图像为3)。
      • H (Height): 图像高度(像素)。
      • W (Width): 图像宽度(像素)。
    • 例子: 动作识别、视频字幕生成、视频预测。
  2. 骨骼数据 (Skeletal Data):

    • 形态: 从视频或动作捕捉系统提取的人体关节点序列。每个关节点在每一帧都有其空间坐标 (例如,2D的 (x, y) 或3D的 (x, y, z) )。
    • 表示:
      • 张量:(批量大小, 帧数, 关节点数量, 坐标维度)(B, T, N_joints, D_coords)
      • 图结构:在某些模型中,关节点可以被视为图的节点,骨骼视为边,形成随时间变化的图序列。
    • 例子: 基于骨骼的动作识别。
  3. 传感器网络数据/时间序列数据 (Sensor Network / Time Series Data):

    • 形态: 多个传感器(空间分布)在连续时间点上记录的读数。
    • 表示:
      • 张量:(批量大小, 时间步数, 传感器数量, 特征维度)(B, T, N_sensors, F_features)
        • N_sensors: 传感器的数量,代表空间维度。
        • F_features: 每个传感器在每个时间步记录的特征数量(例如,温度、湿度、速度等)。
      • 图结构:如果传感器之间存在已知的空间关系(例如,交通网络中的相邻路口),可以将传感器网络建模为图,节点特征随时间变化。 (批次, 时间步, (节点特征矩阵, 邻接矩阵))
    • 例子: 交通流量预测、空气质量预测、天气预报。
  4. 医学影像序列 (Medical Imaging Sequences):

    • 形态: 随时间变化的医学影像,如动态MRI、超声心动图。
    • 表示: 类似于视频数据,通常是 (B, T, D, H, W)(B, T, H, W) (如果是2D切片序列)。
      • D (Depth): 如果是3D医学影像(如CT扫描的多个切片组成一个时间点的体积数据)。
    • 例子: 心脏功能分析、肿瘤发展监测。
  5. 事件流数据 (Event Stream Data):

    • 形态: 来自事件相机等设备,记录像素级别的亮度变化事件,每个事件包含 (x, y, t, polarity),即空间位置、精确时间和变化极性。数据非常稀疏且异步。
    • 表示: 通常不是规则的张量,需要特殊的处理方式,例如转换为事件帧、体素网格 (voxel grids),或者直接使用专门为事件数据设计的模型。
    • 例子: 高速运动跟踪、低功耗视觉感知。

核心思想: 无论原始数据是什么样的,最终都需要转换成模型可以处理的数值形式(通常是张量或图结构),并且保留其空间和时间的内在联系。

时空学习的损失函数 (Loss Functions)

损失函数用于衡量模型预测结果与真实标签之间的差异,指导模型的优化方向。选择哪种损失函数取决于具体的任务:

  1. 分类任务 (Classification Tasks):

    • 任务示例: 视频动作识别 (判断视频属于哪个动作类别)、异常事件检测 (判断视频中是否包含异常事件)。
    • 常用损失函数:
      • 交叉熵损失 (Cross-Entropy Loss): 最常用的分类损失。对于多分类问题,通常使用 nn.CrossEntropyLoss (在PyTorch中)。如果输出是经过Sigmoid的二分类或多标签分类,则使用二元交叉熵损失 nn.BCELossnn.BCEWithLogitsLoss

      • 伪代码理解:

        python 复制代码
        # 假设 model_output 是模型对一个视频片段的动作类别预测 (logits)
        # model_output.shape: (batch_size, num_classes)
        # true_labels.shape: (batch_size) # 每个视频的真实类别标签
        criterion = nn.CrossEntropyLoss()
        loss = criterion(model_output, true_labels)
  2. 回归/预测任务 (Regression/Prediction Tasks):

    • 任务示例: 视频帧预测 (预测视频的下一帧或未来几帧)、交通流量预测 (预测未来某个时间点的交通流量)、人体姿态估计 (预测关节点的精确坐标)。
    • 常用损失函数:
      • 均方误差 (Mean Squared Error, MSE) / L2损失: nn.MSELoss。惩罚预测值与真实值之间差的平方。对异常值比较敏感。

        python 复制代码
        # 假设 predicted_frames.shape: (batch_size, num_future_frames, C, H, W)
        # target_frames.shape: (batch_size, num_future_frames, C, H, W)
        criterion = nn.MSELoss()
        loss = criterion(predicted_frames, target_frames)
      • 平均绝对误差 (Mean Absolute Error, MAE) / L1损失: nn.L1Loss。惩罚预测值与真实值之间差的绝对值。对异常值鲁棒性更好。

        python 复制代码
        criterion = nn.L1Loss()
        loss = criterion(predicted_traffic_flow, actual_traffic_flow)
      • 平滑L1损失 (Smooth L1 Loss): nn.SmoothL1Loss。结合了L1和L2损失的优点,在误差较小时表现像L2,在误差较大时表现像L1,从而在保持对异常值鲁棒性的同时,在接近目标时有更平滑的梯度。

  3. 生成任务 (Generative Tasks):

    • 任务示例: 视频生成 (根据文本或随机噪声生成新的视频片段)。
    • 常用损失函数:
      • 对抗性损失 (Adversarial Loss): 用于生成对抗网络 (GANs)。包含一个生成器损失和一个判别器损失。判别器试图区分真实数据和生成数据,生成器试图欺骗判别器。
      • 重构损失 (Reconstruction Loss): 用于变分自编码器 (VAEs) 或普通自编码器,衡量输入数据经过编码解码后与原始输入的相似度 (通常用MSE或MAE)。
      • 感知损失 (Perceptual Loss): 比较生成图像/视频与真实图像/视频在高层特征空间(例如,通过预训练CNN提取的特征)的差异,而不仅仅是像素级别的差异,通常能产生视觉效果更好的结果。
  4. 自监督学习任务 (Self-Supervised Learning Tasks):

    • 任务示例: 视频表征学习 (不依赖人工标注,从视频本身学习有用的特征)。
    • 常用损失函数:
      • 对比损失 (Contrastive Loss),如 InfoNCE:
        • 核心思想:在特征空间中,将一个数据样本的不同增强版本(正样本)拉近,同时将其与其他数据样本(负样本)推远。
        • 常用于SimCLR、MoCo等自监督框架。
      • 重构损失 (Reconstruction Loss):
        • 如在VideoMAE中,模型需要重建被遮挡的时空块,损失函数通常是计算重建块与原始块之间的MSE。
      • 预测性损失 (Predictive Loss):
        • 例如,预测视频片段的播放速度、时间顺序是否被打乱、两个片段在时间上是否相邻等。这类任务通常转化为分类问题,使用交叉熵损失。
  5. 特定任务的组合损失:

    • 很多时候,一个复杂的时空学习任务会使用多种损失函数的组合。例如,在目标跟踪中,可能既有定位误差的回归损失,也有判断是否为同一目标的分类损失。

关键点:

  • 数据预处理非常重要: 包括归一化、数据增强(例如,视频的随机裁剪、翻转、时间采样)、以及将不同形态的数据转换为模型接受的格式。
  • 损失函数的选择直接影响模型的学习目标和最终性能。 需要根据具体问题来精心设计或选择。
  • 对于时空数据,损失函数的设计也可能需要考虑时间维度的一致性或平滑性。
相关推荐
爱吃土豆的马铃薯ㅤㅤㅤㅤㅤㅤㅤㅤㅤ20 分钟前
LoRA、QLoRA是什么
人工智能·深度学习·机器学习
白熊1881 小时前
【深度学习】生成对抗网络(GANs)深度解析:从理论到实践的革命性生成模型
人工智能·深度学习·生成对抗网络
CoovallyAIHub1 小时前
YOLOv8/v10/v11自动驾驶实测对比:揭秘v11遮挡车辆检测精度提升关键
深度学习·算法·计算机视觉
喜欢猪猪3 小时前
学习大模型---需要掌握的数学知识
人工智能·决策树·机器学习
极客小张3 小时前
基于FreeRTOS的STM32工业级实时监控系统开发设计思路(多传感器融合+PyQt5远程控制)
stm32·嵌入式硬件·qt·机器学习·毕业设计·工业物联网·传感器
liuyunshengsir4 小时前
神经网络基础组件精讲
人工智能·深度学习·神经网络
TomcatLikeYou4 小时前
概率论中的基本定义(事件,期望,信息量,香农熵等)
深度学习·机器学习·概率论
Kin_Zivy7 小时前
《深度学习基础与概念》task1
笔记·深度学习
m0_751336399 小时前
深度学习驱动的流体力学计算前沿技术体系
人工智能·深度学习·机器学习·新能源·fluent·航空航天·流体力学
AI扶我青云志12 小时前
激活函数-sigmoid、tanh、relu、softmax对比
人工智能·深度学习·神经网络