基于互信息的含信息脑电图自适应窗口化情感识别

A Mutual Information Based Adaptive Windowing of Informative EEG for Emotion Recognition

Laura Piho and Tardi Tjahjadi, Senior Member, IEEE

(作者单位:英国华威大学工程学院,吉贝特山校区,考文垂市CV4 7AL)

电子邮箱:{L.Piho, T.Tjahjadi}@warwick.ac.uk

摘要

基于脑电波信号的情感识别需处理高维脑电图(EEG)数据。本文提出一种基于互信息的窗口选择方法,通过筛选合适的信号窗口来缩短信号长度。该窗口化方法的设计动机源于EEG情感识别存在计算成本高昂且数据信噪比低的问题,其核心目标是筛选出情感信息最强烈的精简信号。研究表明,仅使用最能描述情感的信号片段可提升情感分类性能------这一目标通过迭代比较不同时间位置、不同长度的EEG信号实现,以精简信号与情感标签间的互信息作为筛选准则,选取互信息最高的精简信号用于情感分类特征提取。此外,本文还提出了一套可行的情感识别框架。在公开数据集DEAP和MAHNOB-HCI上的实验结果表明,该方法显著提高了情感识别准确率。

关键词:脑电图(EEG);人类情感;互信息;熵;数据缩减

1 引言

情感相关研究在神经科学和心理学领域一直备受关注,近十年来,该领域也逐渐成为计算科学的研究热点(例如[1]-[3])。传统的情感识别研究多采用面部图像(例如[4]-[5])、语音信号(例如[6]-[7])或两种模态结合的方式(例如[9]-[10])。近年来,基于脑电图(EEG)信号的情感识别逐渐兴起[11],该方法主要包括数据采集和数据分析两大核心任务,本文重点研究后者。

EEG信号采集是一种非侵入式的脑内情感数据获取方式,且具有良好的时间分辨率,是情感识别的理想选择之一。用于诱发情感反应的刺激物通常为音频(例如[12])或视频(例如[13]-[14])。本文采用公开数据集DEAP[13]和MAHNOB-HCI[14],其中DEAP是目前最大的EEG情感识别数据集。

原始EEG信号的幅值范围为10毫伏至100毫伏,包含多种来源的噪声,如眨眼、肌肉活动和血管效应等[15]-[17]。DEAP和MAHNOB-HCI数据集均采用32个活性氯化银(AgCl)电极,按照国际10-20系统布局[13]-[14]。此外,数据集还包含受试者的自我评估结果以及部分受试者的正面面部视频。

基于EEG的情感识别可分为受试者相关型和受试者无关型[18]。本文采用受试者相关方法,该方法虽能获得更高的识别准确率,但需为每位受试者单独训练分类器,因此耗时更长。

本文的研究动机主要有两方面:其一,EEG数据集通常包含长时间记录,导致信号处理的计算成本高昂;其二,EEG信号中的噪声处理难度较大,尤其是难以准确区分与情感相关的信号成分和其他脑活动相关成分。此外,情感具有主观性,其识别效果依赖于刺激物诱发的情感强度,这使得建立真实标签(ground truth)面临挑战;同时,如何在去除噪声的同时保留与情感相关的EEG信号特征,也是一项关键难题。

为解决上述问题,本文提出一种基于受试者相关互信息的窗口化方法,用于提取含情感信息的EEG特征,以实现稳健且准确的情感分类。DEAP数据集采用60秒音乐视频作为刺激物,每个记录的前5秒为基线,后续EEG记录时长为60秒;MAHNOB-HCI数据集采用视频片段作为刺激物,EEG记录时长不固定,最短34.9秒,最长117秒。考虑到EEG记录期间受试者的情感强度会发生变化,窗口化方法的核心目标是筛选出对情感识别最具信息量的信号片段。

本文的主要贡献是提出了一套基于受试者相关EEG的情感识别框架,该框架通过自适应窗口化实现信号精简。传统情感识别框架包括预处理、特征提取与选择、分类三个步骤。研究表明,预处理后缩短信号长度可降低后续特征提取、选择及分类步骤的计算成本;尽管引入窗口化方法会增加信号精简环节的计算量,但能显著提升识别准确率。此外,通过对比不同特征提取方法和分类方法在不同数据集上的情感识别性能,验证了各方法的有效性;实验结果表明,所提框架的性能优于四种现有情感识别系统。

本文结构如下:第2节综述相关工作,包括信号预处理、特征提取与选择及分类三个方面;第3节详细介绍所提窗口化方法及情感分类所需的其他流程;第4节展示基于DEAP和MAHNOB-HCI数据集的实验示例,并与现有方法进行对比;第5节给出结论。

2 相关工作

EEG信号分析已发展出多种统计方法和机器学习方法,从原始信号到情感分类的处理流程可分为四个核心任务[15]:信号预处理、特征提取、特征选择和分类。

2.1 信号预处理

原始EEG数据的预处理需采用数字信号处理技术。研究表明,情感识别的有效数据频率范围为4-45赫兹[15][22],因此为提高预处理效率,需将数据下采样至128赫兹,并采用通用带宽进行带通滤波[12][15][19]。在公共平均参考(CAR)方法中,需从目标通道信号中减去所有电极 montage 的均值,得到均值为零的空间电压分布[20];该方法通过突出多数电极共有的成分,实现对这类成分的抑制,从而起到高通滤波的作用[20][21]。

信号预处理的核心挑战是在不扭曲情感相关信号的前提下去除噪声。外部环境噪声(如EEG设备噪声、电磁(EM)噪声)可通过确保设备正常运行及移除记录室中的电磁源来解决[23];而生理噪声(如心电信号、肌肉收缩产生的肌电信号(EMG)、眼球运动产生的眼电信号(EOG))的去除则更具挑战性[23]。肌电噪声可通过让受试者保持舒适姿势来减少,眼电噪声可通过采用无需眼球运动的刺激物来降低[23];但上述噪声源无法完全避免,且无需眼球运动的刺激物往往难以诱发强烈的情感反应,因此需在避免眼电噪声与确保刺激物情感诱发效果之间寻求平衡。

为简化噪声去除流程,部分数据集还包含额外的生理信号,如眼电(EOG)、肌电(EMG)、体积描记图、体温和呼吸带测量数据等。眼电伪影校正主要有两种方法:基于回归的方法和基于空间分解的方法。文献[24]对已知和未知信号先验知识情况下的眼电伪影去除方法进行了全面综述。

基于回归的方法通过回归剔除参考眼电信号来平滑EEG数据[25]-[28],该方法需记录眼电信号,且不同肌肉群需对应不同参考通道,实用性受限[29]。

基于空间分解的方法包括主成分分析(PCA)、奇异值分解(SVD)和盲源分解(BSS,如独立成分分析(ICA))。与回归方法类似,这类方法也需要已知眼电伪影特征。文献[30]指出,PCA在眼电伪影去除方面的性能优于回归方法[29];而文献[29]的研究表明,ICA相比PCA能恢复更多脑活动信号,因此基于ICA的方法更受青睐。

此外,还可采用全自动方法,在无需信号先验知识的情况下去除伪影,例如基于ICA的二阶盲辨识方法[24]。

2.2 特征提取与特征选择

EEG信号具有高维特性,导致其计算处理过程复杂且成本高昂。特征提取的核心目标是通过识别信号中的关键元素、构建特征向量,简化后续情感分类任务。常用的特征提取方法包括小波变换、高阶谱和高阶交叉(HOC)等,有关现有特征提取方法的详细综述可参考文献[31]-[32]。

提取的特征数量很大程度上依赖于所采用的特征提取方法,因此识别最相关的特征集对于选择合适的情感识别特征提取方法至关重要。此外,特征选择还能有效降低EEG信号的维度,现有特征选择方法包括最小冗余最大相关性(mRMR)、Relief算法、差分进化特征选择等,遗传算法和支持向量机(SVM)也可用于特征选择,相关详细信息可参考文献[33]-[35]。

目前尚无一种被公认为最优的EEG特征提取方法,因此本文将采用并对比多种常用特征提取方法。研究表明,多变量特征提取方法的整体性能略优于单变量方法[32]。

2.3 分类

基于EEG的情感识别可采用多种分类方法。若数据集包含受试者相关信息,需根据具体任务选择合适的分类器。本文将重点介绍三种常用分类方法:支持向量机(SVM)、K近邻(KNN)和朴素贝叶斯(NB),其核心原理和实现细节将在第3.5节详细阐述。

3 方法

3.1 窗口化方法原理

窗口化方法的核心思想是筛选出情感信息最丰富的信号片段,具体通过计算不同窗口信号与情感标签间的互信息来实现。互信息用于衡量两个随机变量之间的依赖关系,其定义如下:

MIi,Wmin=I(X(i,Wmin)′,y)=H(y)−H(y∣X(i,Wmin)′)(1)MI_{i,W_{min}} = I(X_{(i,W_{min})}', y) = H(y) - H(y | X_{(i,W_{min})}') \tag{1}MIi,Wmin=I(X(i,Wmin)′,y)=H(y)−H(y∣X(i,Wmin)′)(1)

其中,H(y)H(y)H(y) 表示情感标签 yyy 的熵,计算公式为:

H(y)=−∑i=1Np(yi)log⁡p(yi)(2)H(y) = -\sum_{i=1}^{N} p(y_i) \log p(y_i) \tag{2}H(y)=−i=1∑Np(yi)logp(yi)(2)

H(y∣X)H(y | X)H(y∣X) 表示给定信号 XXX 时情感标签 yyy 的条件熵,计算公式为:

H(y∣X)=−∑j=1N1N∑i=1Cp(yi∣xj)log⁡p(yi∣xj)(3)H(y | X) = -\sum_{j=1}^{N} \frac{1}{N} \sum_{i=1}^{C} p(y_i | x_j) \log p(y_i | x_j) \tag{3}H(y∣X)=−j=1∑NN1i=1∑Cp(yi∣xj)logp(yi∣xj)(3)

式中,p(yi∣xj)p(y_i | x_j)p(yi∣xj) 表示给定信号样本 xjx_jxj 时情感标签为 yiy_iyi 的后验概率,采用核密度估计方法计算:

p(y∣x)=∑k∈Kyexp⁡(−(x−xk)∑X−1(x−xk)2h2)∑i=1C∑k∈Kiexp⁡(−(x−xk)∑X−1(x−xk)2h2)(4)p(y | x) = \frac{\sum_{k \in K^y} \exp\left(-\frac{(x - x_k)\sum_X^{-1}(x - x_k)}{2h^2}\right)}{\sum_{i=1}^{C} \sum_{k \in K^i} \exp\left(-\frac{(x - x_k)\sum_X^{-1}(x - x_k)}{2h^2}\right)} \tag{4}p(y∣x)=∑i=1C∑k∈Kiexp(−2h2(x−xk)∑X−1(x−xk))∑k∈Kyexp(−2h2(x−xk)∑X−1(x−xk))(4)

其中,∑X−1\sum_X^{-1}∑X−1 为信号样本的协方差矩阵逆,hhh 为核带宽,KyK^yKy 表示情感标签为 yyy 的样本集合。

窗口化过程的具体步骤如下:

  1. 设定最小窗口长度 WminW_{min}Wmin 和窗口步长,遍历整个EEG信号序列,生成所有可能的窗口片段;
  2. 计算每个窗口片段与情感标签间的互信息;
  3. 选取互信息最高的窗口片段作为精简信号 X^\hat{X}X^,即:

X^=XqMI′∣XqMI′∈XWMI∗(5)\hat{X} = X_{q_{MI}}' | X_{q_{MI}}' \in X_{W_{MI}}^* \tag{5}X^=XqMI′∣XqMI′∈XWMI∗(5)

其中,XWMI∗X_{W_{MI}}^*XWMI∗ 表示互信息最高的窗口对应的信号集合,qMIq_{MI}qMI 为该窗口的起始位置索引。

3.2 信号预处理流程

预处理步骤主要包括以下环节:

  1. 下采样:将原始EEG信号下采样至128赫兹,降低数据维度;
  2. 带通滤波:采用4-45赫兹的带通滤波器,保留情感相关有效频率成分;
  3. 公共平均参考(CAR):去除电极间的共模噪声,提升信号质量;
  4. 伪影去除:采用ICA方法去除眼电(EOG)和肌电(EMG)伪影,保留脑活动相关信号。

3.3 特征提取方法

本文采用四种常用特征提取方法,分别为统计特征(SF)、功率谱熵(PSE)、高阶谱(HOS)和高阶交叉(HOC),具体实现如下:

3.3.1 统计特征(SF)

针对δ(1-4Hz)、θ(4-8Hz)、α(8-13Hz)、β(13-30Hz)、γ(30-45Hz)五个频率波段,计算每个电极信号的以下统计量:均值(μ\muμ)、标准差(σ\sigmaσ)、极差(Δ\DeltaΔ)、偏度(Γ1\Gamma_1Γ1)、峰度(Γ2\Gamma_2Γ2),构建统计特征向量:

FVsi=[μδsi,σδsi,Δδsi,Γ1,δsi,Γ2,δsi,...,μγsi,σγsi,Δγsi,Γ1,γsi,Γ2,γsi](6)FV_{s_i} = [\mu_{\delta_{s_i}}, \sigma_{\delta_{s_i}}, \Delta_{\delta_{s_i}}, \Gamma_{1,\delta_{s_i}}, \Gamma_{2,\delta_{s_i}}, ..., \mu_{\gamma_{s_i}}, \sigma_{\gamma_{s_i}}, \Delta_{\gamma_{s_i}}, \Gamma_{1,\gamma_{s_i}}, \Gamma_{2,\gamma_{s_i}}] \tag{6}FVsi=[μδsi,σδsi,Δδsi,Γ1,δsi,Γ2,δsi,...,μγsi,σγsi,Δγsi,Γ1,γsi,Γ2,γsi](6)

其中,sis_isi 表示第 iii 个电极。最终统计特征矩阵为所有电极特征向量的拼接:

FV=[FVs1,FVs2,...,FVsN](7)FV = [FV_{s_1}, FV_{s_2}, ..., FV_{s_N}] \tag{7}FV=[FVs1,FVs2,...,FVsN](7)

式中,N=32N=32N=32 为电极数量。

3.3.2 功率谱熵(PSE)

功率谱熵用于衡量信号功率谱的不确定性,反映信号的复杂度。首先通过傅里叶变换计算信号的功率谱:

X(f)=∑t=0N−1x(t)exp⁡j2πft(8)X(f) = \sum_{t=0}^{N-1} x(t) \exp^{j2\pi f t} \tag{8}X(f)=t=0∑N−1x(t)expj2πft(8)

其中,x(t)x(t)x(t) 为时间域信号,fff 为频率。功率谱 P(f)P(f)P(f) 定义为:

P(f)=E[X(f)X∗(f)](9)P(f) = E[X(f)X^*(f)] \tag{9}P(f)=E[X(f)X∗(f)](9)

式中,X∗(f)X^*(f)X∗(f) 为 X(f)X(f)X(f) 的共轭复数,E[⋅]E[\cdot]E[⋅] 表示期望算子。将功率谱归一化得到概率分布 pi=P(fi)∑iP(fi)p_i = \frac{P(f_i)}{\sum_i P(f_i)}pi=∑iP(fi)P(fi),则功率谱熵为:

H=−∑i=1npiln⁡pi(10)H = -\sum_{i=1}^{n} p_i \ln p_i \tag{10}H=−i=1∑npilnpi(10)

针对五个频率波段,计算每个电极信号的功率谱熵,构建PSE特征向量。

3.3.3 高阶谱(HOS)

高阶谱(主要为双谱)用于捕捉信号的非线性特性,其定义为:

Bis(f1,f2)=E[X(f1)X(f2)X∗(f1+f2)](11)Bis(f_1, f_2) = E[X(f_1)X(f_2)X^*(f_1+f_2)] \tag{11}Bis(f1,f2)=E[X(f1)X(f2)X∗(f1+f2)](11)

为消除信号幅值的影响,计算双相干系数:

Bic(f1,f2)=Bis(f1,f2)P(f1)P(f2)P(f1+f2)(12)Bic(f_1, f_2) = \frac{Bis(f_1, f_2)}{\sqrt{P(f_1)P(f_2)P(f_1+f_2)}} \tag{12}Bic(f1,f2)=P(f1)P(f2)P(f1+f2) Bis(f1,f2)(12)

基于双谱和双相干系数,提取以下五个特征:双谱幅值和(f1f^1f1)、双谱幅值平方和(f2f^2f2)、双相干系数幅值和(f3f^3f3)、双相干系数幅值平方和(f4f^4f4)、高斯性检验统计量(f5f^5f5)。针对五个频率波段,计算每个电极信号的上述特征,构建HOS特征向量:

FVHOS=[fγ,s11,fβ,s12,fα,s13,fθ,s14,fδ,s15,...,fγ,sN1,fβ,sN2,fα,sN3,fθ,sN4,fδ,sN5](13)FV_{HOS} = [f_{\gamma,s_1}^1, f_{\beta,s_1}^2, f_{\alpha,s_1}^3, f_{\theta,s_1}^4, f_{\delta,s_1}^5, ..., f_{\gamma,s_N}^1, f_{\beta,s_N}^2, f_{\alpha,s_N}^3, f_{\theta,s_N}^4, f_{\delta,s_N}^5] \tag{13}FVHOS=[fγ,s11,fβ,s12,fα,s13,fθ,s14,fδ,s15,...,fγ,sN1,fβ,sN2,fα,sN3,fθ,sN4,fδ,sN5](13)

3.3.4 高阶交叉(HOC)

高阶交叉通过计数滤波后信号的过零点数量,反映信号的振荡模式。对零均值时间序列 X(t)X(t)X(t) 应用一系列高通滤波器:

Tk{X(t)}=∇k−1X(t)(14)\mathfrak{T}_k\{X(t)\} = \nabla^{k-1}X(t) \tag{14}Tk{X(t)}=∇k−1X(t)(14)

其中,∇≡X(t)−X(t−1)\nabla \equiv X(t) - X(t-1)∇≡X(t)−X(t−1) 为迭代差分算子,k=1,...,Lk=1,...,Lk=1,...,L(LLL 为滤波器数量)。滤波后的信号可表示为:

Tk{X(t)}=∑j=1k(k−1j−1)(−1)j−1X(t−j+1)(15)T_k\{X(t)\} = \sum_{j=1}^{k} \binom{k-1}{j-1} (-1)^{j-1} X(t-j+1) \tag{15}Tk{X(t)}=j=1∑k(j−1k−1)(−1)j−1X(t−j+1)(15)

构建二进制时间序列:

Yt(k)={1if Tk{X(t)}≥00if Tk{X(t)}<0,k=1,2,...;t=1,...,N(16)Y_t(k) = \begin{cases} 1 & \text{if } \mathfrak{T}_k\{X(t)\} \geq 0 \\ 0 & \text{if } \mathfrak{T}_k\{X(t)\} < 0 \end{cases}, \quad k=1,2,...; t=1,...,N \tag{16}Yt(k)={10if Tk{X(t)}≥0if Tk{X(t)}<0,k=1,2,...;t=1,...,N(16)

高阶交叉特征 DkD_kDk 为二进制时间序列的符号变化次数,即:

Dk=∑t=2N[Yt(k)−Yt−1(k)]2(17)D_k = \sum_{t=2}^{N} [Y_t(k) - Y_{t-1}(k)]^2 \tag{17}Dk=t=2∑N[Yt(k)−Yt−1(k)]2(17)

最终HOC特征向量为:

VHOC=[D1,...,DL](18)V_{HOC} = [D_1, ..., D_L] \tag{18}VHOC=[D1,...,DL](18)

3.4 特征选择

采用32个电极信号和5个频率波段进行特征提取后,得到的特征数量分别为:统计特征(SF)1120个、功率谱熵(PSE)160个、高阶谱(HOS)800个、高阶交叉(HOC)320个。由于EEG情感识别数据集的样本数量有限,特征数量远大于样本数量,易导致模型过拟合。为解决这一问题,采用ReliefF算法进行特征选择[55]。

ReliefF算法是Relief算法的扩展[56],不依赖启发式规则,运行时间为低阶多项式复杂度,具有抗噪声和稳健处理特征交互的优势,且实现简单、计算成本低。该算法通过遍历所有训练样本,为每个样本寻找 kkk 个同类近邻(hits)和异类近邻(misses),基于样本特征值、同类近邻和异类近邻计算特征质量权重向量,最终选择权重最高的特征子集,确保特征数量小于样本数量。

3.5 分类方法

本文采用三种常用分类器:支持向量机(SVM)、K近邻(KNN)和朴素贝叶斯(NB),具体实现如下:

3.5.1 支持向量机(SVM)

SVM是一种二进制分类器,可通过扩展实现多分类,具有强泛化能力,在分类任务中表现优异[39]。给定训练集 (xj,yj)(x_j, y_j)(xj,yj)(1≤j≤N1 \leq j \leq N1≤j≤N),其中 xjx_jxj 为EEG信号提取的特征向量,yjy_jyj 为对应的情感标签,NNN 为样本数量。SVM的决策函数为:

f(x)=∑iNαiyik(si,x)+b(19)f(x) = \sum_{i}^{N} \alpha_i y_i k(s_i, x) + b \tag{19}f(x)=i∑Nαiyik(si,x)+b(19)

其中,xxx 为输入特征向量,k(⋅,⋅)k(\cdot,\cdot)k(⋅,⋅) 为核函数(本文采用高斯核),sis_isi 为支持向量,αi\alpha_iαi 为权重系数,bbb 为偏置项。训练SVM的目标是求解权重系数 αi\alpha_iαi,使得:

f(xi)={≥0yi=+1<0yi=−1(20)f(x_i) = \begin{cases} \geq 0 & y_i = +1 \\ < 0 & y_i = -1 \end{cases} \tag{20}f(xi)={≥0<0yi=+1yi=−1(20)

式中,+1+1+1 和 −1-1−1 分别表示正情感类和负情感类。

3.5.2 K近邻(KNN)

KNN分类器基于距离度量实现分类,已被证明在EEG信号分类中表现良好[46]。该方法通过设定固定整数 kkk,将新样本归类为其 kkk 个最近邻样本中最常见的类别。本文采用欧氏距离作为度量标准,使用MATLAB内置函数fitcknn拟合KNN模型,通过交叉验证最小化分类损失。需注意的是,训练集不平衡可能导致样本数量较多的类别主导分类结果。

3.5.3 朴素贝叶斯(NB)

朴素贝叶斯分类器基于贝叶斯定理和特征条件独立假设,其分类公式为:

p(C∣F1,...,Fn)=p(C)∏i=1np(Fi∣C)p(F1,...,Fn)=1Zp(C)∏i=1np(Fi∣C)(21)p(C | F_1, ..., F_n) = \frac{p(C) \prod_{i=1}^{n} p(F_i | C)}{p(F_1, ..., F_n)} = \frac{1}{Z} p(C) \prod_{i=1}^{n} p(F_i | C) \tag{21}p(C∣F1,...,Fn)=p(F1,...,Fn)p(C)∏i=1np(Fi∣C)=Z1p(C)i=1∏np(Fi∣C)(21)

其中,CCC 为情感类别,F1,...,FnF_1,...,F_nF1,...,Fn 为特征向量,p(C)p(C)p(C) 为先验概率,p(Fi∣C)p(F_i | C)p(Fi∣C) 为类别条件概率,ZZZ 为归一化常数。该分类器计算成本低,适合高维数据分类任务。

4 实验结果与分析

4.1 数据集说明

本文采用两个公开数据集进行实验验证:

  1. DEAP数据集[13]:包含32名受试者的EEG记录,采用60秒音乐视频作为刺激物,每个受试者完成40个实验试次,记录32个电极的EEG信号及自我评估情感标签(效价和唤醒度);
  2. MAHNOB-HCI数据集[14]:包含27名受试者的EEG记录,采用视频片段作为刺激物,每个受试者完成20个实验试次,记录32个电极的EEG信号及自我评估情感标签。

实验中,情感分类任务分为二分类(高/低效价、高/低唤醒度)、三分类和五分类,采用留一交叉验证(leave-one-out cross validation)评估模型性能,以准确率作为主要评价指标,同时采用ROC曲线分析分类器的敏感性和特异性。

4.2 实验结果

4.2.1 DEAP数据集结果

不同特征提取方法和分类器在DEAP数据集上的二分类准确率如表1-4所示(仅展示核心结果):

特征提取方法 分类器 特征数量 效价准确率(均值/最大值) 唤醒度准确率(均值/最大值)
HOC SVM 30-38 72.09%/75.92% 71.41%/84.38%
KNN 30-38 77.30%/78.44% 82.76%/84.38%
NB 30-38 76.21%/76.80% 81.89%/83.28%
SF SVM 30-38 80.46%/81.48% 83.75%/84.38%
KNN 30-38 82.76%/84.38% 83.75%/84.38%
NB 30-38 81.89%/83.28% 81.89%/83.28%
PSE SVM 30-38 67.37%/69.14% 71.88%/75.86%
KNN 30-38 73.56%/75.86% 73.56%/75.86%
NB 30-38 70.45%/71.88% 70.45%/71.88%
HOS SVM 30-38 74.78%/75.98% 78.47%/79.84%
KNN 30-38 78.47%/79.84% 78.47%/79.84%
NB 30-38 79.38%/79.77% 79.38%/79.77%

核心结论:

  1. 数据精简后,所有特征提取方法和分类器的准确率均有提升;
  2. 统计特征(SF)与KNN分类器结合的表现最优,效价分类准确率达89.61%,唤醒度分类准确率达89.84%;
  3. 高阶谱(HOS)特征在唤醒度分类中表现突出,平均准确率提升4.46%;
  4. KNN分类器的整体表现优于SVM和NB,尤其是在数据精简后的高维特征分类中。
4.2.2 MAHNOB-HCI数据集结果

MAHNOB-HCI数据集的二分类准确率如表5-8所示(仅展示核心结果):

特征提取方法 分类器 特征数量 效价准确率(均值/最大值) 唤醒度准确率(均值/最大值)
HOC SVM 10-19 85.34%/86.60% 87.20%/89.20%
KNN 10-19 91.00%/93.60% 92.32%/93.80%
NB 10-19 87.70%/88.60% 88.44%/89.60%
SF SVM 10-19 92.00%/93.40% 88.12%/89.20%
KNN 10-19 93.62%/94.60% 93.62%/94.60%
NB 10-19 92.00%/93.20% 90.32%/91.20%
PSE SVM 10-19 87.20%/89.20% 88.12%/89.20%
KNN 10-19 90.10%/91.40% 90.10%/91.40%
NB 10-19 89.94%/90.40% 89.94%/90.40%
HOS SVM 10-19 89.34%/90.60% 91.63%/93.60%
KNN 10-19 92.32%/93.80% 92.32%/93.80%
NB 10-19 88.44%/89.60% 88.44%/89.60%

核心结论:

  1. 数据精简后,效价分类平均准确率提升18.56%,唤醒度分类平均准确率提升3.95%;
  2. 统计特征(SF)与KNN分类器结合的效价分类准确率达94.6%,唤醒度分类准确率达94.0%,为最优组合;
  3. SVM分类器在高阶谱(HOS)特征上的表现优于其他特征,效价分类准确率达90.6%;
  4. MAHNOB-HCI数据集的整体准确率高于DEAP,可能由于视频片段刺激物的情感诱发效果更强。

4.3 与现有方法的对比

将本文方法与现有情感识别系统进行对比,结果如表9所示:

方法 数据集 分类数量 效价准确率 唤醒度准确率
mRMR-SVM[15] DEAP 2 73.14% 73.06%
本文方法(SF+KNN) DEAP 2 89.61% 89.84%
本文方法(SF+KNN) DEAP 3 75.02% 75.70%
本文方法(SF+KNN) DEAP 5 61.88% 67.19%
文献[62]方法 IAPS 4 81.3% -
本文方法(SF+KNN) 单受试者 3/5 92.50% 92.50%
文献[63]方法 单受试者 2 94.4% -
本文方法(SF+KNN) 单受试者 2 99.9% 99.9%

ROC曲线分析表明,本文方法的分类器ROC曲线均靠近左上角,说明其类别区分能力强;在DREAMER数据集[64]上的验证结果显示,效价和唤醒度分类平均准确率分别为91.7%和90.4%,验证了方法的泛化能力。

5 结论

本文提出一种基于互信息的自适应窗口化方法,通过精简EEG信号长度提升受试者相关情感识别的准确率。结合四种特征提取方法(统计特征、功率谱熵、高阶谱、高阶交叉)和三种分类器(SVM、KNN、NB),构建了完整的情感识别框架。实验结果表明:

  1. 数据精简能有效提升情感识别准确率,在DEAP和MAHNOB-HCI数据集上的平均准确率提升分别为4%-16%和3%-18%;
  2. 统计特征(SF)与KNN分类器的组合表现最优,二分类准确率最高达94.6%;高阶谱(HOS)和高阶交叉(HOC)特征在敏感性和特异性方面表现更优;
  3. 所提框架在多分类任务中仍保持良好性能,单受试者分类准确率达99.9%,优于现有方法;
  4. 数据精简虽增加了信号预处理环节的计算量,但降低了后续特征提取和分类的计算成本,通过并行计算可进一步缩短训练时间。

研究局限性与未来方向:EEG信号的噪声处理和数据集规模仍是关键挑战,未来将探索结合深度学习方法优化特征提取过程,并扩大数据集规模以提升模型的受试者无关泛化能力。

相关推荐
No0d1es1 天前
2025年12月 GESP CCF编程能力等级认证Python五级真题
开发语言·python·青少年编程·等级考试·gesp·ccf
蓝程序1 天前
Spring AI学习 程序接入大模型(框架接入)
人工智能·学习·spring
dear_bi_MyOnly1 天前
数据分析常用操作汇总
大数据·python·数据挖掘·数据分析·学习方法
MC皮蛋侠客1 天前
使用 Sphinx 构建高质量 Python 文档
python·全文检索·sphinx
No0d1es1 天前
2025年12月 GESP CCF编程能力等级认证Python一级真题
开发语言·python·青少年编程·gesp·ccf
木卫二号Coding1 天前
第七十三篇-ComfyUI+V100-32G+Flux Schnell+Lora
图像处理·python
嫂子的姐夫1 天前
010-sha1+base64:爬虫练习网站
爬虫·python·逆向
RichardLau_Cx1 天前
AI设计工具提示词模板清单
人工智能
腾视科技1 天前
腾视科技TS-NV-P200车载系列AI边缘算力盒子:引领车路协同新时代,赋能多元场景应用
人工智能·科技