0


基于OpenBMI的运动想象分类

基于OpenBMI的运动想象分类

数据集

在本次实验中,我们用到了OpenBMI 运动想象脑电数据集,在这个用于通用BCI研究的开放数据集中,EEG信号被记录与大量受试者(54名参与者)多个测试(在不同的被试者进行两次session),以及使用多种范式(MI,ERP和SSVEP)。因此,数据集可以支持广泛的BCI研究,例如依赖于受试者或独立的BCI,会话到会话的转移,以及用户BCI性能的预测,等等。本次实验只使用MI范式,数据集中包含54个被试,每个被试中包含两个session,其中session1是前一天的BCI测试,session2是后一天的测试结果,每一个session中包含train和test两个文件,其中每个文件包含100个trial(50次左脑测试,50次右脑测试)。
数据集下载地址:openBMI
数据说明见论文 Lee MH, Kwon OY, Kim YJ, Kim HK, Lee YE,Williamson J, Fazli S, Lee SW. EEG dataset and OpenBMI toolbox for three BCI
paradigms: an investigation into BCI illiteracy. Gigascience. 2019 May 1;8(5):giz002. doi: 10.1093/gigascience/giz002. PMID: 30698704; PMCID: PMC6501944.
论文链接:gigascience

数据预处理及特征提取

脑电信号是一种 5-100μv和低频的生物电信号,需放大后才能显示和处理。在脑电信号处理与模式识别系统中,为了正确的识别 EEG 信号,信号的处理应该包括以下三个部分:预处理、特征选择与提取以及特征分类。信号预处理主要为了去除低频噪声干扰,如利用空间滤波器(CAR)滤除眼电、肌电等低频噪声干扰。特征提取与选择主要是为了降低脑电数据的维数和提取出与分类相关的特征。对于采集到的EEG信号而言,空域滤波(spatial filter)很适合处理这种多维信号和数据,能够同步利用EEG信号的空间相关性,可以对信号的噪声的消除,并且可以实现局部皮层神经活动的定位。空域滤波结合时域和频域特征进行有效结合,往往能够获取更好的处理效果。EEG-BCI研究中使用最广泛的空域滤波技术是CSP。共空间模式(CSP)是一种对两分类任务下的空域滤波特征提取算法,能够从多通道的脑机接口数据里面提取出每一类的空间分布成分。公共空间模式算法的基本原理是利用矩阵的对角化,找到一组最优空间滤波器进行投影,使得两类信号的方差值差异最大化,从而得到具有较高区分度的特征向量。
在本次实验中,我们将数据集中MI范式的数据集传入matlab中,利用train中的数据首先进行通道选择,然后将数据通过一个8-30Hz的空间滤波器进行滤波,然后以10ms为时间片进行数据分段,将预处理好的数据进行CSP特征处理,至此数据预处理和特征提取结束。将提取好特征的数据放入LDA二元分类器进行训练,最后使用不同的验证方式将分类好的数据和test数据进行对比得出结论。

样例(LDA分类器,不跨被试)

数据导入

  1. [CNT_tr,CNT_te] = Load_MAT(fullfile('D:\OpenBMI-master\DATA\OpenBMI',sprintf('sub%d',i),[sprintf('sess%02d_',session),sprintf('subj%02d',i),'_EEG_MI.mat']));

数据预处理

脑电图数据(CNT)在8至30 Hz的频率范围内进行滤波,并选择与电机相关的通道。然后,连续的脑电图数据在预定义的时间间隔内被分割(SMT)。空间滤波器CSP_W和分类器参数(CF_PARAM)被计算出来,这些参数用于从测试数据生成分类器输出。

  1. %数据预处理
  2. CNT_tr = prep_selectChannels(CNT_tr,{'Index',1:20});%划分电极120
  3. CNT_tr = prep_filter(CNT_tr,{'frequency',[8,30]});%划分频率830赫兹
  4. SMT_tr = prep_segmentation(CNT_tr,{'interval',[1000,3500]});%数据分段,10ms分一段,为250X20X100trials)
  5. %CSP训练
  6. [CSP_tr,CSP_W] = func_csp(SMT_tr,{'nPattern',[2]});%空间滤波器
  7. FT_tr=func_featureExtraction(CSP_tr,{'feature','logvar'});%特征提取
  8. CF_PARAW=func_train(FT_tr,{'classifier','LDA'});%计算分类器参数

绩效评估

测试数据使用与训练数据相同的函数和参数进行预处理。将投影矩阵CSP_W应用于测试数据,并提取对数方差特征。然后通过比较分类器输出cf_out和真实类标签.y_dec测试数据来计算解码精度。

  1. CNT_te = prep_selectChannels(CNT_te,{'Index',1:20});
  2. CNT_te = prep_filter(CNT_te,{'frequency',[8,30]});
  3. SMT_te = prep_segmentation(CNT_te,{'interval',[1000,3500]});
  4. CSP_te = func_projection(SMT_te,CSP_W);
  5. FT_te = func_featureExtraction(CSP_te,{'feature','logvar'});
  6. cf_out = func_predict(FT_te,CF_PARAW);
  7. loss = eval_calLoss(FT_te.y_dec,cf_out);

可视化

  1. vis_plotController(averaged_SMT,rval_SMT,{'Interval',var_ival;'Channels',{'C3','C4'};
  2. 'Class',{'right','left'};'TimePlot','on';'TopPlot','on'})

相关函数可查阅openBMI工具箱

分类器

LDA线性判别器

简述

LDA(线性判别器)是一种经典的监督线性降维方法,能有效提取反映不同类别之间差异的特征。 LDA的思想非常朴素:给定训练样例集,设法将样例投影到一条直线上,使得同类样例的投影点尽可能接近、异类样例点的投影点尽可能远离;在对新样本进行分类时,将其投影到同样的这条直线上,再根据投影点的位置来确定新样本的类别。

算法流程

  1. 计算来自X1,X2两类的均值向量和协方差矩阵。
  2. 计算类内总离散度矩阵 S w = ∑ 0 + ∑ 1 S_w=\sum_0+\sum_1 Sw​=∑0​+∑1​。
  3. 由 W = S w − 1 ( u 0 − u 1 ) W=S^{-1}_w(u_0-u_1) W=Sw−1​(u0​−u1​)求解W。
  4. 计算阈值y0。
  5. 如果 y = W > y 0 y=W>y_0 y=W>y0​,则x∈x0,否则x∈x1。 算法流程图如下:K分类器的算法流程

matlab实现(样例)

  1. clear all;close all;clc;
  2. x=[0.697,0.774,0.634,0.608,0.556,0.403,0.481,0.437,0.666,0.243,0.245,0.343,0.639,0.657,0.360,0.593,0.719];
  3. y=[0.460,0.376,0.264,0.318,0.215,0.237,0.149,0.211,0.091,0.267,0.057,0.099,0.161,0.198,0.370,0.042,0.103];
  4. z=[1,1,1,1,1,1,1,1,0,0,0,0,0,0,0,0,0];
  5. %data=[x;y;z]';
  6. data=[4,2,2,3,4,9,6,9,8,10
  7. 2,4,3,6,4,10,8,5,7,8
  8. 1,1,1,1,1,0,0,0,0,0]';
  9. [m,n]=size(data);
  10. for i=1:m
  11. if data(i,3)==1
  12. plot(data(i,1),data(i,2),'r.','MarkerSize', 12);hold on;
  13. end
  14. if data(i,3)==0
  15. plot(data(i,1),data(i,2),'b.','MarkerSize', 12);
  16. end
  17. end
  18. new_data=zeros(m,n-1);
  19. cen1=zeros(1,2);cen0=zeros(1,2);%定义类中心
  20. sum1=zeros(1,2);sum0=zeros(1,2);
  21. num1=0;num0=0;
  22. %计算类中心
  23. for i=1:m
  24. if data(i,3)==1
  25. sum1(1,1)=sum1(1,1)+data(i,1);
  26. sum1(1,2)=sum1(1,1)+data(i,2);
  27. num1=num1+1;
  28. end
  29. if data(i,3)==0
  30. sum0(1,1)=sum0(1,1)+data(i,1);
  31. sum0(1,2)=sum0(1,2)+data(i,2);
  32. num0=num0+1;
  33. end
  34. end
  35. cen0=sum0/num0;cen1=sum1/num1;
  36. %计算类内散度矩阵Sw
  37. Sw=zeros(2,2);
  38. for i=1:m
  39. if data(i,3)==1
  40. Sw=Sw+(data(i,[1 2])-cen1(1,:))'*(data(i,[1 2])-cen1(1,:));
  41. end
  42. if data(i,3)==0
  43. Sw=Sw+(data(i,[1 2])-cen0(1,:))'*(data(i,[1 2])-cen0(1,:));
  44. end
  45. end
  46. %计算类间散度矩阵Sb;
  47. Sb=(cen0-cen1)'*(cen0-cen1);
  48. [L,D]=eigs(Sw\Sb',1);%计算最大特征值和特征向量
  49. %显示投影线
  50. k=L(1)/L(2);
  51. b=0;
  52. xx=0:10;
  53. yy=k*xx;
  54. plot(xx,yy)
  55. %计算投影点并显示
  56. new_data(:,1)=(k*data(:,2)+data(:,1))/(k*k+1);
  57. new_data(:,2)=k*new_data(:,1);
  58. new_data(:,3)=data(:,3);
  59. for i=1:m
  60. if new_data(i,3)==1
  61. plot(new_data(i,1),new_data(i,2),'r+','MarkerSize', 5);
  62. end
  63. if new_data(i,3)==0
  64. plot(new_data(i,1),new_data(i,2),'b+','MarkerSize', 5);
  65. end
  66. end
  67. %axis([0 1 0 1])
  68. axis([0 15 0 15])
  69. hold on;

SVM(支持向量机)

简述

支持向量机(support vector machine)是一种二分类模型,它的目的是寻找一个平面来对样本进行分割,分割的原则是间隔最大化,最终转化为一个凸二次规划问题来求解。由简至繁的模型包括:
1>当训练样本线性可分时,通过硬间隔最大化,学习一个线性可分支持向量机;
2>当训练样本近似线性可分时,通过软间隔最大化,学习一个线性支持向量机;
3>当训练样本线性不可分时,通过核技巧和软间隔最大化,学习一个非线性支持向量机。

算法流程

  1. 读取训练数据集;
  2. 主成分分析法降维并去除数据之间的相关性;
  3. 数据规格化;
  4. SVM训练(选取径向基和函数)得到分类函数;
  5. 读取测试数据、降维、规格化;
  6. 用4、5产生的分类函数进行分类(多分类问题,采用一对一投票策略,归位得票最多的一类);
  7. 计算正确率.

matlab实现(样例)

  1. %------------主函数----------------
  2. clear all;
  3. close all;
  4. C = 10; %成本约束参数
  5. kertype = 'linear'; %线性核
  6. %①------数据准备
  7. n = 30;
  8. %randn('state',6); %指定状态,一般可以不用
  9. x1 = randn(2,n); %2N列矩阵,元素服从正态分布
  10. y1 = ones(1,n); %1*N1
  11. x2 = 4+randn(2,n); %2*N矩阵,元素服从正态分布且均值为5,测试高斯核可x2 = 3+randn(2,n);
  12. y2 = -ones(1,n); %1*N个-1
  13. figure; %创建一个用来显示图形输出的一个窗口对象
  14. plot(x1(1,:),x1(2,:),'bs',x2(1,:),x2(2,:),'k+'); %画图,两堆点
  15. axis([-3 8 -3 8]); %设置坐标轴范围
  16. hold on; %在同一个figure中画几幅图时,用此句
  17. %②-------------训练样本
  18. X = [x1,x2]; %训练样本2*n矩阵,n为样本个数,d为特征向量个数
  19. Y = [y1,y2]; %训练目标1*n矩阵,n为样本个数,值为+1或-1
  20. svm = svmTrain(X,Y,kertype,C); %训练样本
  21. plot(svm.Xsv(1,:),svm.Xsv(2,:),'ro'); %把支持向量标出来
  22. %③-------------测试
  23. [x1,x2] = meshgrid(-2:0.05:7,-2:0.05:7); %x1x2都是181*181的矩阵
  24. [rows,cols] = size(x1);
  25. nt = rows*cols;
  26. Xt = [reshape(x1,1,nt);reshape(x2,1,nt)];
  27. %前半句reshape(x1,1,nt)是将x1转成1*(181*181)的矩阵,所以xt2*(181*181)的矩阵
  28. %reshape函数重新调整矩阵的行、列、维数
  29. Yt = ones(1,nt);
  30. result = svmTest(svm, Xt, Yt, kertype);
  31. %④--------------画曲线的等高线图
  32. Yd = reshape(result.Y,rows,cols);
  33. contour(x1,x2,Yd,[0,0],'ShowText','on');%画等高线
  34. title('svm分类结果图');
  35. x1=xlabel('X轴');
  36. x2=ylabel('Y轴');
  37. %-----------训练样本的函数---------
  38. function svm = svmTrain(X,Y,kertype,C)
  39. % Options是用来控制算法的选项参数的向量,optimset无参时,创建一个选项结构所有字段为默认值的选项
  40. options = optimset;
  41. options.LargeScale = 'off';%LargeScale指大规模搜索,off表示在规模搜索模式关闭
  42. options.Display = 'off'; %表示无输出
  43. %二次规划来求解问题,可输入命令help quadprog查看详情
  44. n = length(Y); %返回Y最长维数
  45. H = (Y'*Y).*kernel(X,X,kertype);
  46. f = -ones(n,1); %f为1*n个-1,f相当于Quadprog函数中的c
  47. A = [];
  48. b = [];
  49. Aeq = Y; %相当于Quadprog函数中的A1,b1
  50. beq = 0;
  51. lb = zeros(n,1); %相当于Quadprog函数中的LB,UB
  52. ub = C*ones(n,1);
  53. a0 = zeros(n,1); % a0是解的初始近似值
  54. [a,fval,eXitflag,output,lambda] = quadprog(H,f,A,b,Aeq,beq,lb,ub,a0,options);
  55. %a是输出变量,问题的解
  56. %fval是目标函数在解a处的值
  57. %eXitflag>0,则程序收敛于解x;=0则函数的计算达到了最大次数;<0则问题无可行解,或程序运行失败
  58. %output输出程序运行的某些信息
  59. %lambda为在解a处的值Lagrange乘子
  60. epsilon = 1e-8;
  61. %0<a<a(max)则认为x为支持向量,find返回一个包含数组X中每个非零元素的线性索引的向量。
  62. sv_label = find(abs(a)>epsilon);
  63. svm.a = a(sv_label);
  64. svm.Xsv = X(:,sv_label);
  65. svm.Ysv = Y(sv_label);
  66. svm.svnum = length(sv_label);
  67. %svm.label = sv_label;
  68. end
  69. %---------------测试的函数-------------
  70. function result = svmTest(svm, Xt, Yt, kertype)
  71. temp = (svm.a'.*svm.Ysv)*kernel(svm.Xsv,svm.Xsv,kertype);
  72. %total_b = svm.Ysv-temp;
  73. b = mean(svm.Ysv-temp); %b取均值
  74. w = (svm.a'.*svm.Ysv)*kernel(svm.Xsv,Xt,kertype);
  75. result.score = w + b;
  76. Y = sign(w+b); %f(x)
  77. result.Y = Y;
  78. result.accuracy = size(find(Y==Yt))/size(Yt);
  79. end
  80. %---------------核函数---------------
  81. function K = kernel(X,Y,type)
  82. %X 维数*个数
  83. switch type
  84. case 'linear' %此时代表线性核
  85. K = X'*Y;
  86. case 'rbf' %此时代表高斯核
  87. delta = 5;
  88. delta = delta*delta;
  89. XX = sum(X'.*X',2);%2表示将矩阵中的按行为单位进行求和
  90. YY = sum(Y'.*Y',2);
  91. XY = X'*Y;
  92. K = abs(repmat(XX,[1 size(YY,1)]) + repmat(YY',[size(XX,1) 1]) - 2*XY);
  93. K = exp(-K./delta);
  94. end
  95. end

结果分析

在不跨被试的验证中,由于只跑了一轮,模型预测精度在0.4到0.9之间浮动,54个被试的平均精度为0.65。在之后的跨被试的留一验证中,54个被试的平均预测精度为0.56,因为不同的被试对BMI测试的经验不同,并且不同被试测试相同信号的脑电波差异较大。

参考文献

LDA判别器:小淮槐-MATLAB实现线性判别分析
SVM分类器:小果果学长-【人工智能实验】SVM分类器的设计与应用
数据处理样例: EEG dataset and OpenBMI toolbox for three BCI paradigms: an investigation into BCI illiteracy

创作不易,还望多多支持,请勿抄袭搬运,谢谢!


本文转载自: https://blog.csdn.net/Yoker_/article/details/122495289
版权归原作者 半個俗人 所有, 如有侵权,请联系我们删除。

“基于OpenBMI的运动想象分类”的评论:

还没有评论