0


GWO灰狼优化算法综述(Grey Wolf Optimization)

   GWO通过模拟灰狼群体捕食行为,基于狼群群体协作的机制来达到优化的目的。



   GWO算法具有结构简单、需要调节的参数少、容易实现等特点,其中存在能够自适应调整的收敛因子以及信息反馈机制,能够在局部寻优与全局搜索之间实现平衡,因此在对问题的求解精度和收敛速度方面都有良好的性能。

1. 灰狼优化算法原理

    第一层:![\alpha](https://latex.codecogs.com/gif.latex?%5Calpha)层狼群。种群中的领导者,负责带领整个狼群狩猎猎物,即优化算法中的最优解。 

    第二层:![\beta](https://latex.codecogs.com/gif.latex?%5Cbeta)层狼群。负责协助 ![\alpha](https://latex.codecogs.com/gif.latex?%5Calpha)层狼群,即优化算法中的次优解。

    第三层:![\delta](https://latex.codecogs.com/gif.latex?%5Cdelta)层狼群。听从![\alpha](https://latex.codecogs.com/gif.latex?%5Calpha)和![\beta](https://latex.codecogs.com/gif.latex?%5Cbeta)的命令和决策,负责侦查、放哨等。适应度差的 ![\alpha](https://latex.codecogs.com/gif.latex?%5Calpha)和![\beta](https://latex.codecogs.com/gif.latex?%5Cbeta) 会降为![\delta](https://latex.codecogs.com/gif.latex?%5Cdelta)。

    第四层:![\omega](https://latex.codecogs.com/gif.latex?%5Comega)层狼群。它们环绕![\alpha](https://latex.codecogs.com/gif.latex?%5Calpha)、![\beta](https://latex.codecogs.com/gif.latex?%5Cbeta)或![\delta](https://latex.codecogs.com/gif.latex?%5Cdelta)进行位置更新。

    灰狼的狩猎过程包含如下:①包围、跟踪猎物②追捕、骚扰猎物③攻击猎物。

2. 数学模型建立

    为了对 GWO中灰狼的社会等级进行数学建模,将前3匹最好的狼(最优解)分别定义为α,β和δ,它们指导其他狼向着目标搜索。其余的狼 (候选解)被定义为 ω,它们围绕α,β或δ来更新位置。

2.1 包围猎物

    在 GWO 中,灰狼在狩猎过程中利用以下位置更新公式实现对猎物的包围 :

\overrightarrow{D}=\left | \overrightarrow{C}*\overrightarrow{X_{p}} (t)-\overrightarrow{X(t)}\right | ......(1)

\overrightarrow{X}(t+1)=\overrightarrow{X_{p}}(t)-\overrightarrow{A}\overrightarrow{D}......(2)

    式(1)为灰狼和猎物之间的距离,式(2)是灰狼的位置更新公式,![\overrightarrow{X_{p}}](https://latex.codecogs.com/gif.latex?%5Coverrightarrow%7BX_%7Bp%7D%7D)和![\overrightarrow{X}](https://latex.codecogs.com/gif.latex?%5Coverrightarrow%7BX%7D)分别是猎物的位置向量和灰狼的位置向量,t为当前迭代次数。![\overrightarrow{A}](https://latex.codecogs.com/gif.latex?%5Coverrightarrow%7BA%7D)和![\overrightarrow{C}](https://latex.codecogs.com/gif.latex?%5Coverrightarrow%7BC%7D)为确定的系数,其计算公式分别为:

    其中,![\underset{r1}{\rightarrow}](https://latex.codecogs.com/gif.latex?%5Cunderset%7Br1%7D%7B%5Crightarrow%7D),![\underset{r2 }{\rightarrow}](https://latex.codecogs.com/gif.latex?%5Cunderset%7Br2%20%7D%7B%5Crightarrow%7D)是两个一维分量取值在[0,1]内的随机数向量,![\overrightarrow{A}](https://latex.codecogs.com/gif.latex?%5Coverrightarrow%7BA%7D)用于模拟灰狼对猎物的攻击行为,它的取值受到![\underset{a}{\rightarrow}](https://latex.codecogs.com/gif.latex?%5Cunderset%7Ba%7D%7B%5Crightarrow%7D)的影响。收敛因子![\underset{a}{\rightarrow}](https://latex.codecogs.com/gif.latex?%5Cunderset%7Ba%7D%7B%5Crightarrow%7D) 是一个平衡GWO 勘探与开发能力的关键参数。![\underset{a}{\rightarrow}](https://latex.codecogs.com/gif.latex?%5Cunderset%7Ba%7D%7B%5Crightarrow%7D)的取值随着迭代次数的增大从 2 到 0 线性递减。

2.2 追捕猎物

    在自然界中,虽然狩猎过程通常由头狼 α 狼引导,其它等级的狼配合对猎物进行包围、追捕和攻击,但在演化计算过程中,猎物(最优解)位置![\overrightarrow{X_{p}}](https://latex.codecogs.com/gif.latex?%5Coverrightarrow%7BX_%7Bp%7D%7D)是未知的,因此在 GWO 中我们认为最优的灰狼为α ,次优的灰狼为 β ,第三优的灰狼为 δ ,其余的灰狼是 ω,根据 α (潜在最优解)、β  和 δ 对猎物的位置有更多知识的这一特性建立模型,迭代过程中采用 α 、β 和 δ 来指导 ω 的移动,从而实现全局优化。利用α 、β  和 δ 的位置![\underset{X_{\alpha }}{\rightarrow}](https://latex.codecogs.com/gif.latex?%5Cunderset%7BX_%7B%5Calpha%20%7D%7D%7B%5Crightarrow%7D)、![\underset{X_{\beta }}{\rightarrow}](https://latex.codecogs.com/gif.latex?%5Cunderset%7BX_%7B%5Cbeta%20%7D%7D%7B%5Crightarrow%7D)、![\underset{X_{\delta }}{\rightarrow}](https://latex.codecogs.com/gif.latex?%5Cunderset%7BX_%7B%5Cdelta%20%7D%7D%7B%5Crightarrow%7D),使用下述方程更新所有灰狼的位置:

\vec{D_{\alpha }}=\left | \vec{C_{1}}*\vec{X_{\alpha}} -\vec{X} \right |

\vec{D_{\beta }}=\left | \vec{C_{2}}*\vec{X_\beta} -\vec{X} \right |

\vec{D_{\sigma }}=\left | \vec{C_{3}}*\vec{X_\sigma }-\vec{X} \right |

    ![\vec{D_{\alpha }} \vec{D_{\beta }} \vec{D_{\sigma }}](https://latex.codecogs.com/gif.latex?%5Cvec%7BD_%7B%5Calpha%20%7D%7D%20%5Cvec%7BD_%7B%5Cbeta%20%7D%7D%20%5Cvec%7BD_%7B%5Csigma%20%7D%7D)分别表示![\omega](https://latex.codecogs.com/gif.latex?%5Comega)灰狼个体距离  ![\alpha](https://latex.codecogs.com/gif.latex?%5Calpha)层狼群、 ![\beta](https://latex.codecogs.com/gif.latex?%5Cbeta)层狼群、![\delta](https://latex.codecogs.com/gif.latex?%5Cdelta)层狼群的距离。

\vec{X_{1 }}=\left | \vec{X_{\alpha}}-A_{1}*\vec{D_{\alpha }} \right |

\vec{X_{2 }}=\left | \vec{X_{\beta }}-A_{2}*\vec{D_{\beta }} \right |

\vec{X_{3 }}=\left | \vec{X_{\sigma }}-A_{3}*\vec{D_{\sigma }} \right |

   X1、X2、X3分别表示受 ![\alpha](https://latex.codecogs.com/gif.latex?%5Calpha)层狼群、 ![\beta](https://latex.codecogs.com/gif.latex?%5Cbeta)层狼群、![\delta](https://latex.codecogs.com/gif.latex?%5Cdelta)层狼群影响, ![\omega](https://latex.codecogs.com/gif.latex?%5Comega)灰狼个体需要调整的位置。

这里取平均值,即

\vec{X}(t+1)=\frac{\vec{X_{1}}+\vec{X_{2}}+\vec{X_{3}}}{3}

     灰狼的位置更新方式可以用下图表示。

2.3 攻击猎物

    在下面的公式中,t 表示当前迭代次数,T 为设定的最大迭代次数。当 a的值从 2 递减至 0时,其对应的 A 的值也在区间[-a, a]变化: a 的取值越大则会使灰狼远离猎物,希望找到一个更适合的猎物,因而促使狼群进行全局搜索(|𝐴| > 1),若 a 的取值越小则会使灰狼靠近猎物,促使狼群进行局部搜索(|𝐴| < 1)。 

3. Matlab算法实现

GWO灰狼算法的Matlab代码如下:

 
 
%pop——种群数量
%dim——问题维度
%ub——变量上界,[1,dim]矩阵
%lb——变量下界,[1,dim]矩阵
%fobj——适应度函数(指针)
%MaxIter——最大迭代次数
%Best_Pos——x的最佳值
%Best_Score——最优适应度值
clc;
clear all;
close all;
pop=50;
dim=2;
ub=[10,10];
lb=[-10,-10];
MaxIter=100;
fobj=@(x)fitness(x);%设置适应度函数
[Best_Pos,Best_Score,IterCurve]=GWO(pop,dim,ub,lb,fobj,MaxIter);
%…………………………………………绘图…………………………………………
figure(1);
plot(IterCurve,'r-','linewidth',2);
grid on;
title('灰狼迭代曲线');
xlabel('迭代次数');
ylabel('适应度值');
%…………………………………… 结果显示……………………………………
disp(['求解得到的x1,x2是:',num2str(Best_Pos(1)),' ',num2str(Best_Pos(2))]);
disp(['最优解对应的函数:',num2str(Best_Score)]);
 
 
%种群初始化函数
function x=initialization(pop,ub,lb,dim)
for i=1:pop
    for j=1:dim
        x(i,j)=(ub(j)-lb(j))*rand()+lb(j);
    end
end
end
%狼群越界调整函数
function x=BoundrayCheck(x,ub,lb,dim)
for i=1:size(x,1)
    for j=1:dim
        if x(i,j)>ub(j)
            x(i,j)=ub(j);
        end
        if x(i,j)<lb(j)
            x(i,j)=lb(j);
        end
    end
end
end
 
%适应度函数,可根据自身需要调整
function [Fitness]=fitness(x)
    Fitness=sum(x.^2);
end
 
 
%…………………………………………灰狼算法主体………………………………………
function [Best_Pos,Best_Score,IterCurve]=GWO(pop,dim,ub,lb,fobj,MaxIter)
Alpha_Pos=zeros(1,dim);%初始化Alpha狼群
Alpha_Score=inf;
Beta_Pos=zeros(1,dim);%初始化Beta狼群
Beta_Score=inf;
Delta_Pos=zeros(1,dim);%初始化化Delta狼群
Delta_Score=inf;
 
x=initialization(pop,ub,lb,dim);%初始化种群
Fitness=zeros(1,pop);%初始化适应度函数
for i=1:pop
    Fitness(i)=fobj(x(i,:));
end
[SortFitness,IndexSort]=sort(Fitness);
Alpha_Pos=x(IndexSort(1),:);
Alpha_Score=SortFitness(1);
Beta_Pos=x(IndexSort(2),:);
Beta_Score=SortFitness(2);
Delta_Pos=x(IndexSort(3),:);
Delta_Score=SortFitness(3);
Group_Best_Pos=Alpha_Pos;
Group_Best_Score=Alpha_Score;
for t=1:MaxIter
    a=2-t*((2)/MaxIter);%线性调整a的值
    for i=1:pop
        for j=1:dim
            %根据Alpha狼群更新位置X1
            r1=rand;
            r2=rand;
            A1=2*a*r1-a;%计算A1
            C1=2*r2;%计算C1
            D_Alpha=abs(C1*Alpha_Pos(j)-x(i,j));%计算种群中其它狼只与Alpha狼群的距离
            X1=Alpha_Pos(j)-A1*D_Alpha;%更新X1
            
            %根据Beta狼群更新位置X2
            r1=rand;
            r2=rand;
            A2=2*a*r1-a;%计算A2
            C2=2*r2;%计算C2
            D_Beta=abs(C2*Beta_Pos(j)-x(i,j));%计算种群中其它狼只与Beta狼群的距离
            X2=Beta_Pos(j)-A2*D_Beta;%更新X2
            
             %根据Delta狼群更新位置X3
            r1=rand;
            r2=rand;
            A3=2*a*r1-a;
            C3=2*r2;
            D_Delta=abs(C3*Delta_Pos(j)-x(i,j));%计算种群中其它狼只与BDelta狼群的距离
            X3=Delta_Pos(j)-A3*D_Delta;%更新X3
            
            x(i,j)=(X1+X2+X3)/3;%更新后的狼只位置
        end
    end
  x=BoundrayCheck(x,ub,lb,dim);%狼只越界调整
  for i=1:pop
      Fitness(i)=fobj(x(i,:));
      if Fitness(i)<Alpha_Score%替换Aplha狼
          Alpha_Score=Fitness(i);
          Alpha_Pos=x(i,:);
      end
      if Fitness(i)>Alpha_Score&&Fitness(i)<Beta_Score%替换Beta狼
          Beta_Score=Fitness(i);
          Beta_Pos=x(i,:);
      end
      if Fitness(i)>Alpha_Score&&Fitness(i)>Beta_Score&&Fitness(i)<Delta_Score%替换Delta狼
          Delta_Score=Fitness(i);
          Delta_Pos=x(i,:);
      end
  end
  Group_Best_Pos=Alpha_Pos;
  Group_Best_Score=Alpha_Score;
  IterCurve(t)=Group_Best_Score;
end
  Best_Pos=Group_Best_Pos;
  Best_Score=Group_Best_Score;
end

4. GWO算法的优化过程

    GWO算法的优化从随机创建 一个灰狼种群(候选方案)开始。在迭代过程中,α,β和δ狼估计猎物的可能位置(最优解)。灰狼根据它们与猎物的距离更新其位置。为了搜索过程中的勘探和开发,参数a应该从2递减到0。如果|![\underset{A}{\rightarrow}](https://latex.codecogs.com/gif.latex?%5Cunderset%7BA%7D%7B%5Crightarrow%7D)|>1,候选解远离猎物;如果|![\underset{A}{\rightarrow}](https://latex.codecogs.com/gif.latex?%5Cunderset%7BA%7D%7B%5Crightarrow%7D)|<1,候选解逼近猎物。GWO算法的流程图如下图所示。

     目前对于GWO算法的改进很多,可以参考以下的文献

参考文献

    1.张晓凤,王秀英.灰狼优化算法研究综述[M].青岛科技大学

    2.张森.灰狼优化算法研究及应用[M],广西民族大学
标签: 算法 人工智能

本文转载自: https://blog.csdn.net/weixin_46080885/article/details/126885704
版权归原作者 西酪Mon 所有, 如有侵权,请联系我们删除。

“GWO灰狼优化算法综述(Grey Wolf Optimization)”的评论:

还没有评论