0


智能优化算法之灰狼优化算法(GWO)的实现(Python附源码)

文章目录

一、灰狼优化算法的实现思路

灰狼优化算法(Grey Wolf Optimizer,简称GWO)是由Seyedali Mirjalili等人于2014年提出的一种群智能优化算法,这一算法主要由自然界中的灰狼群体的捕食行为启发而来,灰狼是一种群居动物,一般群体中由5到12个个体构成,与一般动物群体不同的是,这一群体中存在十分严格的社会主导阶层,且与金字塔结构十分相似,主要由四个层级构成。
首先最高的层级可以被称为α,它们主要对种群中的各种规则进行制定,如狩猎地点、休息地点等,整个种群都会听从它们的决定。然后第二个层级被称为β,这一层级的灰狼个体主要帮助α制定相关决策,同时将各种决策上出现的问题反馈给α狼,它在整个种群中的地位仅次于α狼,因此低等级的灰狼个体也必须听命于β狼。紧接着的一个阶级为δ,这一个层级扮演着执行者的角色并将α狼与β狼制定的规则与命令付诸行动,它们可以是哨兵、侦查者、猎人,甚至是种群中受伤狼群的看护者。最后一个层级为ω,这个层级的灰狼个体为最弱势的个体,它们一般为种群中年迈或残疾的个体,因此它们只能去服从前面每个层级的灰狼个体。
结合上述思想,可以将灰狼优化算法的原理归为四个基本行为,它们分别为社会等级结构分级、搜索猎物、包围猎物以及攻击猎物,下面将分别从这四个基本行为进行介绍。

1、社会等级结构分级

该算法为了符合灰狼群体的社会等级结构,将候选解决方案的优劣性作为评判的标准,另外由于解决方案的独特性,因此将前三个等级α、β以及δ的数量设定为一个,即将候选解决方案中表现最优的方案设为α,第二个与第三个最优解决方案分别设定为β与δ,其余的解决方案则均为ω。按照等级较低的灰狼个体跟随等级较高的灰狼个体规则,ω解决方案将不断学习α、β以及δ解决方案以获得更好的表现。

2、包围猎物

针对灰狼群体包围猎物的特性,使用下列公式对其行为进行描述:
在这里插入图片描述
在这里插入图片描述

其中t为当前迭代次数,A ⃗和C ⃗为系数向量,(X_p ) ⃗为灰狼个体的位置向量,X ⃗为灰狼个体的位置信息。
A ⃗和C ⃗将分别通过下面两个公式计算得出:
在这里插入图片描述
在这里插入图片描述

其中a ⃗将随着迭代的次数由2到0线性递减,r1与r2均为0到1之间的随机向量。

3、攻击猎物

通过包围行为,所有灰狼个体将猎物控制在一个包围圈内,之后ω狼将在α、β以及δ狼的引导下进行捕猎,由于目前猎物的位置是未知的,而代表最优解决方案的灰狼α、β以及δ的位置信息是已知的,因此ω狼将通过学习灰狼α、β以及δ的位置信息来进行移动以完成对猎物的捕食。下面几个公式代表了灰狼个体的捕食行为:
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

由上述公式可以了解到,猎物的位置是随机的,灰狼个体将通过学习灰狼α、β以及δ的位置信息在猎物附近进行随机移动,以此来估计猎物的具体位置。

4、搜索猎物

在灰狼种群开始了对猎物的随机包围时,对猎物的搜索过程也在随之展开,由攻击猎物的原理过程可以了解到,A ⃗这一系数向量的大小将会直接影响到灰狼个体位置的移动,在整个迭代过程中,除了A ⃗的绝对值小于1外,还存在A ⃗的绝对值大于1的情况,在这种条件下,灰狼个体将向包围圈周围扩张,以此发现更多猎物可能存在的位置。即当|A|≥1时,候选解决方案倾向于偏离当前猎物,当|A|<1时,候选解决方案逐渐收敛于猎物的位置。
除系数向量A ⃗之外,还存在一个系数向量C ⃗,C ⃗通常是0到2之间的一个随机值,这一向量的角色类似于为猎物位置信息新添一个随机权重,在自然界中,灰狼种群对猎物的捕食通常不会是顺利的,有时会出现一定的障碍对整个搜索行为进行影响,使得灰狼种群无法直接快速得接近猎物,系数向量C ⃗则可以在为整个搜索过程增加一个随机性的同时使整个灰狼种群在优化过程中表现出更随机的行为,以此来探索更多区域并避免陷入局部最优。

二、算法步骤

使用灰狼优化算法对优化问题进行求解时的具体步骤可以归纳如下:

  1. 以种群个体的位置信息作为待优化问题的解,根据待优化问题的解的范围,随机初始化种群所有个体的位置信息;
  2. 初始化参数a ⃗,A ⃗和C ⃗;
  3. 根据待优化问题,计算每个种群个体的适应度值,并对其进行排序,适应度值越高,则个体的位置信息越接近最优解,将适应度值排在前三个个体分别设定为灰狼α、β以及δ,并保存当前最优的位置信息;
  4. 依次对种群中每个个体的位置信息进行更新;
  5. 针对每个个体更新后的位置信息,重新进行适应度值的计算,根据新的适应度值的大小更新灰狼α、β与δ的位置信息以及历史最优的位置信息,更新参数a ⃗,A ⃗和C ⃗;
  6. 根据迭代的次数重复步骤3到步骤5,当达到最大迭代次数时停止迭代过程,输出历史最优的位置信息,该位置信息即为算法优化后获得的最优解。

三、实例

待求解问题:
Rosenbrock’s,取值范围为[-10,10],取值范围内的理想最优解为0,将其搜索的空间维度设为20。
在这里插入图片描述

实现源码:

#库的导入import numpy as np
import matplotlib.pyplot as plt
import heapq

#待求解问题,求解问题为求最小值deffunction(x):
    y1 =0for i inrange(len(x)-1):
        y2 =100*((x[i+1]- x[i]**2)**2)+(x[i]-1)**2
        y1 = y1 + y2
    y =abs(0- y1)return y

m =30#种群数量
imax =100#迭代次数
dimen =20#解的搜索维度
rangelow =-10#解的最小取值
rangehigh =10#解的最大取值
amax =2#系数向量初始值#pop用于存储种群个体的位置信息,pop_fitness用于存储个体对应的适应度值
pop = np.zeros((m,dimen))
pop_fitness = np.zeros(m)#对种群个体进行初始化并计算对应适应度值for j inrange(m):
    pop[j]= np.random.uniform(low=rangelow, high=rangehigh,size=(1, dimen))
    pop_fitness[j]= function(pop[j])#allbestpop,allbestfit分别存储种群在历史迭代过程中最优个体解及对应适应度
allbestpop,allbestfit = pop[pop_fitness.argmin()].copy(),pop_fitness.min()#通过排序找出种群中适应度值最优的前三个个体,并获得它们的位置信息
pop_fitness1 = pop_fitness.flatten()
pop_fitness1 = pop_fitness1.tolist()
three =list(map(pop_fitness1.index, heapq.nsmallest(3, pop_fitness1)))
Xalpha = pop[three[0]]
Xbeta = pop[three[1]]
Xdelta = pop[three[2]]#his_bestfit存储每次迭代时种群历史适应度值最优的个体适应度
his_bestfit=np.zeros(imax)#开始训练for i inrange(imax):print("The iteration is:", i +1)#对系数向量的计算参数a进行计算
    iratio = i / imax
    a = amax *(1- iratio)#对每个个体进行位置更新for j inrange(m):#分别计算在适应度值最优的前三个个体的影响下,个体的位置移动量X1、X2、X3
        C1 =2* np.random.rand()
        Dalpha = np.abs(C1 * Xalpha - pop[j])
        A1 =2* a * np.random.rand()- a
        X1 = Xalpha - A1 * Dalpha

        C2 =2* np.random.rand()
        Dbeta = np.abs(C2 * Xbeta - pop[j])
        A2 =2* a * np.random.rand()- a
        X2 = Xbeta - A2 * Dbeta

        C3 =2* np.random.rand()
        Ddelta = np.abs(C3 * Xdelta - pop[j])
        A3 =2* a * np.random.rand()- a
        X3 = Xdelta - A3 * Ddelta
        #计算个体移动后的位置及适应度值
        pop[j]=(X1 + X2 + X3)/3
        pop_fitness[j]= function(pop[j])#对种群历史最优位置信息与适应度值进行更新if pop_fitness.min()< allbestfit:
        allbestfit = pop_fitness.min()
        allbestpop = pop[pop_fitness.argmin()].copy()#通过排序找出种群中适应度值最优的前三个个体,并获得它们的位置信息
    pop_fitness1 = pop_fitness.flatten()
    pop_fitness1 = pop_fitness1.tolist()
    three =list(map(pop_fitness1.index, heapq.nsmallest(3, pop_fitness1)))
    Xalpha = pop[three[0]]
    Xbeta = pop[three[1]]
    Xdelta = pop[three[2]]#存储当前迭代下的种群历史最优适应度值并输出
    his_bestfit[i]= allbestfit
    print("The best fitness is:", allbestfit)print("After iteration, the best pop is:",allbestpop)print("After iteration, the best fitness is:","%e"%allbestfit)#输出训练后种群个体适应度值的均值与标准差
mean = np.sum(pop_fitness)/m
std = np.std(pop_fitness)print("After iteration, the mean fitness of the swarm is:","%e"%mean)print("After iteration, the std fitness of the swarm is:","%e"%std)#将结果进行绘图
fig=plt.figure(figsize=(12,10), dpi=300)
plt.title('The change of best fitness',fontdict={'weight':'normal','size':30})
x=range(1,101,1)
plt.plot(x,his_bestfit,color="red",label="GWO",linewidth=3.0, linestyle="-")
plt.tick_params(labelsize=25)
plt.xlim(0,101)
plt.yscale("log")
plt.xlabel("Epoch",fontdict={'weight':'normal','size':30})
plt.ylabel("Fitness value",fontdict={'weight':'normal','size':30})
plt.xticks(range(0,101,10))
plt.legend(loc="upper right",prop={'size':20})
plt.savefig("GWO.png")
plt.show()

图中横轴为迭代次数,纵轴为最优适应度值。
在这里插入图片描述
参考源码


本文转载自: https://blog.csdn.net/weixin_42051846/article/details/128725340
版权归原作者 七层楼的疯子 所有, 如有侵权,请联系我们删除。

“智能优化算法之灰狼优化算法(GWO)的实现(Python附源码)”的评论:

还没有评论