首页 理论教育了解多目标问题及相关概念

了解多目标问题及相关概念

【摘要】:多目标优化问题根据优化的对偶理论,只需考虑最小化问题。定义4.8设待优化问题为式中的最小化多目标优化问题,若存在当前解X,其反向解为X′,对X和X′采用如下更新机制:若XX′,则保留当前解X;若X′X,则用X′替换X;若X和X′彼此非支配,则随机选择其中某个个体保留。多目标优化问题中的非支配解一般视为精英个体,这些个体通常包含了更多的引导种群向全局最优Pareto前沿收敛的有益信息。

(1)多目标优化问题

根据优化的对偶理论,只需考虑最小化问题。不失一般性,一个具有n个决策变量,m个目标函数,(p+q)个约束的MOP问题可定义为:

定义4.5(Pareto前沿)Pareto前沿(Pareto Front,PF)是Pareto最优解集在目标空间中的投影,即PF={F(x)x∈PS }。

定义4.6(当前种群的非劣解集NDS)假设Pop(t)为MOEA算法的第t代种群,个体x∈Pop(t)为群体的非劣解,当且仅当¬∃x′∈Pop(t):x′≺x。Pop(t)中所有非劣解x组成的集合称为当前群体的非劣解集NDS,即NDS={x}={x x∈Pop(t)且¬∃x′∈Pop(t),使x′≺x}。

(2)精英反向学习

Tizhoosh[37]于2005年提出了反向学习(Opposition-Based Learning,OBL)的概念,并说明了反向解要比当前解有高出近50%的概率靠近全局最优。其主要思想是通过在当前个体所在区域产生反向个体,并将反向个体与当前个体一起参与竞争,优秀个体进入下一代。

定义4.7(反向解)设在区间[a,b]上存在一个实数x,则x的反向数定义为x′=a+bx。基于此,假设在R域上存在某n维的解点p=(x1,x2,…,xn),且xi∈[ai,bi],则定义p′=(x′1,x′2,…,x′n)为p的反向解。其中,x′i=β∗(ai+bi)-xi,β为[0,1]区间均匀分布的随机数,也称为一般化系数。(www.chuimin.cn)

定义4.8(基于反向解的优化)设待优化问题为式(4.11)中的最小化多目标优化问题,若存在当前解X,其反向解为X′,对X和X′采用如下更新机制:若X≺X′,则保留当前解X;若X′≺X,则用X′替换X;若X和X′彼此非支配,则随机选择其中某个个体保留。

多目标优化问题中的非支配解一般视为精英个体,这些个体通常包含了更多的引导种群向全局最优Pareto前沿收敛的有益信息。如果最终算法能够全局收敛,那么精英个体所形成的搜索区域必然会收敛到全局最优Pareto解集所形成的搜索区域。因此,加强精英个体所在空间邻域的搜索,将会提高算法的收敛速度,改善算法的全局收敛能力。

定义4.9(精英反向解)设n维搜索空间中群体Pop中的某精英个体Xbest=(x1,x2,…,xn)的反向解为X′best=(x′1,x′2,…,x′n),则该精英反向解x′i=β∗(dai+dbi)-xi,β∈[0,1]为服从均匀分布的随机数,xi∈[ai,bi],[dai,dbi]为群体Pop在第i维搜索空间的动态边界,且可按式(4.12)计算得到。

其中, |Pop|为当前群体的规模。

用搜索空间的动态边界代替固定边界有利于保存搜索经验,使得生成的反向解能够位于逐步缩小的搜索空间,促进算法较快收敛。由于精英反向解也可能跳出边界[ai,bi]而成为非可行解,这里采用本章参考文献[28]中的方法对越界值进行重置,如式(4.13)所示:

通过形成的精英反向解,可加强对精英个体邻域的探测,MOFAEOL算法在每一次迭代中,针对种群的精英个体执行反向学习,生成精英个体的反向种群,并参与进化竞争。