admin @ 04-03 06:17:07   全部文章   0/278

彭家驹博士论文“基于局部学习和均匀分解的多目标进化算法研究”分享 AAEO第125期--ECOLE

彭家驹博士论文“基于局部学习和均匀分解的多目标进化算法研究”分享 AAEO第125期:-ECOLE

彭家驹多目标进化算法是处理多目标优化问题的主流算法之一。本期AAEO我们将同大家分享马晓亮博士的博士论文《基于局部学习和均匀分解的多目标进化算法研究》(论文链接),该博士论文由西安电子科技大学刘芳教授指导完成,并入选西安电子科技大学校优秀博士学位论文。马晓亮博士2014年毕业于西安电子科技大学,导师为刘芳教授;随后加入深圳大学做博士后,导师为朱泽轩教授;目前他是深圳大学计算机与软件学院副研究员。
基于分解的进化多目标优化算法(MOEA/D) 结合了分解方法和进化算法来处理多目标优化问题。MOEA/D首先将一个复杂的多目标优化问题分解为一系列简单的单目标优化子问题,然后用进化算法同时优化这些单目标子问题。MOEA/D因其简单包容的框架和良好的性能一直被深入地研究,是求解多目标优化问题主流方法之一。本论文针对MOEA/D存在的一些不足,通过局部学习和均匀分解技术从以下方面做了深入的研究:基于正则的班德文学习策略、强调收敛速度的对手学习的策略、高维多目标优化问题、基于决策变量学习的策略。
针对为单目标优化问题而设计的繁殖算子直接被用于求解多目标优化问题时存在的问题,提出了基于连续多目标优化问题的正则属性(帕累托占优解集是分片m-1维流形,m是目标函数的个数)的班德文学习策略。将其融入MOEA/D中提出了具有班德文学习的分解多目标优化算法(MOEA/D-BL)。为了学习进化种群的整体分布,MOEA/D-BL使用局部主成分分析(Local PCA)来学习种群的分布模型。根据学习的分布模型和进化历史来构造候选下降方向,从而提高算法的搜索效率和收敛速度。对比实验表明在MOEA/D中融入班德文学习的有效性。
为了提高MOEA/D的性能,针对初始种群和进化算子,设计了相应的反向学习的策略,提出了基于反向学习的分解多目标优化算法(MOEA/D-OBL)。反向学习的主要思想是考虑一个估计点的同时考虑它相应的对立点,期望能提高获得解集的逼近性。MOEA/D-OBL使用反向学习来初始化种群,希望有一个好的初始种群。此外在MOEA/D的原有的进化算子基础上,MOEA/D-OBL引入了基于反向学习的局部搜索策略,两者相互合作从而加快了算法的收敛速度。大量对比实验表明在MOEA/D中融入反向学习的有效性。
针对单纯形格点设计所构造的权向量集合在处理高维目标优化问题存在的问题,提出了基于均匀测度来产生均匀的权向量集合,从而确保均匀权向量的个数可以是任意的,并且能够合理地分配权向量在边界和内部的比例。针对Tchebycheff分解方法中存在子问题权向量与其最优解所在方向不一致的问题,使用修改的Tchebycheff方法,期望算法找到的解集在目标空间上有更好的均匀性。为了更好地求解高维目标优化问题,基于均匀测度的权向量设计方法和修改的Tchebycheff方法同时被融入到MOEA/D框架中,从而提出了基于均匀测度的目标空间分解策略的多目标优化算法(MOEA/D-UDM)。大量高维目标优化的实验表明所提出的策略的有效性。
主流多目标进化算法将所有决策变量当作一个整体来优化,因此存在难以处理复杂优化问题的难题,本文通过决策变量的控制属性分析和决策变量间的链接关系学习,提出了基于决策变量学习的多目标进化算法。首先,控制属性分析学习哪些变量控制进化种群在目标空间上分布的宽广性,而哪些变量控制进化种群的收敛性。基于控制属性分析,一个复杂的多目标优化问题(MOP)被分解为一系列更容易优化的子多目标优化子问题(sub-MOP)。其次,决策变量间的链接分析学习变量间的链接关系。基于变量间的链接关系,将高维决策变量的优化问题分解为多个低维子成分的优化问题。每个子多目标优化子问题(sub-MOP)依次独立地优化各低维子成分,从而提高算法的搜索效率。大量比较实验表明MOEA/DVA的有效性,尤其是在困难的复杂的多目标优化问题上。
针对在MOEA/D框架中引入决策者偏好信息存在的难题,提出偏好信息驱动的有偏多目标分解算法(pMOEA/D),用于求解水库的多目标防洪调度问题。为了在目标空间上获得均匀分布的解集,使用改进的Tchebycheff分解。为了集中搜索决策者感兴趣区域,一些远离决策者感兴趣区域的子问题会从进化种群中删除,而另外一些搜索感兴趣区域的子问题会被加入到进化种群中。大量比较实验研究表明pMOEA/D的有效性,尤其是求解水库的多目标防洪调度问题上。

返回顶部