【优化论】约束优化算法

薛定谔了么
2025-01-10 11:18:32
运筹优化
算法解析
本帖最后由 薛定谔了么 于 2025-1-21 15:24 编辑


约束优化算法是一类专门处理目标函数在存在约束条件下求解最优解的方法。为了更好地理解约束优化算法,我们需要了解一些核心概念和基本方法。




约束优化的核心概念


1.可行域(Feasible Region):


(1) 比喻:想象你在一个园艺场里种植不同种类的植物,但只有特定区域可以种植。可行域就是这些允许种植的区域。


(2)技术细节:可行域是满足所有约束条件的所有点的集合。若约束条件为gi(x)≤0 和 hj(x)=0 ,则可行域可以表示为 {x∣gi(x)≤0,hj(x)=0} 。


2.拉格朗日乘子法(Lagrange Multipliers):


(1)比喻:假设你在调整种植区域时,既想保持植物健康生长(目标函数),又要遵循园艺场的规定(约束条件)。拉格朗日乘子法就像在这两者之间找到一个平衡点。


(2)技术细节:拉格朗日乘子法引入拉格朗日乘子 λ ,构造拉格朗日函数L(x,λ)=f(x)+λg(x) 。通过求解∇L=0 可以找到约束优化问题的解。




常用的约束优化算法


1.罚函数法(Penalty Method):


(1)比喻:罚函数法就像在种植区域外种植植物时会受到罚款,这样你会尽量保持在可行域内。


(2)技术细节:将约束条件转换为目标函数的一部分,加上一个惩罚项,使得在违反约束条件时目标函数的值变得很大。例如,对于约束g(x)≤0 ,构造目标函数f(x)+1/2ρmax(0,g(x))2,其中 ρ 是罚参数。


2.障碍函数法(Barrier Method):


(1)比喻:障碍函数法就像在可行域边界设置了障碍物,防止你越过边界。


(2)技术细节:引入障碍函数ϕ(x) ,当 x 靠近约束边界时,障碍函数值趋于无穷大。例如,对于约束 g(x)≤0 ,构造目标函数f(x)−μlog(−g(x)) ,其中μ是障碍参数。


3.拉格朗日乘子法(Lagrangian Method):


(1)比喻:拉格朗日乘子法就像同时调整种植区域和遵守规定的权重,使两者达到平衡。


(2)技术细节:构造拉格朗日函数L(x,λ,ν)=f(x)+∑λigi(x)+∑νjhj(x) ,通过求解 ∇L=0 可以找到问题的鞍点,从而求解优化问题。


实例一


让我们通过一个实例来具体了解约束优化的过程:


假设我们要最小化函数f(x)=x12+x 22,但有约束g(x)=x1+x2−1≤0 。




1.罚函数法:


构造罚函数:P(x)=x12+x22+1/2ρmax(0,x1+x2−1)2


当x1+x2≤1 时,无惩罚项;当 x1+x2>1 时,有惩罚项,导致目标函数值增加。【目标是使目标函数最小】


2.障碍函数法:


构造障碍函数:B(x)=x12+x22−μlog(1−x1−x2) 。


当 x1+x2接近1 时,−log(1−x1−x2) 的值趋于无穷大,使得目标函数值增大。


3.拉格朗日乘子法:


构造拉格朗日函数:L(x,λ)=x12+x22+λ(x1+x2−1) 。


求解 ∇L=0 得到:2x1+λ=0 , 2x2+λ=0 ,x1+x2−1=0 。


解得 x1 = x2 =1/2 , λ =−1


实例二


我们需要最小化函数,并且满足约束条件x2+y2=1 。




罚函数法


1.构造罚函数


首先,我们将约束条件转换为一个惩罚项。对于约束条件x2+y2=1 ,我们可以构造以下罚函数:P(x,y)=(x2+y2−1)2


这里,我们使用平方形式来确保任何违约束的情况都会被显著地惩罚。


2.构造新的目标函数:


将惩罚项加入到目标函数中,形成新的目标函数:


其中,ρ是一个正的罚参数,用来调整惩罚项的权重。


3.求解优化问题:


我们的目标是找到使新的目标函数 )F(x,y) 最小的x和y值。







图 6.1 的解释


图的描述


这两个图展示了二次罚函数在不同罚参数 σ值时的等高线图。等高线图是一种展示三维地形的方法,其中每条线表示函数值相同的点的集合。


1.左图 (a)σ=1


这个图显示了当罚参数 σ=1 时的情况。等高线显示目标函数在不同点的值分布。


2.右图 (b) σ=10


这个图显示了当罚参数σ=10 时的情况。我们可以看到等高线的形状和分布与左图有明显的不同。






图的含义


1. 罚函数的作用


罚函数的目的是将违反约束条件的解显著地惩罚,使得优化过程更倾向于在可行域内找到最优解。罚参数σ控制了这个惩罚的强度。


(1)低罚参数σ=1:惩罚强度较低,等高线分布较为平缓。违反约束条件的解不会受到很大的惩罚,因此优化过程可能会在可行域外找到较低的函数值点。


(2)高罚参数σ=10:惩罚强度较高,等高线分布较为陡峭。违反约束条件的解会受到显著的惩罚,因此优化过程更倾向于在可行域内找到最优解。


2. 等高线的变化


等高线的形状和分布反映了目标函数值在不同点的变化情况。


(1)左图 (a):当σ=1 时,等高线较为平滑,表明目标函数值的变化较为缓慢,罚函数的影响较小。


(2)右图 (b):当 σ=10 时,等高线变得更为密集和复杂,表明目标函数值在靠近约束边界时变化迅速,罚函数的影响显著增加。




详细解析


为了更好地理解这个图,让我们回顾一下罚函数法的目标函数形式:



原始目标函数


罚函数


随着 σ 的增加,罚函数的影响变得更加显著。这意味着在优化过程中,违反约束条件x2+y2=1 的点会被显著地惩罚,使得优化算法更倾向于找到满足约束条件的最优解。


直观解释


想象你在平地上行走(左图 (a)),地面比较平坦,因此你可以随意移动。但是,当地面上突然出现很多山谷和山峰(右图 (b)),你就会倾向于沿着较为平坦的区域移动,以避免爬山或下谷。高罚参数σ 就像这些山谷和山峰,迫使你在可行域内找到最优路径。




总结


(1)低罚参数 σ 使得优化过程在可行域外也能找到较低的目标函数值点,但可能不满足约束条件。


(2)高罚参数σ 强制优化过程在可行域内找到最优解,因为违反约束条件的点会被显著惩罚。


二次罚函数法算法详解



 



基本概念


1.目标函数:我们想最小化的函数。例如,


2.约束条件:限制条件,必须满足。例如,x2+y2=1 。


罚函数法通过将约束条件转换为惩罚项,加入到目标函数中,从而形成新的目标函数。这个新目标函数在每次迭代时会逐步增加惩罚力度,使得解最终满足约束条件。








步骤解析


第一步:初始化


1.给定初始罚参数 σ1>0:


这是初始的惩罚参数。惩罚参数决定了违反约束条件时受到的惩罚程度。


例如,设定 σ1=1。


2.设定初始点 x0


这是我们开始优化的初始猜测值。


例如,x 0=[0.5,0.5] 。


3.设定迭代次数 k←1:


这是一个计数器,用于跟踪迭代次数。


4.设定惩罚因子增长系数ρ>1:


这是一个用来增加惩罚参数的因子,每次迭代后惩罚参数会乘以这个因子。


例如,设定 ρ=10。






第二步:迭代过程


1.while 循环:


这个循环会持续运行,直到满足某个收敛准则(例如,目标函数值变化很小,或达到最大迭代次数)。


2.以当前点为初始点,求解新的点:


我们要最小化新的目标函数PE(x,σk) ,找到新的xk+1


新的目标函数形式为:






使用数值优化方法(如梯度下降法)来求解这个新的目标函数。






3.更新罚参数:


计算新的罚参数σk+1=ρσk


4.更新迭代次数:


k←k+1 。


5.结束迭代:


当满足收敛准则时,结束 while 循环。




详细解释与实例


初始化


我们设定初始参数:


σ1=1,x0=[0.5,0.5],ρ=10,k=1


迭代过程


假设我们要最小化以下目标函数:



并且满足约束条件:x2+y2=1




第一次迭代


1.  构造新的目标函数





其中 σ1=1。


2.求解新目标函数:


使用数值优化方法找到最小化PE(x,1) 的 x 和 y 值。


假设我们找到新的点x1








3.更新罚参数σ2=ρσ1=10×1=10


4.更新迭代次数k←2






第二次迭代


1.  构造新的目标函数





其中σ2=10。


2.求解新目标函数:


使用数值优化方法找到最小化PE(x,10) 的 x 和 y 值。


假设我们找到新的点 x2


3.更新罚参数σ3=ρσ2=10×10=100


4.更新迭代次数k←3








这个过程不断重复,直到满足收敛准则为止。


什么是收敛准则


收敛准则是用来决定优化算法何时停止迭代的标准。常见的收敛准则包括以下几种:


1.目标函数值变化很小:


如果在连续的迭代中,目标函数的值变化很小(小于某个阈值),则认为算法已收敛,可以停止迭代。


例如,设定阈值为 ϵ \epsilonϵ,如果∣f(xk+1)−f(xk)∣<ϵ,则停止迭代。






2.梯度值很小:


如果目标函数的梯度(或导数)值很小,表示已经到达了极值点附近,则可以停止迭代。


例如,如果 ||∇f(xk)||<ϵ,则停止迭代。


3.迭代次数达到上限:


如果迭代次数达到了预先设定的最大迭代次数,则停止迭代。


例如,设定最大迭代次数为 N ,如果k≥N,则停止迭代。


————————————————


本文转载自CSDN博主:FOUR_A




版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。


原文链接:https://blog.csdn.net/weixin_42932602/article/details/140228528







679
0
0
0
关于作者
相关文章
  • DNA 编码化学 + 图卷积神经网络:机器学习助力小分子药物高通量 ...
    蛋白质是许多生物活动的主要 “执行者”,人类疾病疗法的开发,大多围绕对蛋白质功能 ...
    了解详情 
  • 从七桥问题到 AI 时代——图学习的进化与跨界之路 ...
    从欧拉 “柯尼斯堡七桥问题” 奠定图论基础,到图算法在网络数据和社交媒体中崭露头角 ...
    了解详情 
  • 量子计算+AI:特征选择与神经网络优化创新应用 ——“五岳杯”银 ...
    在由玻色量子协办的第二届APMCM“五岳杯”量子计算挑战赛中,来自北京理工大学的Q-Mas ...
    了解详情 
  • FeNNix-Bio1:面向生物制药等分子模拟场景的量子 AI 基础模型 ...
    当前模拟复杂生物系统的量子分子动力学仍受限于计算资源和方法精度,传统的DFT方法存在精度不足 ...
    了解详情 
在本版发帖返回顶部
快速回复 返回顶部 返回列表
玻色有奖小调研
填写问卷,将免费赠送您5个100bit真机配额
(单选) 您是从哪个渠道得知我们的?*
您是从哪个社交媒体得知我们的?*
您是通过哪个学校的校园宣讲得知我们的呢?
取消

提交成功

真机配额已发放到您的账户,可前往【云平台】查看