大规模线性规划的Benders/DW分解

小八酱
2024-12-25 11:23:41
本帖最后由 小八酱 于 2025-1-21 16:31 编辑

Benders/DW分解算法常常用于具有分块结构的大规模线性规划问题中。

因为在求解矩阵中,一个约束条件对应一行,因此添加约束条件的方法自然叫做行生成算法(Benders分解)。相对应的,添加变量的方法就叫做列生成算法(DW分解)。

1. Benders分解

1.1 问题描述

Benders分解算法,常常用于有一部分约束条件有明显的”对角线分块“结构,可以拆下来求解的情形:

Benders求解的基本思路是:使用子问题(primal problem)来寻找合适的约束不断添加到松弛主问题(relaxed master problem)中,这里做一下简单的概述:

假设Benders分解问题的标准型为:

max wb+vd

s.t. w A + v B ≤ c

w , v ≥ 0 ,w 为主问题变量,对偶变量为子问题变量。在分块结构中,对偶问题也是分块的,变量可以拆分开来求解。

1.2 主问题

原问题等价于

max ⁡ w ≥ 0 { w b + max ⁡ v : v B ≤ c − w A , v ≥ 0 v d } 

等价于

max ⁡ w ≥ 0 { w b + min ⁡ x : B x ≥ d , x ≥ 0 ( c − w A ) x } 

内部的min问题是个线性规划问题,枚举可行域{x : B x ≥ d , x ≥ 0 }的极点便可以求解了。我们逐步找新的极点作为约束添加进松弛主问题(RMP):

max z

s.t. z ≤ wb + ( c − wA ) x i

w ≥ 0 

或者换一个理解方式:每次移动到新的极点时,必须是对原问题的目标函数有改进:

max wb 

s.t. ( c − wA ) x i ≥ 0

w ≥ 0 

两者是等价的。

1.3 子问题

将求出来的w 带入下式(DSP)求解x:

min ⁡ ( c − wA ) x + wb

s.t. Bx ≥ d

x ≥ 0

求出来的x 是原问题的一个极点,将其添加到松弛主问题上继续求解。

在Benders分解中,松弛主问题和对偶子问题分别可以给出原问题的上界UB和下界LB,进行迭代直至LB = UB。

2. DW分解

2.1 问题描述

DW分解和Benders分解步骤非常相似,完全是对偶形式。

Benders分解的图转过来就是DW分解的情形:

Benders分解每次求出来的极点用于给主问题添加有效约束,而DW分解每次求出来的极点用于给主问题添加基变量。DW问题模型是:

min ⁡ cx

s.t. Ax ≤ b (主问题约束,包含connecting constraints)

Dx ≤ d (包含independent constraints)

x ≥ 0 

2.2 主问题

回顾一下Benders的松弛主问题:

max z

s.t. z − ( b − A x i ) w ≤ c x i , i = 1... m

w ≥ 0 

求对偶即可得DW分解的松弛主问题:

min ⁡ c Σ x i u i

s.t.Σ u i = 1

Σ ( b − A x i ) u i ≥ 0

u i ≥ 0

2.3 子问题

构造定价子问题(pricing sub problem, PSP)求解新的极点x,一般使用单纯形法的判别规则,令u i = argmax ⁡i u,然后求min ⁡ j ( B −1 b ) i j ,对应新的基变量u j ,将其添加到松弛主问题上继续求解。注意单纯型法本身就是一种列生成的方法。

3. 例子

举一个例子:

前两个约束比较复杂,而后四个约束有明显的”对角线分块“结构,因此将前两个约束和后四个约束分开,转化为对偶问题用Benders分解求解,主问题为下式:

3.1 第1轮迭代

x = ( 0 , 0 , 0 , 0 ) 是复杂问题(前两个约束)的一个可行解,求解主问题

得到w = ( 0 , 0 ),U B = 0 ,求解子问题:

min ⁡ − 2 x 1 − x 2 − x 3 + x 4

s.t.

分块求解(x 1 , x 2 )和(x 3 , x ),可以得到x = ( 2 , 1.5 , 3 , 0 ) ,最优值为LB = − 8.5 

3.2 第2轮迭代

使用新的x 添加一条约束,得到新的主问题:

得到w = ( − 1.7 , 0 ) ,最优值为U B = − 3.4 ,求解子问题

min ⁡ − 3.4 − 0.3 x 1 − x 2 − 2.7 x 3 + x 4

s.t.

得到x = ( 0 , 2.5 , 0 , 0 ) ,最优值为LB = − 5.9 

3.3 第3轮迭代

使用新的x添加一条约束,得到新的主问题:

得到w = ( − 1.2 , 0 ) ,最优值为UB = − 4.9 ,求解子问题

min ⁡ − 2.4 − 0.8 x 1 − x 2 + 0.2 x 3 + x 4

s.t.

得到x = ( 2 , 1.5 , 0 , 0 ) ,最优值为LB = − 5.5

不断迭代下去即可,直到LB=UB

3.4 参考代码(julia)

using JuMP,GLPK
c = [-2,-1,-1,1]
bm = [2,3] # 主问题变量
b = [2,5,2,6] # 子问题变量
Am = [[1,0,1,0],[1,1,0,2]]
A = [[1,0,0,0],[1,2,0,0],[0,0,-1,1],[0,0,2,1]]

# 松弛主问题为前两个变量,主问题给出max的上界
rmp = Model(GLPK.Optimizer)
@variable(rmp,w[1:length(bm)]<=0)
@objective(rmp, Max, sum(bm.*w))
optimize!(rmp)
w_val = JuMP.value.(w)
ub = objective_value(rmp)

# 子问题为消去w1和w2后的对偶问题,给出的是下界
m = Model(GLPK.Optimizer)
@variable(m,x[1:length(b)]>=0)
@objective(m, Min, ub+sum((c.-sum(w_val.*Am)).*x))
@constraint(m, cons[i = 1:length(b)], sum(A.*x) <= b)
optimize!(m)
x_val = JuMP.value.(x)
lb = objective_value(m)
@info lb,ub

# 迭代直至ub=lb
while ub>lb
    # 固定子问题变量,更新主问题变量。
    # 要求目标函数不变差,因此松弛主问题中添加一个新的约束条件
    @constraint(rmp, sum(x_val.*(c.-sum(w.*Am)))>=0)
    optimize!(rmp)
    w_val = JuMP.value.(w)
    ub = objective_value(rmp)

    # 固定主问题变量,更新子问题变量。
    @objective(m, Min, ub+sum((c.-sum(w_val.*Am)).*x))
    optimize!(m)
    x_val = JuMP.value.(x)
    lb = objective_value(m)
    @info lb,ub
end
@info x_val

输出结果如下:

————————————————

本文转载自CSDN博主:IE06

版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
                        
原文链接:https://blog.csdn.net/kittyzc/article/details/81712257

194
0
0
0
关于作者
相关文章
  • 动态规划——问题特征与步骤精解
    了解详情 
  • 神经网络中的损失函数(Loss Function)
    损失函数(Loss Function)在机器学习和深度学习中扮演着至关重要的角色,它是衡量模型预测值与 ...
    了解详情 
  • 一文详解激活函数
    了解详情 
  • 深度学习基础
    Boltzmann Machines这里特指binary Boltzmann machine,即模型对应的变量是一个n维0-1变量。玻尔 ...
    了解详情 
在本版发帖返回顶部
快速回复 返回顶部 返回列表