本帖最后由 小八酱 于 2025-1-21 16:31 编辑

Benders/DW分解算法常常用于具有分块结构的大规模线性规划问题中。
因为在求解矩阵中,一个约束条件对应一行,因此添加约束条件的方法自然叫做行生成算法(Benders分解)。相对应的,添加变量的方法就叫做列生成算法(DW分解)。
1. Benders分解
1.1 问题描述
Benders分解算法,常常用于有一部分约束条件有明显的”对角线分块“结构,可以拆下来求解的情形:

Benders求解的基本思路是:使用子问题(primal problem)来寻找合适的约束不断添加到松弛主问题(relaxed master problem)中,这里做一下简单的概述:
假设Benders分解问题的标准型为:
max wb+vd
s.t. w A + v B ≤ c
w , v ≥ 0 ,w 为主问题变量,对偶变量为子问题变量。在分块结构中,对偶问题也是分块的,变量可以拆分开来求解。
1.2 主问题
原问题等价于
max w ≥ 0 { w b + max v : v B ≤ c − w A , v ≥ 0 v d }
等价于
max w ≥ 0 { w b + min x : B x ≥ d , x ≥ 0 ( c − w A ) x }
内部的min问题是个线性规划问题,枚举可行域{x : B x ≥ d , x ≥ 0 }的极点便可以求解了。我们逐步找新的极点作为约束添加进松弛主问题(RMP):
max z
s.t. z ≤ wb + ( c − wA ) x i
w ≥ 0
或者换一个理解方式:每次移动到新的极点时,必须是对原问题的目标函数有改进:
max wb
s.t. ( c − wA ) x i ≥ 0
w ≥ 0
两者是等价的。
1.3 子问题
将求出来的w 带入下式(DSP)求解x:
min ( c − wA ) x + wb
s.t. Bx ≥ d
x ≥ 0
求出来的x 是原问题的一个极点,将其添加到松弛主问题上继续求解。
在Benders分解中,松弛主问题和对偶子问题分别可以给出原问题的上界UB和下界LB,进行迭代直至LB = UB。
2. DW分解
2.1 问题描述
DW分解和Benders分解步骤非常相似,完全是对偶形式。
Benders分解的图转过来就是DW分解的情形:

Benders分解每次求出来的极点用于给主问题添加有效约束,而DW分解每次求出来的极点用于给主问题添加基变量。DW问题模型是:
min cx
s.t. Ax ≤ b (主问题约束,包含connecting constraints)
Dx ≤ d (包含independent constraints)
x ≥ 0
2.2 主问题
回顾一下Benders的松弛主问题:
max z
s.t. z − ( b − A x i ) w ≤ c x i , i = 1... m
w ≥ 0
求对偶即可得DW分解的松弛主问题:
min c Σ x i u i
s.t.Σ u i = 1
Σ ( b − A x i ) u i ≥ 0
u i ≥ 0
2.3 子问题
构造定价子问题(pricing sub problem, PSP)求解新的极点x,一般使用单纯形法的判别规则,令u i = argmax i u,然后求min j ( B −1 b ) i j ,对应新的基变量u j ,将其添加到松弛主问题上继续求解。注意单纯型法本身就是一种列生成的方法。
3. 例子
举一个例子:

前两个约束比较复杂,而后四个约束有明显的”对角线分块“结构,因此将前两个约束和后四个约束分开,转化为对偶问题用Benders分解求解,主问题为下式:

3.1 第1轮迭代
x = ( 0 , 0 , 0 , 0 ) 是复杂问题(前两个约束)的一个可行解,求解主问题

得到w = ( 0 , 0 ),U B = 0 ,求解子问题:
min − 2 x 1 − x 2 − x 3 + x 4
s.t.

分块求解(x 1 , x 2 )和(x 3 , x 4 ),可以得到x = ( 2 , 1.5 , 3 , 0 ) ,最优值为LB = − 8.5
3.2 第2轮迭代
使用新的x 添加一条约束,得到新的主问题:

得到w = ( − 1.7 , 0 ) ,最优值为U B = − 3.4 ,求解子问题
min − 3.4 − 0.3 x 1 − x 2 − 2.7 x 3 + x 4
s.t.

得到x = ( 0 , 2.5 , 0 , 0 ) ,最优值为LB = − 5.9
3.3 第3轮迭代
使用新的x添加一条约束,得到新的主问题:

得到w = ( − 1.2 , 0 ) ,最优值为UB = − 4.9 ,求解子问题
min − 2.4 − 0.8 x 1 − x 2 + 0.2 x 3 + x 4
s.t.

得到x = ( 2 , 1.5 , 0 , 0 ) ,最优值为LB = − 5.5
不断迭代下去即可,直到LB=UB
3.4 参考代码(julia)
using JuMP,GLPK
c = [-2,-1,-1,1]
bm = [2,3] # 主问题变量
b = [2,5,2,6] # 子问题变量
Am = [[1,0,1,0],[1,1,0,2]]
A = [[1,0,0,0],[1,2,0,0],[0,0,-1,1],[0,0,2,1]]
# 松弛主问题为前两个变量,主问题给出max的上界
rmp = Model(GLPK.Optimizer)
@variable(rmp,w[1:length(bm)]<=0)
@objective(rmp, Max, sum(bm.*w))
optimize!(rmp)
w_val = JuMP.value.(w)
ub = objective_value(rmp)
# 子问题为消去w1和w2后的对偶问题,给出的是下界
m = Model(GLPK.Optimizer)
@variable(m,x[1:length(b)]>=0)
@objective(m, Min, ub+sum((c.-sum(w_val.*Am)).*x))
@constraint(m, cons[i = 1:length(b)], sum(A.*x) <= b)
optimize!(m)
x_val = JuMP.value.(x)
lb = objective_value(m)
@info lb,ub
# 迭代直至ub=lb
while ub>lb
# 固定子问题变量,更新主问题变量。
# 要求目标函数不变差,因此松弛主问题中添加一个新的约束条件
@constraint(rmp, sum(x_val.*(c.-sum(w.*Am)))>=0)
optimize!(rmp)
w_val = JuMP.value.(w)
ub = objective_value(rmp)
# 固定主问题变量,更新子问题变量。
@objective(m, Min, ub+sum((c.-sum(w_val.*Am)).*x))
optimize!(m)
x_val = JuMP.value.(x)
lb = objective_value(m)
@info lb,ub
end
@info x_val
输出结果如下:

————————————————
本文转载自CSDN博主:IE06
版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。 原文链接:https://blog.csdn.net/kittyzc/article/details/81712257 |