1 约束最优化问题
1.1 约束最优化问题的基本结构
在我们讨论完无约束最优化问题后,我们接着讨论约束最优化问题。在无约束最优化问题中,我们默认了可行域为,然而在约束最优化问题中,我们需要为可行域做出一些限制,因此衍生出了一些与无约束最优化问题不同的、独有的性质。
一般约束最优化问题的表达为:
其中被称为不等式约束,而被称为等式约束。这些约束限定了的可行域为
解决约束最优化问题的方法主要有罚函数法和拉格朗日乘子法。其中罚函数法较为简单,基本思想是将约束最优化问题转化为无约束最优化问题再用为无约束最优化问题的方法求解。
1.2 约束最优化问题实例
约束最优化问题比起理想模型,更多的是在实际生活中尤其是经济学领域的应用模型。比如,在每种原料有限的情况下,如果每种材料需要满足一定配比,如何规划生产可以使得开销最小。因此,约束最优化方法也被称为运筹学。
下面提出一个约束最优化问题实例:
- 开销函数(最优化的目标函数):
- 配比限制(等式约束):
- 原料限制(不等式约束):
在接下来提出的方法中,我们将测试方法对以上实例的求解效果。
2 外点罚函数法
2.1 外点罚函数法步骤
对可行域外的点(即违反约束的点)施加惩罚,内部的点不惩罚,从而使迭代点向可行域D逼近。
如构造函数,但这只是理想的情况,而且无法用无约束问题的方法求解。
构造辅助函数,为罚参数或罚因子,的值的大小反映x偏离可行域D的程度。
对于约束,,有,,则
随着不断变大,可行域外的函数值越往可行域边界折叠,像是形成了一堵墙壁,阻止向外迭代。若最优点不在可行域内,最终迭代到的点也会靠近边界。
步骤:
- 选定初始点,初始罚因子,放大系数,精度,置
- 构造增广目标函数
- 以为初始点求解无约束最优化问题,得解
- 若,则得解,停止迭代
- 令,转步1
2.2 实战测试
对于本节2.1中提出的约束最优化问题,的初值均在的范围内随机生成,总共生成100组起点。统计迭代成功(在1000步内得到最优解且单次步长搜索迭代次数不超过1000次)的样本的平均迭代步数、平均迭代时间和得到的最优解及开销函数最小值。
迭代步数 | 迭代时间 | 最优解 | 函数最小值 |
---|---|---|---|
1 | 1.95s |
代码实现
使用共轭梯度PRP+法的外点罚函数法
本博客所有代码在https://github.com/HarmoniaLeo/optimization-in-a-nutshell开源,如果帮助到你,请点个star,谢谢这对我真的很重要!
你可以在上面的GitHub链接或本文集的第一篇文章深入浅出最优化(1) 最优化问题概念与基本知识中找到Function.py和lagb.py
import numpy as np
from Function import Function #定义法求导工具
from lagb import * #线性代数工具库
from scipy import linalg
n=3 #x的长度
mu=2 #μ的初值
def func(x): #目标函数,x是一个包含所有参数的列表
return (x[0]-1)**2+(x[0]-x[1])**2+(x[1]-x[2])**2
def hj(x): #构造数组h,第j位是第j+1个等式限制条件计算的值,x是一个包含所有参数的列表
return np.array([x[0]*(1+x[1]**2)+x[2]**4-4-3*np.sqrt(2)])
def gi(x): #构造数组g,第i位是第i+1个不等式限制条件计算的值,x是一个包含所有参数的列表
return np.array([x[0]+10,-x[0]+10])
def S(x):
h=hj(x)
g=gi(x)
return np.sum(np.power(h,2))+np.sum(np.power(np.where(g<0,g,0),2))
def myFunc(x):
return func(x)+S(x)*mu*0.5
sigma2=1.5 #放大因子
e2=0.001
x=np.array([2.0,2.0,2.0]) #初值点
k1=0
while mu*S(x)>=e2:
e=0.001
beta1=1
sigma=0.4
rho=0.55
tar=Function(myFunc)
k=0
d=-tar.grad(x)
while tar.norm(x)>e:
a=1
if not (tar.value(x+a*d)<=tar.value(x)+rho*a*dot(turn(tar.grad(x)),d) and \
np.abs(dot(turn(tar.grad(x+a*d)),d))>=sigma*dot(turn(tar.grad(x)),d)):
a=beta1
while tar.value(x+a*d)>tar.value(x)+rho*a*dot(turn(tar.grad(x)),d):
a*=rho
while np.abs(dot(turn(tar.grad(x+a*d)),d))tar.value(x)+rho*(a+da)*dot(turn(tar.grad(x)),d):
da*=rho
a+=da
lx=x
x=x+a*d
beta=np.max((dot(turn(tar.grad(x)),tar.grad(x)-tar.grad(lx))/(tar.norm(lx)**2),0)) #PRP+
d=-tar.grad(x)+beta*d
k+=1
print(k1,k)
mu*=sigma2
k1+=1
print(x)