约束非线性优化算法 -凯发k8网页登录

main content

约束非线性优化算法

约束优化定义

约束最小化问题求向量 x,在满足 x 取值约束的前提下,使得标量函数 f(x) 取得局部最小值:

minxf(x)

使得以下一项或多项成立:c(x) ≤ 0, ceq(x) = 0, a·x ≤ b, aeq·x = beq, l ≤ x ≤ u。半无限规划会使用更多约束;请参阅fseminf 问题的表示和算法

fmincon 信赖域反射算法

非线性最小化信赖域方法

optimization toolbox™ 求解器中使用的许多方法都基于信赖域,这是一个简单而功能强大的优化概念。

要理解信赖域优化方法,请考虑无约束最小化问题,最小化 f(x),该函数接受向量参数并返回标量。假设您现在位于 n 维空间中的点 x 处,并且您要寻求改进,即移至函数值较低的点。基本思路是用较简单的函数 q 来逼近 f,该函数需能充分反映函数 f 在点 x 的邻域 n 中的行为。此邻域是信赖域。试探步 s 是通过在 n 上进行最小化(或近似最小化)来计算的。以下是信赖域子问题,

mins{q(s), sn}.(1)

如果 f(x s) < f(x),当前点更新为 x s;否则,当前点保持不变,信赖域 n 缩小,算法再次计算试探步。

在定义特定信赖域方法以最小化 f(x) 的过程中,关键问题是如何选择和计算逼近 q(在当前点 x 上定义)、如何选择和修改信赖域 n,以及如何准确求解信赖域子问题。本节重点讨论无约束问题。后面的章节讨论由于变量约束的存在而带来的额外复杂性。

在标准信赖域方法 () 中,二次逼近 q 由 f 在 x 处的泰勒逼近的前两项定义;邻域 n 通常是球形或椭圆形。以数学语言表述,信赖域子问题通常写作

min{12sths stg  such that  dsδ},(2)

其中,g 是 f 在当前点 x 处的梯度,h 是 hessian 矩阵(二阶导数的对称矩阵),d 是对角缩放矩阵,δ 是正标量,∥ . ∥ 是 2-范数。存在求解公式 2 的好算法(请参阅);此类算法通常涉及计算 h 的所有特征值,并将牛顿法应用于以下久期方程

1δ1s=0.

此类算法提供公式 2 的精确解。但是,它们要耗费与 h 的几个分解成比例的时间。因此,对于大型问题,需要一种不同方法。文献( 和 )中提出了几种基于公式 2 的逼近和启发式方法建议。optimization toolbox 求解器采用的逼近方法是将信赖域子问题限制在二维子空间 s 内( 和 )。一旦计算出子空间 s,即使需要完整的特征值/特征向量信息,求解公式 2 的工作量也不大(因为在子空间中,问题只是二维的)。现在的主要工作已转移到子空间的确定上。

二维子空间 s 是借助下述预条件共轭梯度法确定的。求解器将 s 定义为由 s1 和 s2 确定的线性空间,其中 s1 是梯度 g 的方向,s2 是近似牛顿方向,即下式的解

hs2=g,(3)

或是负曲率的方向,

s2ths2<0.(4)

以此种方式选择 s 背后的理念是强制全局收敛(通过最陡下降方向或负曲率方向)并实现快速局部收敛(通过牛顿步,如果它存在)。

现在,我们可以很容易地给出基于信赖域的无约束最小化的大致框架:

  1. 构造二维信赖域子问题。

  2. 求解公式 2 以确定试探步 s。

  3. 如果 f(x s) < f(x),则 x = x s

  4. 调整 δ。

重复这四个步骤,直到收敛。信赖域维度 δ 根据标准规则进行调整。具体来说,它会在试探步不被接受(即 f(x s) ≥ f(x))时减小。有关这方面的讨论,请参阅 和 。

optimization toolbox 求解器用专用函数处理 f 的一些重要特例:非线性最小二乘、二次函数和线性最小二乘。然而,其底层算法思路与一般情况相同。这些特例将在后面的章节中讨论。

预条件共轭梯度法

求解大型对称正定线性方程组 hp = –g 的一种常用方法是预条件共轭梯度法 (pcg)。这种迭代方法需要能够计算 h·v 形式的矩阵-向量积,其中 v 是任意向量。对称正定矩阵 m 是 h 的预条件子。也就是说,m = c2,其中 c–1hc–1 是良态矩阵或具有聚类特征值的矩阵。

在最小化上下文中,您可以假设 hessian 矩阵 h 是对称矩阵。然而,只有在强最小解的邻域内才能保证 h 是正定矩阵。算法 pcg 在遇到负(或零)曲率方向(即 dthd ≤ 0)时退出。pcg 输出方向 p 要么是负曲率方向,要么是牛顿方程组 hp = –g 的近似解。无论哪种情况,p 都有助于定义在非线性最小化信赖域方法中讨论的信赖域方法中使用的二维子空间。

线性等式约束

线性约束使无约束最小化中所述的情形复杂化了。不过,我们仍可以简洁高效地沿用前述的基本思路。optimization toolbox 求解器中的信赖域方法生成严格可行的迭代。

一般的线性等式约束最小化问题可以写作

min{f(x)  such that  ax=b},(5)

其中 a 是 m×n 矩阵 (m ≤ n)。一些 optimization toolbox 求解器对 a 进行预处理,以使用基于 at 的 lu 分解的方法来消除严格的线性相关性 。此处假定 a 的秩为 m。

用于求解公式 5 的方法在两个重要方面不同于无约束方法。首先,它使用稀疏最小二乘步计算初始可行点 x0,满足 ax0 = b。然后,它用简化的预条件共轭梯度 (rpcg) 代替算法 pcg(请参阅),以便计算近似的简化牛顿步(或 a 的零空间中的负曲率方向)。关键的线性代数步涉及求解以下形式的方程组

[ca˜ta˜0][st]=[r0],(6)

其中,a˜ 逼近 a(在不丢失秩的前提下,a 的小非零值会设置为零)且 c 是 h 的稀疏对称正定逼近,即 c = h。有关详细信息,请参阅。

框约束

框约束问题具有以下形式

min{f(x)  such that  lxu},(7)

其中,l 是由下界组成的向量,u 是由上界组成的向量。l 的部分(或全部)分量可以等于 –∞,u 的部分(或全部)分量可以等于 ∞。该方法生成一系列严格可行点。此处用到了两种技巧,在保持可行性的同时实现稳健的收敛行为。其一,用缩放的修正牛顿步取代无约束牛顿步(以定义二维子空间 s)。其次,反射用于增大步长。

缩放的修正牛顿步源于对公式 7 的 kuhn-tucker 必要条件的检验,

(d(x))2g=0,(8)

其中

d(x)=diag(|vk|1/2),

对于每个 1 ≤ i ≤ n,向量 v(x) 定义如下:

  • 如果 gi < 0ui < ∞,则 vi = xi – ui

  • 如果 gi ≥ 0li > –∞,则 vi = xi – li

  • 如果 gi < 0ui = ∞,则 vi = –1

  • 如果 gi ≥ 0li = –∞,则 vi = 1

非线性方程组公式 8 不是处处可微的。不可微分性发生在 vi = 0 时。您可以通过保持严格的可行性(例如限制 l < x < u)来避免这些不可微分的点。

公式 8 给出的非线性方程组的缩放的修正牛顿步 sk 定义为以下线性方程组的解

m^dsn=g^(9)

在第 k 次迭代中的解,其中

g^=d1g=diag(|v|1/2)g,(10)

并且

m^=d1hd1 diag(g)jv.(11)

在此处,jv 表示 |v| 的 jacobian。对角矩阵 jv 的每个对角分量等于 0、–1 或 1。如果 l 和 u 的所有分量均为有限的,则 jv = diag(sign(g))。在满足 gi = 0 的点上,vi 可能不可微分。jiiv=0 在此类点上定义。这种类型的不可微分性不值得关注,因为对于这种分量,vi 采用哪个值并不重要。此外,|vi| 在此点上仍是不连续的,但函数 |vi|·gi 是连续的。

其次,反射用于增大步长。单个反射步定义如下。给定与边界约束相交的步 p,假设与 p 相交的第一个边界约束是第 i 个边界约束(可以是第 i 个上界,也可以是第 i 个下界),则反射步 pr = p,但在第 i 个分量中除外,其中 pri = –pi

fmincon 活动集算法

简介

在约束优化中,一般目标是将问题转换为更容易的子问题,然后对子问题求解并将其用作迭代过程的基础。一大类早期方法的特点是通过对约束边界附近或之外的约束使用罚函数,从而将约束问题转换为基本的无约束问题。通过这种方式,使用参数化的无约束优化的序列来求解约束问题,这些优化在(序列的)极限内收敛于约束问题。这些方法现在认为是相对低效的,已被重点求解 karush-kuhn-tucker (kkt) 方程的方法所取代。kkt 方程是约束优化问题的最优性的必要条件。如果问题是所谓的凸规划问题,即 f(x) 和 gi(x), i = 1,...,m 是凸函数,则 kkt 方程对于全局解点既必要又充分。

参考 gp (公式 1),kuhn-tucker 方程可表述为

f(x*) i=1mλigi(x*)=0λigi(x*)=0,  i=1,...,meλi0,  i=me 1,...,m,(12)

(此外还包括公式 1 中的原始约束)。

第一个方程说明取消在解点处目标函数和活动约束之间的梯度。对于要取消的梯度,拉格朗日乘数(λi,i = 1、...、m)是平衡目标函数和约束梯度的模偏差的必要条件。由于该取消操作仅包含活动约束,不活动约束不能包含在该操作中,因此给定的拉格朗日乘数等于 0。这在最后两个 kuhn-tucker 方程中以隐式表述。

kkt 方程的解构成许多非线性规划算法的基础。这些算法尝试直接计算拉格朗日乘数。约束拟牛顿法通过使用拟牛顿更新过程累积关于 kkt 方程的二阶信息来保证超线性收敛。这些方法通常称为序列二次规划 (sqp) 方法,因为每个主迭代都求解一个 qp 子问题(也称为迭代二次规划、递归二次规划或约束变量度量法)。

'active-set' 算法不是大型算法;请参阅大规模算法与中等规模算法

序列二次规划 (sqp)

sqp 方法呈现了非线性规划方法的最新进展。例如,schittkowski 已实现并测试了一个版本,对于大量测试问题,该版本在效率、准确度和成功解的百分比方面优于所有其他经过测试的方法。

基于 biggs 、han 和 powell( 及 )的工作,该方法允许您在处理约束优化问题时高度模拟牛顿法,就像在处理无约束优化问题时一样。在每个主迭代中,使用拟牛顿更新方法逼近拉格朗日函数的 hessian 矩阵。然后使用该矩阵生成 qp 子问题,其解构成线搜索过程的搜索方向。有关 sqp 的概述,请参阅 fletcher 的论著 、gill 等人的论著 、powell 的论著 和 schittkowski 的论著 。此处将说明一般方法。

针对 gp (公式 1) 中的问题描述,核心思路是基于拉格朗日函数的二次逼近来构造 qp 子问题。

l(x,λ)=f(x) i=1mλigi(x).(13)

在这里,您假设边界约束已表示为不等式约束,从而简化公式 1。通过线性化非线性约束,您可以得到 qp 子问题。

二次规划 (qp) 子问题

mindn12dthkd f(xk)tdgi(xk)td gi(xk)=0,  i=1,...,megi(xk)td gi(xk)0,  i=me 1,...,m.(14)

此子问题可以用任何 qp 算法来求解(有关实例,请参阅二次规划解)。该解用于形成新迭代

xk 1 = xk αkdk

步长参数 αk 由适当的线搜索过程确定,以便在评价函数中获得充分的降幅(请参阅更新 hessian 矩阵)。矩阵 hk 是拉格朗日函数的 hessian 矩阵的正定逼近(公式 13)。hk 可以通过任何拟牛顿法进行更新,不过最常用的仍是 bfgs 方法(请参阅更新 hessian 矩阵)。

使用 sqp 时,相比无约束问题,非线性约束问题通常可以用更少的迭代次数完成求解。其中一个原因是,由于可行区域的限制,优化器可以就搜索方向和步长作出明智的决定。

假设有 rosenbrock 函数 g(x),它有一个额外的非线性不等式约束,如下所示,

x12 x221.50.(15)

使用 sqp 实现可在 96 次迭代后求解该问题,而对于无约束情形则需要 140 次迭代。图 5-3:对非线性约束 rosenbrock 函数使用 sqp 方法显示了从 x = [0.9072,0.8228] 开始到解点 x = [–1.9,2.0] 的路径。

图 5-3:对非线性约束 rosenbrock 函数使用 sqp 方法

level curves of the rosenbrock function are close to the parabola y = x^2. the iterative steps follow the parabola from upper left, down around the origin, and end at upper right within the constraint boundary.

sqp 实现

sqp 实现由三个主要阶段组成,以下各小节将对它们进行简要讨论:

更新 hessian 矩阵.  在每次主迭代中,拉格朗日函数的 hessian 矩阵的正定拟牛顿逼近 h 使用 bfgs 方法进行计算,其中 λi, i = 1,...,m 是拉格朗日乘数的估计值。

hk 1=hk qkqktqktskhkskskthktskthksk,(16)

其中

sk=xk 1xkqk=(f(xk 1) i=1mλigi(xk 1))(f(xk) i=1mλigi(xk)).

powell 建议保持 hessian 矩阵为正定,即使它在解点处可能是正不定的。如果 qktsk 在每次更新时都为正,并且 h 用正定矩阵进行初始化,则 hessian 矩阵保持正定。当 qktsk 为非正时,qk 将逐元素进行修正,使得 qktsk>0。这种修正的总体目标是使 qk 的元素的失真尽可能少,这些元素有助于正定更新。因此,在修正的初始阶段,qk*sk 的最负元素会重复减半。此过程一直持续到 qktsk 大于或等于一个小的负容差。如果在此过程后 qktsk 仍不是正的,请通过添加向量 v 乘以常量标量 w 来修正 qk,即,

qk=qk wv,(17)

其中

vi=gi(xk 1)gi(xk 1)gi(xk)gi(xk)           if (qk)iw<0 and (qk)i(sk)i<0, i=1,...,mvi=0  otherwise,

并系统地增大 w,直到 qktsk 变为正。

函数 、、 和 都使用 sqp。如果在 optionsdisplay 设置为 'iter',则会给出各种信息,如函数值和最大约束违反度。如果必须使用上述过程的第一阶段对 hessian 矩阵进行修正以使其保持正定,则将显示 hessian modified。如果必须使用上述方法的第二阶段再次修正 hessian 矩阵,则将显示 hessian modified twice。当 qp 子问题不可行时,将显示 infeasible。这种显示通常不需要格外关注,但它们表明问题是高度非线性的,收敛可能比平时需要更长时间。有时会显示消息 no update,表明 qktsk 几乎为零。这可能表明问题设置错误,或您尝试对不连续函数求最小值。

二次规划解.  在 sqp 方法的每个主迭代中,都会求解一个以下形式的 qp 问题,其中 ai 指 m×n 矩阵 a 的第 i 行。

mindnq(d)=12dthd ctd,aid=bi,  i=1,...,meaidbi,  i=me 1,...,m.(18)

optimization toolbox 函数使用的方法是一种活动集策略(也称为投影方法),类似于 gill 等人在 和 中所述的策略。它经过了修正,对线性规划 (lp) 和二次规划 (qp) 问题都适用。

求解过程包括两个阶段。第一阶段包括计算一个可行点(如果存在)。第二阶段包括生成可行点的迭代序列,这些可行点收敛于解。在此方法中,保持活动集 a¯k,该活动集是对在解点处的活动约束(即约束边界上的约束)的估计值。几乎所有 qp 算法均为活动集方法。之所以强调这一点,是因为存在许多不同方法,它们在结构上非常相似,但在描述上千差万别。

a¯k 在每个迭代 k 中都会得到更新,它构成搜索方向 d^k 的基础。等式约束始终维持在活动集 a¯k 中。此处将变量写作 d^k,以区别于 sqp 方法主迭代中的 dk。计算搜索方向 d^k 以最小化目标函数,同时确保该方向位于活动约束边界上。d^k 的可行子空间基于 zk 而形成,其列与活动集 a¯k 的估计值(例如 a¯kzk=0)正交。这就确保了搜索方向(由 zk 的列的任意组合经线性求和形成)始终位于活动约束的边界上。

矩阵 zk 由矩阵 a¯kt 的 qr 分解的最后 m – l 个列组成,其中 l 是活动约束的数量且 l < m。也就是说,zk 由下式给出

zk=q[:,l 1:n],(19)

其中

qta¯kt=[r0].

一旦找到 zk,就会寻找使 q(d) 最小化的新搜索方向 d^kd^k 位于活动约束的零空间中。也就是说,d^k 是 zk 的列的线性组合:对于某个向量 p,d^k=zkp

这样,如果您将二次函数视为 p 的函数,通过代换 d^k,您就得到

q(p)=12ptzkthzkp ctzkp.(20)

求上式关于 p 的微分,可得

q(p)=zkthzkp zktc.(21)

∇q(p) 称为二次函数的投影梯度,因为它是投影到 zk 定义的子空间中的梯度。项 zkthzk 称为投影 hessian 矩阵。假设 hessian 矩阵 h 是正定矩阵(在此 sqp 实现中就是如此),则函数 q(p) 在 zk 定义的子空间中的最小值出现在 ∇q(p) = 0 处,即以下线性方程组的解

zkthzkp=zktc.(22)

然后采取以下形式的步

xk 1=xk αd^k,  where d^k=zkp.(23)

在每次迭代中,因为目标函数的二次性质,步长 α 只有两种选择。沿 d^k 的单位步是 a¯k 的零空间内到函数最小值的精确步。如果能够在不违反约束的情况下采取此步,则这就是 qp(公式 18)的解。否则,沿 d^k 到最近约束的步小于单位步,并且下一次迭代时,活动集中将加入一个新的约束。沿任一方向 d^k 到约束边界的距离由下式给出

α=mini{1,...,m}{(aixkbi)aid^k},(24)

该定义针对不在活动集中的约束,其中的方向 d^k 朝向约束边界,即 aid^k>0, i=1,...,m

如果活动集中包含 n 个独立约束,且最小值的位置未知,则会计算满足以下非奇异线性方程组的拉格朗日乘数 λk

a¯ktλk=c hxk.(25)

如果 λk 的所有元素均为正,则 xk 是 qp (公式 18) 的最优解。但是,如果 λk 的任一分量为负,并且该分量不对应于等式约束,则从活动集中删除对应的元素并寻找新迭代。

初始化.  算法需要一个可行的起点。如果 sqp 方法提供的当前点不可行,则您可以通过求解线性规划问题找到一个点

minγ, xnγ  such thataix=bi,      i=1,...,meaixγbi,  i=me 1,...,m.(26)

ai 表示矩阵 a 中的第 i 行。通过将 x 设置为满足等式约束的值,您可以找到公式 26 的一个可行点(如果存在)。您可以通过求解由等式约束形成的欠定或超定线性方程组来确定该值。如果存在此问题的解,则松弛变量 γ 设置为在此点的最大不等式约束。

您可以通过将每次迭代中的搜索方向设置为最陡下降方向来修正前述 qp 算法以用于 lp 问题,其中 gk 是目标函数的梯度(等于线性目标函数的系数)。

d^k=zkzktgk.(27)

如果使用上述 lp 方法找到一个可行点,则进入主 qp 阶段。使用求解以下线性方程组得到的搜索方向 d^k 来初始化搜索方向 d^1

hd^1=gk,(28)

其中,gk 是当前迭代 xk(即 hxk c)中目标函数的梯度。

如果没有找到 qp 问题的可行解,则选取使 γ 最小化的方向作为主 sqp 例程 d^k 的搜索方向。

线搜索和评价函数.  qp 子问题的解生成向量 dk,该向量用于形成新迭代

xk 1=xk αdk.(29)

确定适当的步长参数 αk,以在评价函数中产生充分的降幅。在此实现中使用以下形式的评价函数(参考 han 的论著 和 powell 的论著 )。

ψ(x)=f(x) i=1merigi(x) i=me 1mrimax[0,gi(x)].(30)

powell 建议设置罚参数

ri=(rk 1)i=maxi{λi,(rk)i λi2},  i=1,...,m.(31)

这使得在 qp 解中为非活动但近期曾经活动的约束能够作出正的贡献。在此实现中,罚参数 ri 初始设置为

ri=f(x)gi(x),(32)

其中   表示欧几里德范数。

这可以确保具有较小梯度的约束对罚参数的贡献更大,在解点处的活动约束即属此种情况。

fmincon sqp 算法

sqp 算法(以及与之几乎相同的 sqp-legacy 算法)与 active-set 算法类似(有关说明,请参阅fmincon 活动集算法)。基本的 sqp 算法在 nocedal 和 wright 的 的第 18 章中进行了介绍。

sqp 算法与 sqp-legacy 算法基本相同,但实现方式不同。通常来说,与 sqp-legacy 相比,sqp 的执行时间更短,内存使用量更少。

sqpactive-set 算法之间最重要的区别是:

关于边界的严格可行性

sqp 算法在受边界约束的区域内执行每个迭代步。此外,有限差分步也遵守边界。边界并不严格;步可以正好位于边界上。当目标函数或非线性约束函数在受边界约束的区域之外未定义或者为复数时,这种严格的可行性是有益的。

非双精度值结果的稳健性

在迭代过程中,sqp 算法尝试采用的步可能失败。这意味着您提供的目标函数或非线性约束函数将返回值 infnan 或复数值。在这种情况下,算法尝试采用较小的步。

重构线性代数例程

sqp 算法使用一组不同的线性代数例程来求解二次规划子问题公式 14。这些例程在内存使用量和速度方面都比 active-set 例程更高效。

重新表示可行性例程

当不满足约束时,sqp 算法有两种新方法来求解公式 14

  • sqp 算法将目标函数和约束函数合并为一个评价函数。该算法尝试在松弛约束下最小化评价函数。求解修正后的问题可以得到一个可行解。然而,这种方法相比原问题增加了变量,因此公式 14 中问题的规模增大。增大的规模会减慢子问题的求解。这些例程基于 spellucci 的论著 和 tone 的论著 。sqp 算法根据 中的建议为评价函数公式 30 设置罚参数。

  • 假设不满足非线性约束,并且尝试采用的步导致约束违反增加。sqp 算法尝试使用约束的二阶逼近来获得可行性。通过二阶方法可以获得一个可行解。然而,这种方法需要对非线性约束函数进行更多计算,因此会降低求解速度。

fmincon 内点算法

障碍函数

使用内点法求解约束最小化问题,相当于求解一系列近似最小化问题。初始问题是

minxf(x), subject to h(x)=0 and g(x)0.(33)
对于每个 μ > 0,逼近问题是
minx,sfμ(x,s)=minx,sf(x)μiln(si), subject to s0,h(x)=0, and g(x) s=0.(34)
松弛变量 si 的数目和不等式约束 g 的数目一样多。si 被限制为正,以将迭代保持在可行域的内部。随着 μ 降至零,fμ 的最小值应接近 f 的最小值。增加的对数项称为障碍函数。这种方法在 、 和 中有述。

逼近问题公式 34 是一系列等式约束问题。这些问题比原来的不等式约束问题公式 33 更容易求解。

为了求解逼近问题,该算法在每次迭代中使用两种主要步之一:

  • 直接步,形式为 (x, s)。直接步尝试通过线性逼近求解逼近问题的 kkt 方程 和。直接步也称为牛顿步

  • cg(共轭梯度)步,使用信赖域。

默认情况下,算法首先尝试采取直接步。如果失败,它会尝试 cg 步。当逼近问题在当前迭代附近不是局部凸时,它不采取直接步。

在每次迭代中,算法都会降低评价函数的值,形式如下

fμ(x,s) ν(h(x),g(x) s).(35)
参数 ν 可能会随着迭代次数的增加而增大,以使解趋向可行。如果所尝试的步不能降低评价函数,则算法拒绝所尝试的步,并尝试新的步。

如果目标函数或非线性约束函数在迭代 xj 中返回复数值、nan、inf 或错误,算法将拒绝 xj。拒绝的效果与评价函数没有充分降低时相同:然后算法尝试另一个较短的步。将可能出错的代码都包含到 try-catch 结构中:

function val = userfcn(x)
try
    val = ... % code that can error
catch
    val = nan;
end

目标和约束必须在初始点产生适当的 (double) 值。

直接步

直接步的定义涉及以下变量:

  • h 表示 fμ 的拉格朗日函数的 hessian 矩阵:

    h=2f(x) iλi2gi(x) jyj2hj(x).(36)
  • jg 表示约束函数 g 的 jacobian 矩阵。

  • jh 表示约束函数 h 的 jacobian 矩阵。

  • s = diag(s)

  • λ 表示与约束 g 相关联的拉格朗日乘数向量

  • λ = diag(λ)

  • y 表示与 h 相关联的拉格朗日乘数向量。

  • e 表示与 g 大小相同的由 1 组成的向量。

公式 38 定义直接步 (δx, δs)

[h0jhtjgt0λ0sjh000jgi00][δxδsδyδλ]=[f jhty jgtλsλμehg s].(37)

此方程直接来自尝试用线性化拉格朗日函数求解 和。

通过将第二个变量 δs 预乘 s–1,可以使方程对称:

[h0jhtjgt0sλ0sjh000jgs00][δxs1δsδyδλ]=[f(x) jhty jgtλsλμehg(x) s].(38)

为了针对 (δx, δs) 求解此方程,算法对矩阵进行 ldl 分解。(请参阅matlab® ldl 函数参考页中的。)这是计算量最大的步骤。这种分解的一个结果是确定投影的 hessian 矩阵是否为正定;如果不是,则算法使用共轭梯度步,这将在共轭梯度步中说明。

更新障碍参数

要使逼近问题公式 34 接近原始问题,障碍参数 μ 需要随着迭代次数的增加逐渐降低至 0。该算法有两个障碍参数更新选项,您可以使用 barrierparamupdate 选项来指定:'monotone'(默认值)和 'predictor-corrector'

使用 'monotone' 选项时,如果逼近问题在前一次迭代中的解足够准确,参数 μ 就会降低 1/100 或 1/5。当算法只需一次或两次迭代就能达到足够的准确度时,该选项使用 1/100,否则使用 1/5。准确度可通过以下测试来衡量,即确定公式 38 右侧的所有项的大小都小于 μ:

max(f(x) jhty jgtλ,sλμe,h,g(x) s)<μ.

注意

在以下任一情况下,fmincon 都会用 'monotone' 覆盖 barrierparamupdate 设置:

  • 该问题没有不等式约束,包括边界约束。

  • subproblemalgorithm 选项是 'cg'

用于更新障碍参数 μ 的 'predictor-corrector' 算法类似于线性规划 预测-校正 算法。

预测-校正步可以通过调整牛顿步中的线性化错误来加速现有 fiacco-mccormick(单调)方法。预测-校正算法具有双重效果:它通常可以改进步方向,同时用中心化参数 σ 以自适应方式更新障碍参数,以鼓励沿着“中心路径”进行迭代。请参阅 nocedal 和 wright 对线性规划的预测-校正步的讨论,了解为什么中心路径允许更大的步长,从而更快地收敛。

预测步使用线性化步长,其中 μ = 0,这意味着没有障碍函数:

[h0jhtjgt0λ0sjh000jgi00][δxδsδyδλ]=[f jhty jgtλsλhg s].

将 ɑs 和 ɑλ 定义为不违反非负性约束的最大步长。

αs=max(α(0,1]:s αδs0)αλ=max(α(0,1]:λ αδλ0).

现在根据预测步计算互补性。

μp=(s αsδs)(λ αλδλ)m,(39)

其中 m 是约束的数量。

第一个校正步针对牛顿求根线性化中忽略的二次项进行调整

(s δs)(λ δλ)=sλ sδλ λδslinear term set to 0 δsδλquadratic.

为了校正二次误差,求解线性方程组以确定校正步方向。

[h0jhtjgt0λ0sjh000jgi00][δxcorδscorδycorδλcor]=[0δsδλ00].

第二个校正步是中心化步。中心化校正基于方程右侧的变量 σ

[h0jhtjgt0λ0sjh000jgi00][δxcenδscenδycenδλcen]=[f jhty jgtλsλμeσhg s].

此处,σ 定义如下

σ=(μpμ)3,

其中 μp 在方程 公式 39 中定义且 μ=stλ/m

为了防止障碍参数下降过快,从而可能导致算法不稳定,算法使中心化参数 σ 保持在 1/100 以上。此操作使障碍参数 μ 按不超过因子 1/100 的幅度降低。

在算法上,第一个校正步和中心化步是相互独立的,因此它们是一起计算的。此外,预测变量和两个校正步的左侧矩阵是相同的。因此,在算法上,该矩阵只分解一次,此分解用于所有这些步。

当建议的预测-校正步使评价函数值公式 35增大、互补性至少增大一倍或计算的惯量不正确(问题看起来是非凸的)时,该算法可以拒绝建议的预测-校正步。在这些情况下,算法尝试采取不同的步或共轭梯度步。

共轭梯度步

求解逼近问题公式 34 的共轭梯度法类似于其他共轭梯度计算。在本例中,算法会同时调整 x 和 s,从而保持松弛变量 s 为正。该方法在满足线性化约束的前提下,在信赖域中最小化逼近问题的二次逼近。

具体来说,用 r 表示信赖域的半径,并用和直接步一样的方法定义其他变量。算法近似求解以下 kkt 方程以获得拉格朗日乘数

xl=xf(x) iλigi(x) jyjhj(x)=0,

该过程基于最小二乘法思想,且满足 λ 为正。然后,它采取步 (δx, δs) 以近似求解

minδx,δsftδx 12δxtxx2lδx μets1δs 12δsts1λδs,(40)
并满足线性约束
g(x) jgδx δs=0,  h(x) jhδx=0.(41)
为了求解 公式 41,算法尝试在半径基于 r 缩放的区域内最小化线性化约束的范数。然后,在匹配求解公式 41 所得残差的约束下求解公式 40,同时保持在半径为 r 的信赖域内,并保持 s 严格为正。有关算法和微分的详细信息,请参阅、 和 。关于共轭梯度的另一描述,请参阅预条件共轭梯度法

可行性模式

enablefeasibilitymode 选项为 true 并且迭代没有足够快地降低不可行性时,算法会切换到可行性模式。如果算法无法降低普通模式下的不可行性,然后在切换到共轭梯度模式后再次失败,则会发生此切换。因此,在未使用可行性模式前求解器找不到可行解的情形中,若要使这一过程最为高效,请在使用可行性模式时将 subproblemalgorithm 设置为 'cg'。这样做可以避免在普通模式下进行没有结果的搜索。

可行性模式算法基于 nocedal、öztoprak 和 waltz [1]。该算法会忽略目标函数,改为尝试最小化不可行性,不可行性定义为不等式约束函数的正部和等式约束函数的绝对值之和。基于松弛变量 r=[ri,re ,re](其中各项分别对应于不等式、等式的正部和等式的负部),问题可表示为

minx,r1tr=minx,rr

需满足以下约束

ric(x)re re=ceq(x)r0.

为了求解该松弛问题,软件使用带对数障碍函数和松弛变量 s=[si,sr,se ,se] 的内点公式来最小化

minx,r,s1trμ(log(si,i) log(sr,i))(log(se,i ) log(se,i))

需满足以下约束

ceq(x)=re rec(x)=risire =se re=seri=srs0.

松弛问题的求解过程从 μ 初始化为当前障碍参数值开始。松弛变量 si 初始化为从主模式继承的当前不等式松弛值。r 变量初始化为

ri=max(si c(x),μ)re =max(ceq(x),μ)re=min(ceq(x),μ).

其余的松弛变量初始化为

sr=rise =re se=re.

从这个初始点开始,可行性模式算法重用普通内点算法的代码。此过程需要特殊的步长计算,因为 r 变量是线性的,因此其相关联的二阶导数为零。换句话说,可行性问题的目标函数 hessian 矩阵秩亏。因此,该算法无法采取牛顿步。相反,该算法采用最陡下降方向步。该算法从目标关于变量的梯度开始,将梯度投影到约束的 jacobian 矩阵的零空间上,并重新缩放得到的向量,使其具有适当的步长。这一步可有效降低不可行性。

可行性模式算法在不可行性降低十分之一时结束。当可行性模式结束时,算法将变量 x 和 si 传递给主算法,并丢弃其他松弛变量和松弛变量 r。

参考

[1] nocedal, jorge, figen öztoprak, and richard a. waltz. an interior point method for nonlinear programming with infeasibility detection capabilities. optimization methods & software 29(4), july 2014, pp. 837–854.

内点算法选项

以下是内点算法中几个选项的含义和效果。

  • honorbounds - 当设置为 true 时,每次迭代都满足您设置的边界约束。当设置为 false 时,算法可能会在中间迭代期间违反边界。

  • hessianapproximation

    • 当设置为 'bfgs' 时,fmincon 通过稠密矩阵拟牛顿逼近来计算 hessian 矩阵。

    • 当设置为 'lbfgs' 时,fmincon 通过限制内存使用量的大规模拟牛顿逼近来计算 hessian 矩阵。

    • 当设置为 'fin-diff-grads' 时,fmincon 使用梯度的有限差分计算 hessian 矩阵乘以向量的结果;其他选项需要适当设置。

  • hessianfcn - fmincon 使用您在 hessianfcn 中指定的函数句柄来计算 hessian 矩阵。请参阅。

  • hessianmultiplyfcn - 提供单独的函数来计算 hessian 矩阵乘以向量的结果。有关详细信息,请参阅和。

  • subproblemalgorithm - 决定是否尝试直接牛顿步。默认设置 'factorization' 允许尝试此类型的步。设置 'cg' 仅允许共轭梯度步。

有关选项的完整列表,请参阅 fmincon 中的内点算法

fminbnd 算法

fminbnd 是任何 matlab 安装中都提供的求解器。它用于求解有界区间内的一维局部最小化问题。它不基于导数。相反,它使用黄金分割搜索和抛物线插值。

fseminf 问题的表示和算法

fseminf 问题的表示

fmincon 求解的问题相比,fseminf 处理的优化问题还需要满足其他类型的约束。fmincon 的表示为

minxf(x)

满足 c(x) ≤ 0, ceq(x) = 0, a·x ≤ b, aeq·x = beq, and l ≤ x ≤ u

fseminf 在已给出的约束基础上增加以下一组半无限约束。对于一维或二维有界区间内的 wj 或矩形 ij,对于由连续函数 k(x, w) 组成的向量,约束为

kj(x, wj) ≤ 0(对于所有 wj∈ij)。

fseminf 问题的“维度”指约束集 i 的最大维度:如果所有 ij 都是区间,则为 1;如果有至少一个 ij 是矩形,则为 2。k 向量的大小不属于此维度概念。

之所以称之为半无限规划,原因是变量(x 和 wj)的数目有限,但约束的数目无限。这是因为对 x 的约束是在一组连续的区间或矩形 ij 上,其中包含无限数量的点,因此存在无限数量的约束:对于无限数量的点 wjkj(x, wj) ≤ 0

您可能会认为具有无限数目的约束的问题无法求解。fseminf 通过将问题重新表示为具有两个阶段(最大化和最小化)的等效问题来求解此类问题。半无限约束重新表示为

maxwjijkj(x,wj)0 for all j=1,...,|k|,(42)

其中 |k| 是向量 k 的分量数目,即半无限约束函数的数目。对于固定 x,这是在有界区间或矩形上的常规最大化问题。

fseminf 通过针对求解器访问的每个 x 对函数 kj(x, wj) 进行分段二次或三次逼近 κj(x, wj),进一步简化了问题。在公式 42 中,fseminf 仅考虑插值函数 κj(x, wj)(而不是 kj(x, wj))的最大值。这会将原来的半无限约束函数最小化问题简化为一个约束数目有限的问题。

采样点.  您的半无限约束函数必须提供一组采样点,这些点用于进行二次或三次逼近。为此,它应包含:

  • 采样点 w 之间的初始间距 s

  • s 生成一组采样点 w 的方法

初始间距 s 是一个 |k|×2 矩阵。s 的第 j 行表示约束函数 kj 的相邻采样点的间距。如果 kj 依赖一维 wj,请设置 s(j,2) = 0fseminf 会在后续迭代中更新矩阵 s

fseminf 使用矩阵 s 生成采样点 w,然后使用这些采样点创建逼近 κj(x, wj)。在优化过程中,从 s 生成 w 时,您应保持区间或矩形 ij 不变。

创建采样点的示例.  以具有两个半无限约束 k1 和 k2 的问题为例。k1 有一维 w1,k2 有二维 w2。以下代码从 w1 = 2 到 12 生成采样集:

% initial sampling interval
if isnan(s(1,1))
    s(1,1) = .2;
    s(1,2) = 0;
end
% sampling set
w1 = 2:s(1,1):12;

fseminf 在首次调用约束函数时将 s 指定为 nan。您可以通过检查此项来设置初始采样间隔。

以下代码从 w2 生成正方形采样集,每个分量从 1 到 100,第一个分量较第二个分量有更密集的初始采样:

% initial sampling interval
if isnan(s(1,1))
   s(2,1) = 0.2;
   s(2,2) = 0.5;
end
 
% sampling set
w2x = 1:s(2,1):100;
w2y = 1:s(2,2):100;
[wx,wy] = meshgrid(w2x,w2y);

前面的代码段可以简化如下:

% initial sampling interval
if isnan(s(1,1))
    s = [0.2 0;0.2 0.5];
end
% sampling set
w1 = 2:s(1,1):12;
w2x = 1:s(2,1):100;
w2y = 1:s(2,2):100;
[wx,wy] = meshgrid(w2x,w2y);

fseminf 算法

fseminf 本质是将半无限规划问题简化为可用 fmincon 求解的问题。fseminf 采取以下步骤来求解半无限规划问题:

  1. 在 x 的当前值下,fseminf 找出所有 wj,i,使得插值 κj(x, wj,i) 是局部最大值。(对于固定的 x,最大值点是指变化的 w。)

  2. fseminffmincon 问题的解中采取一个迭代步:

    minxf(x)

    使得 c(x) ≤ 0, ceq(x) = 0, a·x ≤ b, aeq·x = beq, and l ≤ x ≤ u,其中 c(x) 使用在所有 wj∈ij 上选取的 κj(x, wj) 的所有最大值进行了增强,这些最大值等于 κj(x, wj,i) 的 j 和 i 上的最大值。

  3. fseminf 检查新点 x 处是否满足任何停止条件(用于停止迭代);如果不满足,它继续执行步骤 4。

  4. fseminf 检查半无限约束的离散化是否需要更新,并适当更新采样点。由此可得更新后的逼近 κj(x, wj)。然后继续执行步骤 1。

网站地图