作为使用Julia的JuMP建模语言理解非线性优化的测试,我试图通过约束 0 <= x[i] <= 0.5 来最小化10维中的Rosenbrock函数 . 第一个带有可变参数的Rosenbrock:

function rosen(x...)
    local n = length(x); local s = 0.0
    for i = 1:length(x)-1
        s += 100*(x[i+1] - x[i]^2)^2 + (x[i] - 1)^2
    end
    return s
end
## rosen (generic function with 1 method)

使用Ipopt作为求解器定义优化模型,

using JuMP; using Ipopt
m = Model(solver = IpoptSolver())
## Feasibility problem with:
## * 0 linear constraints
## * 0 variables
## Solver is Ipopt

以及具有约束约束和起始值的变量 x[i] = 0.1

@variable(m, 0.0 <= x[1:10] <= 0.5)
for i in 1:10 setvalue(x[i], 0.1); end

现在我明白我必须注册目标函数 .

JuMP.register(m, :rosen, 10, rosen, autodiff=true)

我不确定这里是否可以这样做,或者我是否需要定义和注册 mysquare 函数,就像在JuMP手册的"User-defined Functions"部分中所做的那样 .

@NLobjective(m, Min, rosen(x[1],x[2],x[3],x[4],x[5],x[6],x[7],x[8],x[9],x[10]))

我怎么能更紧凑地写这个?一个表达式

@NLobjective(m, Min, rosen(x[1:10]))
##ERROR: Incorrect number of arguments for "rosen" in nonlinear expression.

给出错误 . 如果我想用100个变量来解决这个问题怎么办?

现在我们解决这个模型问题了,唉,它回归了一个解决方案,而且正如我所知,通过NEOS IPOPT求解器解决它的确是正确的解决方案 .

sol = solve(m);
## ...
## EXIT: Optimal Solution Found.

因为我只对x [10]的确切值感兴趣,所以提取它:

getvalue(x[10]
## 0.00010008222367154784

这可以以某种方式简化吗?想想用MATLAB中的 fminsearch 或R中的 optim 解决这个问题是多么容易 .

R> optim(rep(0.1,10), fnRosenbrock, method="L-BFGS-B",
         lower=rep(0.0,10), upper=rep(0.5,10),
         control=list(factr=1e-12, maxit=5000))
## $par
## [1] 0.50000000 0.26306537 0.08003061 0.01657414 0.01038065
## [6] 0.01021197 0.01020838 0.01020414 0.01000208 0.00000000

当然,除了它说 $par[10] 是0.0,这是不正确的 .