2012/03/03

Optimal Control:无限维

一阶必要条件,对所有的admissible perturbations $\eta$如果
$$\delta J|_{y^{ *}}(\eta)=0$$

因为变分和极值的定义都取决于摸,上面的条件对所有的摸成立。

习题:functional $J(y)=\int_0^1\phi(y(x))dx$,求一阶变分。
$$\delta J(y)|_\eta=\lim_{\alpha\rightarrow 0}\frac{\int_0^1\phi(y+\alpha\eta)dx-\int_0^1\phi(y)dx}{\alpha}$$
$$=\lim_{\alpha\rightarrow 0}\frac{\int_0^1\phi(y+\alpha\eta)-\phi(y)dx}{\alpha}$$
上下乘以$\eta$:
$$=\lim_{\alpha\rightarrow 0}\int_0^1\frac{(\phi(y+\alpha\eta)-\phi(y))\eta}{\alpha\eta}dx=\int_0^1\phi'(y)\eta dx$$

Fr echet derivative:
$$J(y+\eta) = J(y)+\delta J|_y(\eta) + o(\left\|\eta\right\|)$$
这个derivative是更强的一种变分可微要求,因为perturbations $\eta$可以更任意的趋向0.

微分的含义

一阶可微的定义其实就是对一点存在一个线性函数或泛函(和被微分的对象一样),这个函数或者泛函可以用于逼近原函数。二阶微分就是存在一个二次型。只是逼近这一点附近的情况,线性函数或泛函输入是自变量的变化,输出是线性变化,这个线性变化加上这点的函数值,得到的和逼近实际的函数值:$f(x_0+h)=f(x_0)+L_{x_0}(h)$,函数的时候
$$L_{x_0}(h)=\nabla f(x_0)\cdot h=(\nabla f(x_0)\cdot \frac{h}{|h|})|h|$$
从第一个等号可以看出梯度决定了一个线性算子,第二个等号的含义是(梯度和自变量$h$变化方向的单位向量的点积=)方向导数,乘以$h$的模长。

泛函的时候:
$$L_{x_0}(h)=\delta J|_{x_0}(h)$$

微分和导数的区别

考虑线性函数$y=kx$在$x_0$点的微分,显然用线性函数逼近线性函数只要它自己就好,不论$x_0$怎么变化得到的线性函数都是他自己,导数就是把这个线性函数看成$x_0$的函数,是不变的,也就是是个常数。

$e^x$的导数还是$e^x$意思是$x_0$的逼近线性函数是$L_{x_0}(h)=e^{x_0}h$.



模的要求越严格其定义下的极值越弱,因为在模定义下接近极值点的点越少,比如1-norm要求函数属于$C^1$,一阶可微连续,极值就是检查在这个norm下,靠近极值点(函数$y^*$)的其他点(其他一阶可微连续函数),因为1-norm的定义要求一阶导数也要很接近才叫接近,所以会排除很多一阶导数变化很大的扰动,也就是这个极值要求要弱一些(很多函数被排除了)。

一个强极值(斩掉的扰动更多)必然是一个弱极值,反过来弱极值的必要条件也是强极值的必要条件。

Euler-Lagrange equation

Basic Calculus of Variations Problem:
求极值:$$J(y):=\int_a^b L(x,y(x),y\ '(x))dx$$
其中$y$满足$y(a)=y_0, y(b)=y_1$.

functional $J$取极值的一阶必要条件是$y$满足Euler-Lagrange equation:
$$L_y=\frac{d}{dx}L_{y\ '}$$

一个包含求$L$在一个区间上的积分的极值问题,转化为$L$的在这个区间上的微分方程,含义是解在每个局部无穷小的区间上都是最优的,没有局部的"shortcut".


定义在有限维空间上的线性函数自然是连续的,也就是线性可以推出连续性,但是在无限维线性空间(比如连续函数的空间),定义在其上的线性泛函的连续性不能直接从线性得出,但是连续性和下面两条等价:1)在0点连续,2)线性泛函有界,即存在$M>0$使得$|L(x)|\leq M|x|$。

No comments:

Post a Comment

Print This Post