2 Cálculo Variacional
2.1 ¿Qué es un Funcional?
Un funcional es una regla de correspondencia que asigna un único número real a cada función de cierto conjunto determinado. Formalmente si \(\mathcal{A}\) es un conjunto de funciones definidas sobre un conjunto \(\Omega\), un funcional es una aplicación \[ J:\mathcal{A}\rightarrow\mathbb{R}, \qquad y\mapsto J[y] \]
Ejemplo 2.1
2.2 Funcionales en Varias Variables
Generalizando a funciones vectoriales y dominios multidimensionales, definimos el funcional \[ J[y]:=\int_\Omega L(x,y(x),Dy(x))dx, \tag{2.1}\]
donde
\(\Omega\subset\mathbb{R}^n,\quad n\geq1,\) es un conjunto abierto y acotado cuyos puntos denotamos por \(x=(x_1,x_2,\dots,x_n)\);
\(y:\Omega\rightarrow\mathbb{R}^N\) es una función expresada como \(y=\left(y_1,\dots,y_N\right)\), perteneciente a un espacio de funciones admisibles \(\mathcal{A}\) donde las condiciones de frontera se imponen como restricciones sobre \(\mathcal{A}\).
De modo que \[ Dy=\left(\frac{\partial y_j}{\partial x_i}\right)^{1\leq j\leq N}_{1\leq i\leq n}\quad\in\mathbb{R}^{N\times n} \]
\(L:\Omega\times\mathbb{R}^N\times\mathbb{R}^{N\times n}\rightarrow\mathbb{R}\) es una función dada, denominada Lagrangiano, que satisface ciertas condiciones de regularidad dependiendo de cada problema (como continuidad, diferenciabilidad, entre otras).
2.3 Espacios Funcionales
En el cálculo variacional se trabaja con espacios funcionales, los cuales permiten imponer las condiciones de regularidad necesarias para cada problema. Aunque no existe un “espacio universal” aplicable a todos los casos, debido a la naturaleza de cada problema, sí es posible identificar ciertos espacios funcionales que aparecen con frecuencia en los problemas típicos del cálculo variacional, entre ellos:
- \(C^k(\Omega)\): Espacio de funciones \(k\)-veces continuamente diferenciables en \(\Omega\) (Evans 2022).
- \(C_c^\infty(\Omega)\): Espacio de funciones infinitamente diferenciables con soporte compacto en \(\Omega\) (Gelfand y Fomin 1963)
- \(L^p(\Omega)\): Espacios de Lebesgue.
- Espacio de Sobolev: Denotado por \(W^{k,p}(\Omega)\), es el espacio formado por funciones cuyas derivadas en el sentido débil hasta orden \(k\) existen y pertenecen a \(L^p(\Omega)\) (Evans 2022).
Adicionalmente, se introducen los espacios tangente y cotangente, los cuales están asociados al conjunto de funciones admisibles \(\mathcal{A}\). El espacio tangente \(T_y\mathcal{A}\) representa las variaciones admisibles de \(y\in\mathcal{A}\), es decir aquellas “perturbaciones” de \(y\) que preservan las restricciones impuestas por el problema. Mientras que el espacio cotangente \(T^*_y\mathcal{A}\) es el dual del espacio tangente, es decir, contiene los funcionales lineales que actúan sobre las variaciones \(\eta\in T_y\mathcal{A}\).
2.4 Continuidad de un Funcional
Un funcional \(J:\mathcal{A}\rightarrow\mathbb{R}\) se dice continuo en \(y\in\mathcal{A}\) si para toda sucesión \({y_k}\in\mathcal{A}\) tal que \[ ||y_k-y||_{\mathcal{A}}\rightarrow 0, \]
se cumple que \[ J[y_k]\rightarrow J[y]. \]
Además, decimos que el funcional \(J\) es semicontinuo inferiormente en \(y\in\mathcal{A}\) si para toda sucesión \({y_k}\in\mathcal{A}\) tal que \(||y_k-y||_{\mathcal{A}}\rightarrow 0\), se cumple que \[ J[y]\leq \liminf_{k\to\infty} J[y_k]. \]
De manera análoga, \(J\) es semicontinuo superiormente en \(y\) si \[ J[y]\geq \limsup_{k\to\infty} J[y_k]. \]
Ejemplo 2.2
Ejemplo 2.3
2.5 Linealidad de un Funcional
Definición 2.1 Sea \(R\) un espacio lineal normado y sea \(\varphi[h]\) un funcional en \(R\). Decimos que \(\varphi[h]\) es un funcional lineal (continuo) si satisface el principio de homogeneidad \[ \varphi[\alpha h]=\alpha\varphi[h], \]
para toda \(h\in R\) y para cada número real \(\alpha\) tal que \(\alpha h\in R\), y el principio de aditividad \[ \varphi[h_1+h_2]=\varphi[h_1]+\varphi[h_2] \]
para cada \(h_1,h_2, h_1+h_2\in R\).
Ejemplo 2.4
Ejemplo 2.5
2.6 El Incremento de un Funcional
Definimos el incremento de un funcional \(J\) en la dirección de una función \(\eta\) como: \[ \Delta J[y,\eta] := J[y + \eta] - J[y]. \tag{2.2}\]
En este contexto, \(\eta\) representa una perturbación de la función \(y\) dentro del espacio de funciones admisibles. Al analizar este incremento, particularmente en el caso donde las perturbaciones son pequeñas, nos permite evaluar la sensibilidad del funcional respecto a cambios en \(y\). Este análisis resulta esencial para introducir el concepto de variación del funcional, el cual es una herramienta clave en la formulación de condiciones necesarias de optimalidad en el cálculo variacional.
Ejemplo 2.6
2.7 La Primera Variación
Definición 2.2 Sea \(J:\mathcal{A}\rightarrow\mathbb{R}\) un funcional definido sobre un espacio de funciones admisibles \(\mathcal{A}\), y sea \(y\in\mathcal{A}\). Decimos que \(J\) es diferenciable en \(y\) si existe una aplicación lineal \[ \delta J[y;\cdot]:T_y\mathcal{A}\rightarrow\mathbb{R}, \]
tal que, para toda perturbación admisible \(\eta\in T_y\mathcal{A}\), se cumple la relación \[ J[y+\eta]-J[y]=\delta J[y;\eta]+o(\eta), \]
donde \[ \lim_{||\eta||\rightarrow 0}\frac{o(\eta)}{||\eta||}=0. \]
En este caso, \(\delta J[y;\eta]\) es la variación del funcional \(J\) en la dirección de la perturbación \(\eta\), y representa la parte lineal principal del incremento de \(J\) cuando \(y\) es perturbada por \(\eta\). Es decir, mide la sensibilidad de \(J\) ante pequeñas variaciones de \(y\) en la dirección de \(\eta\).
Si consideramos un funcional \[ J[y]:=\int_\Omega L(x,y(x),Dy(x))dx, \]
y consideremos perturbaciones de la forma: \[ y_\varepsilon(x):=y(x)+\varepsilon\eta(x),\qquad\eta\in T_y\mathcal{A}, \]
Entonces, el funcional evaluado en \(y_\varepsilon\) se expresa como: \[ J[y_\varepsilon]=\int_\Omega L(x,y(x)+\varepsilon\eta(x),Dy(x)+\varepsilon D\eta(x))dx. \]
Calculamos la primera variación de \(J\) en dirección de \(\eta\) como:
\[ \delta J[y;\eta]:=\left.\frac{d}{d\varepsilon}J[y_\varepsilon]\right|_{\varepsilon=0}=\int_\Omega\sum_{j=1}^N\left[\frac{\partial L}{\partial y_j}\eta_j+\sum_{i=1}^n\frac{\partial L}{\partial\left(\frac{\partial y_j}{\partial x_i}\right)}\frac{\partial\eta_j}{\partial x_i}\right]dx. \tag{2.5}\]
Ejemplo 2.7
Teorema 2.1 La variación de un funcional diferenciable es única.
Prueba. Sea \(J:\mathcal{A}\rightarrow \mathbb{R}\) un funcional diferenciable definido sobre un espacio normado \(\mathcal{A}\), y sea \(t\in\mathcal{A}\). Supongamos que existen dos aplicaciones lineales \[ \varphi_1,\varphi_2:T_y\mathcal{A}\rightarrow\mathbb{R} \]
tales que para toda perturbación \(\eta\in T_y\mathcal{A}\), se cumple:
\[ \begin{split} \Delta J[y+\eta]=J[y+\eta]-J[y]=\varphi_1[\eta]+o_1(\eta),\\ \Delta J[y+\eta]=J[y+\eta]-J[y]=\varphi_2[\eta]+o_2(\eta), \end{split} \]
donde se satisface \[ \lim_{||\eta||\rightarrow 0}\frac{o_1(\eta)}{||\eta||}=\lim_{||\eta||\rightarrow 0}\frac{o_2(\eta)}{||\eta||}=0. \]
Restando ambas expresiones, obtenemos: \[ \varphi_1[\eta]-\varphi_2[\eta]=o_2(\eta)-o_1(\eta). \]
Definimos \(\Phi[\eta]=\varphi_1[\eta]-\varphi_2[\eta]\), que es lineal por ser diferencia de funcionales lineales. Entonces, \[ \Phi[\eta]=o_2(\eta)-o_1(\eta). \]
Dividiendo ambos lados por \(||\eta||\), obtenemos: \[ \left|\frac{\Phi[\eta]}{||\eta||}\right|=\left|\frac{o_2(\eta)-o_1(\eta)}{||\eta||}\right|\leq\left|\frac{o_2(\eta)}{||\eta||}\right|+\left|\frac{o_1(\eta)}{||\eta||}\right|. \]
Tomando el límite cuando \(||\eta||\rightarrow 0\), implica que: \[ \lim_{||\eta||\rightarrow 0}\frac{\Phi[\eta]}{||\eta||}=\lim_{||\eta||\rightarrow 0}\frac{o_2[\eta]}{||\eta||}+\lim_{||\eta||\rightarrow 0}\frac{o_1[\eta]}{||\eta||}=0+0=0 \]
Y ya que \(\Phi\) es lineal, el límite anterior implica que: \[ \Phi[\eta]=0\qquad\forall\eta\in T_y\mathcal{A} , \]
esto es \[ \varphi_1[\eta]=\varphi_2[\eta]\qquad\forall\eta. \]
Así, la primera variación es única para cada funcional diferenciable.
2.8 Máximo y Mínimo de un Funcional
En el cálculo variacional, el objetivo principal es encontrar funciones que hagan máximo o mínimo un funcional dado. Formalmente, dado un funcional \(J:\mathcal{A}\rightarrow\mathbb{R}\) definido sobre un conjunto de funciones admisibles \(\mathcal{A}\), decimos que \(J\) tiene un extremo en \(y^*\) si existe \(\varepsilon>0\) tal que para toda función \(y\in\mathcal{A}\) con \(||y-y^*||_{\mathcal{A}}<\varepsilon\) el incremento de \(J\) tiene el mismo signo. Si \[ J[y^*] \leq J[y] \tag{2.7}\]
entonces \(J[y^*]\) es un mínimo relativo; y sí \[ J[y^*] \geq J[y] \tag{2.8}\]
entonces \(J[y^*]\) es un máximo relativo.
Diremos que \(J[y^*]\) es un mínimo global (respectivamente máximo global) si Ecuación 2.7 (respectivamente Ecuación 2.8) es valida para \(\epsilon\) arbitrariamente grandes. A la función \(y^*\) se le conoce como extremal y a \(J[y^*]\) como un extremo.
Ejemplo 2.8
2.9 Lema y Teorema Fundamental del Cálculo Variacional
El objetivo de esta sección es presentar herramientas fundamentales para obtener las ecuaciones de Euler-Lagrange y dar condiciones necesarias de optimalidad. Una de las herramientas claves en este contexto es el Lema Fundamental del Cálculo Variacional.
Lema 2.1 (Fundamental del Cálculo Variacional) Sea \(\Omega\subset\mathbb{R}^n\) un conjunto abierto, y sea \(f\) una función continua definida en \(\Omega\), y supongamos que \[ \int_\Omega f(x)\eta(x)dx \geq 0\qquad\forall\eta\in C_0^\infty(\Omega)\text{ con } \eta\geq 0, \]
o \[ \int_\Omega f(x)\eta(x)dx = 0\qquad\forall\eta\in C_c^\infty(\Omega), \]
se cumple. Entonces tendríamos que \[ f(x)\geq0\quad\text{ o }\quad f(x)=0, \]
respectivamente, para todo \(x\in\Omega\).
Prueba. Supongamos que se cumple la primera afirmación, y que existe un punto \(x_0\in\Omega\) tal que \(f(x_0)<0\). Por continuidad de \(f\), existe \(\epsilon>0\) y una bola \(B_r(x_0)\subset\Omega\) tal que \[ f(x)<-\epsilon \qquad\text{ para todo } \quad x\in B_r(x_0). \]
Mediante la función de prueba \(\eta\in C_c^\infty\), con soporte compacto en \(B_r(x_0)\), definida por \[ \eta(x):=\left\{ \begin{array}{ll} \exp \left(-\frac{1}{r^2-|x-x_0|^2}\right) &\text{ si } x\in B_r(x_0)\\ 0 &\text{ si }x\notin B_r(x_0). \end{array} \right. \]
Sabemos que esta función es suave y tiene soporte compacto en \(B_r(x_0)\subset\Omega\), además de ser estrictamente positiva dentro de la bola.
Ya que \(f(x)<-\epsilon\) en el soporte de \(\eta\), podemos deducir que: \[ \int_\Omega f(x)\eta(x)dx = \int_{B_r(x_0)} f(x)\eta(x)dx < -\epsilon \int_{B_r(x_0)} \eta(x)dx < 0, \]
lo cual contradice la hipótesis de que la integral es no negativa para toda función de prueba no negativa. Por lo tanto, \(f(x)\geq 0\) para todo \(x\in\Omega\).
La segunda afirmación se vuelve un resultado inmediato consecuancia de la que se acaba de probar.
Teorema 2.2 Sean \(J[y]\) un funcional diferencial, si \(y^*\) es un extremal de \(J\), entonces la variación del funcional se anula para toda \(\eta\) admisible, es decir \[ \delta J[y^*;\eta]=0\quad\quad\forall\eta\text{ admisible}. \]
Prueba. Sea \(J:\mathcal{A}\rightarrow\mathbb{R}\) un funcional y supongamos que \(y^*\in\mathcal{A}\) es un extremal de \(J\). Consideremos perturbaciones de la forma \(y_\epsilon=y^*+\epsilon\eta\), con \(\epsilon>0\) y \(\eta\in T_y\mathcal{A}\) y definimos la función \(\phi:\mathbb{R}\rightarrow\mathbb{R}\) tal que \[ \phi(\epsilon):=J[y^*+\epsilon\eta] \]
Como por hipótesis \(y^*\) es un extremal, entonces \(\phi\) tiene un extremo relativo en \(\epsilon=0\). Por cálculo diferencial, una condición necesaria para que \(\phi\) tenga un extremo en \(\epsilon=0\) es que su derivada se anule en ese punto, es decir, \[ \left.\frac{d}{d\epsilon}\phi(\epsilon)\right|_{\epsilon=0} = 0. \]
Así \[ \left.\frac{d}{d\epsilon}\phi(\epsilon)\right|_{\epsilon=0} = \left.\frac{d}{d\epsilon}J[y^*+\epsilon\eta]\right|_{\epsilon=0} = \delta J[y^*;\eta]. \]
Por lo tanto, \[ \delta J[y^*;\eta]=0\qquad\forall\eta\text{ admisible}. \]
2.10 Ecuaciones de Euler
Para deducir las ecuaciones de Euler, es necesario que todos los términos \(\eta_j\) en la primera variación aparezcan libre de derivadas, con el fin de aplicar el Lema Fundamental (Lema 2.1). Para ello aplicamos el método de integración por partes en varias variables al segundo término de la primera variación (Ecuación 2.5): \[ \int_\Omega \frac{\partial L}{\partial\left(\frac{\partial y_j}{\partial x_i}\right)}\frac{\partial\eta_j}{\partial x_i}dx = -\int_\Omega\frac{\partial}{\partial x_i}\left(\frac{\partial L}{\partial\left(\frac{\partial y_j}{\partial x_i}\right)}\right)\eta_j dx. \]
Al repetir este procedimiento para toda \(i=1,\dots,n\) y toda \(j=1,\dots,N\), obtenemos: \[ \int_\Omega\sum_{i=1}^n \frac{\partial L}{\partial\left(\frac{\partial y_j}{\partial x_i}\right)}\frac{\partial\eta_j}{\partial x_i}dx=-\int_\Omega\sum_{i=1}^n\frac{\partial}{\partial x_i}\left(\frac{\partial L}{\partial\left(\frac{\partial y_j}{\partial x_i}\right)}\right)\eta_j dx. \]
Sustituyendo en la primera variación, se obtiene que: \[ \begin{split} \delta J[y;\eta] &=\int_\Omega\sum_{j=1}^N\left[\frac{\partial L}{\partial y_j}\eta_j+\sum_{i=1}^n\frac{\partial L}{\partial\left(\frac{\partial y_j}{\partial x_i}\right)}\frac{\partial\eta_j}{\partial x_i}\right]dx \\ &=\int_\Omega\sum_{j=1}^N\left[\frac{\partial L}{\partial y_j}\eta_j-\sum_{i=1}^n\frac{\partial}{\partial x_i}\left(\frac{\partial L}{\partial\left(\frac{\partial y_j}{\partial x_i}\right)}\right)\eta_j\right] dx \\ &= \int_\Omega\sum_{j=1}^N\left(\frac{\partial L}{\partial y_j} -\sum_{i=1}^n\frac{\partial}{\partial x_i}\left(\frac{\partial L}{\partial\left(\frac{\partial y_j}{\partial x_i}\right)}\right)\right)\eta_j dx. \end{split} \]
Ahora bien, si \(y\) representa un extremo del funcional \(J\), entonces, de acuerdo con el (Teorema 2.2), la primera variación debe anularse para toda función \(\eta\in C_c^\infty\left(\Omega;\mathbb{R}^N\right)\), es decir: \[ \delta J[y;\eta]=0\qquad\forall\eta. \]
Por tanto se cumple que: \[ \int_\Omega\sum_{j=1}^N\left(\frac{\partial L}{\partial y_j} -\sum_{i=1}^n\frac{\partial}{\partial x_i}\left(\frac{\partial L}{\partial\left(\frac{\partial y_j}{\partial x_i}\right)}\right)\right)\eta_j dx = 0\qquad\forall\eta. \]
Aplicando el Lema Fundamental del Cálculo Variacional (Lema 2.1) para cada \(j=1,\dots,N\), se obtiene la siguiente igualdad: \[ \frac{\partial L}{\partial y_j} -\sum_{i=1}^n\frac{\partial}{\partial x_i}\left(\frac{\partial L}{\partial\left(\frac{\partial y_j}{\partial x_i}\right)}\right)=0. \tag{2.9}\]
Esta familia de ecuaciones, constituye el sistema de ecuaciones de Euler-Lagrange, el cual deben satisfacer todas las funciones \(y\) que hacen extremal al funcional \(J\).
Ejemplo 2.9
2.11 Teorema de Noether
Ya se han establecido la primera variación del funcional y las correspondientes ecuaciones de Euler–Lagrange en el marco multivariable. A partir de dichos resultados es posible abordar una cuestión fundamental: la relación entre las simetrías de un funcional y la existencia de leyes de conservación. Este vínculo, formulado de manera precisa por Emmy Noether en 1918, constituye uno de los resultados más profundos y de mayor alcance del cálculo variacional y sus extensiones.
De manera general, el teorema de Noether establece que si un funcional es invariante bajo un grupo uniparamétrico de transformaciones (en el tiempo, el espacio, las variables dependientes o una combinación de ellas), entonces existe una cantidad conservada asociada a tal simetría. Esta correspondencia entre invariancia y conservación no solo es esencial en física matemática, sino que también ha encontrado aplicaciones en la teoría del control óptimo y en formulaciones con retardos temporales (véase ).
En lo que sigue presentamos el enunciado del teorema en el contexto multivariable, adoptando la notación ya introducida anteriormente.
Comencemos considerando el problema de cálculo variacional, el minimizar Ecuación 2.1 bajo condiciones de frontera dadas \(y(a)=y_a\) y \(y(b)=y_b\).
Definición 2.3 (Invarianza de un Funcional) Sea \[ J[y]=\int_\Omega L(x,y(x),Dy(x))\,dx, \]
un funcional definido sobre un dominio \(\Omega\subset\mathbb{R}^n\), con \(y:\Omega\rightarrow\mathbb{R}^m\) y \(Dy(x)\in\mathbb{R}^{m\times n}\).
Considerando la transformación \[ \left\{\begin{split} \bar{x}&=x+\varepsilon\eta(x,y)+o(\varepsilon),\\ \bar{y}(x)&=y(x)+\varepsilon\xi(x,y)+o(\varepsilon), \end{split}\right. \tag{2.11}\]
donde \[ \eta:\Omega\times\mathbb{R}^m\rightarrow\mathbb{R}^n,\qquad\xi:\Omega\times\mathbb{R}^m\rightarrow\mathbb{R}^m \]
son funciones dadas. El funcional \(J\) se dice ser invariante bajo un grupo uniparamétrico de transformaciones infinitesimales (Ecuación 2.11) si, \[ J[y]=J[\bar{y}], \tag{2.12}\]
para toda \(y\) admisible y para cualquier subdominio \(\tilde{\Omega}\subseteq\Omega\)
Teorema 2.3 (Condiciones Necesarias de Invarianza) Si un funcional (Ecuación 2.1) es invariante bajo transformaciones(Ecuación 2.11), entonces \[ \begin{split} \sum_{j=1}^n\frac{\partial L}{\partial x_j}\eta_j(x,y) + \sum_{i=1}^m\frac{\partial L}{\partial y_i}\xi_i(x,y) &+ \sum_{i=1}^m\sum_{j=1}^n\frac{\partial L}{\partial\left(\frac{\partial y_i}{\partial x_j}\right)}\left(\frac{\partial\xi_i}{\partial x_j}-\sum_{k=1}^{n}\frac{\partial y_i}{\partial x_k}\frac{\partial\eta_k}{\partial x_j}\right)\\ &+ L(x,y,Dy)\sum_{j=1}^n\frac{\partial\eta_j}{\partial x_j}=0. \end{split} \tag{2.13}\]
Prueba. La invarianza de \(J\) (Ecuación 2.12) implica que, para todo subconjunto \(\Omega^\prime \subseteq \Omega\), \[ \int_{\Omega^\prime} L(x, y(x), Dy(x))\, dx = \int_{\tilde{\Omega^\prime}} L(\tilde{x}, \tilde{y}(\tilde{x}), D\tilde{y}(\tilde{x}))\, d\tilde{x}, \tag{2.14}\] donde \(\tilde{\Omega^\prime}\) es la imagen de \(\Omega'\) bajo la transformación infinitesimal \(\tilde{x} = x + \varepsilon \eta(x, y) + o(\varepsilon)\).
Haciendo el cambio de variable \(\tilde{x} = \tilde{x}(x) = x + \varepsilon \eta(x, y) + o(\varepsilon)\) en la integral del lado derecho de la igualdad, obtenemos
\[ \int_{\Omega'} L(x, y(x), Dy(x))\, dx = \int_{\Omega'} L(\tilde{x}(x), \tilde{y}(x), D\tilde{y}(x))\, \det\left(\frac{\partial \tilde{x}}{\partial x}\right)\, dx. \]
Dado que (Ecuación 2.14) se cumple para cualquier subconjunto \(\Omega^\prime\) de \(\Omega\), podemos remover los signos de integrales y escribir la igualdad equivalente \[ L(x, y(x), Dy(x)) = L(\tilde{x}(x), \tilde{y}(x), D\tilde{y}(x))\, \det\left(\frac{\partial \tilde{x}}{\partial x}\right). \tag{2.15}\]
Derivando ambos lados de la ecuación (Ecuación 2.15) respecto a \(\varepsilon\) y evaluando en \(\varepsilon=0\), se obtiene la condición necesaria de invarianza (Ecuación 2.13).
El lado izquierdo, al no depender de \(\varepsilon\), su derivada es cero. Así que pasamos a la derivada del lado derecho
Aplicamos la regla de la cadena para \(L(\bar{x}, \bar{y}, D\bar{y})\): \[ \left.\frac{d}{d\varepsilon} L(\bar{x}, \bar{y}, D\bar{y}) \right|_{\varepsilon=0} = \sum_{j=1}^n \frac{\partial L}{\partial x_j} \eta_j(x, y) + \sum_{i=1}^m \frac{\partial L}{\partial y_i} \xi_i(x, y) + \sum_{i=1}^m \sum_{j=1}^n \frac{\partial L}{\partial \left( \frac{\partial y_i}{\partial x_j} \right)} \frac{d}{d\varepsilon} \left( \frac{\partial \bar{y}_i}{\partial \bar{x}_j} \right)\Big|_{\varepsilon=0} \]
Calculamos la derivada de \(D\bar{y}\) usando la regla de la cadena: \[ \frac{\partial \bar{y}_i}{\partial \bar{x}_j} = \frac{\partial \bar{y}_i}{\partial x_k} \frac{\partial x_k}{\partial \bar{x}_j} \]
Para transformaciones infinitesimales, expandimos: \[ \frac{d}{d\varepsilon} \left( \frac{\partial \bar{y}_i}{\partial \bar{x}_j} \right)\Big|_{\varepsilon=0} = \frac{\partial \xi_i}{\partial x_j} - \sum_{k=1}^n \frac{\partial y_i}{\partial x_k} \frac{\partial \eta_k}{\partial x_j} \]
La derivada del determinante jacobiano es: \[ \left.\frac{d}{d\varepsilon} \det\left(\frac{\partial \bar{x}}{\partial x}\right)\right|_{\varepsilon=0} = \sum_{j=1}^n \frac{\partial \eta_j}{\partial x_j} \]
Por la regla del producto: \[ \left.\frac{d}{d\varepsilon} \left( L(\bar{x}, \bar{y}, D\bar{y}) \det\left(\frac{\partial \bar{x}}{\partial x}\right) \right) \right|_{\varepsilon=0} = \left.\frac{d}{d\varepsilon} L(\bar{x}, \bar{y}, D\bar{y}) \right|_{\varepsilon=0} + L(x, y, Dy) \sum_{j=1}^n \frac{\partial \eta_j}{\partial x_j} \]
Igualando la derivada total a cero, obtenemos: \[ \begin{split} \sum_{j=1}^n\frac{\partial L}{\partial x_j}\eta_j(x,y) + \sum_{i=1}^m\frac{\partial L}{\partial y_i}\xi_i(x,y) + \sum_{i=1}^m\sum_{j=1}^n\frac{\partial L}{\partial\left(\frac{\partial y_i}{\partial x_j}\right)}\left(\frac{\partial\xi_i}{\partial x_j}-\sum_{k=1}^{n}\frac{\partial y_i}{\partial x_k}\frac{\partial\eta_k}{\partial x_j}\right)\\ + L(x,y,Dy)\sum_{j=1}^n\frac{\partial\eta_j}{\partial x_j}=0. \end{split} \]
Esto concluye la demostración.
Definición 2.4 (Constante de Movimiento / Ley de Conservación) Decimos que \(C:\Omega\times\mathbb{R}^m\times\mathbb{R}^{m\times n}\rightarrow\mathbb{R}^n\) es una constante de movimiento (o ley de conservación) para (Ecuación 2.1), si satisface \[ \text{div }C(x,y(x),Dy(x))=0, \tag{2.16}\]
para todo extremal \(y(\cdot)\).
Teorema 2.4 (Teorema de DuBois-Reymond (Multivariable)) Sea \(J[y]\) un funcional (Ecuación 2.1) definido sobre funciones \(y:\Omega\to\mathbb{R}^m\) suficientemente regulares, donde \(Dy(x)\) denota la matriz de derivadas parciales de \(y\). Si \(y^*\) es un extremal de \(J\), entonces satisface la condición de DuBois-Reymond \[ \frac{\partial L}{\partial x}(x,y^*,Dy^*) = \text{Div }\left(L(x,y^*,Dy^*)I_n-\frac{\partial L}{\partial Dy}(x,y^*,Dy^*)Dy^*\right) \tag{2.17}\]
Prueba. Sea \(y^*\) un extremal del funcional (Ecuación 2.1), y consideremos la función \[ F_i(x):=L(x,y^*,Dy^*)-\sum_{j=1}^{m}\frac{\partial L}{\partial(\frac{\partial y_j}{\partial x_i})}(x,y^*,Dy^*)\frac{\partial y^*_j}{\partial x_i},\qquad i=1,\dots,n. \]
Al calcular la derivada con respecto a \(x_i\), obtenemos: \[ \begin{split} \frac{\partial F_i}{\partial x_i} = \frac{\partial L}{\partial x_i} &+ \sum_{j=1}^{m} \left[ \frac{\partial L}{\partial y_j} \frac{\partial y^*_j}{\partial x_i} + \sum_{k=1}^{n} \frac{\partial L}{\partial \left( \frac{\partial y_j}{\partial x_k} \right)} \frac{\partial^2 y^*_j}{\partial x_i \partial x_k} \right]\\ &- \sum_{j=1}^{m} \left[ \frac{\partial}{\partial x_i} \left( \frac{\partial L}{\partial \left( \frac{\partial y_j}{\partial x_i} \right)} \right) \frac{\partial y^*_j}{\partial x_i} + \frac{\partial L}{\partial \left( \frac{\partial y_j}{\partial x_i} \right)} \frac{\partial^2 y^*_j}{\partial x_i^2} \right]. \end{split} \]
Notemos que el término con \(k=i\) dentro de la suma \(\sum_{k=1}^{n} \frac{\partial L}{\partial \left( \frac{\partial y_j}{\partial x_k} \right)} \frac{\partial^2 y^*_j}{\partial x_i \partial x_k}\) se cancela con el último término, de modo que
\[ \begin{split} \frac{\partial F_i}{\partial x_i} = \frac{\partial L}{\partial x_i} & + \sum_{j=1}^{m} \left[ \frac{\partial L}{\partial y_j} \frac{\partial y^*_j}{\partial x_i} + \sum_{\substack{k=1\\ k\neq i}}^{n} \frac{\partial L}{\partial \left( \frac{\partial y_j}{\partial x_k} \right)} \frac{\partial^2 y^*_j}{\partial x_i \partial x_k} -\frac{\partial}{\partial x_i} \left( \frac{\partial L}{\partial \left( \frac{\partial y_j}{\partial x_i} \right)} \right) \frac{\partial y^*_j}{\partial x_i}\right]. \end{split} \]
Sumando sobre \(i=1,\dots n\). Esto produce \[ \begin{split} \sum_{i=1}^n\frac{\partial F_i}{\partial x_i} &= \sum_{i=1}^n \frac{\partial L}{\partial x_i} + \sum_{j=1}^{m} \sum_{i=1}^n \frac{\partial L}{\partial y_j} \frac{\partial y^*_j}{\partial x_i} \\ &+ \sum_{j=1}^{m} \sum_{i=1}^n \sum_{\substack{k=1\\ k\neq i}}^{n} \frac{\partial L}{\partial \left( \frac{\partial y_j}{\partial x_k} \right)} \frac{\partial^2 y^*_j}{\partial x_i \partial x_k} - \sum_{j=1}^{m} \sum_{i=1}^n \frac{\partial}{\partial x_i} \left( \frac{\partial L}{\partial \left( \frac{\partial y_j}{\partial x_i} \right)} \right) \frac{\partial y^*_j}{\partial x_i} \end{split} \]
Ahora, notemos que el tercer término involucra una doble suma sobre \(i\) y \(k\) con \(i\neq k\). Podemos reorganizarla como
\[ \sum_{i=1}^n \sum_{\substack{k=1\\ k\neq i}}^n A_{ik} = \sum_{k=1}^n \sum_{\substack{i=1\\ i\neq k}}^n A_{ik} \]
Por lo tanto, para cada \(j\):
\[ \sum_{i=1}^n \sum_{\substack{k=1\\ k\neq i}}^n \frac{\partial L}{\partial \left( \frac{\partial y_j}{\partial x_k} \right)} \frac{\partial^2 y^*_j}{\partial x_i \partial x_k} = \sum_{k=1}^n \sum_{\substack{i=1\\ i\neq k}}^n \frac{\partial L}{\partial \left( \frac{\partial y_j}{\partial x_k} \right)} \frac{\partial^2 y^*_j}{\partial x_i \partial x_k} \]
Ahora, sumando el término \(k=i\) (que fue excluido), notamos que:
\[ \sum_{i=1}^n \sum_{k=1}^n \frac{\partial L}{\partial \left( \frac{\partial y_j}{\partial x_k} \right)} \frac{\partial^2 y^*_j}{\partial x_i \partial x_k} = \sum_{k=1}^n \sum_{i=1}^n \frac{\partial L}{\partial \left( \frac{\partial y_j}{\partial x_k} \right)} \frac{\partial^2 y^*_j}{\partial x_i \partial x_k} \]
Pero el término con \(k=i\) es:
\[ \sum_{i=1}^n \frac{\partial L}{\partial \left( \frac{\partial y_j}{\partial x_i} \right)} \frac{\partial^2 y^*_j}{\partial x_i^2} \]
Por lo tanto, la suma sobre \(k\neq i\) más la suma sobre \(k=i\) recupera la suma total:
\[ \sum_{i=1}^n \sum_{\substack{k=1\\ k\neq i}}^n \frac{\partial L}{\partial \left( \frac{\partial y_j}{\partial x_k} \right)} \frac{\partial^2 y^*_j}{\partial x_i \partial x_k} + \sum_{i=1}^n \frac{\partial L}{\partial \left( \frac{\partial y_j}{\partial x_i} \right)} \frac{\partial^2 y^*_j}{\partial x_i^2} = \sum_{i=1}^n \sum_{k=1}^n \frac{\partial L}{\partial \left( \frac{\partial y_j}{\partial x_k} \right)} \frac{\partial^2 y^*_j}{\partial x_i \partial x_k} \]
Ahora, agrupando todos los términos para cada \(j\):
\[ \begin{split} \sum_{i=1}^n\frac{\partial F_i}{\partial x_i} = \sum_{i=1}^n \frac{\partial L}{\partial x_i} + \left. \sum_{j=1}^{m} \right[ \sum_{i=1}^n \frac{\partial L}{\partial y_j} \frac{\partial y^*_j}{\partial x_i} &+ \left( \sum_{i=1}^n \sum_{k=1}^n \frac{\partial L}{\partial \left( \frac{\partial y_j}{\partial x_k} \right)} \frac{\partial^2 y^*_j}{\partial x_i \partial x_k} - \sum_{i=1}^n \frac{\partial L}{\partial \left( \frac{\partial y_j}{\partial x_i} \right)} \frac{\partial^2 y^*_j}{\partial x_i^2} \right)\\ &- \left.\sum_{i=1}^n \frac{\partial}{\partial x_i} \left( \frac{\partial L}{\partial \left( \frac{\partial y_j}{\partial x_i} \right)} \right) \frac{\partial y^*_j}{\partial x_i} \right] \end{split} \]
Pero \(\sum_{i=1}^n \sum_{k=1}^n \frac{\partial L}{\partial \left( \frac{\partial y_j}{\partial x_k} \right)} \frac{\partial^2 y^*_j}{\partial x_i \partial x_k}\) es igual a \(\sum_{k=1}^n \frac{\partial L}{\partial \left( \frac{\partial y_j}{\partial x_k} \right)} \sum_{i=1}^n \frac{\partial^2 y^*_j}{\partial x_i \partial x_k}\).
Ahora, por la simetría de las derivadas cruzadas (asumiendo suficiente regularidad), \(\sum_{i=1}^n \frac{\partial^2 y^*_j}{\partial x_i \partial x_k} = \frac{\partial}{\partial x_k} \left( \sum_{i=1}^n \frac{\partial y^*_j}{\partial x_i} \right )\).
Notemos que la ecuación de Euler-Lagrange (Ecuación 2.9) nos permite cancelar los términos por lo tanto, para cada \(j\):
\[ \frac{\partial L}{\partial y_j} - \sum_{i=1}^n \frac{\partial}{\partial x_i} \left( \frac{\partial L}{\partial \left( \frac{\partial y_j}{\partial x_i} \right)} \right ) = 0. \]
Por lo tanto, para cada \(j\)
\[ \sum_{i=1}^n \frac{\partial L}{\partial y_j} \frac{\partial y^*_j}{\partial x_i} = \sum_{i=1}^n \frac{\partial}{\partial x_i} \left( \frac{\partial L}{\partial \left( \frac{\partial y_j}{\partial x_i} \right)} \right ) \frac{\partial y^*_j}{\partial x_i}. \]
Así, los términos se cancelan y obtenemos
\[ \sum_{i=1}^n\frac{\partial F_i}{\partial x_i} = \sum_{i=1}^n \frac{\partial L}{\partial x_i}, \]
que por la definición de divergencia, da paso a
\[ \text{Div}\left( L(x, y^*, Dy^*) I_n - \frac{\partial L}{\partial Dy}(x, y^*, Dy^*) Dy^* \right ) = \frac{\partial L}{\partial x}(x, y^*, Dy^*). \]
Por lo tanto, se cumple la identidad de DuBois-Reymond:
\[ \frac{\partial L}{\partial x}(x, y^*, Dy^*) = \text{Div}\left( L(x, y^*, Dy^*) I_n - \frac{\partial L}{\partial Dy}(x, y^*, Dy^*) Dy^* \right ). \]
Teorema 2.5 (Teorema de Noether) Si \(J\) (Ecuación 2.1) es invariante bajo transformaciones infinitesimales (Ecuación 2.11), entonces \[ C(x,y,Dy):=\sum_{i=1}^m\sum_{j=1}^n\frac{\partial L}{\partial\left(\frac{\partial y_i}{\partial x_j}\right)}\xi_i+\sum_{j=1}^n\left(L(x,y,Dy)-\sum_{i=1}^m\sum_{k=1}^n\frac{\partial L}{\partial\left(\frac{\partial y_i}{\partial x_k}\right)}\frac{\partial y_i}{\partial x_k}\right)\eta_j \] satisface la ley de conservación (Definición 2.4)
Prueba. Sea \(y^*\) un extremal del funcional \(J\), y supongamos que este es invariante bajo transformaciones infinitesimales (Ecuación 2.11). Por la condición necesaria de invarianza (Ecuación 2.13), se cumple \[ \begin{split} \sum_{j=1}^n\frac{\partial L}{\partial x_j}\eta_j + \sum_{i=1}^m\frac{\partial L}{\partial y_i}\xi_i + \sum_{i=1}^m\sum_{j=1}^n\frac{\partial L}{\partial\left(\frac{\partial y_i}{\partial x_j}\right)}\left(\frac{\partial \xi_i}{\partial x_j}-\sum_{k=1}^n\frac{\partial y^*_i}{\partial x_k}\frac{\partial \eta_k}{\partial x_j}\right) + L\sum_{j=1}^n\frac{\partial \eta_j}{\partial x_j} = 0. \end{split} \]
Usando las ecuaciones de Euler-Lagrange(Ecuación 2.9) para cada \(i\), podemos reescribir el segundo término como \[ \sum_{i=1}^m\frac{\partial L}{\partial y_i}\xi_i=\sum_{i=1}^m\sum_{j=1}^n\frac{\partial}{\partial x_j}\left(\frac{\partial L}{\partial\left(\frac{\partial y_i}{\partial x_j}\right)}\right)\xi_i. \]
Sustituyendo en la condición de invarianza \[ \begin{split} \sum_{j=1}^n\frac{\partial L}{\partial x_j}\eta_j &+ \sum_{i=1}^m\sum_{j=1}^n\frac{\partial}{\partial x_j}\left(\frac{\partial L}{\partial\left(\frac{\partial y_i}{\partial x_j}\right)}\right)\xi_i + \sum_{i=1}^m\sum_{j=1}^n\frac{\partial L}{\partial\left(\frac{\partial y_i}{\partial x_j}\right)}\frac{\partial \xi_i}{\partial x_j}\\ &- \sum_{i=1}^m\sum_{j=1}^n\sum_{k=1}^n\frac{\partial L}{\partial\left(\frac{\partial y_i}{\partial x_j}\right)}\frac{\partial y^*_i}{\partial x_k}\frac{\partial \eta_k}{\partial x_j} + L\sum_{j=1}^n\frac{\partial \eta_j}{\partial x_j} = 0. \end{split} \]
Agrupando términos que involucran a \(\xi_i\) tenemos que \[ \sum_{i=1}^m\sum_{j=1}^n\frac{\partial}{\partial x_j}\left(\frac{\partial L}{\partial\left(\frac{\partial y_i}{\partial x_j}\right)}\xi_i\right)=\sum_{i=1}^m\sum_{j=1}^n\frac{\partial}{\partial x_j}\left(\frac{\partial L}{\partial\left(\frac{\partial y_i}{\partial x_j}\right)}\right)\xi_i + \sum_{i=1}^m\sum_{j=1}^n\frac{\partial L}{\partial\left(\frac{\partial y_i}{\partial x_j}\right)}\frac{\partial \xi_i}{\partial x_j}. \]
De manera análoga, los términos que involucran a \(\eta_j\), pueden escribirse como \[ \sum_{j=1}^n\frac{\partial}{\partial x_j}\left[\left(L(x,y,Dy)-\sum_{i=1}^m\sum_{k=1}^n\frac{\partial L}{\partial\left(\frac{\partial y_i}{\partial x_k}\right)}\frac{\partial y_i}{\partial x_k}\right)\eta_j\right]. \]
Por lo que la condición de invarianza se transforma en la siguiente expresión \[ \sum_{j=1}^n\frac{\partial}{\partial x_j}\left[\sum_{i=1}^m\frac{\partial L}{\partial\left(\frac{\partial y_i}{\partial x_j}\right)}\xi_i + \left(L(x,y,Dy)-\sum_{i=1}^m\sum_{k=1}^n\frac{\partial L}{\partial\left(\frac{\partial y_i}{\partial x_k}\right)}\frac{\partial y_i}{\partial x_k}\right)\eta_j\right] = 0 \]
Con esto definimos el vector conservado \(C\in\mathbb{R}^n\) por componentes \[ C_j(x,y,Dy)=\sum_{i=1}^m\frac{\partial L}{\partial\left(\frac{\partial y_i}{\partial x_j}\right)}\xi_i + \left(L(x,y,Dy)-\sum_{i=1}^m\sum_{k=1}^n\frac{\partial L}{\partial\left(\frac{\partial y_i}{\partial x_k}\right)}\frac{\partial y_i}{\partial x_k}\right)\eta_j, \]
para toda \(j=1,\dots, n\). Finalmente, la condición de invarianza se convierte en \[ \text{Div } C(x,y,Dy):=\sum_{j=1}^n\frac{\partial C_j}{\partial x_j}=0. \]
Con esto concluimos que \(C\) satisface la ley de conservación.
2.12 Transformación de Legendre y Hamiltoniano
La transformación de Legendre es una herramienta esencial en el cálculo variacional y en la física matemática, ya que permite reformular una función (o funcional) expresada en ciertas variables y sus derivadas en función de variables duales. En el contexto del cálculo variacional, se utiliza para pasar del Lagrangiano \(L\) al Hamiltoniano \(H\).
Definición 2.5 Sea una función \(f:\mathbb{R}^n\rightarrow\mathbb{R}\). Definimos la transformada Legendre-Fenchel (LF) de \(f(x)\) por la formula variacional \[ f^*(p)=\sup_{x\in\mathbb{R}^n}\left\{\langle p,x\rangle-f(x) \right\}. \tag{2.18}\]
Observación 2.1. También es común definir la transformada de Legendre-Fenchel usando el ínfimo (mínimo) en lugar del supremo: \[ g^*(p) = \inf_{x \in \mathbb{R}^n} \left\{ \langle p, x \rangle -g(x)\right\}. \tag{2.19}\]
El pasar de una versión de la transformada LF a otra es simplemente cuestión de introducir un cambio de signo. Esto es, \[ -f^*(p)=-\sup_{x\in\mathbb{R}^n}\left\{\langle p,x\rangle-f(x) \right\}=\inf_{x\in\mathbb{R}^n}\left\{-\langle p,x\rangle+f(x) \right\}. \]
de modo que \[ g^*(q)=\inf_{x\in\mathbb{R}^n}\left\{\langle q,x\rangle-g(x) \right\}, \]
haciendo las transformaciones \(p = -q\) y \(g = -f\), se obtiene la equivalencia entre ambas definiciones (Touchette 2005).
Observación 2.2. Si la función \(f:\mathbb{R}^n\rightarrow\mathbb{R}\) es convexa y diferenciable, el supremo (respectivamente el ínfimo) en la definición de la Ecuación 2.18 (respectivamente en la Ecuación 2.19) de la transformada de Legendre-Fenchel, se alcanza en un punto \(x_p\) que satisface la condición de primer orden \[ p = \nabla f(x_p). \]
Por lo tanto, la transformada de Legendre-Fenchel se puede definir por \[ f^*(p) = \langle p, x_p \rangle - f(x_p), \tag{2.20}\]
Esta expresión constituye la transformación de Legendre clásica, que aparece con frecuencia en problemas variacionales, en termodinámica y en mecánica hamiltoniana (Touchette 2005).
Aplicando la transformada de Legendre sobre el Lagrangiano \(L(x,y,Dy)\) de un funcional (Ecuación 2.1) obtenemos la función transformada: \[ H(x, y, p) = \sup_{Dy} \left\{ \sum_{j=1}^N \sum_{i=1}^n p_{j,i} \frac{\partial y_j}{\partial x_i} - L(x, y, Dy) \right\}, \tag{2.21}\]
donde los momentos conjugados \(p_{j,i}\) se definen por
\[ p_{j,i} := \frac{\partial L}{\partial \left(\frac{\partial y_j}{\partial x_i}\right)}. \]
A esta nueva función (Ecuación 2.21), se le conoce como el Hamiltoniano asociado al problema variacional. Una vez definido, es posible describir la evolución de las trayectorías óptimas mediante las ecuaciones de Hamilton, las cuales constituyen un sistema equivalente a las ecuaciones de Euler-Lagrange (Ecuación 2.9). Esta reformulación es especialmente útil en física y en teoría de control óptimo.
En el caso general las ecuaciones de Hamilton asociadas se expresan como: \[ \begin{split} \frac{\partial y_j}{\partial x_i}=\frac{\partial H}{\partial p_{j,i}},\qquad\frac{\partial p_{j,i}}{\partial x_i}=-\frac{\partial H}{\partial y_j}\qquad\forall i=1,\dots,n; j=1,\dots,N. \end{split} \]
En el caso particular en que \(n=1=N\), es decir, para una función \(y(x)\) de una sola variable, el Hamiltoniano toma la forma \[ H(x, y, p) = \sup_{y'} \left\{ p y' - L(x, y, y') \right\}, \]
donde \(p = \frac{\partial L}{\partial y'}\).
Las ecuaciones de Hamilton asociadas se reducen al sistema clásico: \[ \begin{aligned} \frac{dy}{dx} &= \frac{\partial H}{\partial p}, \\ \frac{dp}{dx} &= -\frac{\partial H}{\partial y}. \end{aligned} \]
Estas ecuaciones constituyen la base de la mecánica hamiltoniana y también se utilizan en el análisis de problemas de control óptimo, donde el momento \(p\) se interpreta como un multiplicador asociado a las restricciones dinámicas del sistema.
Ejemplo 2.10
2.13 Problema Primal y Dual en Cálculo Variacional
En el cálculo variacional, el problema primal consiste en encontrar una función \(y^*\) dentro de un conjunto de funciones admisibles \(\mathcal{A}\) que minimice (o maximice) un funcional dado \(J[y]\). Formalmente, el problema primal se expresa como: \[ \min_{y \in \mathcal{A}} J[y], \]
donde \(J[y]\) es típicamente de la forma \[ J[y] = \int_\Omega L(x, y(x), Dy(x)) dx, \]
como se definió en la sección de Funcionales en Varias Variables.
Las condiciones necesarias para que \(y^*\) sea óptima se obtienen a través de la anulación de la primera variación, lo que conduce a las ecuaciones de Euler-Lagrange (ver Ecuación 2.9), que deben satisfacer todas las funciones extremales del funcional.
El problema dual surge al asociar al problema primal una formulación alternativa, generalmente a través de la transformación de Legendre-Fenchel (ver Definición 2.5), que permite expresar el problema en términos de variables duales (momentos conjugados). El dual típicamente busca maximizar (o minimizar) un funcional dual \(J^*[p]\) sobre un conjunto dual de funciones o campos \(p\), y está íntimamente relacionado con el Hamiltoniano \(H\) construido a partir del Lagrangiano \(L\).
La relación entre el problema primal y el dual se fundamenta en la teoría de la dualidad convexa, donde bajo ciertas condiciones (por ejemplo, convexidad y regularidad del funcional), ambos problemas tienen el mismo valor óptimo (sin brecha de dualidad).
Ejemplo 2.11