2  Cálculo Variacional

2.1 ¿Qué es un Funcional?

Un funcional es una regla de correspondencia que asigna un único número real a cada función de cierto conjunto determinado. Formalmente si \(\mathcal{A}\) es un conjunto de funciones definidas sobre un conjunto \(\Omega\), un funcional es una aplicación \[ J:\mathcal{A}\rightarrow\mathbb{R}, \qquad y\mapsto J[y] \]

Ejemplo 2.1  

Supongamos que \(x(\cdot)\) es una función continua de \(t\) definida en el intervalo \([t_0,t_f]\) y \[ J(x)=\int_{t_0}^{t_f}x(t)dt, \]

un funciónal que arroja el área bajo la curva de \(x(t)\).

2.2 Funcionales en Varias Variables

Generalizando a funciones vectoriales y dominios multidimensionales, definimos el funcional \[ J[y]:=\int_\Omega L(x,y(x),Dy(x))dx, \tag{2.1}\]

donde

  • \(\Omega\subset\mathbb{R}^n,\quad n\geq1,\) es un conjunto abierto y acotado cuyos puntos denotamos por \(x=(x_1,x_2,\dots,x_n)\);

  • \(y:\Omega\rightarrow\mathbb{R}^N\) es una función expresada como \(y=\left(y_1,\dots,y_N\right)\), perteneciente a un espacio de funciones admisibles \(\mathcal{A}\) donde las condiciones de frontera se imponen como restricciones sobre \(\mathcal{A}\).

  • De modo que \[ Dy=\left(\frac{\partial y_j}{\partial x_i}\right)^{1\leq j\leq N}_{1\leq i\leq n}\quad\in\mathbb{R}^{N\times n} \]

  • \(L:\Omega\times\mathbb{R}^N\times\mathbb{R}^{N\times n}\rightarrow\mathbb{R}\) es una función dada, denominada Lagrangiano, que satisface ciertas condiciones de regularidad dependiendo de cada problema (como continuidad, diferenciabilidad, entre otras).

2.3 Espacios Funcionales

En el cálculo variacional se trabaja con espacios funcionales, los cuales permiten imponer las condiciones de regularidad necesarias para cada problema. Aunque no existe un “espacio universal” aplicable a todos los casos, debido a la naturaleza de cada problema, sí es posible identificar ciertos espacios funcionales que aparecen con frecuencia en los problemas típicos del cálculo variacional, entre ellos:

  • \(C^k(\Omega)\): Espacio de funciones \(k\)-veces continuamente diferenciables en \(\Omega\) (Evans 2022).
  • \(C_c^\infty(\Omega)\): Espacio de funciones infinitamente diferenciables con soporte compacto en \(\Omega\) (Gelfand y Fomin 1963)
  • \(L^p(\Omega)\): Espacios de Lebesgue.
  • Espacio de Sobolev: Denotado por \(W^{k,p}(\Omega)\), es el espacio formado por funciones cuyas derivadas en el sentido débil hasta orden \(k\) existen y pertenecen a \(L^p(\Omega)\) (Evans 2022).

Adicionalmente, se introducen los espacios tangente y cotangente, los cuales están asociados al conjunto de funciones admisibles \(\mathcal{A}\). El espacio tangente \(T_y\mathcal{A}\) representa las variaciones admisibles de \(y\in\mathcal{A}\), es decir aquellas “perturbaciones” de \(y\) que preservan las restricciones impuestas por el problema. Mientras que el espacio cotangente \(T^*_y\mathcal{A}\) es el dual del espacio tangente, es decir, contiene los funcionales lineales que actúan sobre las variaciones \(\eta\in T_y\mathcal{A}\).

2.4 Continuidad de un Funcional

Un funcional \(J:\mathcal{A}\rightarrow\mathbb{R}\) se dice continuo en \(y\in\mathcal{A}\) si para toda sucesión \({y_k}\in\mathcal{A}\) tal que \[ ||y_k-y||_{\mathcal{A}}\rightarrow 0, \]

se cumple que \[ J[y_k]\rightarrow J[y]. \]

Además, decimos que el funcional \(J\) es semicontinuo inferiormente en \(y\in\mathcal{A}\) si para toda sucesión \({y_k}\in\mathcal{A}\) tal que \(||y_k-y||_{\mathcal{A}}\rightarrow 0\), se cumple que \[ J[y]\leq \liminf_{k\to\infty} J[y_k]. \]

De manera análoga, \(J\) es semicontinuo superiormente en \(y\) si \[ J[y]\geq \limsup_{k\to\infty} J[y_k]. \]

Ejemplo 2.2  

Consideremos el espacio de funciones continuas en \([0,1]\) (\(\mathcal{A}=C^0([0,1])\)), con la norma del supremo: \[ ||y||_\infty=\sup_{x\in[0,1]}|y(x)|. \]

Definimos el funcional \[ J[y]=\int_0^1y(x)dx \]

Sea \({y_k}\subset\mathcal{A}\) una sucesión que converge uniformemente a una función \(y\in\mathcal{A}\), es decir, \(||y_k-y||_\infty\rightarrow 0\) cuando \(k\rightarrow\infty\). Dado que toda función continua en un intervalo cerrado y acotado es integrable, y la convergencia uniforme implica convergencia puntual, entonces por el teorema de convergencia uniforme, se tiene: \[ \lim_{k\rightarrow\infty}\int_0^1 y_k(x)dx=\int_0^1\lim_{k\rightarrow\infty}y_k(x)dx=\int_0^1 y(x)dx. \]

Por lo tanto, \[ J[y_k]\rightarrow J[y] \]

Este resultado muestra que el funcional \(J\) es continuo en todo \(\mathcal{A}\).

Ejemplo 2.3  

Sea el espacio \(\mathcal{A}=C^0([0,1])\), con la norma del supremo \[ ||y||_\infty=\sup_{x\in[0,1]}|y(x)|. \]

Definimos el funcional \[ J[y]= \left\{ \begin{array}{ll} 0\quad\text{si }\sup_{x\in[0,1]} y(x)\leq 1,\\ 1\quad\text{si }\sup_{x\in[0,1]} y(x)> 1. \end{array} \right. \]

Considerando la función constante \(y(x)=1\). Claramente, \[ \sup_{x}y(x)=1\quad\Rightarrow\quad J[y]=0. \]

Ahora, definimos una sucesión de funciones continuas \[ y_k(x)=1+\frac{1}{k},\qquad\forall x\in[0,1]. \]

Esta sucesión converge uniformemente a la función \(y\), ya que \[ ||y_k-y||_\infty=\sup_{x\in[0,1]}|y_k(x)-y(x)|=\frac{1}{k}\rightarrow 0\qquad\text{cuando } k\rightarrow\infty. \]

Sin embargo, observamos que \(\sup_x y_k(x)=1+\frac{1}{k}>1\), así para todo \(k\), se tendría \(J[y_k]=1\), y en consecuencia: \[ J[y_k]=1\not\rightarrow 0= J[y], \]

así que el funcional no es continuo en \(y\).

Sin embargo, notemos que sí es semicontinuo inferiormente. Sean \(\{y_k\}\subset\mathcal{A}\) una sucesión y \(y\in\mathcal{A}\) una función tal que \(y_k\rightarrow y\) uniformemente. Probaremos que \[ J[y]\leq\liminf_{k\rightarrow\infty} J[y_k] \]

Analizamos dos casos posibles, cuando \(J[y]=0\) y cuando \(J[y]=1\).

  • Caso 1: \(\sup_{x\in[0,1]} y(x) \leq 1\). Entonces, por definición, \(J[y]=0\). Además, como \(y_k \to y\) uniformemente, para toda \(\epsilon > 0\) existe \(K\in\mathbb{N}\) tal que para todo \(k \geq K\), \[ \sup_{x\in[0,1]} y_k(x)\leq \sup_{x\in[0,1]} y(x) +\epsilon \leq 1 + \epsilon. \]

Para \(\epsilon\) lo suficientemente pequeño, se tiene que \(\sup_{x\in[0,1]}y_k(x) \leq 1\), entonces \(J[y_k]=0\) para todo \(k\) suficientemente grande, así \[ \liminf_{k\to\infty} J[y_k] \geq 0 = J[y]. \]

  • Caso 2: \(\sup_{x\in[0,1]} y(x) > 1\). Entonces \(J[y]=1\). Como \(y_k \to y\) uniformemente, para \(k\) suficientemente grande, \(\sup_{x\in[0,1]} y_k(x) > 1\), así que \(J[y_k]=1\) eventualmente. Por lo tanto, \(\liminf_{k\to\infty} J[y_k]=1=J[y]\).

En ambos casos se cumple \(J[y] \leq \liminf_{k\to\infty} J[y_k]\), es decir, el funcional es semicontinuo inferiormente.

2.5 Linealidad de un Funcional

Definición 2.1 Sea \(R\) un espacio lineal normado y sea \(\varphi[h]\) un funcional en \(R\). Decimos que \(\varphi[h]\) es un funcional lineal (continuo) si satisface el principio de homogeneidad \[ \varphi[\alpha h]=\alpha\varphi[h], \]

para toda \(h\in R\) y para cada número real \(\alpha\) tal que \(\alpha h\in R\), y el principio de aditividad \[ \varphi[h_1+h_2]=\varphi[h_1]+\varphi[h_2] \]

para cada \(h_1,h_2, h_1+h_2\in R\).

Ejemplo 2.4  

Consideremos el funcional \(J[x]=\int_{t_0}^{t_f}x(t)dt\), donde \(x\) es una función continua. Veamos que \(J\) satisface las condiciones de linealidad:

  • Homogeneidad: Para cualquier escalar \(\alpha\), \[ \begin{split} J[\alpha x] &= \int_{t_0}^{t_f} \alpha x(t) dt = \alpha \int_{t_0}^{t_f} x(t) dt = \alpha J[x]. \end{split} \]

  • Aditividad: Para funciones \(x_1\) y \(x_2\), \[ \begin{split} J[x_1 + x_2] &= \int_{t_0}^{t_f} (x_1(t) + x_2(t)) dt = \int_{t_0}^{t_f} x_1(t) dt + \int_{t_0}^{t_f} x_2(t) dt\\ &= J[x_1] + J[x_2]. \end{split} \]

Por lo tanto, \(J\) es un funcional lineal.

Ejemplo 2.5  

Ahora consideremos el funcional \(F[x]=\int_{t_0}^{t_f} [x(t)]^2 dt\), con \(x\) una función continua. En este caso al analizar el principio de homogeneidad observamos que \[ \begin{split} F[\alpha x]&=\int_{t_0}^{t_f}[\alpha x(t)]^2dt=\alpha^2 \int_{t_0}^{t_f}[x(t)]^2dt\\ \\ \alpha F[x]&=\alpha\int_{t_0}^{t_f}[x(t)]^2dt \end{split} \]

Claramente \(F[\alpha x]\neq\alpha F[x]\) para todo \(\alpha\). Así, el funcional \(F\) es no lineal.

2.6 El Incremento de un Funcional

Definimos el incremento de un funcional \(J\) en la dirección de una función \(\eta\) como: \[ \Delta J[y,\eta] := J[y + \eta] - J[y]. \tag{2.2}\]

En este contexto, \(\eta\) representa una perturbación de la función \(y\) dentro del espacio de funciones admisibles. Al analizar este incremento, particularmente en el caso donde las perturbaciones son pequeñas, nos permite evaluar la sensibilidad del funcional respecto a cambios en \(y\). Este análisis resulta esencial para introducir el concepto de variación del funcional, el cual es una herramienta clave en la formulación de condiciones necesarias de optimalidad en el cálculo variacional.

Ejemplo 2.6  

Consideraremos el problema clásico de la braquistócrona*, en el cual buscamos la curva óptima \(y(x)\) por la cual una partícula, partiendo desde \(A=(x_0, y(x_0))\), desciende hasta \(B=(x_1, y(x_1))\) bajo el efecto de la gravedad, sin tomar en cuenta la fricción, en el menor tiempo posible. El funcional asociado al tiempo de descenso es: \[ J[y]=\int_{x_0}^{x_1} L(x,y,y^\prime)dx\quad\text{ con }\quad L(x,y,y^\prime)=\frac{\sqrt{1+(y^\prime)^2}}{\sqrt{2g\left(y(x_1)-y\right)}}. \tag{2.3}\]

Para estudiar cómo varía este funcional bajo una perturbación de la curva, consideramos \(y_\varepsilon(x)=y(x)+\varepsilon\eta(x)\), donde \(\eta\in C^1([x_0,x_1])\) satisface \(\eta(x_0)=\eta(x_1)=0\). Así, el incremento del funcional es \[ \begin{split} \Delta J[y,\eta]&=J[y_\varepsilon]-J[y] \\ &=\int_{x_0}^{x_1}\left(\frac{\sqrt{1+(y^\prime+\varepsilon\eta^\prime)^2}}{\sqrt{2g\left(y(x_1)-y-\varepsilon\eta\right)}}\right)dx-\int_{x_0}^{x_1}\left(\frac{\sqrt{1+(y^\prime)^2}}{\sqrt{2g\left(y(x_1)-y\right)}}\right)dx \\ &=\int_{x_0}^{x_1}\left(\frac{\sqrt{1+(y^\prime+\varepsilon\eta^\prime)^2}}{\sqrt{2g\left(y(x_1)-y-\varepsilon\eta\right)}}-\frac{\sqrt{1+(y^\prime)^2}}{\sqrt{2g\left(y(x_1)-y\right)}}\right)dx. \end{split} \tag{2.4}\]

2.7 La Primera Variación

Definición 2.2 Sea \(J:\mathcal{A}\rightarrow\mathbb{R}\) un funcional definido sobre un espacio de funciones admisibles \(\mathcal{A}\), y sea \(y\in\mathcal{A}\). Decimos que \(J\) es diferenciable en \(y\) si existe una aplicación lineal \[ \delta J[y;\cdot]:T_y\mathcal{A}\rightarrow\mathbb{R}, \]

tal que, para toda perturbación admisible \(\eta\in T_y\mathcal{A}\), se cumple la relación \[ J[y+\eta]-J[y]=\delta J[y;\eta]+o(\eta), \]

donde \[ \lim_{||\eta||\rightarrow 0}\frac{o(\eta)}{||\eta||}=0. \]

En este caso, \(\delta J[y;\eta]\) es la variación del funcional \(J\) en la dirección de la perturbación \(\eta\), y representa la parte lineal principal del incremento de \(J\) cuando \(y\) es perturbada por \(\eta\). Es decir, mide la sensibilidad de \(J\) ante pequeñas variaciones de \(y\) en la dirección de \(\eta\).

Si consideramos un funcional \[ J[y]:=\int_\Omega L(x,y(x),Dy(x))dx, \]

y consideremos perturbaciones de la forma: \[ y_\varepsilon(x):=y(x)+\varepsilon\eta(x),\qquad\eta\in T_y\mathcal{A}, \]

Entonces, el funcional evaluado en \(y_\varepsilon\) se expresa como: \[ J[y_\varepsilon]=\int_\Omega L(x,y(x)+\varepsilon\eta(x),Dy(x)+\varepsilon D\eta(x))dx. \]

Calculamos la primera variación de \(J\) en dirección de \(\eta\) como:

\[ \delta J[y;\eta]:=\left.\frac{d}{d\varepsilon}J[y_\varepsilon]\right|_{\varepsilon=0}=\int_\Omega\sum_{j=1}^N\left[\frac{\partial L}{\partial y_j}\eta_j+\sum_{i=1}^n\frac{\partial L}{\partial\left(\frac{\partial y_j}{\partial x_i}\right)}\frac{\partial\eta_j}{\partial x_i}\right]dx. \tag{2.5}\]

Ejemplo 2.7  

Siguiendo con el problema de la Brachistócrona trabajado en el Ejemplo 2.6. La primera variación del funcional Ecuación 2.3 se obtiene derivando respecto a \(\varepsilon\) en \(\varepsilon=0\) el funcional evaluado en la función \(y_\varepsilon(x) = y(x) + \varepsilon \eta(x)\): \[ \begin{split} \delta J[y;\eta] = \left. \frac{d}{d\varepsilon} J[y_\varepsilon] \right|_{\varepsilon=0} &=\left.\int_{x_0}^{x_1}L\left(x,y+\varepsilon\eta,y^\prime+\varepsilon\eta^\prime\right)dx\right|_{\varepsilon=0}\\ &=\int_{x_0}^{x_1}\left(L_y\eta+L_{y^\prime}\eta^\prime\right)dx \end{split} \]

donde \(\eta(x_0) = \eta(x_1) = 0\) y \[ \begin{split} L_y &=\frac{\partial}{\partial y}\left(\frac{\sqrt{1+(y^\prime)^2}}{\sqrt{2g(y(x_1)-y)}}\right)=\frac{\sqrt{1 + (y')^2}}{2 \sqrt{2g} (y(x_1) - y)^{3/2}}\\ L_{y^\prime} &=\frac{\partial}{\partial y^\prime}\left(\frac{\sqrt{1+(y^\prime)^2}}{\sqrt{2g(y(x_1)-y)}}\right)=\frac{(y')}{\sqrt{1 + (y')^2} \sqrt{2g(y(x_1) - y)}} \end{split} \]

al sustituir obtenemos que \[ \delta J[y;\eta]= \int_{x_0}^{x_1} \left[\frac{\sqrt{1 + (y')^2}}{2 \sqrt{2g} (y(x_1) - y)^{3/2}} \left( \eta \right)+ \frac{(y')}{\sqrt{1 + (y')^2} \sqrt{2g(y(x_1) - y)}}\left(\eta'\right)\right] dx. \tag{2.6}\]

Esta expresión mide la sensibilidad del tiempo de descenso ante pequeñas perturbaciones de la curva \(y\) en la dirección de \(\eta\).

Teorema 2.1 La variación de un funcional diferenciable es única.

Prueba. Sea \(J:\mathcal{A}\rightarrow \mathbb{R}\) un funcional diferenciable definido sobre un espacio normado \(\mathcal{A}\), y sea \(t\in\mathcal{A}\). Supongamos que existen dos aplicaciones lineales \[ \varphi_1,\varphi_2:T_y\mathcal{A}\rightarrow\mathbb{R} \]

tales que para toda perturbación \(\eta\in T_y\mathcal{A}\), se cumple:

\[ \begin{split} \Delta J[y+\eta]=J[y+\eta]-J[y]=\varphi_1[\eta]+o_1(\eta),\\ \Delta J[y+\eta]=J[y+\eta]-J[y]=\varphi_2[\eta]+o_2(\eta), \end{split} \]

donde se satisface \[ \lim_{||\eta||\rightarrow 0}\frac{o_1(\eta)}{||\eta||}=\lim_{||\eta||\rightarrow 0}\frac{o_2(\eta)}{||\eta||}=0. \]

Restando ambas expresiones, obtenemos: \[ \varphi_1[\eta]-\varphi_2[\eta]=o_2(\eta)-o_1(\eta). \]

Definimos \(\Phi[\eta]=\varphi_1[\eta]-\varphi_2[\eta]\), que es lineal por ser diferencia de funcionales lineales. Entonces, \[ \Phi[\eta]=o_2(\eta)-o_1(\eta). \]

Dividiendo ambos lados por \(||\eta||\), obtenemos: \[ \left|\frac{\Phi[\eta]}{||\eta||}\right|=\left|\frac{o_2(\eta)-o_1(\eta)}{||\eta||}\right|\leq\left|\frac{o_2(\eta)}{||\eta||}\right|+\left|\frac{o_1(\eta)}{||\eta||}\right|. \]

Tomando el límite cuando \(||\eta||\rightarrow 0\), implica que: \[ \lim_{||\eta||\rightarrow 0}\frac{\Phi[\eta]}{||\eta||}=\lim_{||\eta||\rightarrow 0}\frac{o_2[\eta]}{||\eta||}+\lim_{||\eta||\rightarrow 0}\frac{o_1[\eta]}{||\eta||}=0+0=0 \]

Y ya que \(\Phi\) es lineal, el límite anterior implica que: \[ \Phi[\eta]=0\qquad\forall\eta\in T_y\mathcal{A} , \]

esto es \[ \varphi_1[\eta]=\varphi_2[\eta]\qquad\forall\eta. \]

Así, la primera variación es única para cada funcional diferenciable.

2.8 Máximo y Mínimo de un Funcional

En el cálculo variacional, el objetivo principal es encontrar funciones que hagan máximo o mínimo un funcional dado. Formalmente, dado un funcional \(J:\mathcal{A}\rightarrow\mathbb{R}\) definido sobre un conjunto de funciones admisibles \(\mathcal{A}\), decimos que \(J\) tiene un extremo en \(y^*\) si existe \(\varepsilon>0\) tal que para toda función \(y\in\mathcal{A}\) con \(||y-y^*||_{\mathcal{A}}<\varepsilon\) el incremento de \(J\) tiene el mismo signo. Si \[ J[y^*] \leq J[y] \tag{2.7}\]

entonces \(J[y^*]\) es un mínimo relativo; y sí \[ J[y^*] \geq J[y] \tag{2.8}\]

entonces \(J[y^*]\) es un máximo relativo.

Diremos que \(J[y^*]\) es un mínimo global (respectivamente máximo global) si Ecuación 2.7 (respectivamente Ecuación 2.8) es valida para \(\epsilon\) arbitrariamente grandes. A la función \(y^*\) se le conoce como extremal y a \(J[y^*]\) como un extremo.

Ejemplo 2.8  

Consideremos el funcional de longitud de arco para una curva \(y(x)\) que conecta dos puntos \((x_0, y_0)\) y \((x_1, y_1)\): \[ J[y] = \int_{x_0}^{x_1} \sqrt{1 + (y'(x))^2} dx, \]

donde \(y(x_0) = y_0\) y \(y(x_1) = y_1\).

El problema consiste en encontrar la función \(y^*(x)\) que minimiza \(J[y]\), es decir, la curva de menor longitud entre los dos puntos. La solución es la línea recta: \[ y^*(x) = y_0 + \frac{y_1 - y_0}{x_1 - x_0}(x - x_0). \]

Para cualquier otra función \(y(x)\) que cumpla las mismas condiciones de frontera, se tiene que \(J[y] \geq J[y^*]\). Por lo tanto, la línea recta es la curva de longitud mínima entre dos puntos.

2.9 Lema y Teorema Fundamental del Cálculo Variacional

El objetivo de esta sección es presentar herramientas fundamentales para obtener las ecuaciones de Euler-Lagrange y dar condiciones necesarias de optimalidad. Una de las herramientas claves en este contexto es el Lema Fundamental del Cálculo Variacional.

Lema 2.1 (Fundamental del Cálculo Variacional) Sea \(\Omega\subset\mathbb{R}^n\) un conjunto abierto, y sea \(f\) una función continua definida en \(\Omega\), y supongamos que \[ \int_\Omega f(x)\eta(x)dx \geq 0\qquad\forall\eta\in C_0^\infty(\Omega)\text{ con } \eta\geq 0, \]

o \[ \int_\Omega f(x)\eta(x)dx = 0\qquad\forall\eta\in C_c^\infty(\Omega), \]

se cumple. Entonces tendríamos que \[ f(x)\geq0\quad\text{ o }\quad f(x)=0, \]

respectivamente, para todo \(x\in\Omega\).

Prueba. Supongamos que se cumple la primera afirmación, y que existe un punto \(x_0\in\Omega\) tal que \(f(x_0)<0\). Por continuidad de \(f\), existe \(\epsilon>0\) y una bola \(B_r(x_0)\subset\Omega\) tal que \[ f(x)<-\epsilon \qquad\text{ para todo } \quad x\in B_r(x_0). \]

Mediante la función de prueba \(\eta\in C_c^\infty\), con soporte compacto en \(B_r(x_0)\), definida por \[ \eta(x):=\left\{ \begin{array}{ll} \exp \left(-\frac{1}{r^2-|x-x_0|^2}\right) &\text{ si } x\in B_r(x_0)\\ 0 &\text{ si }x\notin B_r(x_0). \end{array} \right. \]

Sabemos que esta función es suave y tiene soporte compacto en \(B_r(x_0)\subset\Omega\), además de ser estrictamente positiva dentro de la bola.

Ya que \(f(x)<-\epsilon\) en el soporte de \(\eta\), podemos deducir que: \[ \int_\Omega f(x)\eta(x)dx = \int_{B_r(x_0)} f(x)\eta(x)dx < -\epsilon \int_{B_r(x_0)} \eta(x)dx < 0, \]

lo cual contradice la hipótesis de que la integral es no negativa para toda función de prueba no negativa. Por lo tanto, \(f(x)\geq 0\) para todo \(x\in\Omega\).

La segunda afirmación se vuelve un resultado inmediato consecuancia de la que se acaba de probar.

Teorema 2.2 Sean \(J[y]\) un funcional diferencial, si \(y^*\) es un extremal de \(J\), entonces la variación del funcional se anula para toda \(\eta\) admisible, es decir \[ \delta J[y^*;\eta]=0\quad\quad\forall\eta\text{ admisible}. \]

Prueba. Sea \(J:\mathcal{A}\rightarrow\mathbb{R}\) un funcional y supongamos que \(y^*\in\mathcal{A}\) es un extremal de \(J\). Consideremos perturbaciones de la forma \(y_\epsilon=y^*+\epsilon\eta\), con \(\epsilon>0\) y \(\eta\in T_y\mathcal{A}\) y definimos la función \(\phi:\mathbb{R}\rightarrow\mathbb{R}\) tal que \[ \phi(\epsilon):=J[y^*+\epsilon\eta] \]

Como por hipótesis \(y^*\) es un extremal, entonces \(\phi\) tiene un extremo relativo en \(\epsilon=0\). Por cálculo diferencial, una condición necesaria para que \(\phi\) tenga un extremo en \(\epsilon=0\) es que su derivada se anule en ese punto, es decir, \[ \left.\frac{d}{d\epsilon}\phi(\epsilon)\right|_{\epsilon=0} = 0. \]

Así \[ \left.\frac{d}{d\epsilon}\phi(\epsilon)\right|_{\epsilon=0} = \left.\frac{d}{d\epsilon}J[y^*+\epsilon\eta]\right|_{\epsilon=0} = \delta J[y^*;\eta]. \]

Por lo tanto, \[ \delta J[y^*;\eta]=0\qquad\forall\eta\text{ admisible}. \]

2.10 Ecuaciones de Euler

Para deducir las ecuaciones de Euler, es necesario que todos los términos \(\eta_j\) en la primera variación aparezcan libre de derivadas, con el fin de aplicar el Lema Fundamental (Lema 2.1). Para ello aplicamos el método de integración por partes en varias variables al segundo término de la primera variación (Ecuación 2.5): \[ \int_\Omega \frac{\partial L}{\partial\left(\frac{\partial y_j}{\partial x_i}\right)}\frac{\partial\eta_j}{\partial x_i}dx = -\int_\Omega\frac{\partial}{\partial x_i}\left(\frac{\partial L}{\partial\left(\frac{\partial y_j}{\partial x_i}\right)}\right)\eta_j dx. \]

Al repetir este procedimiento para toda \(i=1,\dots,n\) y toda \(j=1,\dots,N\), obtenemos: \[ \int_\Omega\sum_{i=1}^n \frac{\partial L}{\partial\left(\frac{\partial y_j}{\partial x_i}\right)}\frac{\partial\eta_j}{\partial x_i}dx=-\int_\Omega\sum_{i=1}^n\frac{\partial}{\partial x_i}\left(\frac{\partial L}{\partial\left(\frac{\partial y_j}{\partial x_i}\right)}\right)\eta_j dx. \]

Sustituyendo en la primera variación, se obtiene que: \[ \begin{split} \delta J[y;\eta] &=\int_\Omega\sum_{j=1}^N\left[\frac{\partial L}{\partial y_j}\eta_j+\sum_{i=1}^n\frac{\partial L}{\partial\left(\frac{\partial y_j}{\partial x_i}\right)}\frac{\partial\eta_j}{\partial x_i}\right]dx \\ &=\int_\Omega\sum_{j=1}^N\left[\frac{\partial L}{\partial y_j}\eta_j-\sum_{i=1}^n\frac{\partial}{\partial x_i}\left(\frac{\partial L}{\partial\left(\frac{\partial y_j}{\partial x_i}\right)}\right)\eta_j\right] dx \\ &= \int_\Omega\sum_{j=1}^N\left(\frac{\partial L}{\partial y_j} -\sum_{i=1}^n\frac{\partial}{\partial x_i}\left(\frac{\partial L}{\partial\left(\frac{\partial y_j}{\partial x_i}\right)}\right)\right)\eta_j dx. \end{split} \]

Ahora bien, si \(y\) representa un extremo del funcional \(J\), entonces, de acuerdo con el (Teorema 2.2), la primera variación debe anularse para toda función \(\eta\in C_c^\infty\left(\Omega;\mathbb{R}^N\right)\), es decir: \[ \delta J[y;\eta]=0\qquad\forall\eta. \]

Por tanto se cumple que: \[ \int_\Omega\sum_{j=1}^N\left(\frac{\partial L}{\partial y_j} -\sum_{i=1}^n\frac{\partial}{\partial x_i}\left(\frac{\partial L}{\partial\left(\frac{\partial y_j}{\partial x_i}\right)}\right)\right)\eta_j dx = 0\qquad\forall\eta. \]

Aplicando el Lema Fundamental del Cálculo Variacional (Lema 2.1) para cada \(j=1,\dots,N\), se obtiene la siguiente igualdad: \[ \frac{\partial L}{\partial y_j} -\sum_{i=1}^n\frac{\partial}{\partial x_i}\left(\frac{\partial L}{\partial\left(\frac{\partial y_j}{\partial x_i}\right)}\right)=0. \tag{2.9}\]

Esta familia de ecuaciones, constituye el sistema de ecuaciones de Euler-Lagrange, el cual deben satisfacer todas las funciones \(y\) que hacen extremal al funcional \(J\).

Ejemplo 2.9  

Aplicando integración por partes al término que involucra \(\eta'\) en la expresión de la primera variación (Ecuación 2.6), y usando que \(\eta(x_0) = \eta(x_1) = 0\), obtenemos: \[ \int_{x_0}^{x_1} L_{y'} \eta' dx = \left[ L_{y'} \eta \right]_{x_0}^{x_1} - \int_{x_0}^{x_1} \frac{d}{dx} L_{y'} \eta dx = - \int_{x_0}^{x_1} \frac{d}{dx} L_{y'} \eta dx, \] ya que los valores de frontera se anulan.

Por lo tanto, la primera variación se puede escribir como: \[ \begin{split} \delta J[y;\eta] &= \int_{x_0}^{x_1} \left( L_y - \frac{d}{dx} L_{y'} \right) \eta dx\\ &=\int_{x_0}^{x_1}\left[\frac{\sqrt{1 + (y')^2}}{2 \sqrt{2g} (y(x_1) - y)^{3/2}} - \frac{d}{dx}\left(\frac{(y')}{\sqrt{1 + (y')^2} \sqrt{2g(y(x_1) - y)}}\right)\right](\eta) dx. \end{split} \]

Así, de acuerdo al Teorema 2.2, y por el Lema 2.1, para que \(y\) sea un extremal debe satisfacer la ecuación de Euler-Lagrange: \[ \frac{\sqrt{1 + (y')^2}}{2 \sqrt{2g} (y(x_1) - y)^{3/2}} - \frac{d}{dx}\left(\frac{(y')}{\sqrt{1 + (y')^2} \sqrt{2g(y(x_1) - y)}}\right) = 0. \tag{2.10}\]

2.11 Teorema de Noether

Ya se han establecido la primera variación del funcional y las correspondientes ecuaciones de Euler–Lagrange en el marco multivariable. A partir de dichos resultados es posible abordar una cuestión fundamental: la relación entre las simetrías de un funcional y la existencia de leyes de conservación. Este vínculo, formulado de manera precisa por Emmy Noether en 1918, constituye uno de los resultados más profundos y de mayor alcance del cálculo variacional y sus extensiones.

De manera general, el teorema de Noether establece que si un funcional es invariante bajo un grupo uniparamétrico de transformaciones (en el tiempo, el espacio, las variables dependientes o una combinación de ellas), entonces existe una cantidad conservada asociada a tal simetría. Esta correspondencia entre invariancia y conservación no solo es esencial en física matemática, sino que también ha encontrado aplicaciones en la teoría del control óptimo y en formulaciones con retardos temporales (véase ).

En lo que sigue presentamos el enunciado del teorema en el contexto multivariable, adoptando la notación ya introducida anteriormente.

Comencemos considerando el problema de cálculo variacional, el minimizar Ecuación 2.1 bajo condiciones de frontera dadas \(y(a)=y_a\) y \(y(b)=y_b\).

Definición 2.3 (Invarianza de un Funcional) Sea \[ J[y]=\int_\Omega L(x,y(x),Dy(x))\,dx, \]

un funcional definido sobre un dominio \(\Omega\subset\mathbb{R}^n\), con \(y:\Omega\rightarrow\mathbb{R}^m\) y \(Dy(x)\in\mathbb{R}^{m\times n}\).

Considerando la transformación \[ \left\{\begin{split} \bar{x}&=x+\varepsilon\eta(x,y)+o(\varepsilon),\\ \bar{y}(x)&=y(x)+\varepsilon\xi(x,y)+o(\varepsilon), \end{split}\right. \tag{2.11}\]

donde \[ \eta:\Omega\times\mathbb{R}^m\rightarrow\mathbb{R}^n,\qquad\xi:\Omega\times\mathbb{R}^m\rightarrow\mathbb{R}^m \]

son funciones dadas. El funcional \(J\) se dice ser invariante bajo un grupo uniparamétrico de transformaciones infinitesimales (Ecuación 2.11) si, \[ J[y]=J[\bar{y}], \tag{2.12}\]

para toda \(y\) admisible y para cualquier subdominio \(\tilde{\Omega}\subseteq\Omega\)

Teorema 2.3 (Condiciones Necesarias de Invarianza) Si un funcional (Ecuación 2.1) es invariante bajo transformaciones(Ecuación 2.11), entonces \[ \begin{split} \sum_{j=1}^n\frac{\partial L}{\partial x_j}\eta_j(x,y) + \sum_{i=1}^m\frac{\partial L}{\partial y_i}\xi_i(x,y) &+ \sum_{i=1}^m\sum_{j=1}^n\frac{\partial L}{\partial\left(\frac{\partial y_i}{\partial x_j}\right)}\left(\frac{\partial\xi_i}{\partial x_j}-\sum_{k=1}^{n}\frac{\partial y_i}{\partial x_k}\frac{\partial\eta_k}{\partial x_j}\right)\\ &+ L(x,y,Dy)\sum_{j=1}^n\frac{\partial\eta_j}{\partial x_j}=0. \end{split} \tag{2.13}\]

Prueba. La invarianza de \(J\) (Ecuación 2.12) implica que, para todo subconjunto \(\Omega^\prime \subseteq \Omega\), \[ \int_{\Omega^\prime} L(x, y(x), Dy(x))\, dx = \int_{\tilde{\Omega^\prime}} L(\tilde{x}, \tilde{y}(\tilde{x}), D\tilde{y}(\tilde{x}))\, d\tilde{x}, \tag{2.14}\] donde \(\tilde{\Omega^\prime}\) es la imagen de \(\Omega'\) bajo la transformación infinitesimal \(\tilde{x} = x + \varepsilon \eta(x, y) + o(\varepsilon)\).

Haciendo el cambio de variable \(\tilde{x} = \tilde{x}(x) = x + \varepsilon \eta(x, y) + o(\varepsilon)\) en la integral del lado derecho de la igualdad, obtenemos

\[ \int_{\Omega'} L(x, y(x), Dy(x))\, dx = \int_{\Omega'} L(\tilde{x}(x), \tilde{y}(x), D\tilde{y}(x))\, \det\left(\frac{\partial \tilde{x}}{\partial x}\right)\, dx. \]

Dado que (Ecuación 2.14) se cumple para cualquier subconjunto \(\Omega^\prime\) de \(\Omega\), podemos remover los signos de integrales y escribir la igualdad equivalente \[ L(x, y(x), Dy(x)) = L(\tilde{x}(x), \tilde{y}(x), D\tilde{y}(x))\, \det\left(\frac{\partial \tilde{x}}{\partial x}\right). \tag{2.15}\]

Derivando ambos lados de la ecuación (Ecuación 2.15) respecto a \(\varepsilon\) y evaluando en \(\varepsilon=0\), se obtiene la condición necesaria de invarianza (Ecuación 2.13).

El lado izquierdo, al no depender de \(\varepsilon\), su derivada es cero. Así que pasamos a la derivada del lado derecho

Aplicamos la regla de la cadena para \(L(\bar{x}, \bar{y}, D\bar{y})\): \[ \left.\frac{d}{d\varepsilon} L(\bar{x}, \bar{y}, D\bar{y}) \right|_{\varepsilon=0} = \sum_{j=1}^n \frac{\partial L}{\partial x_j} \eta_j(x, y) + \sum_{i=1}^m \frac{\partial L}{\partial y_i} \xi_i(x, y) + \sum_{i=1}^m \sum_{j=1}^n \frac{\partial L}{\partial \left( \frac{\partial y_i}{\partial x_j} \right)} \frac{d}{d\varepsilon} \left( \frac{\partial \bar{y}_i}{\partial \bar{x}_j} \right)\Big|_{\varepsilon=0} \]

Calculamos la derivada de \(D\bar{y}\) usando la regla de la cadena: \[ \frac{\partial \bar{y}_i}{\partial \bar{x}_j} = \frac{\partial \bar{y}_i}{\partial x_k} \frac{\partial x_k}{\partial \bar{x}_j} \]

Para transformaciones infinitesimales, expandimos: \[ \frac{d}{d\varepsilon} \left( \frac{\partial \bar{y}_i}{\partial \bar{x}_j} \right)\Big|_{\varepsilon=0} = \frac{\partial \xi_i}{\partial x_j} - \sum_{k=1}^n \frac{\partial y_i}{\partial x_k} \frac{\partial \eta_k}{\partial x_j} \]

La derivada del determinante jacobiano es: \[ \left.\frac{d}{d\varepsilon} \det\left(\frac{\partial \bar{x}}{\partial x}\right)\right|_{\varepsilon=0} = \sum_{j=1}^n \frac{\partial \eta_j}{\partial x_j} \]

Por la regla del producto: \[ \left.\frac{d}{d\varepsilon} \left( L(\bar{x}, \bar{y}, D\bar{y}) \det\left(\frac{\partial \bar{x}}{\partial x}\right) \right) \right|_{\varepsilon=0} = \left.\frac{d}{d\varepsilon} L(\bar{x}, \bar{y}, D\bar{y}) \right|_{\varepsilon=0} + L(x, y, Dy) \sum_{j=1}^n \frac{\partial \eta_j}{\partial x_j} \]

Igualando la derivada total a cero, obtenemos: \[ \begin{split} \sum_{j=1}^n\frac{\partial L}{\partial x_j}\eta_j(x,y) + \sum_{i=1}^m\frac{\partial L}{\partial y_i}\xi_i(x,y) + \sum_{i=1}^m\sum_{j=1}^n\frac{\partial L}{\partial\left(\frac{\partial y_i}{\partial x_j}\right)}\left(\frac{\partial\xi_i}{\partial x_j}-\sum_{k=1}^{n}\frac{\partial y_i}{\partial x_k}\frac{\partial\eta_k}{\partial x_j}\right)\\ + L(x,y,Dy)\sum_{j=1}^n\frac{\partial\eta_j}{\partial x_j}=0. \end{split} \]

Esto concluye la demostración.

Definición 2.4 (Constante de Movimiento / Ley de Conservación) Decimos que \(C:\Omega\times\mathbb{R}^m\times\mathbb{R}^{m\times n}\rightarrow\mathbb{R}^n\) es una constante de movimiento (o ley de conservación) para (Ecuación 2.1), si satisface \[ \text{div }C(x,y(x),Dy(x))=0, \tag{2.16}\]

para todo extremal \(y(\cdot)\).

Teorema 2.4 (Teorema de DuBois-Reymond (Multivariable)) Sea \(J[y]\) un funcional (Ecuación 2.1) definido sobre funciones \(y:\Omega\to\mathbb{R}^m\) suficientemente regulares, donde \(Dy(x)\) denota la matriz de derivadas parciales de \(y\). Si \(y^*\) es un extremal de \(J\), entonces satisface la condición de DuBois-Reymond \[ \frac{\partial L}{\partial x}(x,y^*,Dy^*) = \text{Div }\left(L(x,y^*,Dy^*)I_n-\frac{\partial L}{\partial Dy}(x,y^*,Dy^*)Dy^*\right) \tag{2.17}\]

Prueba. Sea \(y^*\) un extremal del funcional (Ecuación 2.1), y consideremos la función \[ F_i(x):=L(x,y^*,Dy^*)-\sum_{j=1}^{m}\frac{\partial L}{\partial(\frac{\partial y_j}{\partial x_i})}(x,y^*,Dy^*)\frac{\partial y^*_j}{\partial x_i},\qquad i=1,\dots,n. \]

Al calcular la derivada con respecto a \(x_i\), obtenemos: \[ \begin{split} \frac{\partial F_i}{\partial x_i} = \frac{\partial L}{\partial x_i} &+ \sum_{j=1}^{m} \left[ \frac{\partial L}{\partial y_j} \frac{\partial y^*_j}{\partial x_i} + \sum_{k=1}^{n} \frac{\partial L}{\partial \left( \frac{\partial y_j}{\partial x_k} \right)} \frac{\partial^2 y^*_j}{\partial x_i \partial x_k} \right]\\ &- \sum_{j=1}^{m} \left[ \frac{\partial}{\partial x_i} \left( \frac{\partial L}{\partial \left( \frac{\partial y_j}{\partial x_i} \right)} \right) \frac{\partial y^*_j}{\partial x_i} + \frac{\partial L}{\partial \left( \frac{\partial y_j}{\partial x_i} \right)} \frac{\partial^2 y^*_j}{\partial x_i^2} \right]. \end{split} \]

Notemos que el término con \(k=i\) dentro de la suma \(\sum_{k=1}^{n} \frac{\partial L}{\partial \left( \frac{\partial y_j}{\partial x_k} \right)} \frac{\partial^2 y^*_j}{\partial x_i \partial x_k}\) se cancela con el último término, de modo que

\[ \begin{split} \frac{\partial F_i}{\partial x_i} = \frac{\partial L}{\partial x_i} & + \sum_{j=1}^{m} \left[ \frac{\partial L}{\partial y_j} \frac{\partial y^*_j}{\partial x_i} + \sum_{\substack{k=1\\ k\neq i}}^{n} \frac{\partial L}{\partial \left( \frac{\partial y_j}{\partial x_k} \right)} \frac{\partial^2 y^*_j}{\partial x_i \partial x_k} -\frac{\partial}{\partial x_i} \left( \frac{\partial L}{\partial \left( \frac{\partial y_j}{\partial x_i} \right)} \right) \frac{\partial y^*_j}{\partial x_i}\right]. \end{split} \]

Sumando sobre \(i=1,\dots n\). Esto produce \[ \begin{split} \sum_{i=1}^n\frac{\partial F_i}{\partial x_i} &= \sum_{i=1}^n \frac{\partial L}{\partial x_i} + \sum_{j=1}^{m} \sum_{i=1}^n \frac{\partial L}{\partial y_j} \frac{\partial y^*_j}{\partial x_i} \\ &+ \sum_{j=1}^{m} \sum_{i=1}^n \sum_{\substack{k=1\\ k\neq i}}^{n} \frac{\partial L}{\partial \left( \frac{\partial y_j}{\partial x_k} \right)} \frac{\partial^2 y^*_j}{\partial x_i \partial x_k} - \sum_{j=1}^{m} \sum_{i=1}^n \frac{\partial}{\partial x_i} \left( \frac{\partial L}{\partial \left( \frac{\partial y_j}{\partial x_i} \right)} \right) \frac{\partial y^*_j}{\partial x_i} \end{split} \]

Ahora, notemos que el tercer término involucra una doble suma sobre \(i\) y \(k\) con \(i\neq k\). Podemos reorganizarla como

\[ \sum_{i=1}^n \sum_{\substack{k=1\\ k\neq i}}^n A_{ik} = \sum_{k=1}^n \sum_{\substack{i=1\\ i\neq k}}^n A_{ik} \]

Por lo tanto, para cada \(j\):

\[ \sum_{i=1}^n \sum_{\substack{k=1\\ k\neq i}}^n \frac{\partial L}{\partial \left( \frac{\partial y_j}{\partial x_k} \right)} \frac{\partial^2 y^*_j}{\partial x_i \partial x_k} = \sum_{k=1}^n \sum_{\substack{i=1\\ i\neq k}}^n \frac{\partial L}{\partial \left( \frac{\partial y_j}{\partial x_k} \right)} \frac{\partial^2 y^*_j}{\partial x_i \partial x_k} \]

Ahora, sumando el término \(k=i\) (que fue excluido), notamos que:

\[ \sum_{i=1}^n \sum_{k=1}^n \frac{\partial L}{\partial \left( \frac{\partial y_j}{\partial x_k} \right)} \frac{\partial^2 y^*_j}{\partial x_i \partial x_k} = \sum_{k=1}^n \sum_{i=1}^n \frac{\partial L}{\partial \left( \frac{\partial y_j}{\partial x_k} \right)} \frac{\partial^2 y^*_j}{\partial x_i \partial x_k} \]

Pero el término con \(k=i\) es:

\[ \sum_{i=1}^n \frac{\partial L}{\partial \left( \frac{\partial y_j}{\partial x_i} \right)} \frac{\partial^2 y^*_j}{\partial x_i^2} \]

Por lo tanto, la suma sobre \(k\neq i\) más la suma sobre \(k=i\) recupera la suma total:

\[ \sum_{i=1}^n \sum_{\substack{k=1\\ k\neq i}}^n \frac{\partial L}{\partial \left( \frac{\partial y_j}{\partial x_k} \right)} \frac{\partial^2 y^*_j}{\partial x_i \partial x_k} + \sum_{i=1}^n \frac{\partial L}{\partial \left( \frac{\partial y_j}{\partial x_i} \right)} \frac{\partial^2 y^*_j}{\partial x_i^2} = \sum_{i=1}^n \sum_{k=1}^n \frac{\partial L}{\partial \left( \frac{\partial y_j}{\partial x_k} \right)} \frac{\partial^2 y^*_j}{\partial x_i \partial x_k} \]

Ahora, agrupando todos los términos para cada \(j\):

\[ \begin{split} \sum_{i=1}^n\frac{\partial F_i}{\partial x_i} = \sum_{i=1}^n \frac{\partial L}{\partial x_i} + \left. \sum_{j=1}^{m} \right[ \sum_{i=1}^n \frac{\partial L}{\partial y_j} \frac{\partial y^*_j}{\partial x_i} &+ \left( \sum_{i=1}^n \sum_{k=1}^n \frac{\partial L}{\partial \left( \frac{\partial y_j}{\partial x_k} \right)} \frac{\partial^2 y^*_j}{\partial x_i \partial x_k} - \sum_{i=1}^n \frac{\partial L}{\partial \left( \frac{\partial y_j}{\partial x_i} \right)} \frac{\partial^2 y^*_j}{\partial x_i^2} \right)\\ &- \left.\sum_{i=1}^n \frac{\partial}{\partial x_i} \left( \frac{\partial L}{\partial \left( \frac{\partial y_j}{\partial x_i} \right)} \right) \frac{\partial y^*_j}{\partial x_i} \right] \end{split} \]

Pero \(\sum_{i=1}^n \sum_{k=1}^n \frac{\partial L}{\partial \left( \frac{\partial y_j}{\partial x_k} \right)} \frac{\partial^2 y^*_j}{\partial x_i \partial x_k}\) es igual a \(\sum_{k=1}^n \frac{\partial L}{\partial \left( \frac{\partial y_j}{\partial x_k} \right)} \sum_{i=1}^n \frac{\partial^2 y^*_j}{\partial x_i \partial x_k}\).

Ahora, por la simetría de las derivadas cruzadas (asumiendo suficiente regularidad), \(\sum_{i=1}^n \frac{\partial^2 y^*_j}{\partial x_i \partial x_k} = \frac{\partial}{\partial x_k} \left( \sum_{i=1}^n \frac{\partial y^*_j}{\partial x_i} \right )\).

Notemos que la ecuación de Euler-Lagrange (Ecuación 2.9) nos permite cancelar los términos por lo tanto, para cada \(j\):

\[ \frac{\partial L}{\partial y_j} - \sum_{i=1}^n \frac{\partial}{\partial x_i} \left( \frac{\partial L}{\partial \left( \frac{\partial y_j}{\partial x_i} \right)} \right ) = 0. \]

Por lo tanto, para cada \(j\)

\[ \sum_{i=1}^n \frac{\partial L}{\partial y_j} \frac{\partial y^*_j}{\partial x_i} = \sum_{i=1}^n \frac{\partial}{\partial x_i} \left( \frac{\partial L}{\partial \left( \frac{\partial y_j}{\partial x_i} \right)} \right ) \frac{\partial y^*_j}{\partial x_i}. \]

Así, los términos se cancelan y obtenemos

\[ \sum_{i=1}^n\frac{\partial F_i}{\partial x_i} = \sum_{i=1}^n \frac{\partial L}{\partial x_i}, \]

que por la definición de divergencia, da paso a

\[ \text{Div}\left( L(x, y^*, Dy^*) I_n - \frac{\partial L}{\partial Dy}(x, y^*, Dy^*) Dy^* \right ) = \frac{\partial L}{\partial x}(x, y^*, Dy^*). \]

Por lo tanto, se cumple la identidad de DuBois-Reymond:

\[ \frac{\partial L}{\partial x}(x, y^*, Dy^*) = \text{Div}\left( L(x, y^*, Dy^*) I_n - \frac{\partial L}{\partial Dy}(x, y^*, Dy^*) Dy^* \right ). \]

Teorema 2.5 (Teorema de Noether) Si \(J\) (Ecuación 2.1) es invariante bajo transformaciones infinitesimales (Ecuación 2.11), entonces \[ C(x,y,Dy):=\sum_{i=1}^m\sum_{j=1}^n\frac{\partial L}{\partial\left(\frac{\partial y_i}{\partial x_j}\right)}\xi_i+\sum_{j=1}^n\left(L(x,y,Dy)-\sum_{i=1}^m\sum_{k=1}^n\frac{\partial L}{\partial\left(\frac{\partial y_i}{\partial x_k}\right)}\frac{\partial y_i}{\partial x_k}\right)\eta_j \] satisface la ley de conservación (Definición 2.4)

Prueba. Sea \(y^*\) un extremal del funcional \(J\), y supongamos que este es invariante bajo transformaciones infinitesimales (Ecuación 2.11). Por la condición necesaria de invarianza (Ecuación 2.13), se cumple \[ \begin{split} \sum_{j=1}^n\frac{\partial L}{\partial x_j}\eta_j + \sum_{i=1}^m\frac{\partial L}{\partial y_i}\xi_i + \sum_{i=1}^m\sum_{j=1}^n\frac{\partial L}{\partial\left(\frac{\partial y_i}{\partial x_j}\right)}\left(\frac{\partial \xi_i}{\partial x_j}-\sum_{k=1}^n\frac{\partial y^*_i}{\partial x_k}\frac{\partial \eta_k}{\partial x_j}\right) + L\sum_{j=1}^n\frac{\partial \eta_j}{\partial x_j} = 0. \end{split} \]

Usando las ecuaciones de Euler-Lagrange(Ecuación 2.9) para cada \(i\), podemos reescribir el segundo término como \[ \sum_{i=1}^m\frac{\partial L}{\partial y_i}\xi_i=\sum_{i=1}^m\sum_{j=1}^n\frac{\partial}{\partial x_j}\left(\frac{\partial L}{\partial\left(\frac{\partial y_i}{\partial x_j}\right)}\right)\xi_i. \]

Sustituyendo en la condición de invarianza \[ \begin{split} \sum_{j=1}^n\frac{\partial L}{\partial x_j}\eta_j &+ \sum_{i=1}^m\sum_{j=1}^n\frac{\partial}{\partial x_j}\left(\frac{\partial L}{\partial\left(\frac{\partial y_i}{\partial x_j}\right)}\right)\xi_i + \sum_{i=1}^m\sum_{j=1}^n\frac{\partial L}{\partial\left(\frac{\partial y_i}{\partial x_j}\right)}\frac{\partial \xi_i}{\partial x_j}\\ &- \sum_{i=1}^m\sum_{j=1}^n\sum_{k=1}^n\frac{\partial L}{\partial\left(\frac{\partial y_i}{\partial x_j}\right)}\frac{\partial y^*_i}{\partial x_k}\frac{\partial \eta_k}{\partial x_j} + L\sum_{j=1}^n\frac{\partial \eta_j}{\partial x_j} = 0. \end{split} \]

Agrupando términos que involucran a \(\xi_i\) tenemos que \[ \sum_{i=1}^m\sum_{j=1}^n\frac{\partial}{\partial x_j}\left(\frac{\partial L}{\partial\left(\frac{\partial y_i}{\partial x_j}\right)}\xi_i\right)=\sum_{i=1}^m\sum_{j=1}^n\frac{\partial}{\partial x_j}\left(\frac{\partial L}{\partial\left(\frac{\partial y_i}{\partial x_j}\right)}\right)\xi_i + \sum_{i=1}^m\sum_{j=1}^n\frac{\partial L}{\partial\left(\frac{\partial y_i}{\partial x_j}\right)}\frac{\partial \xi_i}{\partial x_j}. \]

De manera análoga, los términos que involucran a \(\eta_j\), pueden escribirse como \[ \sum_{j=1}^n\frac{\partial}{\partial x_j}\left[\left(L(x,y,Dy)-\sum_{i=1}^m\sum_{k=1}^n\frac{\partial L}{\partial\left(\frac{\partial y_i}{\partial x_k}\right)}\frac{\partial y_i}{\partial x_k}\right)\eta_j\right]. \]

Por lo que la condición de invarianza se transforma en la siguiente expresión \[ \sum_{j=1}^n\frac{\partial}{\partial x_j}\left[\sum_{i=1}^m\frac{\partial L}{\partial\left(\frac{\partial y_i}{\partial x_j}\right)}\xi_i + \left(L(x,y,Dy)-\sum_{i=1}^m\sum_{k=1}^n\frac{\partial L}{\partial\left(\frac{\partial y_i}{\partial x_k}\right)}\frac{\partial y_i}{\partial x_k}\right)\eta_j\right] = 0 \]

Con esto definimos el vector conservado \(C\in\mathbb{R}^n\) por componentes \[ C_j(x,y,Dy)=\sum_{i=1}^m\frac{\partial L}{\partial\left(\frac{\partial y_i}{\partial x_j}\right)}\xi_i + \left(L(x,y,Dy)-\sum_{i=1}^m\sum_{k=1}^n\frac{\partial L}{\partial\left(\frac{\partial y_i}{\partial x_k}\right)}\frac{\partial y_i}{\partial x_k}\right)\eta_j, \]

para toda \(j=1,\dots, n\). Finalmente, la condición de invarianza se convierte en \[ \text{Div } C(x,y,Dy):=\sum_{j=1}^n\frac{\partial C_j}{\partial x_j}=0. \]

Con esto concluimos que \(C\) satisface la ley de conservación.

2.12 Transformación de Legendre y Hamiltoniano

La transformación de Legendre es una herramienta esencial en el cálculo variacional y en la física matemática, ya que permite reformular una función (o funcional) expresada en ciertas variables y sus derivadas en función de variables duales. En el contexto del cálculo variacional, se utiliza para pasar del Lagrangiano \(L\) al Hamiltoniano \(H\).

Definición 2.5 Sea una función \(f:\mathbb{R}^n\rightarrow\mathbb{R}\). Definimos la transformada Legendre-Fenchel (LF) de \(f(x)\) por la formula variacional \[ f^*(p)=\sup_{x\in\mathbb{R}^n}\left\{\langle p,x\rangle-f(x) \right\}. \tag{2.18}\]

Observación 2.1. También es común definir la transformada de Legendre-Fenchel usando el ínfimo (mínimo) en lugar del supremo: \[ g^*(p) = \inf_{x \in \mathbb{R}^n} \left\{ \langle p, x \rangle -g(x)\right\}. \tag{2.19}\]

El pasar de una versión de la transformada LF a otra es simplemente cuestión de introducir un cambio de signo. Esto es, \[ -f^*(p)=-\sup_{x\in\mathbb{R}^n}\left\{\langle p,x\rangle-f(x) \right\}=\inf_{x\in\mathbb{R}^n}\left\{-\langle p,x\rangle+f(x) \right\}. \]

de modo que \[ g^*(q)=\inf_{x\in\mathbb{R}^n}\left\{\langle q,x\rangle-g(x) \right\}, \]

haciendo las transformaciones \(p = -q\) y \(g = -f\), se obtiene la equivalencia entre ambas definiciones (Touchette 2005).

Observación 2.2. Si la función \(f:\mathbb{R}^n\rightarrow\mathbb{R}\) es convexa y diferenciable, el supremo (respectivamente el ínfimo) en la definición de la Ecuación 2.18 (respectivamente en la Ecuación 2.19) de la transformada de Legendre-Fenchel, se alcanza en un punto \(x_p\) que satisface la condición de primer orden \[ p = \nabla f(x_p). \]

Por lo tanto, la transformada de Legendre-Fenchel se puede definir por \[ f^*(p) = \langle p, x_p \rangle - f(x_p), \tag{2.20}\]

Esta expresión constituye la transformación de Legendre clásica, que aparece con frecuencia en problemas variacionales, en termodinámica y en mecánica hamiltoniana (Touchette 2005).

Aplicando la transformada de Legendre sobre el Lagrangiano \(L(x,y,Dy)\) de un funcional (Ecuación 2.1) obtenemos la función transformada: \[ H(x, y, p) = \sup_{Dy} \left\{ \sum_{j=1}^N \sum_{i=1}^n p_{j,i} \frac{\partial y_j}{\partial x_i} - L(x, y, Dy) \right\}, \tag{2.21}\]

donde los momentos conjugados \(p_{j,i}\) se definen por

\[ p_{j,i} := \frac{\partial L}{\partial \left(\frac{\partial y_j}{\partial x_i}\right)}. \]

A esta nueva función (Ecuación 2.21), se le conoce como el Hamiltoniano asociado al problema variacional. Una vez definido, es posible describir la evolución de las trayectorías óptimas mediante las ecuaciones de Hamilton, las cuales constituyen un sistema equivalente a las ecuaciones de Euler-Lagrange (Ecuación 2.9). Esta reformulación es especialmente útil en física y en teoría de control óptimo.

En el caso general las ecuaciones de Hamilton asociadas se expresan como: \[ \begin{split} \frac{\partial y_j}{\partial x_i}=\frac{\partial H}{\partial p_{j,i}},\qquad\frac{\partial p_{j,i}}{\partial x_i}=-\frac{\partial H}{\partial y_j}\qquad\forall i=1,\dots,n; j=1,\dots,N. \end{split} \]

En el caso particular en que \(n=1=N\), es decir, para una función \(y(x)\) de una sola variable, el Hamiltoniano toma la forma \[ H(x, y, p) = \sup_{y'} \left\{ p y' - L(x, y, y') \right\}, \]

donde \(p = \frac{\partial L}{\partial y'}\).

Las ecuaciones de Hamilton asociadas se reducen al sistema clásico: \[ \begin{aligned} \frac{dy}{dx} &= \frac{\partial H}{\partial p}, \\ \frac{dp}{dx} &= -\frac{\partial H}{\partial y}. \end{aligned} \]

Estas ecuaciones constituyen la base de la mecánica hamiltoniana y también se utilizan en el análisis de problemas de control óptimo, donde el momento \(p\) se interpreta como un multiplicador asociado a las restricciones dinámicas del sistema.

Ejemplo 2.10  

En secciones anteriores analizamos el problema de la braquistócrona desde una perspectiva variacional clásica. A partir del funcional de tiempo recorrido, dedujimos su incremento (Ecuación 2.4), la primera variación (Ecuación 2.6) y finalmente la correspondiente ecuación de Euler (Ecuación 2.10). Ahora, retomamos el mismo problema para ilustrar cómo se construye y se interpreta el Hamiltoniano asociado, así como las ecuaciones de Hamilton correspondientes.

Recordemos que el funcional del problema está dado por: \[ J[y]=\int_{x_0}^{x_1} L(x,y,y^\prime)dx\quad\text{ con }\quad L(x,y,y^\prime)=\frac{\sqrt{1+(y^\prime)^2}}{\sqrt{2g\left(y(x_1)-y\right)}}. \]

Siguiendo la transformación de Legendre (Definición 2.5), definimos el momento conjugado como: \[ p:=\frac{\partial L}{\partial y^\prime}=\frac{(y')}{\sqrt{1 + (y')^2} \sqrt{2g(y(x_1) - y)}}. \]

Así, el Hamiltoniano asociado se define mediante \[ H(x,y,p)=py^\prime-L(x,y,y^\prime). \]

Como queremos obtener una expresión explícita en términos de \(p\) y \(y\), de la relación anterior obtenemos que \[ y^\prime=\frac{p}{\sqrt{1-2g(y(x_1)-y)p^2}}\qquad\text{y}\qquad L(x,y,y^\prime)=\frac{1}{\sqrt{1-2g(y(x_1)-y)p^2}}\cdot\frac{1}{2g(y(x_1)-y)}. \]

Sustituyendo en la definición del Hamiltoniano obtenemos \[ \begin{split} H(x,y,p)&=\frac{p^2}{\sqrt{1-2g(y(x_1)-y)p^2}}-\left(\frac{1}{\sqrt{1-2g(y(x_1)-y)p^2}}\cdot\frac{1}{2g(y(x_1)-y)}\right)\\ &=\frac{1}{\sqrt{1-2g(y(x_1)-y)p^2}}\left(p^2-\frac{1}{2g(y(x_1)-y)}\right). \end{split} \]

2.13 Problema Primal y Dual en Cálculo Variacional

En el cálculo variacional, el problema primal consiste en encontrar una función \(y^*\) dentro de un conjunto de funciones admisibles \(\mathcal{A}\) que minimice (o maximice) un funcional dado \(J[y]\). Formalmente, el problema primal se expresa como: \[ \min_{y \in \mathcal{A}} J[y], \]

donde \(J[y]\) es típicamente de la forma \[ J[y] = \int_\Omega L(x, y(x), Dy(x)) dx, \]

como se definió en la sección de Funcionales en Varias Variables.

Las condiciones necesarias para que \(y^*\) sea óptima se obtienen a través de la anulación de la primera variación, lo que conduce a las ecuaciones de Euler-Lagrange (ver Ecuación 2.9), que deben satisfacer todas las funciones extremales del funcional.

El problema dual surge al asociar al problema primal una formulación alternativa, generalmente a través de la transformación de Legendre-Fenchel (ver Definición 2.5), que permite expresar el problema en términos de variables duales (momentos conjugados). El dual típicamente busca maximizar (o minimizar) un funcional dual \(J^*[p]\) sobre un conjunto dual de funciones o campos \(p\), y está íntimamente relacionado con el Hamiltoniano \(H\) construido a partir del Lagrangiano \(L\).

La relación entre el problema primal y el dual se fundamenta en la teoría de la dualidad convexa, donde bajo ciertas condiciones (por ejemplo, convexidad y regularidad del funcional), ambos problemas tienen el mismo valor óptimo (sin brecha de dualidad).

Ejemplo 2.11  

En el caso del problema de la braquistócrona, donde se busca la curva \(y(x)\) que minimiza el tiempo de descenso de una partícula bajo gravedad entre dos puntos fijos. El problema primal es: \[ \min_{y \in \mathcal{A}} J[y], \qquad J[y]=\int_{x_0}^{x_1} \frac{\sqrt{1+(y')^2}}{\sqrt{2g(y(x_1)-y)}} dx, \]

donde \(\mathcal{A}\) es el conjunto de funciones \(y\) tales que \(y(x_0)=y_0\), \(y(x_1)=y_1\) y \(y(x)<y(x_1)\) para \(x\in(x_0,x_1)\).

La condición de optimalidad para el problema primal es que \(y\) satisfaga la ecuación de Euler-Lagrange correspondiente (Ecuación 2.10).

Por otro lado, el problema dual se formula introduciendo el momento conjugado \(p\) asociado a \(y'\), definido por \[ p = \frac{\partial L}{\partial y'} = \frac{y'}{\sqrt{1 + (y')^2} \sqrt{2g(y(x_1) - y)}}, \]

y construyendo el Hamiltoniano (Ejemplo 2.10): \[ H(x, y, p) = py' - L(x, y, y'). \]

El problema dual busca maximizar el funcional dual asociado, sujeto a las ecuaciones de Hamilton: \[ \begin{aligned} \frac{dy}{dx} &= \frac{\partial H}{\partial p}, \\ \frac{dp}{dx} &= -\frac{\partial H}{\partial y}, \end{aligned} \]

con las condiciones de frontera correspondientes.

De este modo, el problema primal se centra en la función \(y\) que minimiza el tiempo y satisface la ecuación de Euler-Lagrange, mientras que el dual se enfoca en el momento \(p\) y la evolución conjunta \((y, p)\) que satisfacen las ecuaciones de Hamilton. Ambos enfoques son equivalentes bajo condiciones adecuadas y permiten analizar el problema desde perspectivas complementarias.