7  Conclusiones

Este trabajo estableció el vínculo estructural entre el cálculo variacional clásico y la teoría del control óptimo, destacando cómo ambos marcos comparten una base conceptual común con base en la noción de variación. Se mostró que las ecuaciones de Euler–Lagrange constituyen el punto de partida natural para la formulación de las condiciones de optimalidad que surgen al introducir restricciones dinámicas en forma de ecuaciones diferenciales.

Se presentó el Teorema de Noether en su versión multivariable, mostrando así la relación entre simetrías de un funcional y leyes de conservación. Esta formulación resultó fundamental para comprender la estructura matemática subyacente tanto en problemas variacionales como en sistemas controlados, mostrando que las invarianzas del sistema conducen naturalmente a cantidades conservadas que caracterizan la dinámica óptima.

La transición del enfoque Lagrangiano al Hamiltoniano, mediante la transformación de Legendre-Fenchel, permitió reformular los problemas de optimización en términos de variables duales. Esta dualidad se manifestó particularmente útil al introducir las variables adjuntas o de coestado, que desempeñaron un papel central en la derivación del Principio del Mínimo de Pontryagin. Se mostró que este principio constituye una generalización natural de las ecuaciones de Euler-Lagrange cuando los controles están sujetos a restricciones de conjunto.

El estudio de los problemas de control se centró en aquellos de tipo Bolza, por ser la forma más general de los problemas de control óptimo, pues contiene como casos particulares a las formulaciones de Lagrange y de Mayer. Esta elección nos permitió abordar un marco en el que la función terminal desempeña un papel esencial en la formulación de las condiciones de frontera y en la estructura del funcional aumentado. A partir de esta generalidad, fue posible derivar las condiciones de optimalidad en su forma más completa, incluyendo las ecuaciones adjuntas, la condición de estacionariedad y las condiciones de transversalidad.

Asimismo, la versión del teorema de Filippov adoptada en el trabajo, resulta particularmente adecuada para garantizar la existencia de soluciones óptimas en este contexto. Este enfoque permite extender el análisis a sistemas donde las funciones de control pueden presentar discontinuidades o pertenecer a conjuntos no convexos, preservando la validez de las condiciones necesarias. La elección de esta versión del teorema subraya el interés del trabajo por mantener la mayor generalidad posible dentro del plano determinista.

El estudio del problema de Goddard como caso de aplicación validó la teoría desarrollada y permitió contrastar dos enfoques metodológicos complementarios: el método directo, basado en la discretización del problema continuo y su conversión en un problema de programación no lineal, y el método indirecto, fundamentado en las condiciones necesarias de optimalidad derivadas del Principio de Pontryagin. Ambos métodos condujeron a soluciones consistentes, observándose la estructura bang-bang característica del control óptimo en sistemas con Hamiltonianos afines respecto al control. La implementación numérica en Julia, utilizando las paqueterías OptimalControl.jl y NLPModelsIpopt.jl, demostró la viabilidad computacional de ambos enfoques.

La perspectiva multivariable adoptada a lo largo del trabajo permitió formular resultados generales, aunque las aplicaciones se restringieron al caso donde el dominio temporal es un intervalo compacto. Esta restricción, si bien limitó el alcance inmediato de los resultados, facilitó la exposición de los conceptos fundamentales y su implementación numérica, sentando las bases para extensiones futuras a problemas con horizontes infinitos o dominios más generales.

Los resultados obtenidos abrieron diversas líneas de investigación futura que permitirían extender y profundizar el alcance de este trabajo. En primer lugar, resultaría natural incorporar incertidumbre en la formulación mediante control óptimo estocástico, donde las ecuaciones de estado incluirían términos de ruido modelados por procesos estocásticos, conduciendo a formulaciones basadas en la ecuación de Hamilton-Jacobi-Bellman. Asimismo, la extensión a problemas de control robusto permitiría considerar perturbaciones estocásticas en los parámetros del sistema, garantizando desempeño óptimo ante escenarios adversos. El estudio de problemas con retardos temporales en la dinámica o en el control extendería la teoría desarrollada a sistemas con memoria, fenómeno común en sistemas de comunicación y control distribuido. La formulación de problemas de control óptimo en espacios de dimensión infinita, utilizando teoría de semigrupos y ecuaciones en derivadas parciales, permitiría abordar sistemas gobernados por ecuaciones de difusión, ondas o transporte. Finalmente, la exploración de métodos de aprendizaje por refuerzo profundo como alternativa a los enfoques clásicos presentados abriría posibilidades para resolver problemas de alta dimensionalidad donde los métodos tradicionales enfrentan limitaciones computacionales, estableciendo puentes entre la teoría clásica del control óptimo y los desarrollos recientes en inteligencia artificial.