Introducción
El Cálculo Variacional ha desempeñado un papel fundamental en las formulaciones matemáticas de problemas de optimización desde el siglo XVIII. Su desarrollo, principalmente impulsado por la física y la mecánica, permitió establecer un marco teórico para describir leyes de la naturaleza mediante principios de mínima acción (Ferguson (2004)). En este sentido, los problemas de determinar funciones que optimizan funcionales dio origen a una estructura matemática en la que las ecuaciones de Euler-Lagrange emergen como condiciones necesarias de optimalidad.
Sin embargo, conforme los sistemas físicos, de ingeniería, de economía, etc. se tornaron más complejos, el enfoque clásico comenzó a dejar de ser suficiente. Muchos fenómenos reales requieren de la incorporación de variables de control que actúan sobre la dinámica de un sistema, y sobre los cuales la trayectoria del estado ya no se encuentra libre, sino que debe satisfacer ciertas restricciones que se imponen en el sistema mediante una ecuación diferencial. Esta cambio de paradigma condujo a lo que hoy se conoce como Teoría de Control Óptimo, donde los métodos de cálculo variacional se amplian y reinterpretan para incluir restricciones dinámicas, dominios de control y condiciones mucho más generales.
Dentro de este marco, los problemas de control óptimo pueden formularse en diversas formas equivalentes. Las más comunes son las formulaciones de Lagrange, Mayer y Bolza, cuya diferencia radica en la manera en que expresan la función objetivo. El problema de Lagrange considera la optimización de una integral dependiente de la trayectoria y el control; el de Mayer, en cambio, se centra en minimizar una función terminal que depende del estado final; mientras que el problema de Bolza combina ambos términos en una formulación unificada. Dado que el problema de Bolza contiene como casos particulares a los otros dos, este trabajo adopta dicha forma como modelo general, sobre el cual se establecen las condiciones de optimalidad y las relaciones estructurales que se desarrollan a lo largo del texto.
El presente trabajo aborda el estudio de esta transición conceptual y formal del cálculo variacional clásico al control óptimo, haciendo énfasis en las estructuras matemáticas que da vida a ambos enfoques. En particular, se analiza cómo las condiciones de Euler-Lagrange pueden reinterpretarse dentro de un marco más general al introducir el Hamiltoniano, el cual actúa como vínculo entre la formulación primal de un problema y su formulación dual. Este enfoque permite establecer una concexión natural con el Principio del Mínimo de Pontryagin. Además, se incorpora una perspectiva multivariable que permite tratar sistemas más complejos con varias funciones de estado y control, destacando la importancia de los estados funcionales adecuados y de la formulación vectorial de las ecuaciones de Euler-Lagrange y del Hamiltoniano.
La estructura de la tesis se organiza de la siguiente manera: en el Capítulo 1 (1 Preliminares) se introducen los preliminares necesarios, incluyendo nociones básicas de análisis, Conjuntos y la notación que se utiliza a lo largo del trabajo. En el Capítulo 2 (2 Cálculo Variacional) se desarrolla la teoría del cálculo variacional en varias variables, presentando el concepto de incremento, la primera variación y la derivación formal de las ecuaciones de Euler–Lagrange, así como la transformación de Legendre y el surgimiento del Hamiltoniano como objeto fundamental. Posteriormente, los Capítulos 3 y 4 (3 Del Cálculo Variacional a la Teoría del Control Óptimo) extiende estas ideas a problemas de control óptimo, incorporando restricciones dinámicas, explorando la formulación aumentada del funcional y el principio de Pontryagin. Finalmente en los Capítulos 5 y 6 (5 Problema Original y 6 Problema Alterno) abordamos el caso de estudio, utilizando el problema clásico de Goddard (1919).