Oscilador Armónico – Parte II

Hace bastante tiempo escribí la primera parte de esta serie, pero dado que estoy muy ocupado soy un poco vago, he tardado bastante en ponerme a escribir la segunda parte.

Hoy, y apoyándome en el cálculo variacional (tanto en el concepto físico como en el desarrollo matemático), revisaremos el oscilador armónico pero esta vez lo haremos desde el punto de vista Lagrangiano.

Continue reading

Introducción al cálculo variacional en las matemáticas

Esta entrada es la gemela de la entrada Introducción al cálculo variacional en la física (http://scientiapotentiaest.ambages.es/?p=87). En ella David nos decía

Queremos saber qué camino tomará un cuerpo en una cierta situación. Imaginemos que tenemos una cantidad (un funcional, matemáticamente hablando), a la que llamaremos acción (con unidades de energía por segundo), que depende del “camino” que ese cuerpo toma en su movimiento. Esa acción puede ser calculada para cada cualquier camino siempre y cuando tenga una cierta regularidad.  Pues bien, el camino real, el que tomará el cuerpo y que podrá ser predicho, es aquel que hace de la acción un mínimo (más rigurosamente, un valor estacionario).

Así, el enfoque en mecánica clásica es: dado un sistema físico, obtenemos un funcional; a este funcional se le calculan los puntos críticos y esos puntos críticos nos dan las soluciones del problema. Matemáticamente esto es ir del funcional a la ecuación diferencial.

Veamos esto con un ejemplo: Supongamos que tenemos una partícula de masa unidad bajo el influjo de un potencial U(x) (sistema físico).

Entonces el Lagrangiano se define como

L=E_c-E_p

donde E_c=\frac{1}{2}\left(\frac{dx}{dt}\right)^2 es energía cinética, que depende de la velocidad v=\frac{dx}{dt};  y E_p es energía potencial, que depende del potencial U en el lugar donde la particula se encuentra. Entonces se tiene, si la posición de la partícula se denota como x, que el lagrangiano es

L(x)=\frac{1}{2}\left(\frac{dx}{dt}\right)^2-U(x).

Ahora definimos la acción como A[x]=\int_0^t L(x)dt. Esta acción la hemos obtenido de consideraciones físicas como son la definición de energía cinética y potencial.

Una vez tenemos la acción, queremos minimizarla. Para esto hemos de encontrar los puntos críticos. Si fuese una función de una variable normal y corriente derivaríamos e igualaríamos a 0. Derivar es encontrar el cambio de una cantidad cuando se varía otra de manera infinitesimal. Aquí la idea es similar. Lo que hacemos es, dada una perturbación con los extremos fijos (v(t) tal que v(0)=v(t)=0) de nuestra trayectoria x consideramos la curva y(t)= x(t)+sv(t).

Ahora pensamos la acción para esta nueva curva y como una función de s,

A[y](s)=\int_0^t L(y(t))dt,

y obtenemos el cambio en ella cuando variamos ligeramente s; esto es, derivamos en s y hacemos s=0.

\frac{d}{ds}A[y](s)\bigg{|}_{s=0}=\frac{d}{ds}\left(\int_0^t L(y(t))dt\right)\bigg{|}_{s=0}

Calculamos, utilizando la regla de la cadena,

L(y)=\frac{1}{2}\left(\frac{dx}{dt}+s\frac{dv}{dt}\right)^2-U(x+sv),

\frac{d}{ds}U(x+sv)\bigg{|}_{s=0}=U'(x)v, (para el potencial)

\frac{d}{ds}\frac{1}{2}\left(\frac{dx}{dt}+s\frac{dv}{dt}\right)^2\bigg{|}_{s=0}=\frac{dx}{dt}\frac{dv}{dt}, (para la energía cinética).

Sustituyendo obtenemos \int_0^t \frac{dx}{dt}\frac{dv}{dt} dt-\int_0^t U'(x)vdt, y si integramos por partes en la primera integral nos queda

\int_0^t (-\frac{d^2x}{dt^2}-U'(x))vdt.

Esta integral debe ser 0 para que nuestra x sea un punto crítico del funcional, y además debe serlo para toda perturbación v.

Estas consideraciones nos imponen una relación entre las derivadas \frac{d^2x}{dt^2} y U'(x),

\frac{d^2x}{dt^2}+U'(x)=0

que es, nada más y nada menos, la segunda ley de Newton.

Este enfoque va desde el funcional, que se obtiene con consideraciones físicas, a la ecuación diferencial. O de otra manera, se usa una ecuación diferencial para solucionar un problema de minimizar un funcional.

Sin embargo también existe el método inverso. Supongamos que tenemos una ecuación diferencial (generalmente en derivadas parciales) como puede ser

\Delta u= f(u)

con f una función no lineal, por ejemplo un polinomio. Así, el llamado Método Directo del Cálculo de Variaciones consiste en definir un funcional tal que sus puntos críticos vengan dados por la ecuación que era nuestro problema original.

Demostrar la existencia de solución para la ecuación original es lo mismo que conseguir un punto crítico de nuestro funcional. Si además probamos que es único entonces la ecuación tendrá una única solución. Así con este enfoque vamos desde la ecuación al funcional.

Y como seguir abundando en este tema puede ser muy técnico lo dejaremos aquí por el momento.

Cuántica e incertidumbre (Parte I)

Hoy vamos a hablar, procurando no ser muy rigurosos (aparecen algunas fórmulas pero se pueden saltar), de por qué la mecánica cuántica es necesaria y del principio de incertidumbre de Heisenberg. La entrada la hemos escrito de manera conjunta Rafa y yo mismo.
Werner Heisenberg

Werner Heisenberg, uno de los padres de la Mecánica Cuántica

Principios de incertidumbre hay muchos, básicamente no es mas que una desigualdad de cierto tipo, donde un término controla a otro. En el caso concreto que nos atañe afirma que es imposible conocer con precisión la posición y la velocidad de una partícula cuántica (para fijar ideas un electrón). Los físicos (experimentales al menos) razonan diciendo que eso es porque para detectar un electrón hay que golpearlo con un fotón y entonces cambias su velocidad.
Esto nos deja con la duda: ¿habrá algún método que permita conocer las dos cosas?
La respuesta es que no. Y el motivo, enraizado en las matemáticas, tiene que ver con la transformada de Fourier. El ‘teorema’ aquí es que si tienes una función “grande” su transformada de Fourier es “pequeña” y viceversa (se puede intuir usando la desigualdad de Haussdorf-Young por ejemplo.). ¿Cómo afecta esto a nuestro electrón?. Los impacientes estarán pensando que se me está yendo la olla.
Pero comencemos aclarando por qué todas estas cosas tan raras de la cuántica son necesarias: supongamos que tenemos un átomo de hidrógeno (un electrón y un protón), y que tanto nuestro electrón como el núcleo del átomo se comportan como partículas clásicas. Entonces, al tener el núcleo carga eléctrica positiva y nuestro electrón carga eléctrica negativa deberían atraerse por la fuerza coulombiana entre ellos. Cuando un cuerpo con carga se acelera emite radiación electromagnética (véase la fórmula de Larmor [aquí inglés]) perdiendo así energía.
Trayectoria en espacio fásico

En una dimensión, la posición del electrón, x, oscilaría y caería hacia el origen de coordenadas. Su velocidad, p, también oscilaría y lo llevaría hacia el centro, radiando energía en el proceso.

Según este modelo el electrón se vería atraído irremisiblemente hacia el núcleo y acabaría chocando con éste. Pero esto implicaría ¡que no habría electrones!. En jerga científica diríamos que la materia no sería estable. Puesto que nosotros somos materia y estamos aquí las hipótesis de nuestro modelo no pueden ser correctas.
En otra entrada explicaremos la descripción de los estados en mecánica clásica y cuántica, pero permitidnos ahora que hagamos algunos supuestos. En la mecánica clásica la evolución de un sistema se describe como la trayectoria de un punto en el estado de fases. Sin embargo, en la mecánica cuántica esto no es posible, dado que el estado de un sistema solo puede venir dado como una “probabilidad”, de modo que no existe trayectoria de un solo punto que se adecue a la evolución temporal de un estado. Aquí, pues, la incógnita será una función (con argumentos en el espacio-tiempo y con valores en los complejos) \Psi (x,y,z,t) cuyo módulo al cuadrado (que es un número real) nos dará la densidad de probabilidad de que un sistema se encuentre en un cierto estado.
Esta función, que llamaremos “función de onda”,  evoluciona de acuerdo con la ecuación de Schrödinger. Esta es una ecuación en derivadas parciales (EDP) “cualitativamente” hiperbólica (ver la entrada anterior ). Para mayor simplicidad vamos a suponer aquí que no depende del tiempo, con lo que ahora nuestra ecuación de Schrödinger es elíptica y se puede escribir como la función que minimiza un funcional de acción (ya hablamos antes de este concepto)  J(\Psi)= \int |\nabla \Psi(x)|^2 dx +\int V(s)|\Psi(x)|^2 dx
Si utilizamos, como representación de la función de onda,  la base de POSICIONES, la densidad de probabilidad asociada a nuestra función de onda, \int_A |\Psi(x)|^2dx,  nos dará la probabilidad de que el sistema (en este caso, nuestro electrón) esté en una zona A del espacio.
Si nos interesa el MOMENTO (i.e. la velocidad), su función de onda es la transformada de Fourier de la función de onda de posiciones, \hat{\Psi}(p),  y esta es la madre del cordero.
En la mecánica clásica la posición y el momento eran independientes. Por eso, podríamos realizar medidas sobre una y otra cantidad sin afectar a la otra.
Ahora, no obstante, tenemos una ligadura: hay una relación que conecta la posición y el momento, y ha de cumplirse. Podemos, pues, escribir nuestro funcional en términos de las dos funciones de onda J(\Psi,\hat{\Psi})= \int |\hat{ \Psi}(p)|^2|p^2| dp +\int V(s)|\Psi(x)|^2 dx.
La formulación del principio de incertidumbre de Heisenberg es, pues, \int x^2|\Psi(x)|^2 dx \int p^2|\hat{\Psi}(p)|^2 dp=\int |\nabla_x \Psi(x)|^2 dx \int |\nabla_p \hat{\Psi}(p)|^2 dp\geq C donde C es cierta constante que podemos escribir explícitamente pero que hacerlo nos da una pereza superlativa por lo que lo dejamos ‘para el lector interesado’ ;). La constante es una ensalada de constante de Planck \hbar, \pi, algún dos… Puede escribirse también involucrando sólo una función de onda de la misma manera que se hace con el funcional.
Hemos dicho que \Psi(x,t) nos da una probabilidad, con función de densidad |\Psi(x,t)|^2dx. Así observamos que en realidad el término \int x^2|\Psi(x)|^2 dx es la varianza de nuestra variable aleatoria |\Psi(x,t)|^2 (que asumimos tiene media x=0, es decir, que nuestro electrón está más o menos rondando el origen de coordenadas espaciales).
Entonces si entendemos esas ‘normas’ de los gradientes como los “errores” (utilizaremos esta palabra aquí a modo explicativo, pero hay que ser cautos con la terminología), veremos que un error pequeño en alguna de nuestras mediciones, para fijar ideas, la posición, implica que el error del momento (es decir, de la velocidad) tiene que ser alto para que el producto sea mayor que una constante. Es más: cuanto mejor midamos una (menor error) mayor es el error de la otra. ¡Qué vida más dura la nuestra!
No he hablado nada claro en este último párrafo, y los exigentes se habrán quedado pensando que me explico muy mal (quizá tengan razón). Hemos calculado un par de ejemplos ilustrativos usando python. Hemos supuesto que es unidimensional y que nuestras funciones de onda toman valores en los reales y no en los complejos. No lo hacen, pero sed generosos con nosotros que esto es sólo una afición.
Supongamos que nuestra onda es como la de esta figura
Función de onda con momento definido: seno

Si la funcion de onda es como un seno, la longitud de onda (o el momento) está bien definida.

Entonces por la fórmula de De Broglie, que conecta la visión de partículas con la de ondas, tenemos una velocidad definida (con poco o ningún error), que depende de la longitud de onda (¡otra entrada por hacer!). Esto de nuevo enlaza con nuestra transformada de Fourier, dado que este tipo de transformadas nos llevan desde el espacio de posiciones al espacio de momentos. Sin embargo, no conocemos nada de la posición, pues la probabilidad no se decanta por ninguna zona en particular y salvo puntos donde nunca estarán los electrones por lo demás no podemos decir nada. (Para el lector interesado, decir que esta función de onda no está bien definida en el espacio de posiciones: no es normalizable)
Otro caso interesante es algo así como:
Función de onda de un paquete gaussiano

Un paquete gaussiano es una elección "popular" de función de onda porque tiene incertidumbre mínima

En esta segunda imagen tenemos una función tal que al hacer el cuadrado obtenemos una zona que acapara casi toda la probabilidad, un entorno del origen (como la vida misma, unos pocos acaparan casi toda la proba…, digo, billetes). Es decir, casi sin error podemos saber su posición; sin embargo, no podemos usar la fórmula de De Broglie para calcular su velocidad, pues ¿quién me dice su longitud de onda?…
Para ir concluyendo ¿cómo enlaza esto con los gradientes (es decir, las derivadas)?, observamos que una función como la de la figura 1 tiene un gradiente ‘pequeño’, mientras que una función cómo la de la figura 2 tiene un gradiente ‘grande’. Sólo hay que ver que ese pico tiene una derivada bien grande. Así tenemos que entender que los gradientes me dan una idea del error, pero cambiando la variable. Es decir, una gradiente alto en las x me dice un error grande en las p y un error pequeño en las x. Aunque no hemos hablado de ello, esto tiene que ver con la estructura geométrica de las ecuaciones del movimiento Hamiltonianas (ya llegará, ya llegará…).
Es sorprendente (pero usual) cómo la física a veces acaba teniendo que ver con ideas abstractas de las matemáticas (al revés también ocurre).
Hay más que contar, pero se está insinuando una entrada muy larga, así que en la segunda parte de esta entrada escribiremos más acerca de los desarrollos matemáticos de la Transformada de Fourier y de si se puede obtener alguna propiedad física desde las matemáticas.
=======================
Esta entrada es participante en la XVIII Edición del Carnaval de la Física, alojado por “La Aventura , en la mecánica cuántica esto no es posible, de la Ciencia.

Introducción al cálculo variacional en la física

Siempre me ha resultado curioso la facultad sorpresiva de la Naturaleza. Nos empeñamos en admirar lo compleja que es en cada detalle. Y después descubrimos que, si miramos desde el punto de vista adecuado, todo es simple. Los científicos nos inventamos leyes (de acuerdo con unas observaciones) para intentar comprender cómo funciona, y al final basta con unos pocos principios fundamentales para derivar el resto.

Al principio estas leyes suelen ser engorrosas, pues de manera experimental intentamos contrastar nuestras observaciones con funciones que se asemejen a nuestros resultados con el fin de poder predecir más fenomenología. Así le ocurrió a Kepler que, habiendo heredado los datos de Tycho Brahe y teniendo observaciones de altísima calidad, enunció las tres leyes que llevan su nombre. Estas leyes requirieron de mucho trabajo experimental y análisis de datos para ser obtenidas y son todo un triunfo de la ciencia. Sin embargo, como en todos los campos científicos, son solo una aproximación de la realidad e introducir perturbaciones (dadas por otros planetas) eran necesarias para poder reproducir con más detalle los resultados.

Más tarde, arduos razonamientos acerca de las observaciones suelen llevar a refinamientos de la teoría. De este modo, Newton propuso la “ley de la gravitación universal” que, aplicada a un sistema simple bajo ciertas suposiciones, ¡daba como resultado las leyes de Kepler!

En el ejemplo anterior, afortunado donde los haya, no he querido entrar en las teorías anteriores de epiciclos y deferentes. Estas “teorías” se ajustaban muy bien a los datos experimentales y por eso tardaron tanto en ser desbancadas. Sin embargo, recientemente se ha demostrado que dado un número suficiente de epiciclos y deferentes, se puede reproducir cualquier órbita, pero esto no nos interesa… lo que queremos es saber cómo son las cosas y, en general, predecir el comportamiento de los sistemas de acuerdo con nuestro conocimiento: si nuestro método puede dar como pronóstico cualquier cosa , la realidad deja de tener sentido y pasa a ser un caso particular, en vez de ser el sujeto central de lo que nos atañe.

Por eso es tan importante la simplicidad. El objetivo de todo científico es poder hacer prediciones sobre el comportamiento de la realidad; si está descrito de manera muy compleja es posible que no estemos teniendo en cuenta los parámetros y simplificaciones adecuados para nuestro sistema en cuestión.

Supongo que algo así deberían tener en la mente los científicos y matemáticos de los siglos XVIII y XIX cuando fundaron lo que se denominó “mecánica analítica”.  Para ello, utilizaron el metafísico “principio de mínima acción” que plantea, en palabras de Maupertuis [1] que

“…la Naturaleza siempre actúa  de la manera más simple posible para producir sus efectos.”

Y… ¿para qué sirve este principio?  Voy a ilustrarlo con un ejemplo de mecánica clásica.  Queremos saber qué camino tomará un cuerpo en una cierta situación. Imaginemos que tenemos una cantidad (un funcional, matemáticamente hablando), a la que llamaremos acción, que depende del “camino” que ese cuerpo toma en su movimiento. Esa acción puede ser calculada para cada cualquier camino siempre y cuando tenga una cierta regularidad.  Pues bien, el camino real, el que tomará el cuerpo y que podrá ser predicho, es aquel que hace de la acción un mínimo (más rigurosamente, un valor estacionario).  Esto es “fácil” de entender:

Si calculamos la acción para todos los caminos, escogemos el camino que tiene la acción más pequeña, esa trayectoria es nuestra solución.

Simple, ¿no?

Muestra del principio de mínima acción en algunos posibles caminos

Si a cada posible trayectoria de un cuerpo entre los puntos inicial y final de su trayectoria se le asigna una acción S, la trayectoria real será aquella que tenga la acción menor. Aquí, la segunda trayectoria 2 será la real, por tener la acción menor al resto.

Pensémoslo por un segundo… ¿no es cierto que el número de caminos posibles es infinito? ¡¿Tenemos que calcular la acción para todos los posibles caminos?!

La respuesta es “no”.  Hete aquí la belleza de la Naturaleza y del ingenio humano. Matemáticamente es un poco engorroso de explicar, y se necesita alguna fórmula, de modo que  dejaré tan engorrosa tarea a Rafa, más versado que yo en estos temas.

Uno de los trabajos de la física es averigüar cuál es la definición correcta de acción que nos da resultados que se correspondan con el comportamiento de la Naturaleza.

Por mi parte, y como estaba planeado, escribiré sobre las dos principales ramas de esta teoría en la física, el método Lagrangiano y Hamiltoniano, utilizando como guía el oscilador armónico. De este modo, comprenderemos un poco mejor las ventajas y desventajas de este método en comparación con la mecánica vectorial de Newton (de la que ya hablamos aquí)

Por último, una reflexión:

Simplicidad no implica que vaya a ser fácil obtener un resultado correcto. Simplicidad implica que puedes contárselo a tu abuela (de una manera más o menos burda).

En estas lineas, Euler dejó escrito [2]:

“Comparados con los métodos de la mecánica tradicional, puede ser que el movimiento sea más dificil de calcular utilizando nuestro nuevo método; sin embargo, parece más fácil de comprender desde primeros principios.”


Referencias:

[1] Maupertuis, Accord de différentes loix de la nature qui avoient jusqu’ici paru incompatibles (1744) (Traducción inglesa, original en francés) Nótese que aplica su sistema a la óptica, como lo hizo antes Fermat.

[2] Euler, Metodus inveniendi. Additamentum II (1744) (traducción inglesa)

[3] Cornelius Lanczos. The variational principles of mechanics (1949)

(Esta entrada es una contribución al XV Carnaval de la Física alojado por Curiosidades de la Microbiología)