About xhaju

Cuando tenía 11 años, tiraba piedras hacia arriba mientras medía el tiempo que tardaban en caer. Ya me picaba la ciencia, y en estas sigo...

Transparencia inducida electromagnéticamente (1/2)

Pongamos que tenemos una lámina de un material opaco, digamos un plástico, y que intentamos hacer pasar luz roja a través de él. Dado que es opaco, la luz no podrá pasa, así que detrás de la lámina no veremos luz roja.

Sin embargo, supongamos que ese material presenta transparencia inducida electromagnéticamente (EIT). Entonces, usando otra luz particular, digamos de color azul, podemos hacer que el material sea transparente a la luz roja: esto es, si iluminamos el material con luz roja y azul podremos ver luz roja que ha atravesado el material. Extraño, ¿no?.

Continue reading

Estadística de fotones y células vivas

Un interesante descubrimiento:
Utilizando células vivas de la retina de una rana, investigadores en Singapur han sido capaces de medir la estadística de fotones utilizando para ello una célula viva de la retina de una rana (Xenopus laevis).

Celula fotorreceptora bastón
Celula fotorreceptora bastón. Son muy sensibles a la luz y, por tanto, las responsables de la visión en la oscuridad (Wikimedia Commons/Madhero88)

Los científicos extraen un bastón fotorreceptor que, cuando se expone a la luz, genera una corriente de iones . Si esta célula estuviese en un ojo, la señal producida por esta célula sería transportada y procesada por el sistema nervioso, pero en este trabajo se amplifica y se mide utilizando sistemas electrónicos.

Anteriormente, se han realizado experimentos que muestran que la sensibilidad de estas células es enorme: ¡pueden llegar a detectar un único fotón! (esta es la razón por la que son las encargadas de la visión en la oscuridad). Sin embargo, medir la estadística de la luz utilizada para hacer las medidas o bien no era de interés o bien era muy difícil de obtener (dado que utilizaban muchas células, en vez de una sola)

Usualmente, la detección de fotones se lleva a cabo en materiales como semiconductores (fotodiodos), superconductores (SQUID), fotomultiplicadores, etc; pero todavía no existen materiales orgánicos en los que se haya demostrado que se puede medir la estadística de fotones.

Pero… ¿por qué iba uno a querer medir eso? Cuando tenemos una ciencia relacionada con la luz y le ponemos “cuántica” detras (óptica cuántica, computación cuántica, comunicación cuántica) la estadística de los fotones juega un papel crucial, pues es la estadística “no clásica” la que posibilita operaciones que no serían posibles bajo condiciones usuales.

En este estudio solo han sido medidas estadísticas “clásicas”, pero el siguiente paso sería ir a estadísticas “no clásicas” y observar el resultado.

El artículo, en inglés, aquí:
http://prl.aps.org/abstract/PRL/v109/i11/e113601   (aquí la versión “de gratis” en el arXiv: http://arxiv.org/abs/1201.2792 )

y la nota de prensa:
http://phys.org/news/2012-09-retinal-rods-photon.html

Gotas vibrantes y aliasing.

Hace tiempo realicé un proyecto para la universidad en el que estudiabamos (más bien observabamos) las vibraciones de una gota de agua. Estas vibraciones eran muy rápidas, así que nos tuvimos que servir de un fenómeno llamado “aliasing” para observarlas.

El tema (la forma de gotas de agua sobre superficies) es interesante sobre todo en lo referente al diseño de materiales hidrófobos (aka, que no se mojan) o hidrófilos (aka, que se empapan rápidamente). Una de las características importantes es el ángulo de contacto que forma la superficie de una de estas gotas de agua con la superficie plana del material, que depende de una cantidad que se llama “energía superficial”.

Una superficie con una baja “energía superficial” tenderá a formar gotas redonditas, mientras que una con mayor energía superficial esparcirá la gota.

Gota formando un gran ángulo de contacto

Cuando la energía superficial del material es baja (o hay "poca afinidad"), el líquido tiende a formar gotas redondas

Gota desparramada en una superficie con alta energía superficial

Si la energía superficial es alta, no obstante, el líquido tiende a "desparramarse", y el ángulo de incidencia de la gota con la superficie es muy bajo

Estas gotas tienen una superficie “bien definida” cuando están en reposo, pero cuando vibran lo hacen como la superficie de un tambor: cuando produce sonidos, la superficie resuena en diversos “modos”, dependiendo de la frecuencia a la que suene. Para frecuencias específicas, esos modos son “limpios”, y son llamados “modos normales” de vibración. Estos modos normales dependen, fundamentalmente, de la geometría, aunque las frecuencias a las que se encuentran dependen también del material.

En el siguiente video, podemos ver qué es lo que ocurre cuando hacemos vibrar una placa cuadrada con un altavoz. Las vibraciones producidas por el altavoz hacen que la placa intente subir y bajar, pero al igual que una cuerda no sube y baja de manera constante cuando la agitamos, la placa produce “ondas” en la superficie cuyos nodos pueden verse con los granos blancos.


En nuestro estudio (o más bien, observación), nos limitamos a poner una/s gota/s de agua coloreada sobre unas cintas de teflon (las mismas que se utilizan para aislar las juntas en las tuberías). Estas cintas estaban sujetas a un altavoz, de modo que las vibraciones producidas por el altavoz (conectado a un generador de frecuencias y un amplificador) se transmitían a la gota, que a su vez intentaba subir y bajar al unísono con las tiras.

Diagrama del experimento

Una gota de agua está apoyada sobre unas cintas de teflón sujetas a un altavoz. Las vibraciones del altavoz provocan vibraciones en la gota.

Usualmente, cuando científicos realizan este estudio, cuentan con cámaras ultrarrápidas que pueden grabar varias decenas o centenares de miles de fotogramas por segundo (fps), permitiéndoles captar cada instante del movimiento. No obstante, nosotros no contábamos con este material, y a simple vista no se puede discernir nada de lo que está ocurriendo, pues las vibraciones producidas en la superficie de la gota son demasiado rápidas para el ojo humano (que puede distinguir, aproximadamente 25 fps).

Sin embargo, uno podría ser capaz de observar esas vibraciones sirviéndose de un “truco” llamado aliasing.

El teorema de Nyquist-Shannon nos dice que para obtener la información completa de una señal periodica necesitamos muestrearla a, al menos,  a una frecuencia que sea el doble de la mayor frecuencia del sistema.

Esto quiere decir lo siguiente: si quieremos ver algo que se mueve muy rápido de manera completa, necesitamos “muestrear” (mirar) más rápido de lo que la señal cambia. De otro modo, podríamos “confundir” la señal con otra de menor frecuencia en lo que se llama “aliasing“.

Podemos ver esto cuando observamos una rueda que está girando cada vez más rápido. Llega un punto, cuando va muy deprisa, que parece que las llantas se van parando hasta quedarse “inmóviles” a nuestros ojos. Si se acelera un poco más, las llantas parecen girar en sentido contrario.

Pues bien, podemos jugar con estas frecuencias para reducir de manera efectiva la velocidad a la que vemos suceder los acontecimientos y observar estas vibraciones periodicas que, de otra manera, serían demasiado rápidas. Para ello, lo único que necesitamos es una fuente de luz a la que podamos variar la frecuencia, como un estroboscopio o una lámpara con un disco giratorio de velocidad ajustable con agujeros para que pase la luz a intervalos regulares de tiempo. En morvalets tenéis una entrada que explica este fenómeno de manera bastante clara.

Así pues, sin más dilación, os dejo con el video que tomamos con una simple webcam.

(Advertencia! El video es extremadamente largo, pero aunque hay algunas anotaciones, merece especial mención el rato a partir del momento 1:05:45.)

Análisis de datos: Perfiles de linea en Python

Como físico experimental, una de las tareas que tengo que hacer día sí, día también, es análisis de datos. Y a menos que sea una cuenta corta (multiplicación, división, …), usualmente uno utiliza el ordenador para esta tarea.

Hace poco escribí un programita en Python para obtener perfiles de linea – esto es, secciones – de una imágen. Como me parece un programa simple y bastante útil quería compartirlo con el resto del mundo.

Peeeero, además de escribiros el código (que está al final), quería comentar de pasada el por qué y el cómo se representan imágenes.

Continue reading

“¿A qué me dedico?” – Ordenes cero y primero

Como estudiante de doctorado, es una pregunta que me han hecho mil y una veces. Voy a tomar la solución a esta respuesta al estilo “físico teórico”:

Orden cero:

Las respuestas más comúnes que obtengo cuando le digo a la gente que soy físico son:

“¡Hala!”

“¡Uff, qué difícil!”.

Podría decirse que esa respuesta es invariante.

Mi réplica suele ser casi siempre la misma:

“En realidad, no es tan complicado: como en casi todo, lo más importante es la dedicación y la motivación. Por ejemplo, yo no podría ser abogado, pues require habilidades que no poseo.”

Y, si mi interlocutor no está más interesado en la ciencia porque no lo considere cultura (a pesar de lo que el Diccionario de la Real Academia de la Lengua Española tenga que decir al respecto), el tema se acaba ahí.

Si tuviese que contar las veces que doy esta respuesta, diría que, aproximadamente, sirve el 50% de las veces.

 

Primer orden:

Supongamos que tenemos a alguien enfrente con algo más de interés:

“Y ¿qué estudias?”

A menos que sepa que la persona con la que estoy hablando tiene un cierto bagaje científico, suelo sacar, de modo tímido, las siguientes palabras de mi boca:

“¿Conoces la mecánica cuántica?”

La palabra “cuántico” se repite habitualmente en los programas de divulgación, de modo que casi todo el mundo “sabe” que tiene que ver con las cosas MUY pequeñas (aunque cada vez más grandes).

Cuando observamos las cosas a escalas macroscópicas (como, por ejemplo, milimetros, centímetros, metros, y mayores), tenemos la sensación de que todo es contínuo, sin saltos. Sin embargo, cuando miramos las cosas más de cerca, como haciendo “zoom” a los detalles más pequeños, las cosas comienzan a verse como hechas a base de “trozos” o “pedazos” más pequeños, llamados “cuantos”.

Si nos acercamos a las figuras de la izquierda, por mucho que nos acerquemos, nos pareceran "solidas". Algo discreto carece de esa "solidez", y se asemeja a una montaña de arena: desde lejos parece sólida, pero cuando te acercas ves que está formada a base de granitos.

Con la palabra “cuanto” no me refiero a las piezas que, al unirse, forman máquinas más complejas: si nos acercásemos a cada una de esas piezas, nos parecería como si fuesen totalmente solidas y contínuas. Sin embargo, si seguimos acercándonos, podemos ver como esa solidez es totalmente artificial, pues la materia está formada por moléculas, átomos y otras partículas indivisibles. Si estirásemos un poco la analogía, podríamos suponer que esa materia “sólida” o “contínua” es como un cuadro puntillista: de cerca se observa que el cuadro está pintado a base de pinceladas puntuales de diversos colores pero, al alejarse, uno puede ver como los colores se van fundiendo, degradados apareciendo, y el conjunto del cuadro sale a la vista como si hubiese sido pintado con trazos contínuos.

Pero, volviendo a la cuestión que nos atañe, una vez que me aseguro de que la persona sabe a lo que me refiero, continúo con lo siguiente:

“Mi campo es la óptica cuántica: si la óptica se encarga de estudiar los fenómenos de la luz, en vez de imaginar la luz como una sustancia continua de la que podemos obtener una cantidad arbitrariamente pequeña, nosotros la consideramos compuesta de pequeños trozos o cuantos de luz llamados fotones.

Además, también estudiamos las interacciones de la luz con los cuantos de materia. En mi caso, con los átomos.”

Y, hasta aquí, me parece una respuesta que atañe al 90% de mis interacciones.

Podría continuar con el segundo orden, con mayor precisión y contenido en detalles, pero esa es otra historia y deberá ser contada en otro momento (Aunque puedo adelantar que aparecen láseres)

 

Oscilador Armónico – Parte II

Hace bastante tiempo escribí la primera parte de esta serie, pero dado que estoy muy ocupado soy un poco vago, he tardado bastante en ponerme a escribir la segunda parte.

Hoy, y apoyándome en el cálculo variacional (tanto en el concepto físico como en el desarrollo matemático), revisaremos el oscilador armónico pero esta vez lo haremos desde el punto de vista Lagrangiano.

Continue reading

Introducción al cálculo variacional en las matemáticas

Esta entrada es la gemela de la entrada Introducción al cálculo variacional en la física (http://scientiapotentiaest.ambages.es/?p=87). En ella David nos decía

Queremos saber qué camino tomará un cuerpo en una cierta situación. Imaginemos que tenemos una cantidad (un funcional, matemáticamente hablando), a la que llamaremos acción (con unidades de energía por segundo), que depende del “camino” que ese cuerpo toma en su movimiento. Esa acción puede ser calculada para cada cualquier camino siempre y cuando tenga una cierta regularidad.  Pues bien, el camino real, el que tomará el cuerpo y que podrá ser predicho, es aquel que hace de la acción un mínimo (más rigurosamente, un valor estacionario).

Así, el enfoque en mecánica clásica es: dado un sistema físico, obtenemos un funcional; a este funcional se le calculan los puntos críticos y esos puntos críticos nos dan las soluciones del problema. Matemáticamente esto es ir del funcional a la ecuación diferencial.

Veamos esto con un ejemplo: Supongamos que tenemos una partícula de masa unidad bajo el influjo de un potencial U(x) (sistema físico).

Entonces el Lagrangiano se define como

L=E_c-E_p

donde E_c=\frac{1}{2}\left(\frac{dx}{dt}\right)^2 es energía cinética, que depende de la velocidad v=\frac{dx}{dt};  y E_p es energía potencial, que depende del potencial U en el lugar donde la particula se encuentra. Entonces se tiene, si la posición de la partícula se denota como x, que el lagrangiano es

L(x)=\frac{1}{2}\left(\frac{dx}{dt}\right)^2-U(x).

Ahora definimos la acción como A[x]=\int_0^t L(x)dt. Esta acción la hemos obtenido de consideraciones físicas como son la definición de energía cinética y potencial.

Una vez tenemos la acción, queremos minimizarla. Para esto hemos de encontrar los puntos críticos. Si fuese una función de una variable normal y corriente derivaríamos e igualaríamos a 0. Derivar es encontrar el cambio de una cantidad cuando se varía otra de manera infinitesimal. Aquí la idea es similar. Lo que hacemos es, dada una perturbación con los extremos fijos (v(t) tal que v(0)=v(t)=0) de nuestra trayectoria x consideramos la curva y(t)= x(t)+sv(t).

Ahora pensamos la acción para esta nueva curva y como una función de s,

A[y](s)=\int_0^t L(y(t))dt,

y obtenemos el cambio en ella cuando variamos ligeramente s; esto es, derivamos en s y hacemos s=0.

\frac{d}{ds}A[y](s)\bigg{|}_{s=0}=\frac{d}{ds}\left(\int_0^t L(y(t))dt\right)\bigg{|}_{s=0}

Calculamos, utilizando la regla de la cadena,

L(y)=\frac{1}{2}\left(\frac{dx}{dt}+s\frac{dv}{dt}\right)^2-U(x+sv),

\frac{d}{ds}U(x+sv)\bigg{|}_{s=0}=U'(x)v, (para el potencial)

\frac{d}{ds}\frac{1}{2}\left(\frac{dx}{dt}+s\frac{dv}{dt}\right)^2\bigg{|}_{s=0}=\frac{dx}{dt}\frac{dv}{dt}, (para la energía cinética).

Sustituyendo obtenemos \int_0^t \frac{dx}{dt}\frac{dv}{dt} dt-\int_0^t U'(x)vdt, y si integramos por partes en la primera integral nos queda

\int_0^t (-\frac{d^2x}{dt^2}-U'(x))vdt.

Esta integral debe ser 0 para que nuestra x sea un punto crítico del funcional, y además debe serlo para toda perturbación v.

Estas consideraciones nos imponen una relación entre las derivadas \frac{d^2x}{dt^2} y U'(x),

\frac{d^2x}{dt^2}+U'(x)=0

que es, nada más y nada menos, la segunda ley de Newton.

Este enfoque va desde el funcional, que se obtiene con consideraciones físicas, a la ecuación diferencial. O de otra manera, se usa una ecuación diferencial para solucionar un problema de minimizar un funcional.

Sin embargo también existe el método inverso. Supongamos que tenemos una ecuación diferencial (generalmente en derivadas parciales) como puede ser

\Delta u= f(u)

con f una función no lineal, por ejemplo un polinomio. Así, el llamado Método Directo del Cálculo de Variaciones consiste en definir un funcional tal que sus puntos críticos vengan dados por la ecuación que era nuestro problema original.

Demostrar la existencia de solución para la ecuación original es lo mismo que conseguir un punto crítico de nuestro funcional. Si además probamos que es único entonces la ecuación tendrá una única solución. Así con este enfoque vamos desde la ecuación al funcional.

Y como seguir abundando en este tema puede ser muy técnico lo dejaremos aquí por el momento.

Cuántica e incertidumbre (Parte I)

Hoy vamos a hablar, procurando no ser muy rigurosos (aparecen algunas fórmulas pero se pueden saltar), de por qué la mecánica cuántica es necesaria y del principio de incertidumbre de Heisenberg. La entrada la hemos escrito de manera conjunta Rafa y yo mismo.
Werner Heisenberg

Werner Heisenberg, uno de los padres de la Mecánica Cuántica

Principios de incertidumbre hay muchos, básicamente no es mas que una desigualdad de cierto tipo, donde un término controla a otro. En el caso concreto que nos atañe afirma que es imposible conocer con precisión la posición y la velocidad de una partícula cuántica (para fijar ideas un electrón). Los físicos (experimentales al menos) razonan diciendo que eso es porque para detectar un electrón hay que golpearlo con un fotón y entonces cambias su velocidad.
Esto nos deja con la duda: ¿habrá algún método que permita conocer las dos cosas?
La respuesta es que no. Y el motivo, enraizado en las matemáticas, tiene que ver con la transformada de Fourier. El ‘teorema’ aquí es que si tienes una función “grande” su transformada de Fourier es “pequeña” y viceversa (se puede intuir usando la desigualdad de Haussdorf-Young por ejemplo.). ¿Cómo afecta esto a nuestro electrón?. Los impacientes estarán pensando que se me está yendo la olla.
Pero comencemos aclarando por qué todas estas cosas tan raras de la cuántica son necesarias: supongamos que tenemos un átomo de hidrógeno (un electrón y un protón), y que tanto nuestro electrón como el núcleo del átomo se comportan como partículas clásicas. Entonces, al tener el núcleo carga eléctrica positiva y nuestro electrón carga eléctrica negativa deberían atraerse por la fuerza coulombiana entre ellos. Cuando un cuerpo con carga se acelera emite radiación electromagnética (véase la fórmula de Larmor [aquí inglés]) perdiendo así energía.
Trayectoria en espacio fásico

En una dimensión, la posición del electrón, x, oscilaría y caería hacia el origen de coordenadas. Su velocidad, p, también oscilaría y lo llevaría hacia el centro, radiando energía en el proceso.

Según este modelo el electrón se vería atraído irremisiblemente hacia el núcleo y acabaría chocando con éste. Pero esto implicaría ¡que no habría electrones!. En jerga científica diríamos que la materia no sería estable. Puesto que nosotros somos materia y estamos aquí las hipótesis de nuestro modelo no pueden ser correctas.
En otra entrada explicaremos la descripción de los estados en mecánica clásica y cuántica, pero permitidnos ahora que hagamos algunos supuestos. En la mecánica clásica la evolución de un sistema se describe como la trayectoria de un punto en el estado de fases. Sin embargo, en la mecánica cuántica esto no es posible, dado que el estado de un sistema solo puede venir dado como una “probabilidad”, de modo que no existe trayectoria de un solo punto que se adecue a la evolución temporal de un estado. Aquí, pues, la incógnita será una función (con argumentos en el espacio-tiempo y con valores en los complejos) \Psi (x,y,z,t) cuyo módulo al cuadrado (que es un número real) nos dará la densidad de probabilidad de que un sistema se encuentre en un cierto estado.
Esta función, que llamaremos “función de onda”,  evoluciona de acuerdo con la ecuación de Schrödinger. Esta es una ecuación en derivadas parciales (EDP) “cualitativamente” hiperbólica (ver la entrada anterior ). Para mayor simplicidad vamos a suponer aquí que no depende del tiempo, con lo que ahora nuestra ecuación de Schrödinger es elíptica y se puede escribir como la función que minimiza un funcional de acción (ya hablamos antes de este concepto)  J(\Psi)= \int |\nabla \Psi(x)|^2 dx +\int V(s)|\Psi(x)|^2 dx
Si utilizamos, como representación de la función de onda,  la base de POSICIONES, la densidad de probabilidad asociada a nuestra función de onda, \int_A |\Psi(x)|^2dx,  nos dará la probabilidad de que el sistema (en este caso, nuestro electrón) esté en una zona A del espacio.
Si nos interesa el MOMENTO (i.e. la velocidad), su función de onda es la transformada de Fourier de la función de onda de posiciones, \hat{\Psi}(p),  y esta es la madre del cordero.
En la mecánica clásica la posición y el momento eran independientes. Por eso, podríamos realizar medidas sobre una y otra cantidad sin afectar a la otra.
Ahora, no obstante, tenemos una ligadura: hay una relación que conecta la posición y el momento, y ha de cumplirse. Podemos, pues, escribir nuestro funcional en términos de las dos funciones de onda J(\Psi,\hat{\Psi})= \int |\hat{ \Psi}(p)|^2|p^2| dp +\int V(s)|\Psi(x)|^2 dx.
La formulación del principio de incertidumbre de Heisenberg es, pues, \int x^2|\Psi(x)|^2 dx \int p^2|\hat{\Psi}(p)|^2 dp=\int |\nabla_x \Psi(x)|^2 dx \int |\nabla_p \hat{\Psi}(p)|^2 dp\geq C donde C es cierta constante que podemos escribir explícitamente pero que hacerlo nos da una pereza superlativa por lo que lo dejamos ‘para el lector interesado’ ;). La constante es una ensalada de constante de Planck \hbar, \pi, algún dos… Puede escribirse también involucrando sólo una función de onda de la misma manera que se hace con el funcional.
Hemos dicho que \Psi(x,t) nos da una probabilidad, con función de densidad |\Psi(x,t)|^2dx. Así observamos que en realidad el término \int x^2|\Psi(x)|^2 dx es la varianza de nuestra variable aleatoria |\Psi(x,t)|^2 (que asumimos tiene media x=0, es decir, que nuestro electrón está más o menos rondando el origen de coordenadas espaciales).
Entonces si entendemos esas ‘normas’ de los gradientes como los “errores” (utilizaremos esta palabra aquí a modo explicativo, pero hay que ser cautos con la terminología), veremos que un error pequeño en alguna de nuestras mediciones, para fijar ideas, la posición, implica que el error del momento (es decir, de la velocidad) tiene que ser alto para que el producto sea mayor que una constante. Es más: cuanto mejor midamos una (menor error) mayor es el error de la otra. ¡Qué vida más dura la nuestra!
No he hablado nada claro en este último párrafo, y los exigentes se habrán quedado pensando que me explico muy mal (quizá tengan razón). Hemos calculado un par de ejemplos ilustrativos usando python. Hemos supuesto que es unidimensional y que nuestras funciones de onda toman valores en los reales y no en los complejos. No lo hacen, pero sed generosos con nosotros que esto es sólo una afición.
Supongamos que nuestra onda es como la de esta figura
Función de onda con momento definido: seno

Si la funcion de onda es como un seno, la longitud de onda (o el momento) está bien definida.

Entonces por la fórmula de De Broglie, que conecta la visión de partículas con la de ondas, tenemos una velocidad definida (con poco o ningún error), que depende de la longitud de onda (¡otra entrada por hacer!). Esto de nuevo enlaza con nuestra transformada de Fourier, dado que este tipo de transformadas nos llevan desde el espacio de posiciones al espacio de momentos. Sin embargo, no conocemos nada de la posición, pues la probabilidad no se decanta por ninguna zona en particular y salvo puntos donde nunca estarán los electrones por lo demás no podemos decir nada. (Para el lector interesado, decir que esta función de onda no está bien definida en el espacio de posiciones: no es normalizable)
Otro caso interesante es algo así como:
Función de onda de un paquete gaussiano

Un paquete gaussiano es una elección "popular" de función de onda porque tiene incertidumbre mínima

En esta segunda imagen tenemos una función tal que al hacer el cuadrado obtenemos una zona que acapara casi toda la probabilidad, un entorno del origen (como la vida misma, unos pocos acaparan casi toda la proba…, digo, billetes). Es decir, casi sin error podemos saber su posición; sin embargo, no podemos usar la fórmula de De Broglie para calcular su velocidad, pues ¿quién me dice su longitud de onda?…
Para ir concluyendo ¿cómo enlaza esto con los gradientes (es decir, las derivadas)?, observamos que una función como la de la figura 1 tiene un gradiente ‘pequeño’, mientras que una función cómo la de la figura 2 tiene un gradiente ‘grande’. Sólo hay que ver que ese pico tiene una derivada bien grande. Así tenemos que entender que los gradientes me dan una idea del error, pero cambiando la variable. Es decir, una gradiente alto en las x me dice un error grande en las p y un error pequeño en las x. Aunque no hemos hablado de ello, esto tiene que ver con la estructura geométrica de las ecuaciones del movimiento Hamiltonianas (ya llegará, ya llegará…).
Es sorprendente (pero usual) cómo la física a veces acaba teniendo que ver con ideas abstractas de las matemáticas (al revés también ocurre).
Hay más que contar, pero se está insinuando una entrada muy larga, así que en la segunda parte de esta entrada escribiremos más acerca de los desarrollos matemáticos de la Transformada de Fourier y de si se puede obtener alguna propiedad física desde las matemáticas.
=======================
Esta entrada es participante en la XVIII Edición del Carnaval de la Física, alojado por “La Aventura , en la mecánica cuántica esto no es posible, de la Ciencia.

Proteinas, ¡dobláos!

El “misterio” del plegamiento de proteinas está más cerca de su resolución: científicos en China han descubierto la ley que relaciona el comportamiento del plegado con la temperatura [1].

Hasta ahora se había pensado que las proteínas, largas cadenas de aminoácidos, se plegaban de modo “mecánico” (clásico), de modo que la proteína tenía que pasar por todos los estados intermedios hasta la forma funcional final. Simulaciones se habían llevado a cabo utilizando modelos clásicos de plegamiento de proteinas.

Imagen del plegamiento de una proteina. (Wikipedia)

Las proteinas se pliegan hasta su forma funcional, que es la de mínima energía

No obstante, los posibles disposiciones en que las proteínas se pueden doblar son MUCHAS [imaginémonos de cuantas maneras se puede doblar una cuerda muy larga], y la forma funcional es una determinada de estas disposiciones. En concreto, esta forma funcional sería el mínimo de energía en el plegado de la proteína, y parece ser que este mínimo no depende del modo en que se llega a la forma funcional (clásico o cuántico).

Además, los biólogos tienen datos que avalan que este proceso es muy sensible a la temperatura, y lo extraño es que no sigue la ley de Arrhenius [1](tendría que ser lineal en el logaritmo de la tasa de plegado con la inversa de la temperatura), sino que se comporta de modo no-lineal.

Lo que proponen estos científicos es que las proteínas no se mueven de modo mecánico hasta su forma final, sino que realizan un “salto cuántico” hasta ella. De este modo, al no tener que evaluar todas esas disposiciones, este plegamiento puede ser muy rápido (del orden de nanosegundos).

Utilizando este método, los científicos son capaces de predecir la dependencia de la tasa de plegado con la temperatura y sus resultados se ajustan bastante bien con los datos experimentales [2].

Referencias:

[1] Enlace en inglés, desde el MIT technology review blog: http://www.technologyreview.com/blog/arxiv/26421/?ref=rss

[2] “Ecuación de Arrhenius” en la wikipedia. Nivel básico en español o más completo en inglés.

[3]  L. Luo and J. Lu, “Temperature Dependence of Protein Folding Deduced from Quantum Transition”, eprint arXiv:1102.3748 [arxiv]

Introducción al cálculo variacional en la física

Siempre me ha resultado curioso la facultad sorpresiva de la Naturaleza. Nos empeñamos en admirar lo compleja que es en cada detalle. Y después descubrimos que, si miramos desde el punto de vista adecuado, todo es simple. Los científicos nos inventamos leyes (de acuerdo con unas observaciones) para intentar comprender cómo funciona, y al final basta con unos pocos principios fundamentales para derivar el resto.

Al principio estas leyes suelen ser engorrosas, pues de manera experimental intentamos contrastar nuestras observaciones con funciones que se asemejen a nuestros resultados con el fin de poder predecir más fenomenología. Así le ocurrió a Kepler que, habiendo heredado los datos de Tycho Brahe y teniendo observaciones de altísima calidad, enunció las tres leyes que llevan su nombre. Estas leyes requirieron de mucho trabajo experimental y análisis de datos para ser obtenidas y son todo un triunfo de la ciencia. Sin embargo, como en todos los campos científicos, son solo una aproximación de la realidad e introducir perturbaciones (dadas por otros planetas) eran necesarias para poder reproducir con más detalle los resultados.

Más tarde, arduos razonamientos acerca de las observaciones suelen llevar a refinamientos de la teoría. De este modo, Newton propuso la “ley de la gravitación universal” que, aplicada a un sistema simple bajo ciertas suposiciones, ¡daba como resultado las leyes de Kepler!

En el ejemplo anterior, afortunado donde los haya, no he querido entrar en las teorías anteriores de epiciclos y deferentes. Estas “teorías” se ajustaban muy bien a los datos experimentales y por eso tardaron tanto en ser desbancadas. Sin embargo, recientemente se ha demostrado que dado un número suficiente de epiciclos y deferentes, se puede reproducir cualquier órbita, pero esto no nos interesa… lo que queremos es saber cómo son las cosas y, en general, predecir el comportamiento de los sistemas de acuerdo con nuestro conocimiento: si nuestro método puede dar como pronóstico cualquier cosa , la realidad deja de tener sentido y pasa a ser un caso particular, en vez de ser el sujeto central de lo que nos atañe.

Por eso es tan importante la simplicidad. El objetivo de todo científico es poder hacer prediciones sobre el comportamiento de la realidad; si está descrito de manera muy compleja es posible que no estemos teniendo en cuenta los parámetros y simplificaciones adecuados para nuestro sistema en cuestión.

Supongo que algo así deberían tener en la mente los científicos y matemáticos de los siglos XVIII y XIX cuando fundaron lo que se denominó “mecánica analítica”.  Para ello, utilizaron el metafísico “principio de mínima acción” que plantea, en palabras de Maupertuis [1] que

“…la Naturaleza siempre actúa  de la manera más simple posible para producir sus efectos.”

Y… ¿para qué sirve este principio?  Voy a ilustrarlo con un ejemplo de mecánica clásica.  Queremos saber qué camino tomará un cuerpo en una cierta situación. Imaginemos que tenemos una cantidad (un funcional, matemáticamente hablando), a la que llamaremos acción, que depende del “camino” que ese cuerpo toma en su movimiento. Esa acción puede ser calculada para cada cualquier camino siempre y cuando tenga una cierta regularidad.  Pues bien, el camino real, el que tomará el cuerpo y que podrá ser predicho, es aquel que hace de la acción un mínimo (más rigurosamente, un valor estacionario).  Esto es “fácil” de entender:

Si calculamos la acción para todos los caminos, escogemos el camino que tiene la acción más pequeña, esa trayectoria es nuestra solución.

Simple, ¿no?

Muestra del principio de mínima acción en algunos posibles caminos

Si a cada posible trayectoria de un cuerpo entre los puntos inicial y final de su trayectoria se le asigna una acción S, la trayectoria real será aquella que tenga la acción menor. Aquí, la segunda trayectoria 2 será la real, por tener la acción menor al resto.

Pensémoslo por un segundo… ¿no es cierto que el número de caminos posibles es infinito? ¡¿Tenemos que calcular la acción para todos los posibles caminos?!

La respuesta es “no”.  Hete aquí la belleza de la Naturaleza y del ingenio humano. Matemáticamente es un poco engorroso de explicar, y se necesita alguna fórmula, de modo que  dejaré tan engorrosa tarea a Rafa, más versado que yo en estos temas.

Uno de los trabajos de la física es averigüar cuál es la definición correcta de acción que nos da resultados que se correspondan con el comportamiento de la Naturaleza.

Por mi parte, y como estaba planeado, escribiré sobre las dos principales ramas de esta teoría en la física, el método Lagrangiano y Hamiltoniano, utilizando como guía el oscilador armónico. De este modo, comprenderemos un poco mejor las ventajas y desventajas de este método en comparación con la mecánica vectorial de Newton (de la que ya hablamos aquí)

Por último, una reflexión:

Simplicidad no implica que vaya a ser fácil obtener un resultado correcto. Simplicidad implica que puedes contárselo a tu abuela (de una manera más o menos burda).

En estas lineas, Euler dejó escrito [2]:

“Comparados con los métodos de la mecánica tradicional, puede ser que el movimiento sea más dificil de calcular utilizando nuestro nuevo método; sin embargo, parece más fácil de comprender desde primeros principios.”


Referencias:

[1] Maupertuis, Accord de différentes loix de la nature qui avoient jusqu’ici paru incompatibles (1744) (Traducción inglesa, original en francés) Nótese que aplica su sistema a la óptica, como lo hizo antes Fermat.

[2] Euler, Metodus inveniendi. Additamentum II (1744) (traducción inglesa)

[3] Cornelius Lanczos. The variational principles of mechanics (1949)

(Esta entrada es una contribución al XV Carnaval de la Física alojado por Curiosidades de la Microbiología)