Simulación cuántica con átomos Rydberg – un experimento en París

Ah, Paris! (dígase en acento francés). Cuna de la baguette, del cabaret, y siguiendo al cabaret en orden de importancia, ahora también de un simulador cuántico simple que usa átomos de Rydberg. Así es: unos amigos de l’Institut d’Optique cerca de París acaban de publicar en la revista Nature (una de las más prestigiosas revistas científicas) un estudio en el que demuestran un simulador cuántico “básico” utilizando átomos de Rydberg.

Esquema del experimento

Esquema experimental del experimento, tomado de Labuhn et al., http://arxiv.org/abs/1509.04543

¿Qué es un simulador cuántico? En el mundillo de la física cuántica, hay mucha gente que quiere saber de qué manera se comportarían ciertos materiales con propiedades cuánticas porque podrían ser muy útiles a la sociedad (por ejemplo, algunas cerámicas a base de óxido de cobre que son superconductoras a altas temperaturas), pero la única manera que tienen de saber qué propiedades tienen es sintetizarlos y hacer experimentos con ellos. Y esto es muy costoso y largo la mayor parte de las veces. Uno podría pensar en hacer una simulación con un ordenador, pero esta empresa tiene un pequeño inconveniente: los sistemas cuánticos de muchas partículas son difíciles de simular, porque la cantidad de memoria y potencia de cálculo necesarias aumentan exponencialmente con el número de partículas; intentar simular de manera exacta sistemas de 30 partículas es muy difícil, y más de 50 partículas no es práctico, ni con los mejores superordenadores actuales (1). Lo que se le ocurrió a Feynman, premio Nobel de física del siglo pasado (aunque no por este trabajo) es que quizás podríamos utilizar sistemas cuánticos sencillos y controlables que nos permitan predecir cómo se comportarían sistemas más complejos. Estos simuladores serían capaces de reproducir la física detrás de estos materiales y, por lo tanto, predecir sus propiedades, aunque no hayamos creado este material.

Es como cuando aprendemos a conducir utilizando un simulador: para un novato, conducir en la calle es muy complicado, así que el simulador nos permite practicar en situaciones controladas (por ejemplo, sin coches) y después ir añadiendo elementos (más tráfico, semáforos, señales,…) para conseguir resultados más realistas. Del mismo modo, se pueden utilizar sistemas sencillos como cadenas o cuerdas para “simular” las fuerzas que actuan sobre un edificio y optimizar la forma de los arcos que sostienen una iglesia.

Por supuesto, un simulador cuántico “universal” sería capaz de simular cualquier sistema que obedeciera las leyes de la mecánica cuántica, pero ese simulador tendría que ser capaz de implementar cualquier tipo de interacción en cualquier tipo de geometría hasta en 3 dimensiones. Y esto es MUY complicado. Es tan complicado que hasta ahora solo hemos podido construir simuladores de los modelos más sencillos, bajo ciertas aproximaciones.

Por ello los investigadores del Institut d’Optique hicieron un simulador de uno de los modelos más sencillos y famosos: el modelo de Ising. Para ello, atrapan átomos de Rubidio en trampas reconfigurables utilizando moduladores espaciales de luz (SLM por sus siglas en inglés) y después los excitan utilizando láseres a estados electrónicos con alto número principal cuántico. En estos estados los átomos interactúan muy fuertemente a “grandes” distancias (micrómetros) a través de las interacciones dipolo-dipolo, unas interacciones que dependen de la posición entre dos de esas excitaciones. Como pueden reconfigurar esas trampas, pueden controlar de qué manera estos átomos interactúan entre sí – que es de lo que tratan los simuladores cuánticos: poder tener un sistema con interacciones controlables.

Quiero enfatizar que el punto importante aquí es que las interacciones entre estos átomos son fuertes a distancias de micras (una millonésima parte de un metro) y no, por ejemplo, de nanómetros (una milmillonésima parte), como ocurre con átomos en el estado fundamental o primer estado excitado: si la distancia fuese menor no podríamos utilizar trampas ópticas (por ejemplo, las generadas por los SLMs) para controlar la geometría debido a límite de difracción – tema muy interesante y del que quizás hablemos en otro momento.

Dado que el número de átomos con los que trabajan es pequeño (menos que 50), los resultados son simulables con ordenadores actuales. Si aumentásemos el número de átomos llegaría un momento en que no podríamos hacer simulaciones para testear los resultados, de modo que la manera más fácil de describir el sistema sería hacer el experimento.

Si nos fijamos bien, en la figura (e) podemos ver una diferencia entre los datos experimentales (circulos) y la teoría (linea azul): esto es posiblemente debido a que la teoría utilizada esta simplificando demasiado el problema

Si nos fijamos bien, en la figura (e) podemos ver una diferencia entre los datos experimentales (circulos) y la teoría (linea azul): esto es posiblemente debido a que la teoría utilizada esta simplificando demasiado el problema. Sin embargo, en el resto de las figuras del artículo, la teoría reproduce muy bien el experimento.

Este experimento es un pequeño paso en la dirección correcta (en lo que se refiere a la simulación cuántica). Hasta ahora la comunidad científica ha construido simuladores simples con átomos ultrafríos en redes ópticas, con trampas de iones, redes de circuitos superconductores y con chips fotónicos, pero este estudio y otros esfuerzos muestran que hay un nuevo jugador en el campo al que hay que prestar atención: los átomos de Rydberg.

 

Nota (1): El por qué la memoria y potencia de computación necesarias aumenta exponencialmente con el número de particulas en los sistemas cuánticos está íntimamente relacionado con el principio de superposición y el entrelazamiento cuántico, que impide que describamos estos sistemas como un conjunto de partículas independientes. Como diría Feynman en uno de los capítulos de sus famosas “Lecturas de física“:

En este capítulo abordaremos inmediatamente el elemento básico del comportamiento misterioso [del mundo cuántico] en su manera más extraña. Elegimos examinar un fenómento que es imposible, absolutamente imposible de explicar de ninguna manera “clásica”, y que se encuentra en el corazón de la mecánica cuántica. En realidad, contiene el único misterio.
Leer más:
  • Podéis encontrar el estudio original aquí y la versión libre en el arxiv.
  • Transcripción de uno de los trabajos seminales de Feynman, “There’s plenty of room at the bottom” (“Hay mucho sitio al fondo”) [en inglés]
  • Página de la Coherence ITN, una red de investigación europea que se centraba en el estudio de átomos Rydberg.
  • Página con algunos enlaces a proyectos europeos FET de simulación cuántica

Debo dar las gracias a la Agencia Europea por su ayuda con la beca Marie SkłodowskaCurie número 658258, a través del programa de investigación e innovación Horizonte 2020, que me facilita el poder llevar a cabo mi investigación y divulgar la ciencia. Esta entrada refleja solo mi opinión, y la Agencia no es responsable del uso que se haga con la información que contiene.

Philip Anderson y la Ciencia

La complejidad es tu enemigo: cualquiera puede hacer algo complicado. Es difícil hacer algo simple - Richard Branston

La complejidad es tu enemigo: cualquiera puede hacer algo complicado. Es difícil hacer algo simple – Richard Branston

Hace ya bastante tiempo que conozco la siguiente frase, atribuída a Ernest Rutherford [1]:

Toda la ciencia es física o filatelia

Con esta frase uno quiere decir que la única ciencia “pura” sería la física, mientras que el resto de las ciencias se dedicarían simplemente a recolectar casos (los “sellos”) e inferir leyes utilizándolos como base. Como podréis imaginar, esta opinión no le grangea a uno muchos amigos fuera de la física.

Si seguimos este hilo lógico, en realidad uno se encuentra con la visión que expuso Randall Munroe en su cómic XKCD, en una tira titulada “Pureza”:

Tira XKCD sobre la

Los físicos piensan que su ciencia es la más “pura”… olvidándose de los matemáticos (imagen tomada de la traducción de Gabriel Rodriguez Alberich al español de XKCD, originalmente escrito por Randall Munroe)

Sin embargo, con el tiempo he ido poco a poco moderando mi visión acerca de la ciencia, su “pureza”, y los diferentes modos que tenemos de obtener conocimiento a través del método científico. Al final, el método científico nos permite generalizar lo que sabemos sobre un sistema, mediante la construcción de leyes (a ser posible, simples), basándonos en la experimentación y el razonamiento (generalmente matemático).

Una de las diferencias más grandes entre las diferentes ciencias es la precisión con que uno puede hacer predicciones sobre el sistema. Usualmente los sistemas más simples dan lugar a predicciones más precisas y al contrario, los sistemas más complejos son más dificiles de modelar, y uno tiene que recurrir a aproximaciones que, casi siempre, aumentan la incertidumbre en los modelos. ¡La única razón por la que en la física podemos tener resultados tan “puros” es porque nos dedicamos a estudiar los sistemas más simples que existen!

Además, la experimentación se lleva a cabo bajo unas ciertas condiciones, que en principio limitan el ámbito de aplicación de las leyes. Idealmente, estas construcciones nos permiten predecir con un cierto grado de certeza que ocurrirá en el sistema que estudiamos en condiciones diferentes a las que hemos estudiado con anterioridad, pero esto no está completamente claro hasta que más experimentos se llevan a cabo que lo confirmen.

El caso es que el otro día estaba leyendo un artículo titulado “More is different” [2] (literalmente “Más es diferente”), escrito por el premio Nobel Philip  W. Anderson, en el que nos expone su idea de que las diferentes ciencias son en realidad el estudio de la naturaleza atendiendo a los diferentes grados de complejidad [3].

En este artículo, Anderson argumenta que la hipótesis reduccionista no implíca de ningún modo la hipótesis constructivista: esto es, que nuestra capacidad de reducir el conocimiento unas cuantas leyes simples no quiere decir que seamos capaces de utilizar esas leyes para reconstruir todo lo que ocurre en el universo.

Cuando intentamos “construir” conocimiento sobre sistemas más complicados, uno se da de bruces con los problemas de la escala y la complejidad. Esto es, cuando uno intenta describir el comportamiento de un conjunto de muchos “sistemas simples”, el resultado no se puede obtener de modo simple a partir de las propiedades de estos sistemas sencillos. Esto da lugar a una jerarquía en la que cada nivel de complejidad da lugar a comportamientos que requieren de un estudio que es tan fundamental en cada nivel como cualquier otro.

De este modo podemos organizar las ciencias de acuerdo con el principio “Los elementos fundamentales de la ciencia X obecen las leyes de la ciencia Y”. Por ejemplo, los elementos fundamentales de la física de estado sólido o sistemas a muchos cuerpos (átomos, electrones,…) obedecen a la física de partículas elementales; los bloques fundamentales de la química obedecen a las reglas de los sistemas de muchos cuerpos; la biología a los de la química, etc.

Pero esto no quiere decir que, por ejemplo, la biología sea solo química aplicada. Si uno intenta obtener desde “primeros principios” (por ejemplo, utilizando las ecuaciones del modelo estandard) las costumbres migratorias de las aves, lo va a tener bastante complicado. ¡Incluso describir reacciones químicas sencillas utilizando el modelo estandar de física de particulas puede ser muy dificil! En cada uno de estos niveles se requieren nuevas generalizaciones, conceptos y leyes que no son concebibles si uno mira solo a los sistemas más elementales, y su estudio requiere tanta “inspiración y creatividad” como los de niveles anteriores.

La naturaleza es muy rica, y si queremos aprender sobre ella, ya sea por puro placer, o para obtener beneficio de este conocimiento, necesitamos de herramientas diferentes para estudiar sus diferentes ámbitos. Las ciencias comparten el modo en que abordan los problemas, y es este método el que hace que el conocimiento que de ellas derivamos haya avanzado tanto y sea tan sólido. Es por eso que no podemos despreciar unas ciencias u otras por su “pureza” o falta de ella, porque el estudio de diferentes grados de complejidad requiere diferentes herramientas, que (dependiendo del grado de desarrollo de la ciencia) dan lugar a resultados más o menos precisos, pero igualmente valiosos. Lo importante es que en este estudio se utilicen las herramientas necesarias con rigor, y que sepamos las limitaciones de cada acercamiento.

Debo dar las gracias a la Agencia Europea por su ayuda con la beca Marie SkłodowskaCurie número 658258, a través del programa de investigación e innovación Horizonte 2020, que me facilita el poder llevar a cabo mi investigación y divulgar la ciencia. Esta entrada refleja solo mi opinión, y la Agencia no es responsable del uso que se haga con la información que contiene.

——- Referencias y Notas
[1] Citada en Rutherford en Manchester (1962) de J. B. Birks.

[2] P. W. Anderson, “More is Different”, Science 177, 393 (1972)

[3] A Philip Anderson le dieron el Nobel de física en 1977 por el estudio de sistemas magnéticos y desordenados, y es conocido por el estudio de fenómenos emergentes

El enigma de Hooke

Es posible que a los que hayáis estudiado física os suene el nombre de Hooke por su famosa ley (“Ley de la elasticidad de Hooke”) que relaciona de forma lineal el alargamiento de un material (\displaystyle \vec{x}) y la fuerza aplicada (\displaystyle \vec{F}):

\displaystyle \vec{F} = - k \cdot \vec{x}.

En 1675, Robert Hooke publicó “la verdadera forma matemática y mecánica” que tiene que tener un arco ideal. Pero hizo esto escribiéndolo como un anagrama:

abcccddeeeeefggiiiiiiiillmmmmnnnnnooprrsssttttttuuuuuuuux

Extracto del ensayo " Una descripción del helioscopio y algunos instrumentos"

Extracto del ensayo ” Una descripción del helioscopio y algunos instrumentos”

Este problema del “arco ideal” es muy importante porque los arcos son estructuras ubicuas en las construciones, pues permiten sustentar peso sobre un espacio vacío. Existen muchos típos de arcos, e inicialmente su desarrollo fue de tipo empírico (“si no se cae, es un buen arco”), pero el diseño era muy sensible, y las piedras tenían que ser colocadas cuidadosamente para evitar la ruptura: los romanos usaban el arco semicircular (o de medio punto), más tarde se usarían los arcos apuntados durante el gótico, … hasta que, más o menos en la época de Galileo, se empezó a pensar que la forma de los arcos exitosos tenía que ver con la física. Y una teoría científica era necesaria si cada vez se construían arcos cada vez más grandes y grandiosos.
Pero, ¿cuál es esta forma? Cuando Hooke murió, su ejecutor testamentario resolvió el enigma del anagrama:

Ut pendet continuum flexile, sic stabit contiguum rigidum inversum

que significa

Tal como pende un cable flexible, así, invertidas, las piezas contiguas de un arco

Esto quiere decir que la forma óptima de un arco es aquella inversa a la que forma una cuerda cuando pende sujeta por sus extremos. Dicha forma se denomina “catenaria”, y ha sido utilizado en muchas estructuras desde su descubrimiento, por ser la que mejor aguanta el peso de las estructuras en relación con el ancho del arco: resulta que la descripción de la compresión de los elementos en un arco es muy parecida a la de las tensiones en una cuerda que pende libremente, excepto por un signo negativo. De hecho, es posible utilizar el calculo de variaciones para obtener la forma de la catenaria como la curva que miniza la energía de la cuerda (o, en 3-dimensiones, el catenoide como la expresión de las superficies minimales de revolución entre dos curvas). En la reconstrución de la catedral de St. Paul en Londres tras el incendio de 1666, el arquitecto jefe consultó con Hooke, que diseñó la forma de la cúpula de modo que pudiera ser más fina. La cúpula no es más que el análogo 3-dimensional de un arco. Esta forma (que él creía se correspondía con la ecuación y=x^3) eliminaría esfuerzos en la estructura distintos de los de compresión, evitando la necesidad de más material para evitar la flexión de las piezas. Entre otros, estos arcos han sido utilizados por Gaudí en múltiples construcciones, y es impresionante su uso en la Sagrada Familia. Si tenéis la oportunidad de verlo en persona, ¡es mucho más impresionante que en fotografía!

Detalle de la fachada de la pasión de la Sagrada Familia

Por ejemplo, en la fachada de la pasión de la Sagrada Familia se utiliza la catenaria invertida (fotografía compartida por Montrealais usando la licencia CC BY-SA 3.0 )

Esta entrada ha sido inspirada fundamentalmente de la entrada “The enigma of Robert Hooke” publicada en el blog Quantum Frontiers, y en información de la wikipedia.

Debo dar las gracias a la Agencia Europea por su ayuda con la beca Marie SkłodowskaCurie número 658258, a través del programa de investigación e innovación Horizonte 2020, que me facilita el poder llevar a cabo mi investigación y divulgar la ciencia. Esta entrada refleja solo mi opinión, y la Agencia no es responsable del uso que se haga con la información que contiene.

Referencias:

[1] R. Hooke, “A Description of Helioscopes, and Some Other Instruments” (encontrado en google books) [El anagrama se encuentra en la página 31]

Errores y errores

La economía crecerá un 10±??% este trimestreUna de las cosas que más me sorprenden/fastidian al ver resultados (científicos o no) en la tele o en las revistas es la ausencia de errores. No me refiero a que no se equivoquen (que ocurre bastante a menudo), sino a que, en la ciencia, cuando se da una medida o una predicción, usualmente esta viene acompañada de un “error”.  Lo escribo entre comillas, porque la palabra “error” suele significar en este contexto algo diferente a “fallo” o “equívoco”. No es lo mismo que un periodista diga que “se estima que la demanda ha crecido un 0.5%” a que diga “se estima que la demanda ha crecido un (0.5±0.5)%”, lo que querría decir que es bastante probable que no haya crecido nada.

Pero, ¿qué es y de dónde viene ese error? Para responder a esta pregunta, necesitamos entender un poco cómo funciona la ciencia.

Además de un corpus de conocimiento, la ciencia es un proceso. Es el modo de estudiar fenómenos reproducibles a través de propiedades observables de un sistema. Vamos… que podemos pensar en la ciencia en modo muyyyy simplificado de la siguiente manera:

  • Observo las cosas bajo ciertas condiciones
  • Hago medidas de las cosas
  • Me doy cuenta de patrones, de cosas que se repiten, o que siguen una regla.
  • Construyo un modelo en base al patrón.
  • Derivo consecuencias del modelo que no hayan sido observadas todavía (como extensiones de los patrones)
  • Comparo el modelo con nuevos datos

Estos pasos no tienen por qué darse en este orden, o todos, y usualmente se realizan en proceso cíclico, donde nuevas predicciones llevan a intentar nuevas o más precisas observaciones (con un error más pequeño), que a su vez pueden confirmar el grado de validez del modelo, o inspirar nuevos modelos.

Pero si el proceso que hemos tomado para “hacer ciencia” está bien definido, ¿de dónde vienen los “errores”?. Los errores prácticamente plagan el proceso: desde incertidumbres y errores sistemáticos en la medida; los errores en el ajuste a patrones; simplificaciones realizadas en el modelado,…

Pero el mayor problema no es el trabajar con los errores, que es algo a lo que cualquier persona que haya hecho un curso de matemáticas podría, en principio, hacer. El mayor problema desde mi punto de vista es estimar los errores. Hay mil y una maneras en que los errores y las incertidumbres se te pueden colar en los cálculos.

Veamos un ejemplo: tratas de medir la temperatura de un líquido utilizando un termómetro electrónico.¿Cuántas veces lo mides? Quizás necesites más de una medida para evitar errores estadísticos;  ¿dónde lo mides? quizás prefieras dejar el termómetro en un mismo lugar, o puedes cambiar de lugar para ver si hay diferencias de temperatura; ¿cómo lo mides? Quizás haces un montón de medidas cortas, o una larga; ¿y los errores sistemáticos? quizás necesitas calibrar primero tu termómetro…

Obviamente, dependiendo de para qué quieras esa temperatura, tu tolerancia (esto es, el error que puedes admitir) variará. Si por ejemplo necesitas estabilizar la frecuencia de un laser, necesitarás controlar su temperatura con una precisión menor de una décima parte de grado. Sin embargo, si solo necesitas agua “templada” para darte una ducha, puedes incluso prescindir del termometro y guiarte por las sensaciones de la piel.

Cualquier medida o predicción siempre conlleva un error asociado, ya sea usando un instrumento como un termómetro, o utilizando encuestas del CIS. Ese error nos permite saber cómo de buena es la medida o la predicción, o la probabilidad de que, en realidad, las cosas sean diferentes de como han sido predichas. Supongamos que un estudio pretende conocer cuánto va a aumentar la producción nacional de un pais. No es lo mismo que las predicciones tengan un error relativo del 90% a que tengan un error de 2 o 3%. Si escuchamos “se estima que la producción aumentará un (50±45)% este trimestre” deberíamos entender que la estimación predice entre el 95 y el 5% de crecimiento; sin embargo, si “se estima que la producción aumentará un (50±1)% este trimestre”, signifcaría que la predicción es bastante cercana al 50%.

El error se puede ocultar por varios motivos:

  • puede ocurrir que no sea fácil estimar el error, lo que mostraría que no se está poniendo demasiado hincapié en si la estimación es buena o no
  • también puede suceder que el error sea muy grande, lo cual “socavaría” los resultados de la investigación
  • o que simplemente no existe manera de estimar el error, porque los números han aparecido de una chistera

Si los políticos tuvieran que poner barras de error en sus predicciones, o bien perderían votos (porque la realidad podría ser bien diferente de su predicción), o bien tendrían que dejar la profesión (porque se están sacando las predicciones de la manga).

Así que, si veis escritos valores de medidas o predicciones que no lleven un error asociado, ¡estad atentos!: los errores son una fuente valiosa de información, y la información es poder.

Pero… ¿qué es la óptica?

La óptica es la rama de la ciencia que se encarga del estudio de la luz en todas sus formas.

Esto no quiere decir, en cualquier modo, que la óptica sea una cosa cerrada: como casi todos los ámbitos de la ciencia, tiene ramificaciones e interconexiones con otras áreas, y es bastante extraño (a menos que estés en la universidad, donde están empecinados en compartimentar todo saber) que se presente aislada, extraña al resto de materias.

Además, tampoco es posible separar completamente cada una de las ramas de la óptica a nivel histórico, pues aunque algunos avances (la óptica cuántica, por ejemplo) sean más modernos, en realidad se puede ver como si fuese un cuerpo del conocimiento al que se han hecho diversas aproximaciones.

Sin embargo, si cambiamos la manera de acercarnos al tema , casi siempre variarán las técnicas utilizadas y la clase de problemas que se pueden tratar dentro de ese marco de referencia.

La siguiente lista, lejos de ser extensiva, es un mero acercamiento a las palabras y los métodos que se utilizan en cada una de las ópticas. Si hay tiempo, escribiré sobre cada una de ellas independientemente, aunque la que más conozco (y de la que más preguntas tengo) es la óptica cuántica.

Óptica geométrica

Parte de la idea de que “La luz se transmite en linea recta”. Es la rama más antigua de la óptica, y estudia a un nivel básico, con leyes prácticamente “empíricas” la reflexión y la refracción de las ondas de luz en medios materiales.

Sirve, usualmente, cuando la longitud de onda es muy pequeña en comparación con el resto de distancias en el problema y cuando los ángulos de incidencia  a los distintos elementos que atraviesa la luz son pequeños (aproximación eikonal).

Diagrama que muestra como la luz es refractada por un contenedor esférico lleno de agua. ("De multiplicatione specierum", Roger Bacon, tomada de Wikimedia Commons)

Diagrama que muestra como la luz es refractada por un contenedor esférico lleno de agua. (“De multiplicatione specierum”, Roger Bacon, tomada de Wikimedia Commons)

 

Óptica electromagnética

Surge al estudiar las soluciones de las ecuaciones de Maxwell para el campo electromagnético (PDEs). Por ello, se trata normalmente del estudio de la propagación clásica de ondas armónicas en medios materiales.
Toma la refracción, reflexión y difracción desde el punto de vista microscópico de los materiales.  Aparecen las funciones de Green  (propagadores) al resolver las ecuaciones de Maxwell.  Tiene aplicaciones en ingeniería (telescopios, microscopios,…) , así como en optometría.

Cabe decir que una gran parte de la óptica electromagnética es el estudio de la luz como una “onda” en vez de corpúsculo. Esto ya lo hizo Newton, entre otros sitios, en su “Opticks

Una de las cosas más interesantes es la aparición de la frecuencia, la amplitud y la polarización en la descripción de las ondas. La fase resulta importante al considerar difracción, aunque también se puede ver en la reflexión y la refracción teniendo  en cuenta las condiciones de borde en las ecuaciones de Maxwell.

Birrefrigencia inducida por estrés en plástico. Las franjas coloreadas se hacen visibles cuando se ilumina la muestra con luz polarizada y se fotografía a través de un polarizador cruzado. (Imagen tomada de Wikimedia Commons. Autor:  Richard Wheeler)

Birrefrigencia inducida por estrés en plástico. Las franjas coloreadas se hacen visibles cuando se ilumina la muestra con luz polarizada y se fotografía a través de un polarizador cruzado. (Imagen tomada de Wikimedia Commons. Autor: Richard Wheeler)

Óptica estadística

Surge al considerar el campo electromagnético como algo menos “idealizado”: supone distribuciones estocásticas para el campo electromagnético y  la emisión de luz como un proceso aleatorio. Esto resulta más correcto cuando hay fenómenos en los que existe coherencia. Estudia fenómenos como la holografía o la interferometría.

La frecuencia y la fase toman un papel fundamental, y se trata de distribuciones de las que uno tiene que obtener “momentos”. La correlación entre puntos del campo EM es importante (al menos hasta segundo orden en intensidad).

Holograma de una paloma en una tarjeta Visa (tomada de la cuenta de Flickr de Dominic Alves)

Holograma de una paloma en una tarjeta Visa (tomada de la cuenta de Flickr de Dominic Alves)

Óptica cuántica
Tanto emisores como receptores tienen características que obedecen a las leyes de la física cuántica. Una de esas características fundamentales es la de la interferencia entre procesos debido a la “indistinguibilidad de las partículas”.

Se utilizan técnicas que van desde las PDEs hasta métodos algebráicos en teoría de grupos (operaciones de creación y aniquilación, momento angular, …). Tiene aplicaciones en espectroscopía, interferometría, …  Obviamente, dado que tenemos que describir la propagación en medios que están gobernados por las leyes de la física cuántica, podemos encontrar relación física atómica o con la física de estado sólido y de materia condensada.

Funciones de Wigner de un estado "squeezed"

Funciones de Wigner de un estado “squeezed”. Estos estados tienen aplicaciones en las medidas que requieren mucha precisión, o bajos niveles de luz, entre otras cosas (Imagen tomada de Wikimedia Commons, originalmente de la tesis de Gerd Breitenbach)

¿Por qué podemos ver los haces láser?

En los medios gráficos se nos muestra, de vez en cuando, luz laser como si fuese un haz de luz que cruza el aire (más o menos) en linea recta, hasta que choca con un espejo que lo haga cambiar de dirección, o hasta que se dirige a un objeto al que es opaco, que lo absorbe.

Este hombre si que sabe manejar láseres (visto en  imgur, tomado de este video)

Este hombre si que sabe manejar láseres (visto en imgur, tomado de este video)

Sin embargo, el hecho de que nosotros “veamos” ese haz quiere decir que hay fotones que han tomado otro camino (que no es la linea recta) y se han dirigido a nuestros ojos. ¿Cómo es esto posible?  (la respuesta, después del salto)

Continue reading

Almacenamiento y control de fotones ópticos

Autores: David Szwer y Hannes Busche,
Joint Quantum Centre (JQC) Durham-Newcastle, Department of Physics,
Durham University, UK.

Traducción de David Paredes

(Este artículo apareció originalmente en el blog 2Physics, y trata sobre el artículo a Maxwell et al. Phys. Rev. Lett., 110, 103001 (2013). Abstract. [versión libre en el arXiv])

Resumen:
El Procesado y la Comunicación cuánticas necesitan portadores robustos de información cuántica (qubits) y los fotones en frecuencias ópticas son candidatos idóneos: la luz se puede transmitir fácilmente utilizando tecnologías como las fibras ópticas, y casi no interactúa con otros fotones o el ambiente. Sin embargo, para procesar la información que portan se necesitan interacciones controlables entre los fotones que transportan esa información. Físicos en la universidad de Durham en el Reino Unido han combinado dos técnicas avanzadas de óptica cuántica con un sintetizador de microondas para controlar las interacciones entre fotones individuales [1,2]. Los fotones son almacenados en una nube de átomos de rubidio en forma de “polaritones Rydberg”. Gracias a que las interacciones entre ellos son de largo alcance, solamente un fotón puede ser almacenado en un volumen de unos cuantos micrones cúbicos, limitando el número total de fotones almacenados a unos tres. Las microondas manipulan los fotones mientras que están almacenados, forzándolos a interactuar en maneras cuyos detalles aún no se comprenden completamente. La habilidad para inducir interacciones al nivel de fotones únicos, y de controlarlas utilizando microondas, podría ofrecernos un nuevo punto de vista en el desarrollo de futuras tecnologías cuánticas.

Continue reading

La ecuación de Burgers

En este blog sabéis que periódicamente ponemos entradas de física, o mejor aún, de cómo las matemáticas se utilizan para explicar cosas de física (ver por ejemplo ésta, ésta y ésta otra entrada). La que colgamos hoy es de esas. Además ésta estaba pendiente porque en una entrada sobre varios modelos de las ecuaciones de Euler dije que iba a escribir sobre la ecuación de Burgers. Pues bien, aquí está.

La ecuación de Burgers no viscosa (que toma su nombre de J.M. Burgers) se escribe de la siguiente manera

\partial_t u(x,t)+u(x,t)\partial_x u(x,t)=0,\;\; u(x,0)=f(x)\;\;\quad (1).

Se trata de una ecuación de primer orden no lineal y suele ser el primer ejemplo de ecuación no lineal que se pone en los libros de texto (para una lectura rápida sobre las propiedades de algunas ecuaciones en derivadas parciales sencillas leed esto). Se trata además de la primera ecuación que surge de manera natural cuando uno quiere entender las ecuaciones de Euler y también “refleja” (más o menos) el comportamiento de una ola (ver un artículo reciente sobre este tipo de ecuaciones aquí).

Si pasamos esquivando el cuestión de la existencia o no de solución para dicho problema (1) y directamente suponemos que existe tal solución y que además es una función “suave”, i.e., con tantas derivadas como nos hagan falta, podemos obtener una propiedad importante de manera muy sencilla. Supongamos que tenemos una solución u(x,t) que tiene, al menos, dos derivadas en x, y supongamos además que dicha solución se va muy rápido a cero cuando |x| se hace muy grande. Dicha solución tendrá un mínimo (o ínfimo), y un máximo (o supremo) y sus posiciones dependerán del tiempo. Como la función tiende a cero en el infinito estos valores se alcanzan (es decir, no son ínfimos/supremos). Denotemos el punto donde u(x,t) alcanza su mínimo como x_t y el punto donde u(x,t) alcanza su máximo como X_t. Por lo tanto, fijo t,

u(x_t,t)=\min_x \{u(x,t)\},

y

u(X_t,t)=\max_x \{u(x,t)\}.
En estos puntos la ecuación queda
\partial_t u(X_t,t)+u(X_t,t)\partial_x u(X_t,t)=\partial_t u(X_t,t)=0,

y

\partial_t u(x_t,t)+u(x_t,t)\partial_x u(x_t,t)=\partial_t u(x_t,t)=0,

y obtenemos que tanto el máximo como el mínimo del dato inicial se conservan,

\max_x u(x,t)=\max_x f(x),

y

\min_x u(x,t)=\min_x f(x).

Si ahora repetimos el argumento para la evolución de \min_x \partial_x u obtenemos, si x_t es el punto de mínimo, la siguiente ecuación

\partial_t \partial_x u(x_t,t)+(\partial_x u(x_t,t))^2=0.\quad (2)

Ahora observamos que (2) es una EDO que se puede resolver explícitamente (¿sabrías cómo hacerlo?)

y tenemos que, si 0<t=-\min_x \partial_x f(x), |\partial_x u(x_t,t)|=\infty.

Veamos unas simulaciones para entender bien lo que pasa aquí:

Esto es un ejemplo de singularidad. Tampoco debería sorprendernos, pues esta ecuación aparece relacionada con olas y parece reflejar el hecho de que las olas “rompen”.

¿Qué pasa si ahora añadimos una pequeña viscosidad con la forma de un laplaciano? (Esta difusión puede generalizarse, por ejemplo como en [2])

\partial_t u(x,t)+u(x,t)\partial_x u(x,t)=\nu \partial_x^2 u(x,t),\;\; u(x,0)=f(x)\;\;\quad (2).

Esta ecuación se conoce como Ecuación de Burgers viscosa y puede entenderse como un modelo (en realidad una caricatura) de la ecuación de Navier-Stokes. Bueno, ahora la cuenta anterior no es tan sencilla, porque el término difusivo, el laplaciano, tiene signo “bueno”, es decir, se opone a los crecimientos descontrolados como los que se veían en el vídeo anterior. De hecho, usando la transformación de Cole-Hopf (ver aquí) se puede ver que esta ecuación tiene existencia global para cualquier valor de \nu.

De esta manera, el vídeo ahora es

–Referencias:

1) Vincent Duchene, “Decoupled and unidirectional asymptotic models for the propagation of internal waves”, preprint Arxiv, http://arxiv.org/abs/1208.6394.

2) RGB y José Manuel Moreno, “La ecuación de Burgers como un paso previo al estudio de los fluidos incompresibles”, La Gaceta de la RSME, vol 15, num 3, pag, 489-512, 2012. ArXiv preprint http://arxiv.org/abs/1105.5990.

–Nota: Como lo de aproximar soluciones de EDPs es algo muy útil, dedicaremos una entrada próximamente a un método sencillo que produce muy buenos resultados.

Transparencia inducida electromagnéticamente (2/2)

En la anterior entrada hemos hablado un poco de qué es la transparencia inducida electromagnéticamente (EIT) y cómo el medio se puede hacer transparente a luz resonante con frecuencia \nu_1 utilizando luz de otra frecuencia diferente \nu_2, a la que llamamos “haz de control”. Allí mencionamos que, dentro del medio, esa luz se convierte en una “onda espín”, en una excitación del medio, que depende de la intensidad del haz de control.

En esta segunda entrada, vamos a intentar responder a las siguientes preguntas: ¿Qué es una onda espín? ¿En qué modo depende la onda espín del haz de control? y, por último ¿por qué es esto tan relevante para la computación cuántica?

Continue reading

Transparencia inducida electromagnéticamente (1/2)

Pongamos que tenemos una lámina de un material opaco, digamos un plástico, y que intentamos hacer pasar luz roja a través de él. Dado que es opaco, la luz no podrá pasa, así que detrás de la lámina no veremos luz roja.

Sin embargo, supongamos que ese material presenta transparencia inducida electromagnéticamente (EIT). Entonces, usando otra luz particular, digamos de color azul, podemos hacer que el material sea transparente a la luz roja: esto es, si iluminamos el material con luz roja y azul podremos ver luz roja que ha atravesado el material. Extraño, ¿no?.

Continue reading