El enigma de Hooke

Es posible que a los que hayáis estudiado física os suene el nombre de Hooke por su famosa ley (“Ley de la elasticidad de Hooke”) que relaciona de forma lineal el alargamiento de un material (\displaystyle \vec{x}) y la fuerza aplicada (\displaystyle \vec{F}):

\displaystyle \vec{F} = - k \cdot \vec{x}.

En 1675, Robert Hooke publicó “la verdadera forma matemática y mecánica” que tiene que tener un arco ideal. Pero hizo esto escribiéndolo como un anagrama:

abcccddeeeeefggiiiiiiiillmmmmnnnnnooprrsssttttttuuuuuuuux

Extracto del ensayo " Una descripción del helioscopio y algunos instrumentos"

Extracto del ensayo ” Una descripción del helioscopio y algunos instrumentos”

Este problema del “arco ideal” es muy importante porque los arcos son estructuras ubicuas en las construciones, pues permiten sustentar peso sobre un espacio vacío. Existen muchos típos de arcos, e inicialmente su desarrollo fue de tipo empírico (“si no se cae, es un buen arco”), pero el diseño era muy sensible, y las piedras tenían que ser colocadas cuidadosamente para evitar la ruptura: los romanos usaban el arco semicircular (o de medio punto), más tarde se usarían los arcos apuntados durante el gótico, … hasta que, más o menos en la época de Galileo, se empezó a pensar que la forma de los arcos exitosos tenía que ver con la física. Y una teoría científica era necesaria si cada vez se construían arcos cada vez más grandes y grandiosos.
Pero, ¿cuál es esta forma? Cuando Hooke murió, su ejecutor testamentario resolvió el enigma del anagrama:

Ut pendet continuum flexile, sic stabit contiguum rigidum inversum

que significa

Tal como pende un cable felxible, así, invertidas, las piezas contiguas de un arco

Esto quiere decir que la forma óptima de un arco es aquella inversa a la que forma una cuerda cuando pende sujeta por sus extremos. Dicha forma se denomina “catenaria”, y ha sido utilizado en muchas estructuras desde su descubrimiento, por ser la que mejor aguanta el peso de las estructuras en relación con el ancho del arco: resulta que la descripción de la compresión de los elementos en un arco es muy parecida a la de las tensiones en una cuerda que pende libremente, excepto por un signo negativo. De hecho, es posible utilizar el calculo de variaciones para obtener la forma de la catenaria como la curva que miniza la energía de la cuerda (o, en 3-dimensiones, el catenoide como la expresión de las superficies minimales de revlución entre dos curvas).En la reconstrución de la catedral de St. Paul en Londres tras el incendio de 1966, el arquitecto jefe consultó con Hooke, que diseñó la forma de la cúpula de modo que pudiera ser más fina. La cúpula no es más que el análogo 3-dimensional de un arco. Esta forma (que él creía se correspondía con la ecuación y=x^3) eliminaría esfuerzos en la estructura distintos de los de compresión, evitando la necesidad de más material para evitar la flexión de las piezas.Entre otros, estos arcos han sido utilizados por Gaudí en múltiples construcciones, y es impresionante su uso en la Sagrada Familia. Si tenéis la oportunidad de verlo en persona, ¡es mucho más impresionante que en fotografía!

Detalle de la fachada de la pasión de la Sagrada Familia

Por ejemplo, en la fachada de la pasión de la Sagrada Familia se utiliza la catenaria invertida (fotografía compartida por Montrealais usando la licencia CC BY-SA 3.0 )

Esta entrada ha sido inspirada fundamentalmente de la entrada “The enigma of Robert Hooke” publicada en el blog Quantum Frontiers, y en información de la wikipedia.Referencias:

[1] R. Hooke, “A Description of Helioscopes, and Some Other Instruments” (encontrado en google books) [El anagrama se encuentra en la página 31]

 

Errores y errores

La economía crecerá un 10±??% este trimestreUna de las cosas que más me sorprenden/fastidian al ver resultados (científicos o no) en la tele o en las revistas es la ausencia de errores. No me refiero a que no se equivoquen (que ocurre bastante a menudo), sino a que, en la ciencia, cuando se da una medida o una predicción, usualmente esta viene acompañada de un “error”.  Lo escribo entre comillas, porque la palabra “error” suele significar en este contexto algo diferente a “fallo” o “equívoco”. No es lo mismo que un periodista diga que “se estima que la demanda ha crecido un 0.5%” a que diga “se estima que la demanda ha crecido un (0.5±0.5)%”, lo que querría decir que es bastante probable que no haya crecido nada.

Pero, ¿qué es y de dónde viene ese error? Para responder a esta pregunta, necesitamos entender un poco cómo funciona la ciencia.

Además de un corpus de conocimiento, la ciencia es un proceso. Es el modo de estudiar fenómenos reproducibles a través de propiedades observables de un sistema. Vamos… que podemos pensar en la ciencia en modo muyyyy simplificado de la siguiente manera:

  • Observo las cosas bajo ciertas condiciones
  • Hago medidas de las cosas
  • Me doy cuenta de patrones, de cosas que se repiten, o que siguen una regla.
  • Construyo un modelo en base al patrón.
  • Derivo consecuencias del modelo que no hayan sido observadas todavía (como extensiones de los patrones)
  • Comparo el modelo con nuevos datos

Estos pasos no tienen por qué darse en este orden, o todos, y usualmente se realizan en proceso cíclico, donde nuevas predicciones llevan a intentar nuevas o más precisas observaciones (con un error más pequeño), que a su vez pueden confirmar el grado de validez del modelo, o inspirar nuevos modelos.

Pero si el proceso que hemos tomado para “hacer ciencia” está bien definido, ¿de dónde vienen los “errores”?. Los errores prácticamente plagan el proceso: desde incertidumbres y errores sistemáticos en la medida; los errores en el ajuste a patrones; simplificaciones realizadas en el modelado,…

Pero el mayor problema no es el trabajar con los errores, que es algo a lo que cualquier persona que haya hecho un curso de matemáticas podría, en principio, hacer. El mayor problema desde mi punto de vista es estimar los errores. Hay mil y una maneras en que los errores y las incertidumbres se te pueden colar en los cálculos.

Veamos un ejemplo: tratas de medir la temperatura de un líquido utilizando un termómetro electrónico.¿Cuántas veces lo mides? Quizás necesites más de una medida para evitar errores estadísticos;  ¿dónde lo mides? quizás prefieras dejar el termómetro en un mismo lugar, o puedes cambiar de lugar para ver si hay diferencias de temperatura; ¿cómo lo mides? Quizás haces un montón de medidas cortas, o una larga; ¿y los errores sistemáticos? quizás necesitas calibrar primero tu termómetro…

Obviamente, dependiendo de para qué quieras esa temperatura, tu tolerancia (esto es, el error que puedes admitir) variará. Si por ejemplo necesitas estabilizar la frecuencia de un laser, necesitarás controlar su temperatura con una precisión menor de una décima parte de grado. Sin embargo, si solo necesitas agua “templada” para darte una ducha, puedes incluso prescindir del termometro y guiarte por las sensaciones de la piel.

Cualquier medida o predicción siempre conlleva un error asociado, ya sea usando un instrumento como un termómetro, o utilizando encuestas del CIS. Ese error nos permite saber cómo de buena es la medida o la predicción, o la probabilidad de que, en realidad, las cosas sean diferentes de como han sido predichas. Supongamos que un estudio pretende conocer cuánto va a aumentar la producción nacional de un pais. No es lo mismo que las predicciones tengan un error relativo del 90% a que tengan un error de 2 o 3%. Si escuchamos “se estima que la producción aumentará un (50±45)% este trimestre” deberíamos entender que la estimación predice entre el 95 y el 5% de crecimiento; sin embargo, si “se estima que la producción aumentará un (50±1)% este trimestre”, signifcaría que la predicción es bastante cercana al 50%.

El error se puede ocultar por varios motivos:

  • puede ocurrir que no sea fácil estimar el error, lo que mostraría que no se está poniendo demasiado hincapié en si la estimación es buena o no
  • también puede suceder que el error sea muy grande, lo cual “socavaría” los resultados de la investigación
  • o que simplemente no existe manera de estimar el error, porque los números han aparecido de una chistera

Si los políticos tuvieran que poner barras de error en sus predicciones, o bien perderían votos (porque la realidad podría ser bien diferente de su predicción), o bien tendrían que dejar la profesión (porque se están sacando las predicciones de la manga).

Así que, si veis escritos valores de medidas o predicciones que no lleven un error asociado, ¡estad atentos!: los errores son una fuente valiosa de información, y la información es poder.

Pero… ¿qué es la óptica?

La óptica es la rama de la ciencia que se encarga del estudio de la luz en todas sus formas.

Esto no quiere decir, en cualquier modo, que la óptica sea una cosa cerrada: como casi todos los ámbitos de la ciencia, tiene ramificaciones e interconexiones con otras áreas, y es bastante extraño (a menos que estés en la universidad, donde están empecinados en compartimentar todo saber) que se presente aislada, extraña al resto de materias.

Además, tampoco es posible separar completamente cada una de las ramas de la óptica a nivel histórico, pues aunque algunos avances (la óptica cuántica, por ejemplo) sean más modernos, en realidad se puede ver como si fuese un cuerpo del conocimiento al que se han hecho diversas aproximaciones.

Sin embargo, si cambiamos la manera de acercarnos al tema , casi siempre variarán las técnicas utilizadas y la clase de problemas que se pueden tratar dentro de ese marco de referencia.

La siguiente lista, lejos de ser extensiva, es un mero acercamiento a las palabras y los métodos que se utilizan en cada una de las ópticas. Si hay tiempo, escribiré sobre cada una de ellas independientemente, aunque la que más conozco (y de la que más preguntas tengo) es la óptica cuántica.

Óptica geométrica

Parte de la idea de que “La luz se transmite en linea recta”. Es la rama más antigua de la óptica, y estudia a un nivel básico, con leyes prácticamente “empíricas” la reflexión y la refracción de las ondas de luz en medios materiales.

Sirve, usualmente, cuando la longitud de onda es muy pequeña en comparación con el resto de distancias en el problema y cuando los ángulos de incidencia  a los distintos elementos que atraviesa la luz son pequeños (aproximación eikonal).

Diagrama que muestra como la luz es refractada por un contenedor esférico lleno de agua. ("De multiplicatione specierum", Roger Bacon, tomada de Wikimedia Commons)

Diagrama que muestra como la luz es refractada por un contenedor esférico lleno de agua. (“De multiplicatione specierum”, Roger Bacon, tomada de Wikimedia Commons)

 

Óptica electromagnética

Surge al estudiar las soluciones de las ecuaciones de Maxwell para el campo electromagnético (PDEs). Por ello, se trata normalmente del estudio de la propagación clásica de ondas armónicas en medios materiales.
Toma la refracción, reflexión y difracción desde el punto de vista microscópico de los materiales.  Aparecen las funciones de Green  (propagadores) al resolver las ecuaciones de Maxwell.  Tiene aplicaciones en ingeniería (telescopios, microscopios,…) , así como en optometría.

Cabe decir que una gran parte de la óptica electromagnética es el estudio de la luz como una “onda” en vez de corpúsculo. Esto ya lo hizo Newton, entre otros sitios, en su “Opticks

Una de las cosas más interesantes es la aparición de la frecuencia, la amplitud y la polarización en la descripción de las ondas. La fase resulta importante al considerar difracción, aunque también se puede ver en la reflexión y la refracción teniendo  en cuenta las condiciones de borde en las ecuaciones de Maxwell.

Birrefrigencia inducida por estrés en plástico. Las franjas coloreadas se hacen visibles cuando se ilumina la muestra con luz polarizada y se fotografía a través de un polarizador cruzado. (Imagen tomada de Wikimedia Commons. Autor:  Richard Wheeler)

Birrefrigencia inducida por estrés en plástico. Las franjas coloreadas se hacen visibles cuando se ilumina la muestra con luz polarizada y se fotografía a través de un polarizador cruzado. (Imagen tomada de Wikimedia Commons. Autor: Richard Wheeler)

Óptica estadística

Surge al considerar el campo electromagnético como algo menos “idealizado”: supone distribuciones estocásticas para el campo electromagnético y  la emisión de luz como un proceso aleatorio. Esto resulta más correcto cuando hay fenómenos en los que existe coherencia. Estudia fenómenos como la holografía o la interferometría.

La frecuencia y la fase toman un papel fundamental, y se trata de distribuciones de las que uno tiene que obtener “momentos”. La correlación entre puntos del campo EM es importante (al menos hasta segundo orden en intensidad).

Holograma de una paloma en una tarjeta Visa (tomada de la cuenta de Flickr de Dominic Alves)

Holograma de una paloma en una tarjeta Visa (tomada de la cuenta de Flickr de Dominic Alves)

Óptica cuántica
Tanto emisores como receptores tienen características que obedecen a las leyes de la física cuántica. Una de esas características fundamentales es la de la interferencia entre procesos debido a la “indistinguibilidad de las partículas”.

Se utilizan técnicas que van desde las PDEs hasta métodos algebráicos en teoría de grupos (operaciones de creación y aniquilación, momento angular, …). Tiene aplicaciones en espectroscopía, interferometría, …  Obviamente, dado que tenemos que describir la propagación en medios que están gobernados por las leyes de la física cuántica, podemos encontrar relación física atómica o con la física de estado sólido y de materia condensada.

Funciones de Wigner de un estado "squeezed"

Funciones de Wigner de un estado “squeezed”. Estos estados tienen aplicaciones en las medidas que requieren mucha precisión, o bajos niveles de luz, entre otras cosas (Imagen tomada de Wikimedia Commons, originalmente de la tesis de Gerd Breitenbach)

¿Por qué podemos ver los haces láser?

En los medios gráficos se nos muestra, de vez en cuando, luz laser como si fuese un haz de luz que cruza el aire (más o menos) en linea recta, hasta que choca con un espejo que lo haga cambiar de dirección, o hasta que se dirige a un objeto al que es opaco, que lo absorbe.

Este hombre si que sabe manejar láseres (visto en  imgur, tomado de este video)

Este hombre si que sabe manejar láseres (visto en imgur, tomado de este video)

Sin embargo, el hecho de que nosotros “veamos” ese haz quiere decir que hay fotones que han tomado otro camino (que no es la linea recta) y se han dirigido a nuestros ojos. ¿Cómo es esto posible?  (la respuesta, después del salto)

Continue reading

Almacenamiento y control de fotones ópticos

Autores: David Szwer y Hannes Busche,
Joint Quantum Centre (JQC) Durham-Newcastle, Department of Physics,
Durham University, UK.

Traducción de David Paredes

(Este artículo apareció originalmente en el blog 2Physics, y trata sobre el artículo a Maxwell et al. Phys. Rev. Lett., 110, 103001 (2013). Abstract. [versión libre en el arXiv])

Resumen:
El Procesado y la Comunicación cuánticas necesitan portadores robustos de información cuántica (qubits) y los fotones en frecuencias ópticas son candidatos idóneos: la luz se puede transmitir fácilmente utilizando tecnologías como las fibras ópticas, y casi no interactúa con otros fotones o el ambiente. Sin embargo, para procesar la información que portan se necesitan interacciones controlables entre los fotones que transportan esa información. Físicos en la universidad de Durham en el Reino Unido han combinado dos técnicas avanzadas de óptica cuántica con un sintetizador de microondas para controlar las interacciones entre fotones individuales [1,2]. Los fotones son almacenados en una nube de átomos de rubidio en forma de “polaritones Rydberg”. Gracias a que las interacciones entre ellos son de largo alcance, solamente un fotón puede ser almacenado en un volumen de unos cuantos micrones cúbicos, limitando el número total de fotones almacenados a unos tres. Las microondas manipulan los fotones mientras que están almacenados, forzándolos a interactuar en maneras cuyos detalles aún no se comprenden completamente. La habilidad para inducir interacciones al nivel de fotones únicos, y de controlarlas utilizando microondas, podría ofrecernos un nuevo punto de vista en el desarrollo de futuras tecnologías cuánticas.

Continue reading

La ecuación de Burgers

En este blog sabéis que periódicamente ponemos entradas de física, o mejor aún, de cómo las matemáticas se utilizan para explicar cosas de física (ver por ejemplo ésta, ésta y ésta otra entrada). La que colgamos hoy es de esas. Además ésta estaba pendiente porque en una entrada sobre varios modelos de las ecuaciones de Euler dije que iba a escribir sobre la ecuación de Burgers. Pues bien, aquí está.

La ecuación de Burgers no viscosa (que toma su nombre de J.M. Burgers) se escribe de la siguiente manera

\partial_t u(x,t)+u(x,t)\partial_x u(x,t)=0,\;\; u(x,0)=f(x)\;\;\quad (1).

Se trata de una ecuación de primer orden no lineal y suele ser el primer ejemplo de ecuación no lineal que se pone en los libros de texto (para una lectura rápida sobre las propiedades de algunas ecuaciones en derivadas parciales sencillas leed esto). Se trata además de la primera ecuación que surge de manera natural cuando uno quiere entender las ecuaciones de Euler y también “refleja” (más o menos) el comportamiento de una ola (ver un artículo reciente sobre este tipo de ecuaciones aquí).

Si pasamos esquivando el cuestión de la existencia o no de solución para dicho problema (1) y directamente suponemos que existe tal solución y que además es una función “suave”, i.e., con tantas derivadas como nos hagan falta, podemos obtener una propiedad importante de manera muy sencilla. Supongamos que tenemos una solución u(x,t) que tiene, al menos, dos derivadas en x, y supongamos además que dicha solución se va muy rápido a cero cuando |x| se hace muy grande. Dicha solución tendrá un mínimo (o ínfimo), y un máximo (o supremo) y sus posiciones dependerán del tiempo. Como la función tiende a cero en el infinito estos valores se alcanzan (es decir, no son ínfimos/supremos). Denotemos el punto donde u(x,t) alcanza su mínimo como x_t y el punto donde u(x,t) alcanza su máximo como X_t. Por lo tanto, fijo t,

u(x_t,t)=\min_x \{u(x,t)\},

y

u(X_t,t)=\max_x \{u(x,t)\}.
En estos puntos la ecuación queda
\partial_t u(X_t,t)+u(X_t,t)\partial_x u(X_t,t)=\partial_t u(X_t,t)=0,

y

\partial_t u(x_t,t)+u(x_t,t)\partial_x u(x_t,t)=\partial_t u(x_t,t)=0,

y obtenemos que tanto el máximo como el mínimo del dato inicial se conservan,

\max_x u(x,t)=\max_x f(x),

y

\min_x u(x,t)=\min_x f(x).

Si ahora repetimos el argumento para la evolución de \min_x \partial_x u obtenemos, si x_t es el punto de mínimo, la siguiente ecuación

\partial_t \partial_x u(x_t,t)+(\partial_x u(x_t,t))^2=0.\quad (2)

Ahora observamos que (2) es una EDO que se puede resolver explícitamente (¿sabrías cómo hacerlo?)

y tenemos que, si 0<t=-\min_x \partial_x f(x), |\partial_x u(x_t,t)|=\infty.

Veamos unas simulaciones para entender bien lo que pasa aquí:

Esto es un ejemplo de singularidad. Tampoco debería sorprendernos, pues esta ecuación aparece relacionada con olas y parece reflejar el hecho de que las olas “rompen”.

¿Qué pasa si ahora añadimos una pequeña viscosidad con la forma de un laplaciano? (Esta difusión puede generalizarse, por ejemplo como en [2])

\partial_t u(x,t)+u(x,t)\partial_x u(x,t)=\nu \partial_x^2 u(x,t),\;\; u(x,0)=f(x)\;\;\quad (2).

Esta ecuación se conoce como Ecuación de Burgers viscosa y puede entenderse como un modelo (en realidad una caricatura) de la ecuación de Navier-Stokes. Bueno, ahora la cuenta anterior no es tan sencilla, porque el término difusivo, el laplaciano, tiene signo “bueno”, es decir, se opone a los crecimientos descontrolados como los que se veían en el vídeo anterior. De hecho, usando la transformación de Cole-Hopf (ver aquí) se puede ver que esta ecuación tiene existencia global para cualquier valor de \nu.

De esta manera, el vídeo ahora es

–Referencias:

1) Vincent Duchene, “Decoupled and unidirectional asymptotic models for the propagation of internal waves”, preprint Arxiv, http://arxiv.org/abs/1208.6394.

2) RGB y José Manuel Moreno, “La ecuación de Burgers como un paso previo al estudio de los fluidos incompresibles”, La Gaceta de la RSME, vol 15, num 3, pag, 489-512, 2012. ArXiv preprint http://arxiv.org/abs/1105.5990.

–Nota: Como lo de aproximar soluciones de EDPs es algo muy útil, dedicaremos una entrada próximamente a un método sencillo que produce muy buenos resultados.

Transparencia inducida electromagnéticamente (2/2)

En la anterior entrada hemos hablado un poco de qué es la transparencia inducida electromagnéticamente (EIT) y cómo el medio se puede hacer transparente a luz resonante con frecuencia \nu_1 utilizando luz de otra frecuencia diferente \nu_2, a la que llamamos “haz de control”. Allí mencionamos que, dentro del medio, esa luz se convierte en una “onda espín”, en una excitación del medio, que depende de la intensidad del haz de control.

En esta segunda entrada, vamos a intentar responder a las siguientes preguntas: ¿Qué es una onda espín? ¿En qué modo depende la onda espín del haz de control? y, por último ¿por qué es esto tan relevante para la computación cuántica?

Continue reading

Transparencia inducida electromagnéticamente (1/2)

Pongamos que tenemos una lámina de un material opaco, digamos un plástico, y que intentamos hacer pasar luz roja a través de él. Dado que es opaco, la luz no podrá pasa, así que detrás de la lámina no veremos luz roja.

Sin embargo, supongamos que ese material presenta transparencia inducida electromagnéticamente (EIT). Entonces, usando otra luz particular, digamos de color azul, podemos hacer que el material sea transparente a la luz roja: esto es, si iluminamos el material con luz roja y azul podremos ver luz roja que ha atravesado el material. Extraño, ¿no?.

Continue reading

Modelizando el ala de un avión

Voy a tratar de explicar un modelo de cómo se comporta el aire (o en general un fluido), considerando que es incompresible.

Las ecuaciones de Navier-Stokes son la segunda ley de Newton (F=ma) para el caso de los medios continuos. Estas ecuaciones son parabólicas de orden 2. Las incógnitas son la presión y el campo de velocidades. La presión nos refleja una fuerza interna entre las partículas del fluido. Hay un término, el laplaciano, que nos refleja la difusión que viene del roce entre las partículas producido por la viscosidad. Lo ‘malo’ que tienen es que son muy, muy difíciles. En un caso simplificado son uno de los problemas del milenio, esos que si resuelves te pagan un millón de dólares de los EEUU. Para poder manejarse en estos temas se hacen más o menos hipótesis que nos simplifican mucho la vida, pero ¿hasta dónde estamos perdiendo en verosimilitud?.

Hay varias maneras de simplificar las ecuaciones, y las que he explicado arriba no son las más generales pues también se podrían considerar la temperatura, la densidad… como incógnitas. La primera manera es decir que tu fluido no es viscoso, en cuyo caso tus ecuaciones son hiperbólicas de orden uno. Se llaman ecuaciones de Euler. Estas también son muy complicadas y tampoco se conoce solución. No son un problema del milenio, pero si que darán la gloria al que lo saque. No son estas las ecuaciones de las que voy a hablar, sino otras más sencillas.

Voy a suponer que la temperatura es constante, así como la densidad. Además nuestro fluido es no viscoso, estacionario, es decir que no cambia con el tiempo. Supongamos también que nuestro fluido se mueve en dos dimensiones solamente, entonces podemos encontrar otra función, determinada de forma única por la primera que nos dará las trayectorias del fluido. Notaremos esta función por \Psi. En este caso todo es muchísimo más sencillo. Estamos hablando de flujos potenciales. En estos la velocidad viene dada como el gradiente de una cierta función incógnita, \Phi, por lo que podemos pasar de un sistema a una sola ecuación.

Además es una ecuación muy sencillita. Definimos la circulación como la integral a lo largo de nuestro perfil (el ala del avión) de la velocidad. Es lo mismo que integrar el rotacional de la velocidad en el interior del ala. Entonces podemos demostrar que sólo hay sustentación si la circulación es distinta de cero. Pero, con las hipótesis que hemos hecho, si añadimos que el aire muy lejos del perfil no haga remolinos, entonces tenemos que la circulación será cero, pues esta sólo puede moverse, no aparecer si antes no había (estamos en 2D y no hay viscosidad).

También podemos darnos cuenta de la paradoja de D’Alembert, que dice que en un fluido potencial y estacionario no hay resistencia aerodinámica.

Esto es bastante contradictorio con lo que vemos día a día, que los aviones vuelan y que si vamos contra el viento nos cuesta más.

La solución a estas paradojas es que nuestro fluido no es potencial, por lo menos no lo es en algunas zonas. Un fluido potencial no puede desarrollar turbulencia, y en el caso de la resistencia aerodinámica, es ésta la culpable de que nos cueste más (junto con la viscosidad). Pasa lo mismo con la sustentación. Para que haya sustentación, la circulación ha de ser distinta de cero.

Para avanzar en la comprensión de estos fenómenos hemos de separar el fluido en trozos, un trozo externo, donde podríamos habla de flujo potencial, y un flujo cercano al objeto inmerso en el fluido (el ala) y la parte de atrás de este donde los efectos de la viscosidad hacen que la vorticidad cambie localmente y tengamos circulación y turbulencias. Esto es el fenómeno de capa límite, que dice que lo que pasa es que los efectos de la viscosidad hay que contarlos en una zona muy pequeña alrededor del perfil y en la estela (zona de capa límite desprendida). Para ver unos dibujos dejo las soluciones calculadas con FREEfem++ en ambos casos (viscoso y potencial) y considerando un perfil circular.

Problemas de frontera “no-tan-libre”

Resulta que en el Instituto de Ciencias Matemáticas hay un “Working Pizza Seminar“, (además del enlace “oficial” aquí se puede ver el enlace al blog del ICMAT) es decir, un sitio donde se dan charlas informales sobre temas de investigación actual y, además, te dan pizza para comer, y hoy he torturado hablado yo.

He hablado un poco de las cosas que he estado haciendo estos casi 3 años que llevo con la tesis (ver las diapositivas aquí PizzaWorkingSeminar). Es decir, he tratado problemas de frontera libre que surgen en el movimiento de fluidos incompresibles en medios porosos inhomogéneos. Así, por ejemplo, he explicado entre otras cosas, cuándo este tipo de olas puede tener singularidades

Y también cuando es de esperar que no.

Además he comparado diversos modelos existentes. Por ejemplo he comparado el caso homogéneo con profundidad infinita con el caso homogéneo con profundidad finita (puede argumentarse que las fronteras del dominio serían zonas de permeabilidad nula y por lo tanto el problema sería inhomogéneo… pero dejémoslo estar)

También he comparado casos con distinta permeabilidad

Todos estos problemas son interesantes, por ejemplo, de cara a la obtención de energía. En efecto, si uno quiere extraer petróleo lo que se suele hacer es inyectar agua a presión de manera que ésta lo desplaza, expulsándolo (ver aquí). Otra fuente de energía, esta vez mucho menos conocida, es la energía geotérmica (ver aquí). Ahí típicamente se tiene una zona de permeabilidad altísima, una de permeabilidad más normal y ambas se encuentran acotadas por capas impermeables. Ahí se tiene que el agua está muy caliente debido al calor propio del núcleo de la Tierra y por lo tanto puede aprovecharse para obtener electricidad.

–Nota: La portada hay que agradecérsela a Elena Hontangas Martínez :-)

–Nota 2: Parece mentira la cantidad de cuadros que hay dedicados exclusivamente a las olas. Será la única cosa que tengan en común matemáticos y artistas en sus respectivos trabajos…