Quantcast
Channel: Francis (th)E mule Science's News
Viewing all 1793 articles
Browse latest View live

La importancia de la teoría en el descubrimiento del bosón de Higgs

$
0
0

Dibujo20130722 tevatron run II higgs exclusion vs theory LO NLO NNLO

Mucha gente olvida la enorme importancia de los cálculos teóricos sobre las desintegraciones del bosón de Higgs del modelo estándar en el descubrimiento temprano del Higgs en el LHC en julio de 2012. Estos cálculos han sido realizados por los físicos especialistas en fenomenología del modelo estándar. Gracias a que la sección eficaz (o probabilidad) de desintegración del Higgs ha crecido conforme se han obtenido mejores predicciones teóricas se pudo realizar el descubrimiento (alcanzar 5 sigmas) hace un año. Puede parecer trivial pasar de NLO a NNLO, pero ha requerido un gran esfuerzo; de hecho, aún no se ha calculado el siguiente orden NNNLO, aunque se está trabajando en ello. Esta figura muestra el límite de exclusión obtenido por el Tevatrón Run II en el Fermilab (línea negra continua) comparado con las predicciones del modelo estándar (SM=1) para el primer orden (LO), segundo orden (NLO) y tercer orden (NNLO). Para el LHC los resultados teóricos son similares. Todo el mundo espera que los cálculos NNNLO estén disponibles antes de 2015, luego antes de que se acumulen nuevas colisiones en el LHC se podrá mejorar nuestro conocimiento sobre el Higgs utilizando las colisiones de 2011 y 2012. Nos lo contó Robert Harlander (Bergische Universität Wuppertal), “Discovery of a Higgs boson – The role of theory,” slides LHCP’13, May 13, 2013, y nos lo recuerda Christophe Grojean (ICREA@IFAE/Barcelona), “The scalar sector of the SM and beyond,” slides HEP-EPS’13, July 22, 2013.

Dibujo20130722 higgs hadron-level cross section LO NLO NNLO NNNLOapprox

Como muestra esta figura, se estima que las correcciones NNNLO serán pequeñas, pero también serán a favor respecto al cálculo NNLO, que fue un ~30% mayor que las correcciones NLO, que fueron un ~80% mayor que las correcciones LO; hay correcciones llamadas NNLL que son un ~10% mayores que las NNLO. Recuerda que LO significa “leading order” y que NLO es “next to leading order” y así de forma sucesiva. Estos valores se obtienen calculando una enorme cantidad de diagramas de Feynman y utilizando simulaciones de tipo Montecarlo. Los ordenadores son imprescindibles, pero la explosión combinatoria requiere que físicos expertos “ordenen” los cálculos de forma adecuada para reducir el coste.

Dibujo20130722 signal strength mu versus LO NLO NNLO for ATLAS - higgs boson

Mi objetivo con esta entrada no es mostrar cómo se realizan estos cálculos sino la gran variación que hay en todos los parámetros del bosón de Higgs en función de las predicciones teóricas. En este último año no sólo se han analizado más datos de colisiones sino también se han mejorado los cálculos teóricos. Esto es importante tenerlo muy presente cuando se interpreta un resultado como μ = 1,30 ± 0,20 para el cociente entre la sección eficaz total del Higgs observado (a fecha de marzo de 2013 tras el análisis en ATLAS de todos las colisiones de 2011 y 2012) y la predicción del modelo estándar. No se puede afirmar que dicho resultado implica que μ está a 1,5 σ de la unidad, pues el cálculo teórico NNNLO hará que se encuentre a menos de 1 σ (aunque todavía no se ha realizado este cálculo, ya hay aproximaciones al resultado). El acuerdo entre experimento y teoría es mejor de lo que muestra un número o una figura obtenida usando los cálculos teóricos actuales.

Interpretar los resultados de los experimentos nunca ha sido fácil en física, pero para problemas tan complejos como los de física de partículas en enormes instalaciones como los grandes detectores del LHC lo es aún más. No lo olvides.

Por cierto, aprovecho para recomendar el audio MP3 de la conferencia de Antonio Pich y Carmen García sobre el bosón de Higgs en la inauguración de la exposición del CERN en Valencia con motivo de la Bienal de Física. ¡Qué la disfrutes!


Archivado en: Bosón de Higgs, Ciencia, Física, LHC - CERN, Noticia CPAN, Noticias, Physics, Science Tagged: Bosón de Higgs, Ciencia, Experimento, Física, Física teórica, LHC - CERN, Noticias, Partículas elementales

El nuevo resultado del experimento japonés T2K sobre los neutrinos

$
0
0

Dibujo20130722 tokai-to-kamioka t2k experiment

El experimento japonés T2K (Tokai to Kamioka) estudia la oscilación de neutrinos muónicos en electrónicos en modo aparición, usando un haz de neutrinos generado en el laboratorio J-PARC en Tokai que es dirigido hacia el detector Super-Kamiokande situado a 295 km de distancia. T2K ha confirmado a 7,5 sigmas que el parámetro θ13 tiene un valor distinto de cero (θ13>0). Recordarás que en 2012 fue noticia que los experimentos Daya Bay, RENO y Double Chooz confirmaron a más de 5 σ que θ13>0, pero lo hicieron en modo desaparición con la oscilación de antineutrinos electrónicos en antineutrinos muónicos. La novedad es la observación en modo aparición; ya había indicios indirectos en 1999, pero las primeras señales fueron obtenidas en 2011 por MINOS que obtuvo indicios a 1,7 σ y por el propio T2K que los obtuvo a 2,5 σ, resultado que alcanzó 3,1 σ  en 2012 (pero aún lejos de un descubrimiento, que requiere superar las 5 σ). Ahora T2K logra superar las 5 σ y puede proclamar por derecho propio un descubrimiento (aunque de carácter menor, ya que quien pasará a los libros de historia como el primero en demostrar que θ13>0 será el experimento chino Daya Bay). Más información en Jorge Díaz, “Experimento T2K descubre nueva oscilación de neutrinos,” Conexión Causal, julio 19, 2013. Nos lo ha contado Atsuko K. Ichikawa (Univ. Kyoto, Japón), “Neutrino mixing: Results from accelerator experiments,” Slides, EPS-HEP’13, 23 Julio 2013.

Dibujo20130722 tokai-to-kamioka t2k experiment

Recuerda que existen tres tipos de neutrinos, o sabores: electrónicos, muónicos y tipo tau. Los neutrinos cuando se propagan van cambiando de sabor (oscilando) en el sentido de que cambia la probabilidad de que al detectar dicho neutrino tenga cierto sabor. En un haz de neutrinos muónicos (como el producido en Tokai con una energía media de 6 GeV), tras recorrer 295 km hasta Super-Kamiokande (SK), se pueden detectar neutrinos electrónicos (oscilación en modo aparición), neutrinos muónicos (oscilación en modo desaparición) y neutrinos tipo tau (aunque SK no puede detectarlos, como hace OPERA en Gran Sasso, Italia, con los neutrinos generados en el CNGS del CERN). En este nuevo resultado se han observado 28 neutrinos electrónicos con una energía promedio de 6 GeV, cuando el fondo esperado era de 4,64 ± 0,51, es decir, se ha confirmado la aparición de neutrinos electrónicos en el haz de muónicos con 7,5 sigmas de confianza estadística. Por cierto, la interpretación del resultado θ13>0 y el cálculo del número de sigmas de confianza estadística depende de si la jerarquía de masas de los neutrinos es normal o invertida. Esta figura muestra ambos resultados.

Dibujo20130722 t2k preliminary result for normal and inverted hierarchy

¿Por qué es importante saber que θ13 no es nulo? Porque en dicho caso es más fácil descubrir si la física de los neutrinos puede contener alguna violación de la simetría CP (uno de los responsables de la asimetría entre materia y antimateria). El próximo gran objetivo de los experimentos de neutrinos será descubrir si existe esta violación de la simetría CP en la física de los neutrinos (la mayoría de los físicos cree que la hay); también hay que saber si la jerarquía de masas es normal o invertida y si los neutrinos son partículas de Majorana o Dirac. Y muchas otras cosas más, porque la física de los neutrinos es realmente muy interesante.


Archivado en: Ciencia, Física, Noticia CPAN, Noticias, Physics, Science Tagged: Ciencia, Experimento, Física, Neutrinos, Noticias, Oscilación de neutrinos, T2K

El modelo estándar mínimo con neutrinos masivos (nuMSM)

$
0
0

Dibujo20130722 SM vs nuMSM - neutrino minimal standard model

Sabemos que los neutrinos tienen masa. Los neutrinos pueden ser partículas de Dirac, de Majorana o una mezcla de ambos tipos. La manera más sencilla de extender el modelo estándar (SM) para tener en cuenta esta última posibilidad se denomina modelo estándar mínimo con neutrinos (nuMSM). Esta teoría implica la existencia de neutrinos estériles, que si fueran ligeros (de unos 10 KeV de masa) podrían ser candidatos a materia oscura y resolver la mayoría de los problemas actuales de la física de partículas. El modelo nuMSMS es estable incluso con un Higgs a 125 GeV y podría ser válido hasta la escala de energías de Planck; además, implica que el LHC no encontrará nueva física, ni se observarán desviaciones respecto al modelo cosmológico ΛCDM. En relación a la gravedad, se trata de una teoría asintóticamente segura (“asymptotically safe”). Nos lo han contado Oleg Ruchayskiy, “Cosmology and Particle Physics after Higgs,” EPS HEP 2013, July 19, 2013 [slides], y Oliviero Cremonesi, “Neutrino masses,” EPS HEP 2013, July 23, 2013 [slides]. Más información técnica detallada en K. N. Abazajian et al., “Light Sterile Neutrinos: A White Paper,” arXiv:1204.5379, 18 Apr 2012.

Dibujo20130722 Resolving neutrino mass term - Neutrino oscillations mean that there exist new particles

Se denomina modelo estándar mínimo con neutrinos (nuMSM) a la extensión mínima del modelo estándar en la que los neutrinos son partículas con masa dada por una matriz de 2×2 que contiene tres masas mL, mR y mD para las masas de las componentes quirales izquierdas (los neutrinos de baja masa que ya hemos observado), las componentes quirales derechas (los neutrinos estériles de alta masa aún no observados) y una masa de Majorana (que permite explicar ciertas anomalías de poca significación en los experimentos con neutrinos).

Recuerda que en el modelo estándar los neutrinos (que tienen quiralidad izquierda) están acoplados en un doblete a las componentes de quiralidad izquierda de los electrones. Si los neutrinos son partículas de Dirac, como los electrones, la oscilación de los neutrinos implica la existencia de nuevas partículas, neutrinos de quiralidad derecha en estados singletes, como las componentes de quiralidad derecha de los electrones. Estos neutrinos de quiralidad derecha serían neutrinos estériles, no tendrían ninguna de las cargas del modelo estándar, pero recibirían su masa del mecanismo de Higgs como el resto de las partículas. Pero los neutrinos como fermiones neutros que son también pueden tener un término adicional de masa de tipo Majorana (de hecho, muchos físicos prefieren que los neutrinos sean partículas de Majorana), que no dependería del mecanismo de Higgs (sería necesaria nueva física más allá del modelo estándar para explicar su origen pero esta física se puede llevar en el modelo nuMSM hasta la escala de Planck, donde parece obvio que dicha nueva física tiene que existir sí o sí).

Dibujo20130722 Sterile neutrinos behave as superweakly interacting heavy neutrinos with a smaller Fermi constant

Los neutrinos estériles en el modelo nuMSM se comportan como neutrinos pesados con interacción superdébil (hasta diez órdenes de magnitud más débil que la interacción débil). Los neutrinos estériles han sido buscados sin éxito con masas entre pocos eV (electrón-voltios) y unos cientos de GeV (giga-electrón-voltios), pero si su interacción es superdébil serán indetectables en el LHC y otros colisionadores de partículas.

Las condiciones de Sakharov para explicar la asimetría materia-antimateria (la bariogénesis) no se pueden cumplir con el modelo estándar, que además de no contener suficiente violación de la simetría CP, tampoco permite procesos fuera del equilibrio térmico a energías de unos 100 GeV cuando el bosón de Higgs tiene una masa mayor de 72 GeV. Los neutrinos estériles con una interacción superdébil se encuentran fuera del equilibrio térmico incluso ahora, cumpliendo la condicio´n de Sakharov que los neutrinos “activos” no cumplen al termalizar en los primeros instantes de la gran explosión (big bang); además, se pueden incluir términos adicionales de violación de la simetría CP e incluso se podría incorporar una leptogénesis adicional a la bariogénesis.

Dibujo20130722 DM density from massive active neutrinos

La materia oscura no puede ser “caliente” (formada por partículas poco masivas como los neutrinos “activos”). La cota inferior de Tremaine–Gunn (1979) para la masa de los neutrinos estériles como responsables de la materia oscura es de 300 a 400 eV, pero con dicha masa sólo dan cuenta del 3% de toda la materia oscura del universo (utilizando la fórmula que se muestra). Sin embargo, si los neutrinos estériles no son débiles, sino superdébiles como en el modelo nuMSM, dicha fórmula no se aplica, pues nunca alcanzan el equilibrio térmico, y basta tomar una masa de unos 500 eV para explicar toda la materia oscura observada en las medidas cosmológicas.

Dibujo20130722 experimental restrictions to mean lifetime to dark matter

Los neutrinos estériles pueden decaer vía su oscilación con los neutrinos “activos” pero la vida media de estas desintegraciones se puede ajustar para que sea mayor que los límites actuales sobre la vida medida de la materia oscura. La clave es su interacción superdébil.

Dibujo20130722 Sterile neutrino dark matter status

Los límites actuales para la masa del neutrino estéril más ligero en el modelo nuMSM, compatible con todas las búsquedas de materia oscura encajonan su valor en la escala de los keV (kilo-electrón-voltio). Comos nos recuerdan Alexey Boyarsky, Dmytro Iakubovskyi, Oleg Ruchayskiy, “Next decade of sterile neutrino studies,” Physics of the Dark Universe 1: 136-154 (2012) [arXiv:1306.4954], durante la presente década hay experimentos en curso y experimentos planificados que explorarán todo el rango posible de masas entre 1 keV y 50 keV compatible con los neutrinos estériles del modelo nuMSM. En menos de diez años sabremos si este modelo es el camino hacia el futuro del modelo estándar u otra piedra más que debemos descartar.

Por cierto, ¿qué es un neutrino estéril? Un leptón neutro sin hipercarga débil (o isospín débil), es decir, que no afectado por la interacción débil. Los neutrinos estériles pueden oscilar en neutrinos “activos” (que tienen hipercarga débil), de ahí que se les llame “neutrinos.” Gracias a esta vía indirecta pueden interaccionar con el resto del modelo estándar. Las desintegraciones del bosón Z observadas en el LEP del CERN indican que sólo hay tres neutrinos “activos” con una masa menor que la mitad de la masa del bosón Z. Sin embargo, este límite no se aplica a los neutrinos estériles, que no están acoplados de forma directa al bosón Z.


Archivado en: Ciencia, Física, Noticia CPAN, Noticias, Physics, Science Tagged: Ciencia, Física, Física teórica, Materia oscura, Neutrinos, Neutrinos estériles, Noticias, Partículas elementales

Por primera vez se detecta un modo B de polarización en el fondo cósmico de microondas

$
0
0

Dibujo20130723 e-mode pol left and b-mode pol right measured with Sptpol at 150 ghz

La polarización del fondo cósmico de microondas presenta modos E y modos B, siendo estos últimos una contaminación medible debida al fondo cósmico de ondas gravitatorias producidas durante la inflación cósmica en los primeros instantes del big bang. La noticia científica del día es que SPT (South Pole Telescope) ha detectado por primera vez un modo B con 7,7 sigmas en la pequeña región del fondo cósmico de microondas que explora desde el Polo Sur. Por tanto, se puede afirmar que los modos B existen y que el análisis de los datos del telescopio espacial Planck sobre la polarización del fondo cósmico de microondas que se publicarán en 2014 podrían detectar muchos. La importancia de los modos B es que nos ofrecen mucha información sobre el campo inflatón responsable de la inflación cósmica, actuando como una navaja de Ockham sobre todos los modelos. Sin embargo, este modo B no es suficiente para empezar a descartar modelos inflacionarios ya que no se trata de un modo B de origen primordial (o inflacionario) pues también hay fenómenos de “primer plano” que pueden dar a lugar a estos modos, como lentes gravitatorias débiles; pero es muy importante entender este tipo de modos B para poder diferenciarlos de los modos B primordiales de gran interés inflacionario. Por ello me parece que se trata de una gran noticia. El artículo técnico es D. Hanson et al. (SPT), “Detection of B-mode Polarization in the Cosmic Microwave Background with Data from the South Pole Telescope,” arXiv:1307.5830, Subm. 22 Jul 2013.

Dibujo20130723 cross-correlation lensing B modes measured by SPTpol at 150 GHz

Las anisotropías en la polarización del fondo cósmico de microondas (CMB) se pueden descomponer en modos E (de rotacional nulo) y en modos B (de gradiente nulo). Las perturbaciones escalares que dominan las anisotropías del CMB no producen modos B en el orden perturbativo más bajo (sólo producen modos E), por ello los modos B permiten estudiar las perturbaciones tensoriales en el universo temprano (que quedan muy enmascaradas en los modos E). Los modos B permiten medir la escala de energía de la inflación (es decir cuándo ocurrió) y la presencia de señales no gaussianas en los modos B permiten una medida directa de algunos parámetros cosmológicos (como la distribución global de masa, la suma de la masa de los neutrinos y otros parámetros cosmológicos; más información en arXiv:0811.3916). Todos los experimentos anteriores han puesto límites superiores a los modos B, pero hasta ahora no se ha podido descubrir uno de forma directa (recuerda que se ha observado a más de 5 sigmas).

Dibujo20130723 South_Pole_Telescope_2008

El telescopio SPT (South Pole Telescope) de 10 metros está situado en el Polo Sur y estudia el fondo cósmico de microondas en una pequeña región del cielo (libre de contaminación galáctica) utilizando detectores (bolómetros) de alta frecuencia entre el multipolo 500 y el 3000 (el telescopio espacial Planck entre el 2 y el 2000, pero explora el cielo completo). En enero de 2012 se instalaron detectores de polarización en SPT (la gran diferencia entre WMAP y Planck es que este último tiene detectores de polarización). Los bolómetros sensibles a la polarización de SPT son 1176 a 150 GHz y 360 a 95 GHz. Los primeros son los que responsables de la observación del modo B entre marzo y noviembre de 2012, en una región de 100 grados cuadrados colocada entre 23h y 24h de ascención recta y entre 50 y 60 grados de declinación.

Por supuesto, la clave es la técnica de análisis de datos basada en filtros de Wiener aplicados en el dominio de la frecuencia. Esta técnica elimina el ruido atmosférico (que no afecta a Planck), las posibles fuentes puntuales de microondas extragalácticas y el ruido instrumental. Sin entrar en detalles técnicos, el filtro de Wiener es capaz de separar la contribución de los modos E y B, lo que en principio permite la observación de estos últimos. Sin embargo, el proceso no es sencillo. Por ello, haber podido ensayar esta técnica en SPT (que seguro que también será utilizada en el análisis de los datos de Planck) y haber obtenido un éxito es un gran paso hacia una de las grandes noticias del año 2014, la observación de un gran número de modos B en los datos de Planck sobre la polarización del fondo cósmico de microondas.

Más información sobre los modos B en este blog en “La inflación cósmica y las anisotropías en la polarización del fondo cósmico de microondas,” 14 Oct 2010; y en “El fondo cósmico de ondas gravitatorias y su detección gracias a la polarización de la radiación del fondo cósmico de microondas,” 21 May 2010.


Archivado en: Ciencia, Física, Noticias, Physics, Planck, Science Tagged: Ciencia, Cosmología, Experimento, Física, Fondo cósmico de microondas, Fondo cósmico de ondas gravitatorias, Modos B del CMB, Noticias

Cuatro micrófonos son suficientes para oír la forma de una habitación

$
0
0

Dibujo20130723 portal Lausanne cathedral - microphone array - Floor plan

Se publica en PNAS la solución a un problema clásico en acústica, cuántos micrófonos son necesarios para oír la forma de una habitación tridimensional utilizando los sonidos generados por un altavoz. La respuesta es al menos cuatro (con probabilidad uno y para una habitación poliédrica convexa). Como los autores del artículo son de la Escuela Politécnica Federal de Lausana, Suiza, han ilustrado su algoritmo con la Catedral de Lausana. Los sonidos se reflejan en las paredes y forman ecos que son recogidos por los micrófonos y etiquetados por el nuevo algoritmo, lo que permiten reconstruir la forma tridimensional de la habitación. Se necesitan al menos cuatro micrófonos porque con menos pueden aparecer “ecos fantasmas” que parecen provenir de una pared “fantasma” (que no existe). Quizás pienses que es más fácil ver la forma tridimensional de la habitación que oírla, pero la técnica permite detectar objetos o personas en movimiento dentro de la habitación, luego si se usan ultrasonidos puede tener aplicaciones prácticas muy curiosas. Por supuesto, lo más interesante del trabajo técnico es la demostración matemática y el algoritmo desarrollado, que se basan en álgebra lineal y será disfrutado por muchos matemáticos. Nos lo ha contado Mark D. Plumbley, “Hearing the shape of a room,” PNAS 110: 12162–12163, 23 Jul 2013, que se hace eco del artículo técnico de Ivan Dokmanić, Reza Parhizkar, Andreas Walther, Yue M. Lu, Martin Vetterli, “Acoustic echoes reveal room shape,” PNAS 110: 12186-12191, 23 Jul 2013.

Dibujo20130723 Illustration echo swapping - Microphone hears echoes from the walls

¿Por qué no bastan tres micrófonos? La razón son las soluciones isoespectrales, es decir, el hecho de que hay múltiples soluciones al problema y pueden aparecer formas “fantasmas” que generan los mismos ecos en los micrófonos. Un problema similar en dos dimensiones, cómo oír la forma de un tambor, ya apareció en este blog en “Es imposible reconocer la forma de un tambor escuchando sólo su sonido (cosas de la televisión),” 11 Jul 2008, y “Atención, pregunta, ¿se pude oir la forma de un tambor?,” 24 Ene 2011.

Dibujo20130723 Illustration of Graphic-based echo sorting

No quiero entrar en los detalles matemáticos de la demostración, ni en los del algoritmo de reconstrucción. Sólo destacaré que el nuevo resultado es verdad con probabilidad uno, lo que en matemáticas no es lo mismo que ser verdad, pero en la práctica no hay diferencia.

El nuevo trabajo tiene aplicaciones en realidad virtual, auralización, acústica arquitectónica e incluso en análisis forense de audio para la policía científica. Se puede utilizar para diseñar espacios acústicos con ciertas características o para cambiar la percepción auditiva de los espacios existentes. Con esta técnica se podría determinar la posición de una persona que camina por la sala y habla por un teléfono móvil. Sólo la imaginación limita las posibles aplicaciones.


Archivado en: Ciencia, Física, Noticias, Physics, Science Tagged: Acústica, Ciencia, Curiosidades, Física, Física computacional, Matemática aplicada, Matemáticas, Noticias, PNAS

Conferencia de Matt Strassler sobre el bosón de Higgs

$
0
0

El físico teórico Matt Strassler, autor del blog Of Particular Significance, nos habla del campo de Higgs en esta charla en inglés titulada “The Quest for the Higgs Boson.” Si tienes una hora y te interesa el tema, te la recomiendo (olvida la presentación de los primeros 10 minutos y las preguntas (que casi no se escuchan) de los últimos 20). ¡Qué la disfrutes!


Archivado en: Bosón de Higgs, Ciencia, Física, Noticia CPAN, Noticias, Physics, Recomendación, Science Tagged: Bosón de Higgs, Ciencia, Conferencia, Física, Física teórica, Noticias, Partículas elementales

“Física cuántica: del gato de Schrödinger al ordenador del futuro” de Juan Ignacio Cirac

$
0
0

Conferencia plenaria de divugación dada por Juan Ignacio Cirac en la Ciudad de las Artes y las Ciencias de Valencia en el marco de la XXXIV Reunión Bienal de la Real Sociedad Española de Física y el 23º Encuentro Ibérico de Enseñanza de la Física. Merece la pena, ¡qué la disfrutes! Por cierto, me he enterado del vídeo gracias a Laura Morrón (@lauramorronhttp://losmundosdebrana.wordpress.com/), siendo sus responsables el Área Joven SEDOPTICA (@SedopticaAJhttp://areajovensedoptica.blogspot.com.es). Gracias por vuestra labor.


Archivado en: Ciencia, Computación cuántica, Física, Noticias, Personajes, Physics, Recomendación, Science

Comparan experimentos y simulación SPH para saltos hidráulicos

$
0
0

Dibujo20130724 Experimental device in action - empty tank - partially filled with water

Los que trabajamos en métodos numéricos disfrutamos con los artículos que comparan resultados numéricos con resultados experimentales. Me han gustado los resultados sobre saltos hidráulicos y rotura de ondas obtenidos en la ETSI Navales de la Universidad Politécnica de Madrid. Más abajo os presento un vídeo de los resultados experimentales (su web incluye muchos más). Supongo que los lectores poco interesados en física computacional de fluidos no apreciarán este tipo de estudios comparados, pero quizás alguno sea aficionado a los gráficos por ordenador y a la simulación de fluidos para películas de Hollywood, en cualquier caso, no me resisto a recomendar la lectura de los dos artículos de Benjamin Bouscasse, Andrea Colagrossi, Antonio Souto-Iglesias, José Luis Cercós Pita, “Mechanical energy dissipation induced by sloshing and wave breaking in a fully coupled angular motion system. Part II: Experimental Investigation,” arXiv:1307.6064, 23 Jul 2013, y ”Mechanical energy dissipation induced by sloshing and wave breaking in a fully coupled angular motion system. Part I: Theoretical formulation and Numerical Investigation,” arXiv:1307.6064, 23 Jul 2013.

Para las simulaciones numéricas los autores utilizan la técnica SPH (Smoothed Particle Hydrodynamics), inventada para simulaciones magnetohidrodinámicas de estrellas y explosiones de supernovas, que se utiliza mucho en la visualización realista de fluidos en películas (la utiliza en su simulador RealFlow la empresa madrileña Next Limit, que recibió en 2008 uno de los oscars que la Academia de Hollywood otorga a los avances tecnológicos aplicados a la cinematografía). A la mayoría de los físicos computacionales de fluidos no les gusta esta técnica porque es difícil lograr la conservación de la masa, momento y energía. Sin embargo, las mejoras de este algoritmo en los últimos 30 años hacen que sea interesante comparar sus resultados con los obtenidos mediante experimentos con objeto de reivindicarlo como una herramienta más del físico computacional de fluidos. Ahí es donde entra el nuevo artículo.

Dibujo20130724 SPH simulation tank filled with water - sloshing flow snapshots

Para mostrar la bondad en la conservación de la energía en las simulaciones SPH, Bouscasse et al. han calculado la energía disipada en saltos hidráulicos y en la rotura de ondas mediante experimentos en un tanque de laboratorio. Los resultados numéricos SPH son muy buenos, teniendo en cuenta que la física de la rotura de ondas es muy complicada y que el uso de otros métodos numéricos (en apariencia más rigurosos) encuentra terribles dificultades. Pronto las técnicas SPH formarán parte de la caja de herramientas de todos los físicos computacionales de fluidos.

Te confieso que yo utilicé SPH hace unos 15 años pero sólo en el contexto de los gráficos por ordenador (cuando RealFlow estaba en fase emergente y dirigía su software hacia los “fluidos intuitivos” de gran interés en el séptimo arte); junto a alumnos simulamos lava y fluidos muy viscosos. En aquel momento la técnica presentaba muchos problemas desde el punto de vista de una simulación rigurosa, por lo que para simulaciones de chorros líquidos preferíamos usar diferencias finitas y volúmenes finitos. Sin embargo, aunque no he seguido en detalle los avances más recientes, parece que la mayoría de los problemas han sido resueltos.


Archivado en: Ciencia, Física, Informática, Matemáticas, Mathematics, Noticias, Physics, Science Tagged: Ciencia, Curiosidades, Experimento, Física, Física (o Mecánica) de fluidos, Física computacional, Informática, Noticias, SPH

Cómo ilustrará LHC los nuevos resultados sobre el bosón de Higgs

$
0
0

Dibujo20130724 Reconstructing the likelihood from subchannel information - diphoton channel Atlas - cms Una vez descubierto el bosón de Higgs hay que estudiar todas sus propiedades. Los primeros estudios se han centrado en sus modos (canales y subcanales) de desintegración, pero ahora hay que hilar más fino. La nueva recomendación del LHC es ilustrar la “fuerza” (strength) de la señal comparada con la predicción del modelo estándar, llamada μ, haciendo referencia no sólo al canal (o subcanal) de desintegración, sino también al modo de producción del Higgs. Por ello se recomienda utilizar μ(X,Y), donde X es el modo de producción e Y es el canal de desintegración. Los valores para X son ggF para la fusión de gluones (gg→H), VBF para la fusión de bosones vectoriales (WW→H y ZZ→H), y ZH, WH, o ttH para la producción asociada a bosones Z, W y pares de quarks top. Los valores para Y son los canales de desintegración conocidos por todos (γγ, WW, ZZ, bbar, Zγ, …). Nos lo cuentan en F. Boudjema et al., “On the presentation of the LHC Higgs Results,” arXiv:1307.5865, Subm. 22 Jul 2013 (artículo resultado de la discusión en los workshops “Likelihoods for the LHC Searches”, 21-23 January 2013 at CERN, “Implications of the 125 GeV Higgs Boson”, 18-22 March 2013 at LPSC Grenoble, and from the 2013 Les Houches “Physics at TeV Colliders” workshop). Dibujo20130724 Reconstructing the likelihood from subchannel information - ZZ channel Atlas - cms La función μ(X,Y) se calcula con la siguiente fórmula σ(X) BR(H→Y) / (σSM(X) BRSM(H→Y)), de tal forma que un valor menor (mayor) que la unidad significa defecto (exceso) respecto a la predicción del modelo estándar. Para mucha gente la nueva notación puede resultar engorrosa porque ahora mismo la mayoría de los datos publicados consideran dos posibilidades para X, en concreto, ggF + ttH y VBF + VH (donde VH = ZH + WH), pero los expertos del LHC creen que pronto se empezarán a publicar resultados utilizando los diferentes modos de producción por separado y ahí es donde la nueva notación muestra toda su eficacia. Por cierto, se seguirán usando μ(X) y μ(Y) para análisis combinados de canales y modos de producción, respectivamente. Dibujo20130724 CMS likelihood mu ggF-ttH vs mu VBF-VH plane Además, algunos físicos preferirán usar subíndices en lugar μ(X,Y) como ilustra esta figura, aunque en el texto de este blog me parece que voy a usar más los paréntesis (me parece más claro). Hay muchas cosas que se quedan en el tintero, pero que algún día dejarán de estarlo, complicando la notación aún más. Por ejemplo, el orden de la teoría de perturbaciones utilizado para la predicción teórica (NNLO, NNLL, NNNLO, etc.), o la técnica de análisis de las colisiones utilizadas (MVA, Cut-based, etc.). Por ahora estos datos adicionales seguirán formando parte de los pies de las figuras que ilustren los resultados.

La búsqueda de rastros más allá del modelo estándar en la física del bosón de Higgs será cada día una labor de más precisión y por ello habrá que analizar hasta los más mínimos resquicios.


Archivado en: Bosón de Higgs, Ciencia, Física, LHC - CERN, Noticia CPAN, Noticias, Physics, Science Tagged: Bosón de Higgs, Ciencia, Experimento, Física, LHC - CERN, Noticias

Hacia un nuevo tipo de electrónica en diamante, la “valletrónica”

$
0
0

Dibujo20130724 Generation of valley-polarized electrons at 77 K

No hay dos sin tres. La electrónica y la espintrónica tienen compañía, la “valletrónica” (valleytronics), basada en los “valles” del espectro de energía de la banda de conducción que aparecen en un cristal que posee diferentes ejes de simetría, en lugar de la carga eléctrica o el espín de los electrones. Estos “valles” pueden atrapar electrones en momento lineal (no en posición), es decir, canalizan el flujo de carga. Cuando hay dos o más “valles” en la banda de conducción se pueden realizar dispositivos que controlen el flujo de carga atrapado en ellos. Se publica en Nature Materials el primer artículo que ha logrado controlar este fenómeno (la generación, transporte en distancias macroscópicas y detección de electrones “valle” de polarización) gracias a que en diamante los tiempos de relajación son grandes, unos 300 ns a una temperatura de 77 K. La clave del hallazgo es la ultrapureza del diamante utilizado (menos de 10-13 defectos extrínsecos por cm³). Aunque la “valletrónica” acaba de nacer y no sabemos qué futuro tendrá (ni siquiera si llegará a adulta), este tipo de investigación me parece muy sugerente. Nos lo cuenta Christoph E. Nebel, “Valleytronics: Electrons dance in diamond,” Nature Materials 12: 690–691, 23 Jul 2013, que se hace eco del artículo técnico de Jan Isberg et al., “Generation, transport and detection of valley-polarized electrons in diamond,” Nature Materials 12: 760–764, 14 Jul 2013.

Dibujo20130724 Low-field transport of valley-polarized electrons at 77 K

La estructura de la banda de conducción del diamante es similar a la del silicio, con seis “valles” orientados a lo largo de los ejes {100}. Los electrones en estos valles tienen una masa efectiva longitudinal de 1,15 m y una transversal de 0,22 m (donde m es la masa del electrón), lo que genera una anisotropía fuerte en la propagación del electrón en diferentes orientaciones cristalinas. El intercambio de fonones (vibraciones de la red cristalina) entre los “valles” es llamado dispersión o scattering en inglés. En el diamante la dispersión de fonones entre valles colocados en ejes ortogonales (f-scattering) requiere una energía de 120 meV (valor grande comparado con los 40 meV para el silicio); la dispersión de fonones entre valles colocados en el mismo eje (g-scattering) requiere más energía, unos 165 meV; pero también hay dispersión de fonones dentro de un mismo valle (ac-scattering). Cada uno de estos procesos de dispersión tiene asociada una escala de tiempo diferente. A baja temperatura, unos 77 K, se estima mediante simulaciones de Montecarlo que los eventos de dispersión-f, dispersión-g y dispersión-ac tienen escalas de tiempo de 300 ns, 1 ms y 1 ps (tres escalas de tiempo completamente diferentes). Como el intervalo de tiempo asociado a la recombinación entre bandas es de unos microsegundos, la mobilidad de los electrones está dominada  a 77 K por la dispersión-f (en silicio se han observado los electrones “valle” pero a una temperatura mucho más baja, la del helio líquido).

Dibujo20130724 Hall angle detection of polarized electron beams.

El nuevo artículo ha observado electrones polarizados en los “valles” de la banda de conducción en diamante gracias al gran intervalo de relación asociado a la dispersión-f (unos 300 ns). Ello ha permitido propagar estos electrones “valle” en distancias macroscópicas (unos 0,7 mm) y su posterior detección. Estos resultados demuestran la viabilidad de un nuevo tipo de “electrónica” basada en el control de los electrones “valle” utilizando diamantes ultrapuros (en la fotografía de abajo la fina capa de cristal de diamante está montada en un criostato semitransparente y se muestra el contacto eléctrico en malla de Ti/Al).

Dibujo20130724 diamond sample equipped with semitransparent contact


Archivado en: Ciencia, Física, Noticias, Physics, Science Tagged: Ciencia, Curiosidades, diamante, electrónica, Experimento, Física, Nature Materials, Noticias, Valletrónica

Heteroestructuras de van der Waals basadas en grafeno

$
0
0

Dibujo20130724 Building van der Waals heterostructures

André K. Geim, Premio Nobel de Física por el grafeno, nos habla en Nature de las heteroestructuras de van der Waals, formadas por capas de un sólo átomo de grosor encajadas unas encima de otras como piezas de LEGO (las heteroestructuras convencionales se forman por capas cuyo grosor es de muchos átomos). Fabricar las heteroestructuras de van der Waals hace pocos años parecía imposible, pero ahora hay muchos grupos de investigación en el mundo que las estudian. Sus inusuales propiedades dan lugar a nuevos fenómenos físicos que podrían tener múltiples aplicaciones. Los que tengan acceso a Nature disfrutarán con el artículo A. K. Geim, I. V. Grigorieva, “Van der Waals heterostructures,” Nature 499: 419–425, 25 Jul 2013. Ya hablé de ellas en este blog en “Un curioso déjà vu: La mariposa de Hofstadter observada en Nature y en Science,” 26 Jun 2013.

Dibujo20130724 State-of-the-art van der Waals structures and devices

Nos cuenta Geim que se publican unos diez mil artículos científicos sobre el grafeno al año, pero pocos de ellos se centran en el grafeno en exclusiva, la mayoría lo combina con otros materiales. Las heteroestructuras se forman combinando varias capas de materiales muy delgadas y ahora está de moda que el grafeno sea una de esas capas. Por ejemplo, se puede colocar una capa de grafeno encima de una capa de mica, y repetir la secuencia varias veces. Las heteroestructuras de van der Waals son muy interesantes porque son similares a los cupratos (óxidos de cobre) superconductores a alta temperatura. El grafeno quizás acabe formando parte de futuros superconductores artificiales fabricados capa a capa. Pero lo más interesante de las heteroestructuras de van der Waals son las nuevas propiedades que no han sido observadas en materiales naturales de estructura similar.

Dibujo20130724 library current 2d materials

Esta tabla muestra los materiales conocidos a día de hoy que pueden formar cristales 2D a temperatura ambiente. El grafeno es el más conocido (monocapas de grafito), pero también han sido muy estudiados el nitruro de boro hexagonal (hBN), y el disulfuro de molibdeno (MoS2), materiales muy usados como lubricantes sólidos por su alta estabilidad térmica y química. También se usan mucho el disulfuro de tungsteno 2D (WS2), diselenuro de tungsteno (WSE2) y el diseleniuro de molibdeno (Mose2), que son química, estructural y electrónicamente similares a MoS2. Además de varios derivados del grafeno.

Fabricar a escala masiva heteroestructuras de van der Waals ya no es una utopía. El enfoque más viable para la producción a escala industrial parece ser el crecimiento de monocapas individuales sobre soportes catalíticos, el aislamiento de capas 2D y su posterior apilado. Este método parece escalable. Habrá que esperar a los próximos años para ver cómo avanza esta tecnología, pero el futuro, sin lugar a dudas, es muy prometedor.


Archivado en: Ciencia, Física, Noticias, Physics, Science Tagged: Ciencia, Curiosidades, Experimento, Física, grafeno, Heteroestructuras, Nanotecnología, Noticias

Cómo distinguir estrellas de neutrones y estrellas de quarks con ondas gravitatorias

$
0
0

Dibujo20130725 quark star versus neutron star

Nadie sabe si las estrellas de quarks existen, pero se publica en Science un artículo que muestra cómo distinguirlas de las estrellas de neutrones cuando están en un sistema binario y emiten radiación como un púlsar de milisegundos. Una estrella compacta en rápida rotación emite pulsos de radiación de forma periódica debido a su intenso campo magnético. Los sistemas binarios formados por dos púlsares han permitido verificar de forma indirecta la existencia de ondas gravitatorias gracias a la reducción de su periodo de emisión. Kent Yagi y Nicolás Yunes (Univ. Estatal de Montana, EEUU) afirman que las estrellas compactas en rotación rápida se deforman de forma diferente según su composición y que ello afecta a su emisión como púlsares. El resultado es que el momento cuadripolar de la radiación de los púlsares binarios es diferente entre estrella de neutrones y estrellas de quarks. La variación del periodo de emisión de los púlsares de milisegundos además de permitir comprobar la validez de la relatividad general (Premio Nobel de Física de 1993) también podría permitir descubrir la existencia de las estrellas de quarks. Para ello habría que observar uno que violara, en apariencia, la relatividad general, pero que lo hiciera siguiendo las predicciones de este nuevo artículo. Toda una sorpresa para muchos. El artículo técnico es Kent Yagi, Nicolás Yunes, “I-Love-Q: Unexpected Universal Relations for Neutron Stars and Quark Stars,” Science 341: 365-368, 26 Jul 2013.

Dibujo20130725 I-LOVE-Q diagram - quark star versus neutron star

Yagi y Yunes proponen usar este diagrama, al que llaman I-Love-Q, porque se basa en la teoría de Love para las mareas gravitatorias, para distinguir entre las estrellas de neutrones y las hipotéticas estrellas de quarks. La masa y el radio de una estrella compacta, sea una estrella de neutrones o una hipotética estrella de quarks, depende de la ecuación de estado de la materia nuclear a muy altas densidades (recuerda que la ecuación de estado relaciona la densidad de energía ρ con la presión p). Una estrella en rotación a alta velocidad se caracteriza por su momento de inercia y por su deformabilidad, esta última determinada por su momento cuadripolar y por el llamado número de marea de Love. En la actualidad las medidas astrofísicas no permiten distinguir entre estrellas de neutrones y estrellas de quarks (si existen) observadas de forma individual. Sin embargo, en sistemas binarios cuando se comportan como púlsares, la variación de su periodo en el diagrama I-Love-Q muestra una diferencia que podría permitir su descubrimiento. Buenas noticias a los amantes de la idea de las estrellas de quarks, cuya materia “extraña” (formada por quarks arriba, abajo y extraños) ha conmovido la imaginación de muchos escritores de ciencia ficción.

En este blog también puedes leer “Estrellas de quarks, entre la hipótesis y la realidad (o el caso de la supernova SN2006gy),” 20 julio 2008, y “El misterio del remanente de la supernova SN 1987A: quizás es una estrella de quarks,” 29 marzo 2009.

PS: En los comentarios SantaKlaus habla sobre el límite máximo para la masa de una estrella de neutrones. Todavía no lo sabemos. Estas estrellas están formadas por capas y la ecuación de estado exacta para su núcleo todavía no es conocida. Las estimaciones teóricas apuntan a una masa máxima del orden de 2,1 masas solares. Las dos estrellas de neutrones con mayor masa entre las conocidas están en un sistema binario acompañadas de una estrella enana blanca, lo que facilita la estimación de su masa, en los púlsares PSR J1614-2230 y PSR J0348+043, con masas de 1,97 ± 0,04 y 2,01 ± 0,04, resp. Por ello se cree que el límite de 2,1 masas solares es bastante razonable.

Dibujo20130726 Schematic view of the composition of a neutron star

En cuanto a las (hipotéticas) estrellas de quarks el límite máximo para su masa se estima en unas 2,5 masas solares, aunque la incertidumbre es tan grande que podría estar entre 2 y 3 masas solares. Por ejemplo, B. Franzon et al., “Cold Quark Matter in Compact Stars,” AIP Conf. Proc. 1520: 382-384, 2013, estiman el siguiente diagrama masa versus radio para las estrellas de quarks.

Dibujo20130726 mass - radius diagram for hypothetical quark stars

En este campo las estimaciones son muy complicadas. Gracias a los experimentos sobre el plasma de quarks y gluones poco a poco se irá desvelando la física de las estrellas de quarks (si es que pueden llegar a existir).


Archivado en: Astrofísica, Ciencia, Física, Noticias, Physics, Relatividad, Science Tagged: Astrofísica, Ciencia, Estrellas de neutrones, Estrellas de quarks, Física, Noticias, púlsar, Quarks

ER=EPR, la nueva conjetura de Maldacena y Susskind

$
0
0

Dibujo20130726 Proposed relation between spacetime structure and entanglement structure

La ecuación ER=EPR hace referencia a dos ideas que Albert Einstein publicó en 1935, los puentes de Einstein−Rosen y el entrelazamiento cuántico de Einstein−Podolsky−Rosen. El artículo EPR fue una “bella durmiente de la ciencia” y ER va camino de serlo. La conjetura ER=EPR afirma que hay un puente de Einstein-Rosen (un tipo de agujero de gusano inestable entre dos agujeros negros) asociado a cada pareja de estados cuánticos entrelazados (estados EPR). Esta idea no es nueva, pero ha sido rescatada por el famoso físico argentino Juan Maldacena, autor del artículo más citado de la historia en SPIRES-HEP (el de la correspondencia AdS/CFT o gravedad/gauge). Maldacena y Susskind han aplicado esta idea para resolver el problema de los “firewalls” de Polchinski et al. (AMPS) en el horizonte de sucesos. Si eres físico y no has leído aún el artículo de Juan Maldacena, Leonard Susskind, “Cool horizons for entangled black holes,” arXiv:1306.0533, Subm. 3 Jun 2013, ¿a qué estas esperando? Si es muy técnico para tí, te recomiendo leer John Preskill, “Entanglement = Wormholes,” Quantum Frontiers, Jun 7, 2013. Otra visión diferente la ofrece Lubos Motl, “Maldacena, Susskind: any entanglement is a wormhole of a sort,” The Reference Frame, June 8, 2013, y “Papers on the ER-EPR correspondence,” TRF, July 9, 2013. Algo mucho más ligero en Jacob Aron, “Wormhole entanglement solves black hole paradox,” NewScientist, 20 Jun 2013.

Dibujo20130726 Sketch of the entanglement pattern between the black hole and the Hawking

John Wheeler ya tuvo en 1955 la idea de conectar las partículas cuánticas mediante puentes de Einstein−Rosen, pero su objetivo era tratar de explicar el campo electromagnético cuántico entre cargas utilizando un campo gravitatorio clásico (llamó “geones” a sus “partículas”). Tras la publicación de la conjetura de Maldacena, que relaciona los estados de una teoría cuántica de campos (conforme o CFT) con los agujeros negros en una teoría clásica de la gravedad (en un espaciotiempo de tipo Anti-de Sitter o AdS), muchos físicos han tenido la idea de conectar pares de agujeros negros con algún tipo de agujero de gusano para estudiar el entrelazamiento cuántico entre las partículas de la teoría de campos conforme. Entre todos ellos destaca Mark Van Raamsdonk (University of British Columbia, Vancouver, Canada), quien en 2009 ya apuntó la idea ER=EPR (“Comments on quantum gravity and entanglement,” arXiv:0907.2939, Subm. 17 Jul 2009). Por supuesto, la idea pasó sin pena ni gloria, aunque Mark ha estado trabajando en ella desde entonces, hasta que ahora ha sido rescatada por Maldacena (el rey Midas de la física teórica) y Susskind (el abuelo de la teoría de cuerdas, que retractó su artículo de apoyo a los “firewalls” de AMPS).

La idea de que las correlaciones EPR (entrelazamiento cuántico) entre los estados de dos agujeros negros es dual a la existencia de un puente de ER entre dichos agujeros negros parece tan natural que ha formado parte del imaginario colectivo de los físicos durante mucho tiempo. Pero la relación ER = EPR es mucho más general, implica que todo entrelazamiento cuántico de cualquier par de estados de cualquier sistema cuántico es equivalente, vía la dualidad gauge/gravedad o AdS/CFT, a un puente de ER adecuado. Maldacena y Susskind, en la línea habitual de Maldacena, omiten presentar su idea con un toy model (algo que sería obligatorio para cualquier otro físico, pero que ellos pueden omitir a hombros de su fama).

Dibujo20130726 The holographic q-qbar system entangled into a color neutral EPR pair

Por supuesto, otros ya han publicado toy models para la idea ER = EPR. El que más me gusta es la propuesta del artículo de Kristan Jensen, Andreas Karch, “The holographic dual of an EPR pair has a wormhole,” arXiv:1307.1132, Subm. 3 Jul 2013. Sin entrar en detalles técnicos de su construcción holográfica, igual que la conjetura AdS/CFT tenía como fin último encontrar una dualidad entre la teoría de cuerdas y la QCD, Jensen y Karch consideran un par EPR formado por un quark y un antiquark descrito por una cuerda cuyo worldsheet forma un agujero de gusano. En la teoría cuántica de campos este tipo de soluciones se llaman instantones y en teoría de cuerdas se llaman instantones de cuerdas. El toy model se basa en el dual gravitatorio de una teoría de super-Yang-Mills (SYM) N=4 en el límite de acoplo fuerte. Por tanto se trata de un bonito toy model, pero nada más.

¿Qué nos dicen este toy model y la conjetura ER=EPR sobre la no localidad en mecánica cuántica? Por el momento, realmente nada. Los pares quark-antiquark entrelazados están conectados por correlaciones “formales” capaces de violar las desigualdades de Bell y conectar regiones con horizontes causales separados, pero apuntan a una dualidad y no a una “realidad” subyacente. Me explico. Sabes que hay una analogía física entre un sistema de muelles y un circuito eléctrico (o un sistema térmico). Sin embargo, esta analogía no significa que la física de un sistema mecánico y uno eléctrico (o térmico) sea la misma. Lo único que indica la analogía es que el lenguaje de la matemática es tan poderoso que basta un “diccionario” para describir sistemas físicos muy diversos. Lo que nos indica el toy model de Jensen y Karch para la conjetura ER=EPR es exactamente lo mismo. Con un “diccionario” apropiado hay un lenguaje común para ambos fenómenos, pero la física subyacente no tiene nada que ver (en los detalles del toy model se ve perfectamente).

Los amantes del trabajo de Maldacena afirmarán que soy un poco crítico y que saco conclusiones muy precipitadas de un toy model. Quizás tienen razón. Pero no auguro un futuro tan prometedor a la idea ER=EPR como a la dualidad gravedad/gauge. Por supuesto, ello no quita que todos los físicos teóricos jóvenes deberían estudiar la idea ER=EPR, pues durante los próximos años se va a publicar mucho sobre este tema. Y serán artículos muy fáciles de “colar” en revistas de alto impacto. Tiempo al tiempo.

Dibujo20130726 classic wormhole versus new wormhole - newscientist

¿Cómo resuelve la propuesta ER = EPR el problema de los “firewall” de Polchinski? Lo primero que hay que hacer es recordar cuál es el problema. Permíteme un breve resumen, tan breve que sólo presentaré la esencia del asuto. La radiación de Hawking es debida a la producción espontánea de pares partícula-antipartícula en el espaciotiempo del agujero negro, siendo una de ellas absorbida por el agujero negro y escapando la otra en forma de radiación; como ambas tienen un origen cuántico común están entrelazadas. Permitir que un observador cruce el horizonte de sucesos y ejecute un protocolo cuántico de entrelazamiento entre dos partículas de radiación Hawking dentro del agujero negro, una muy vieja y otra muy reciente, viola el principio de “monogamia” en el entrelazamiento. Esto no es un problema salvo para un agujero negro muy viejo (con edad superior a la de Page) y AMPS proponen que en dicho caso aparece un “firewall” que impide que un observador penetre dentro del horizonte y pueda realizar dicho protocolo cuántico (que violaría el principio cuántico de que la información ni se crea ni se destruye). Más información en este blog aquí y aquí.

La solución de ER=EPR al problema de la aparición de los “firewall” es que, como el entrelazamiento requiere conectar agujeros de gusano, el protocolo cuántico no se puede ejecutar, porque para ello habría que enviar información a través de los puentes de ER, que por fortuna no son transitables. Así que no hay necesidad de proponer que exista un “firewall” que impida al observador que cae en el agujero negro hacer algo que es imposible que pueda hacer (repito, debido a que los puentes ER son agujeros de gusano no transitables y colapsan al tratar de enviar información por su interior). Sin violar la física de los agujeros negros, la solución al problema AMPS dada por la idea ER=EPR parece razonable (Susskind así lo cree y ha pensado mucho sobre ello). Sin embargo, hay muchas otras soluciones que no necesitan una idea tan exótica (por ejemplo, la complejidad computacional del protocolo cuántico impide que sea realizado porque no hay tiempo antes de que el agujero negro “viejo” se evapore por completo).

En resumen, la física teórica vive de las modas y los físicos jóvenes tienen que ir a la moda si quieren publicar más que sus competidores y tener alguna oportunidad en las pocas plazas vacantes que hay en las universidades e institutos de investigación. Lo que está claro es que los primeros que van a la moda acaban siendo considerados unos pioneros y acaban siendo idolatrados con un gran número de citas. No será esta la última vez que hablaré de ER=EPR en este blog; espero no haber decepcionado a quienes esperaban una discusión mucho más técnica.


Archivado en: Ciencia, Física, Noticias, Personajes, Physics, Recomendación, Science Tagged: Agujero negro, Ciencia, ER=EPR, Física, Física cuántica, Física teórica, Firewalls, Noticias, Partículas elementales

Divulgar es una obligación y una necesidad

$
0
0

Dibujo20130726 la divulgacion a traves de los blogs - bienal fisica rsef

Todos los científicos tienen el deber de divulgar. No es una opción, es una necesidad. Los científicos somos los culpables de la situación actual de la ciencia en España. Muchos creen que divulgar es un hobby y que la cultura científica es un lujo prescindible. Craso error. Los científicos somos una de las profesiones mejor valoradas, sin embargo, la cultura científica de la sociedad y de nuestros políticos brilla por su ausencia. La única manera de lograr que los futuros gobiernos valoren la ciencia es lograr que la sociedad sepa lo que hacemos los científicos. Nos tenemos que poner en valor para que nos valoren. Todos los divulgadores debemos tratar de proselitar (atraer científicos a nuestra causa). Sin ciencia no hay futuro. Sin divulgación (parece que) no hay ciencia. Contar esto fue el objetivo de mi conferencia “La divulgación a través de los blogs” en el simposio del grupo especializado en divulgación de la física organizado en la 34 Bienal de la Real Sociedad Española de Física. Permíteme un resumen breve de mi charla.

Dibujo20130726 quiz - que ha hecho el csic por la sociedad

Mi charla fue el lunes 15 de julio. El día anterior la contraportada de El País estaba dedicada a un científico. Varios científicos españoles aparecieron en dicha edición dominical con motivo de la tragedia del CSIC. ¿Quién es Avelino Corma? (la conferencia fue en Valencia y allí todo el mundo conoce a Corma, el gran pope de la Univ. Politécnica de Valencia). El artículo de El País nos aclara que Avelino tiene más de 900 artículos publicados en revistas internacionales (en realidad son unos 1100 en el ISI WOS) y que es uno de los ocho químicos más citados del mundo (su índice-h es mayor de 100). Pero no aclara en qué trabaja. ¿Debe el público general saber en qué trabaja Corma? ¿Debe saber qué ha hecho el Instituto de Tecnología Química (UPV/CSIC) por la sociedad española? ¿Qué cosas de tu vida diaria dependen del trabajo presente y pasado de Corma? Busca en la web del ITQ (UPV/CSIC) a ver si te enteras. Lo siento, no te será fácil. Yo sé cuáles son los trabajos que le han hecho famoso, pero no te los voy a contar. 

¿Quién es Antonio Hernando? El artículo de El País nos aclara que Antonio es físico y dirige el Instituto de Magnetismo Aplicado (UCM/CSIC). Tiene unos 800 artículos en ISI WOS y un indice-h mayor de 40. ¿En qué trabaja? ¿Debe el público general saberlo? ¿Lo saben los lectores de esta entrada? ¿Qué cosas de la vida diaria dependen de su trabajo? El artículo aclara que su trabajo ha mejorado “desde la Alta Velocidad al control de los maltratadores con pulseras magnéticas.” Busca en la web del IMA (UCM/CSIC) esta información. ¿Te ha sido fácil?

La sociedad quiere saber, necesita saber. Nosotros tenemos la obligación de informarla. Pero buscar a ciegas en Google, muchas veces, no ayuda. La mayor parte de la información divulgativa que muestran los institutos del CSIC y nuestras universidades está muy sesgada, es parca, muy técnica y/o no es de acceso gratuito.

La comunicación científica en España falla y los culpables somos nosotros, los científicos, y nuestras instituciones, universidades y OPI del CSIC. La trágica situación que está pasando el CSIC en gran parte tiene su origen en el fracaso de la divulgación científica. Tenemos que ser conscientes de ello para poder corregirlo. La ciencia, los científicos tienen que abandonar la “torre de marfil.”

Dibujo20130726 docencia - investigacion - transferencia

La universidad moderna nació con Wilhelm von Humboldt (1767-1835), en español Guillermo de Humboldt. Menos conocido que su hermano, Alexander, el “indiana Jones” naturalista y geógrafo, Guillermo fue “Responsable de Educación” bajo las órdenes del Ministro del Interior von Dohna. La universidad moderna es del pueblo y para el pueblo. No una universidad de las élites para unos pocos elegidos. Todos los estatutos de las universidades españolas siguen las directrices de la universidad de von Humboldt.

La universidad tiene tres deberes fundamentales: la docencia, la investigación y la transferencia. La universidad no es un ente abstracto, somos todos. El PDI (Personal Docente e Investigador) de las universidades tiene el deber de implicarse en las tres funciones básicas de la universidad (y el personal de los OPI (Organismos Públicos de Investigación) en las propias). No hay que ser un super-PDI (cual super-López) para cumplir con la obligación triple D+I+T; ser excelente en las tres cosas es casi imposible; siempre habrá mejores docentes, o mejores investigadores. Pero nuestra obligación es ser activos en transferencia, yo diría más, ser pro-activos. El PDI que es sólo docente, o sólo investigador, no está cumpliendo con su obligación.

La transferencia tiene tres focos básicos. Los egresados (la universidad para toda la vida, los máster profesionales, …), las empresas (contratos OTRI, spin-offs, patentes, …) y la sociedad (cultura científica y divulgación). En esta charla me centro en la divulgación, aunque no estoy diciendo que sea la única vía para el PDI que quiera implicarse en transferencia. Pero lo que quiero dejar claro es que la divulgación no hay que relegarla a ocasiones especiales (como el Año de la Física en 2005), debe ser algo continuo, debe formar parte íntegra de nuestras obligaciones. Ya hay mucha gente que se está dando cuenta y se han celebrado congresos específicos, pero queda mucho por hacer. Si todo estuviera hecho en transferencia y divulgación, la ciencia española no tendría los graves problemas que tiene.

Dibujo20130726 unidades de cultura cientifica y sin ciencia no hay futuro

Muchos PDI e investigadores relegan la labor de la divulgación a las UCC (Unidades de Cultura Científica). Pero eso no basta. Todos tenemos que poner nuestro grano de arena. Las UCC (con poco personal y poco presupuesto) no dan abasto y necesitan una actitud activa de los investigadores. La divulgación te necesita. #sinDivulgación no hay futuro. #sinCiencia no hay futuro. 

En una conferencia en un simposio, aunque uno vaya invitado, hay que realizar algún tipo de contribución. Mi propuesta es divulgar usando blogs porque es más fácil de lo que parece. La queja más habitual de las UCC es que contactar con los investigadores y saber qué trabajos priorizar a la hora de divulgar es muy difícil. Se crea un cuello de botella que relega la transferencia a lo más profundo de la torre de marfil. Mi propuesta es que para romper el cuello de botella de las UCC es necesario que los investigadores divulguen directamente el trabajo que desarrollan. Todos los grupos de investigación (o si son pequeños, varios grupos próximos unidos entre sí) deben divulgar su trabajo. Cada grupo debe tener un comunicador (un responsable de divulgación), a ser posible, un científico senior que conozca el trabajo del grupo y pueda ponerlo en contexto (tanto respecto al pasado como respecto al futuro). Su labor no debe estar dirigida hacia la UCC, sino a la sociedad en su conjunto. La sociedad quiere saber y tiene el derecho a saber.

Dibujo20130726 divulgar con blogs - mas facil de lo que parece

Para realizar esta labor, mi recomendación es divulgar usando un blog del grupo (esta propuesta viene obligada porque me pidieron que diera una charla sobre cómo divulgar usando blogs, pero también porque creo que el blog es la mejor opción). A muchos científicos les puede parecer muy difícil divulgar a través de un blog. Pero recuerda, qué es un blog. Un blog es una página web con una línea temporal inversa, se presentan antes los últimos resultados publicados y todo lo presentado tiene una fecha.

Lo que yo propongo es usar los proyectos de investigación como marco para el desarrollo de las entradas del blog del grupo. Cuando se envía una solicitud de proyecto se describen las bases del trabajo a realizar y los resultados que se espera obtener a dos niveles, pues se ignora si el revisor será experto en nuestra área de trabajo o en áreas afines. La descripción menos técnica es ideal para entradas en un blog. Además, en el proyecto se presenta un cronograma detallando las fases de trabajo y se enumeran una serie de entregables. Toda esta información puede ir apareciendo de manera natural en un blog. No hay que divulgar todos los días. Cada cosa a su tiempo, a su ritmo. Cada entregable puede ir acompañado de una entrada (o varias) en el blog.

Imagina que quieres escribir una entrada describiendo tu último artículo. No la escribes el mismo día que te publican en la revista el artículo, a toda prisa. Desde el día que enviaste el artículo hasta el día de la aceptación has tenido varios meses para preparar una o varias entradas sobre el artículo, que aparecerán a su debido tiempo. Por ejemplo, una entrada en plan noticia sobre tus resultados y luego dos o tres artículos con las bases teóricas que faciliten que cualquiera pueda entender dicha noticia. Lo mismo pasa con tus trabajos enviados a congresos y conferencias, con las tesis que diriges, etc.

Igual que la solicitud de un proyecto no la suele escribir un investigador junior, la divulgación de los resultados del proyecto debería estar en manos de algún científico senior. No tiene que ser un gran divulgador, ni su objetivo es colmar su blog con portadas de Menéame. El objetivo es que cualquier ciudadano español que quiera enterarse de lo que financia con sus impuestos pueda hacerlo. Y además, que el personal de las UCC (que debería estar suscrito vía RSS a todos los blogs de los grupos de su universidad u OPI) y que cualquier comunicador científico (de los grandes medios o incluso aficionados) pueda conocer los resultados del grupo de investigación. La ciencia tiene que salir de la torre de marfil. Y es más fácil y menos costoso para los investigadores de lo que parece. Pretender que otro haga la labor que sólo uno puede hacer nunca es la mejor opción.

No recomiendo que sea un científico junior el responsable de la labor de comunicación del grupo por varias razones. La más importante es que no conoce el pasado, el presente y el futuro del grupo y de su línea de investigación. No tiene el bagaje suficiente para divulgar el proyecto, le falta una visión global y a largo plazo (algo muy importante en la divulgación, aunque muchos científicos lo olvidan). Además el personal junior debe centrarse en aprender a investigar con excelencia.

Mucha gente cree que los blogs son un ocio, una afición, que son muy personales y poco profesionales. Pero todo depende del objetivo que el bloguero se plantee. En mi propuesta no tienen cabida este tipo de blogs de divulgación “personales” (como el mío que estás leyendo ahora). Todo lo contrario, el blog del grupo debe ser lo más profesional posible. Una puerta del grupo hacia la sociedad (ciudadanos, empresas, futuros alumnos, científicos , colegas, etc.). 

En resumen, no sé si he dejado muy claro mi propuesta, pero más o menos esto constituyó los primeros 15 minutos de mi charla en la Bienal de Física. El resto del tiempo lo dediqué a los detalles. Prometo una futura entrada. Continuará…


Archivado en: Ciencia, Física, Noticias, Physics, Recomendación, Science Tagged: Blogs, Ciencia, Comunicación científica, Conferencia, Divulgación científica, Noticias, recomendación

El falso conflicto entre el científico divulgador y el periodista científico

$
0
0

Dibujo20130728 blogs y periodismo cientifico

El periodista científico ve al científico divulgador como competencia desleal. El científico divulgador ve al periodista científico como ignorante (al menos en el que campo en el que es experto). Puros tópicos. En un mundo ideal ambos se complementan. Muchos científicos divulgadores lo son por su vocación como “periodistas aficionados” y utilizan su blog como un “periódico personal,” pero la labor de divulgación de los científicos debe trascender estas anécdotas. Así comenzaba la segunda parte de mi conferencia “La divulgación a través de los blogs” en el simposio del grupo especializado en divulgación de la física organizado en la 34 Bienal de la Real Sociedad Española de Física. Si no has leído aún la primera parte, sigue este enlace.

El objetivo del científico divulgador y del comunicador científico profesional son muy diferentes. Ambos cuentan historias, pero los periodistas cuentan historias sobre personas (los científicos) y los científicos cuenta historias sobre el método científico en acción. Los periodistas cuentan la historia de unos científicos que utilizando resultados previos han obtenido un resultado importante porque dará lugar a futuros avances e innovaciones para la sociedad; por ello, los periodistas están obsesionados con el futuro, con la aplicación práctica de nuestro trabajo. Los científicos debemos poner el énfasis en el presente continuo, cómo se investiga sobre hombros de gigantes y cómo se sigue el método científico sin solución de continuidad. Ambos enfoques son complementarios y la posible competencia entre ambos es fácil de evitar. 

Muchos científicos se quejan de que los periodistas siempre preguntan qué aplicación práctica tiene cada avance científico, incluso los resultados de ciencia básica que nunca tendrán asociada una innovación tecnológica. En realidad el periodista está interesado en el futuro del propio científico, en cómo se ve a sí mismo dentro de muchos años y en qué espera que le afecte el resultado que acaba de publicar. La pregunta trata de desvelar si cederá el testigo a otros y perderá la oportunidad de ser quien lidere el desarrollo de las innovaciones resultado de su descubrimiento. O por el contrario, seguirá profundizando en los detalles tratando de no perder la posición de cabeza que ha alcanzado con este resultado. Si recuerdas mis palabras, trata de contestar al periodista con ellas en mente.

Muchos periodistas usan los blogs de los científicos para buscar información sobre posibles noticias. ¿Qué busca el periodista en un blog? Ante todo una persona (un experto) con quien dialogar sobre la noticia y a quien consultar los detalles más técnicos. Muchos se quejan de que los periodistas siempre consultan a los mismos científicos divulgadores. La razón es que los periodistas buscan divulgadores que ofrecen ciencia rigurosa pero al mismo tiempo aportan opiniones personales y se atreven a anticipar el futuro. Además, buscan divulgadores afiliados a universidades y OPI de prestigio, con una buena reputación previa, por ejemplo, en redes sociales. Por ello, el bloguero científico no debe olvidar que su trabajo divulgador no tendrá un impacto inmediato, primero tendrá que ganarse una cierta reputación en la blogosfera.

Mi propuesta en la primera parte de la charla pone al bloguero científico como intermediario entre la ciencia y la sociedad, y entre la ciencia y los periodistas. Muchos periodistas, ante una noticia científica, buscan en la web científicos expertos a quienes consultar. Cuando no los encuentra resulta que las noticias científicas que aparecen en los medios dejan mucho que desear. El bloguero científico que siga mi propuesta y divulgue la investigación originada en su grupo no puede esperar un impacto inmediato en los medios ni debe pretender alcanzar el podio de los blogs más visitados; mi propuesta es cumplir con una obligación y no ganar dinero con el blog convirtiendo a los científicos en profesionales de la divulgación. El científico debe saber que su tema de investigación será noticia pocas veces al año, pero cuando lo sea, los periodistas y los divulgadores profesiones acabarán consultando su trabajo y generando un importante impacto en el número de visitas de su blog.

Dibujo20130728 pasion - privado - publico

Transmitir la pasión por la ciencia es lo más importante para que la divulgación atraiga la atención del público general. Hay que comunicar nuestro amor por la ciencia, nuestra obsesión por el método científico, por el rigor, por la colaboración con otros científicos, por estar dentro de una comunidad. Mucha gente confunde la pasión con lo personal. En mi opinión el bloguero científico debe tener muy clara la diferencia y debe presentar un perfil profesional, dejando claro su afiliación y que su labor está consensuada dentro de su grupo/proyecto. Pocos blogueros usan el anonimato (como KFC de The Physics arXiv Blog), pero pocos abusan de lo personal; la mayoría muestra detalles personales sólo de forma esporádica (como Bee (Sabine Hossenfelder) de Backreaction). Yo creo que hay diferenciar entre las esferas personal, privada y pública. Ni en redes sociales, ni en un blog de divulgación hay que abusar de lo privado o de lo personal. Aunque a veces uno se siente tentado a hacerlo y grandes divulgadores españoles abusan de ello. Conviene no imitarlos en estas prácticas. En mi propuesta lo personal debe limitarse a la historia como investigadores de los miembros del grupo.

Un blog debe tener una audiencia objetivo. No es lo mismo dirigirse a niños, adolescentes, adultos, estudiantes universitarios, egresados u otros investigadores. En mi propuesta conviene pensar en un público “educado” ya que los blogs para público general suelen tender a destacar curiosidades y fomentar el sensacionalismo, lo que resta rigor al contenido a ojos de los comunicadores profesionales. Un blog no debe ser una enciclopedia (para eso están Google y la wikipedia). Hay que buscar el compromiso entre algo que a un colega le pueda gustar leer y algo que sea atractivo para un público lo más general posible.

Todos tenemos ego y queremos tener una gran audiencia. La mejor manera de tener muchas visitas es lograr visibilidad en los agregadores de noticias (como Menéame) y gracias a enlaces desde los blogs más visitados (como Microsiervos, Naukas, …). Este tipo de audiencia es muy difícil de fidelizar. El bloguero científico debe presumir de una audiencia fiel y no del número por el número; la mejor audiencia posible son los profesionales de la comunicación científica y otros colegas. En mi opinión, el objetivo no debe ser ganar dinero con el blog (el científico senior suele tener un puesto fijo que exige exclusividad y cuando actúa como comunicador de su grupo de investigación su objetivo no es venderse él mismo, sino el trabajo de su grupo).

Dibujo20130728 jerga tecnica - confianza en lector

Muchos blogueros científicos se quejan del problema del lenguaje. Evitar la jerga técnica no es buena idea en general. La web es una enciclopedia, úsala. Si quieres hablar del último avance de tu grupo sobre, por ejemplo, la radiación de Hawking no es necesario que expliques (de nuevo) qué es un agujero negro, el horizonte de sucesos, el vacío de un campo, un par partícula-antipartícula, etc. Recuerda que la wikipedia las explica bien (usa enlaces o links). También puedes optar por un conjunto de entradas explicativas que aclaren estos conceptos con tus propias palabras, para que no parezcas el “abuelo cebolleta” que siempre está dando la murga con lo mismo. Estas entradas tutoriales que explican los conceptos difíciles que más uses, cuestan poco (si lo haces sin prisas) y los lectores te lo agradecerán. Un buen ejemplo a imitar es la etiqueta ARTICLES en el blog Of Particular Significance de Matt Strassler. Todas sus nuevas entradas citan con profusión y/o prometen futuras entradas explicativas de los conceptos más técnicos que se presentan. Poco a poco las va añadiendo y sigue teniendo más promesas que entradas explicativas escritas.

Tampoco hay que tenerle miedo a usar fórmulas matemáticas, pero siempre deben ir explicadas en detalle y siempre debe ser posible evitarlas. Un lector debe poder leer la entrada saltando por encima de las fórmulas y sus explicaciones. La entrada estará bien escrita si queda claro cómo hay que leerla omitiendo las fórmulas y si hacerlo permite enterarse del contenido. Recuerda, ningún lector se quejará de las fórmulas y los colegas/expertos las agradecerán.

¿Para qué molestarme en escribir un blog si nadie me va a leer? Craso error. ¿Qué busca la gente en Google? Mucha gente está interesada en muchos temas pero no encuentra suficiente información o la que encuentra no es fiable. Tenemos que pensar que el lector de nuestro blog no es anumérico o acientífico. Lo mejor que puede hacer un profesor es confiar en sus alumnos. Lo mejor que puede hacer un bloguero científico es confiar en sus lectores (si ha llegado a tu blog es porque le interesa lo que le vas a contar). Trata de fidelizarle sin engañarle. La gente que dice que el público general no distingue entre ciencia y pseudociencia está completamente equivocada. Recuérdalo, sólo te leerá quien quiera leerte.

Dibujo20130728 resumen - cuenta historias

Podría contar muchas más cosas sobre la labor del bloguero científico, pero en una charla de 30 minutos el tiempo apremia. Recuerda que tus historias interesan cuando te reúnes con amigos a cenar y te preguntan en qué trabajas; seguro que disfrutas contándoselo y seguro que ellos disfrutan oyéndote. Haz lo mismo con tu blog. Cuenta también tus viajes a congresos, conferencias, las relaciones científicas que haces, ¿qué te dijo sobre el trabajo de tu grupo el último (o candidato a) premio nobel con el que hablaste? El público general quiere saber en qué se gasta el dinero público, quiere aprender cómo se hace la ciencia. Cuéntalo y disfruta haciéndolo. 

Mucha gente visita blogs buscando opiniones (qué opina un científico sobre resultados recientes de otros científicos o sobre noticias de periodistas científicos aparecidas en los medios) e ideas (sobre todo las relativa al futuro de tu campo de conocimiento y sus implicaciones a medio y largo plazo). Cuenta lo que te apasiona de tu trabajo y tendrás lectores fieles. Opina, pero siempre con rigor. Sueña en voz alta. En tus artículos en revistas científicas no está permitido soñar, pero los lectores de blog quieren escucharte hablar en sueños. 

Dibujo20130728 problemas divulgar con blog

Hay algo importante de lo que no he hablado. Divulgar con blogs también tiene sus inconvenientes. Sin entrar en una discusión detallada yo destacaría como mayor problema la adicción al blog y a las redes sociales. Si te pica el gusanillo puede penalizar tu labor investigadora. Trata de ver el blog como algo profesional, priorizando otras tareas. Normalmente el científico habla con colegas con un lenguaje común (decorado con una jerga muy técnica). Los comentarios de los lectores te mostrarán que la gente habla otros lenguajes y que muchas veces te costará mucho evitar la tentación de contestar. Sobre todo cuando alguien se equivoca. Evitar corregir a quien está equivocado es muy difícil, pero tienes que aprender a hacerlo (muchos de tus lectores contestarán por ti a quienes estén equivocados).

Un blog no debe ser una adicción que penalice tu trabajo en tu grupo de investigación. Hay que moderar las cosas y acostumbrar a los lectores a un ritmo de pregunta/respuesta adecuado a tus labores. Un blog científico profesional debe presentar pocas entradas al mes, con lo que los lectores se acostumbrarán a un ritmo de interacción moderado. El ritmo lo marcas tú, no los que preguntan o comentan. Para que el blog no penalice tu trabajo debes integrarlo dentro de tu trabajo dedicando un tiempo fijo a la semana que no sea excesivo. Te puede parecer que dedicar sólo dos horas a la semana en promedio es poco, pero da para muchas entradas después de varios años. Tu blog no es un periódico, sino una vía de comunicación de tu grupo de investigación con el resto de la sociedad.

¿Cuántos artículos publica tu grupo al año? ¿Cuántas horas al año te costaría escribir dos entradas divulgativas sobre cada uno de esos artículos, una un poco más técnica y otra un poco más ligera? Piénsalo. Divulga. Te necesitamos. La ciencia española necesita que divulgues tu trabajo en investigación. #sinciencia no hay futuro. #sindivulgación (parece que) no hay ciencia.

Dibujo20130728 divulga - te necesitamosPS (29 Julio 2013): Laura Morrón (@lauramorron) presenta otro resumen de mi charla en “Francis R. Villatoro – Sin divulgación no hay futuro,” Mundos de Brana, 29 Jul 2013. Se incluye el audio de la charla al final.


Archivado en: Ciencia, Física, Noticias, Physics, Recomendación, Science Tagged: Blogs, Ciencia, Comunicación científica, Conferencia, Divulgación científica, Noticias, recomendación

Francis en Trending Ciencia: Logran parar pulsos de luz durante un minuto

$
0
0

Dibujo20130728 trending ciencia - stored ligth pattern during one minute

Ya puedes escuchar mi nuevo podcast para Trending Ciencia siguiendo este enlace. Como siempre, una transcripción, enlaces a los artículos técnicos y algunas imágenes.

He elegido como tema una noticia que Nuño Domínguez, periodista científico de esMateria.com, ha titulado como “Récord mundial: Científicos alemanes detienen la luz durante un minuto.” Nos cuenta que “en el laboratorio de física cuántica que dirige Thomas Halfmann (…) en la Universidad Técnica de Darmstadt, Alemania (…) [han paralizado] un rayo de luz durante un minuto: todo un récord mundial que casi multiplica por cuatro el anterior. El avance técnico es un importante paso hacia (…) una especie de internet [imposible de hackear] que funcione con luz y en el que los mensajes vayan [cifrados] usando fotones. Cualquier intento de interferir en esos fotones destruiría la clave o el mensaje que transportan, lo que hace que la clave sea teóricamente inexpugnable. Pero para poder enviar mensajes con fotones [hay que] construir (…) una memoria informática que los guarde [todo el tiempo que sea necesario].”

Nuño Domínguez nos cuenta esMateria.com que ”la técnica de Halfmann consiste en disparar un primer rayo láser de control a un cristal opaco, lo que lo vuelve transparente. Después se dispara un segundo láser, que lleva un mensaje, en este caso una imagen. En ese momento se apaga el primer rayo láser y el mensaje queda encerrado en el cristal. Aplicando campos magnéticos Halfmann logra que los átomos del cristal retengan la luz durante un tiempo récord, [sesenta segundos], un minuto. Después se enciende el primer láser, el cristal vuelve a tornarse transparente y la luz congelada en el tiempo vuelve a correr, transmitiendo su mensaje. Por ahora no han llegado al régimen de un solo fotón que se necesita para las memorias cuánticas.”

Algunos comentarios en Twitter me han llamado la atención. Unos por creer que se ha logrado parar los fotones individuales (algo obviamente imposible por definición de fotón). Otros por creer que se ha logrado a alta temperatura, mal interpretando la frase de Nuño Domínguez en esMateria.com: “Este mismo año, otro equipo de EEUU logró el récord [anterior] al retener la luz durante 16 segundos dentro de una nube de gas a unos 273 grados bajo cero, algo que ahora ha quedado totalmente pulverizado con la Transparencia Inducida Electromagnéticamente (EIT, en inglés) usada por Halfmann.” El nuevo récord de 60 segundos se ha logrado con el cristal enfriado a 4 Kelvin, es decir, a 269 grados bajo cero. De hecho, poder aplicar la nueva técnica a pocos fotones, o incluso a un sólo fotón, con seguridad requerirá bajar la temperatura a unos micro- o nano-Kelvin. Permíteme una discusión sobre el nuevo resultado técnico de Halfmann y sus colegas, cuyo mayor interés es que se ha utilizado un cristal, un dispositivo de estado sólido, en lugar de un gas de átomos ultrafríos o un condensado de Bose-Einstein.

Dibujo20130728 experimental setup - Stopped Light and Image Storage by Electromagnetically Induced Transparency

La computación cuántica, las redes de comunicación cuántica y el tratamiento de información cuántica utilizando fotones requiere desarrollar memorias cuánticas para la luz que preserven la coherencia cuántica y el grado de entrelazamiento cuántico. Georg Heinze, Christian Hubrich y Thomas Halfmann, de la Universidad de Darmstadt, Alemania, publican en la revista Physical Review Letters un artículo que muestra una memoria óptica coherente de estado sólido capaz de almacenar un pulso de luz clásica, e incluso una imagen completa, durante más de un minuto; por ahora, el tiempo de almacenamiento de luz más largo logrado hasta la fecha.

El artículo téncico es Georg Heinze, Christian Hubrich, and Thomas Halfmann, “Stopped Light and Image Storage by Electromagnetically Induced Transparency up to the Regime of One Minute,” Phys. Rev. Lett. 111: 033601 (2013). Recomiendo leer a Hugues de Riedmatten (ICFO/ICREA, Barcelona), “Viewpoint: A Long-Term Memory for Light,” Physics 6: 80 (2013).

¿Cómo se logra detener un pulso de luz, almacenarla sin destruir su coherencia cuántica durante un largo tiempo y luego recuperarlo cuando resulte necesario? Obviamente, no se pude parar un fotón, que siempre se mueve a la velocidad de la luz en el vacío. Para lograr que un pulso de luz se mueva más lento en un cristal sólido es necesario que los fotones interaccionen con los átomos de la estructura cristalina, que los absorben y reemiten; este proceso físico da como resultado el concepto de índice de refracción del cristal. En principio, este proceso destruye la coherencia cuántica. Para evitar esta destrucción es necesario ejecutar un protocolo cuántico que transforme la coherencia cuántica de la luz en coherencias cuánticas atómicas y a la inversa. Hay varias maneras de lograrlo. En el nuevo artículo del grupo de Halfmann se ha utilizado un fenómeno físico llamado transparencia inducida electromagnéticamente (EIT), un efecto de interferencia cuántica que hace un medio opaco se vuelva transparente en una estrecha banda del espectro. La alemana Lene V. Hau (Univ. Harvard, EEUU) es firme candidata al Premio Nobel de Física junto a Stephen E. Harris (Univ. Stanford, EEUU) por haber utilizado en 1999 la transparencia inducida electromagnéticamente en un condensado de Bose-Einstein (BEC) ultrafrío para ralentizar pulsos de luz a solo 17 m/s, unos 61 km/h. La dra. hau ha logrado parar pulsos de luz y el campo de la “luz lenta” ha sido muy activo en la última década.

¿En qué consiste la transparencia inducida electromagnéticamente? El proceso es sencillo. Considera un átomo con tres estados energéticos, dos estados fundamentales, sean |g> y |s> cuyo nivel de energía es ligeramente diferente, y un estado excitado |e>. Un haz láser de control se ajusta para excitar los átomos en un estado de superposición entre los niveles |s> y |e>, es decir, para que se comporten como bits cuánticos entre esos dos niveles. Un segundo láser de entrada se utiliza para lograr la transición entre el otro nivel fundamental |g> y el nivel excitado |e>. La condición de transparencia inducida electromagnéticamente se logra cuando la diferencia entre las energías de los fotones de ambos láseres es idéntica a la diferencia de energía entre los dos niveles fundamentales |g> y |s>. Gracias a este fenómeno se produce una interferencia cuántica destructiva que reduce la probabilidad de transición entre los dos estados fundamentales y el estado excitado, lo que vuelve el medio transparente a los fotones cuya frecuencia esté ajustada de forma adecuada. Como resultado el índice de refracción reduce la velocidad de grupo de los pulsos de luz entrante hasta lograr un valor nulo, parando de forma efectiva los pulsos de luz. Una vez almacenado el pulso de luz en el cristal se puede apagar el haz láser de control con lo que los fotones se convierten en estados excitaciones de los átomos (estos estados se llaman ondas de espín). Estas ondas de espín pueden ser almacenadas en los átomos durante un tiempo similar al tiempo de coherencia que sobreviven los niveles energéticos que se comportan como un bit cuántico. Si antes de que actúe la decoherencia cuántica se activa el pulso láser de control, los fotones se reemitidos por los átomos, provocando que el pulso de luz sea recuperado.

¿Cuál puede ser el tiempo de almacenamiento de estas memorias de luz? Como la luz se almacena en coherencias atómicas, el límite está dado por la vida media de la coherencia entre los dos estados energéticos de los átomos (el tiempo que los dos estados de espín pueden permanecer en una superposición coherente). El límite para esta duración se llama tiempo de relajación de la población de espines (el tiempo promedio necesario para que un estado excitado se relaje en el estado fundamental). Pero por supuesto, en la práctica, el tiempo de almacenamiento suele ser mucho más corto. Cualquier interacción con el entorno provoca la decoherencia, por ello hay que aislar los átomos del medio ambiente todo lo que sea posible y ahí es fundamental enfriar los átomos a temperaturas muy cercanas al cero absoluto (273 grados bajo cero).

Dibujo20130728 energy levels with and without external magnetic field - Stopped Light and Image Storage by EIT

Lo más interesante del nuevo artículo de Georg Heinze, Christian Hubrich y Thomas Halfmann es que han utilizado la transparencia inducida electromagnéticamente en un cristal de estado sólido, lo que les ha permitido luchar contra la decoherencia cuántica a 4 Kelvin (269 grados bajo cero) durante unos 60 segundos. Este tiempo te puede parecer muy corto, pero la primera vez que se logró detener la luz clásica en 2001 gracias a la transparencia inducida electromagnéticamente se alcanzaron unos pocos microsegundos. Más o menos el mismo tiempo que se logró almacenar por primera vez  un sólo fotón, logro publicado en Nature en 2005 utilizando un gas de átomos de rubidio. En gases atómicos el mayor problema para incrementar la duración de la memoria de luz es el movimiento aleatorio de los átomos, lo que provoca desfases en las ondas de espín. El récord logrado este mismo año en gases atómicos de 16 segundos para pulsos clásicos se logró colocando los átomos en una red óptica que limita y reduce su movimiento.

Pero lo que tiene que quedar claro para cualquier oyente es que utilizar dispositivos de estado sólido permite un control mucho más preciso de los movimientos de los átomos. El problema es que aprovechar la transparencia inducida electromagnéticamente para parar la luz en sólidos es mucho más difícil debido a que las interacciones entre los átomo son mucho más fuertes. Más aún, almacenar fotones individuales en sólidos, es decir, preservar la coherencia cuántica de la luz es mucho más difícil y requiere utilizar tecnologías criogénicas (temperaturas cercanas al cero absoluto). Heinze y sus colegas han usado un cristal de silicato de itrio dopado con praseodimio, que permite una vida para las ondas de espín en fase de unos 100 segundos, con lo que el récord de 60 segundos podría llegar a alcanzar hasta unos 100 segundos. Sin embargo, sólo se pueden usar pulsos de luz clásicos ya que en este cristal el tiempo de decoherencia cuántica es mucho más corto (unos 500 μs). Hay maneras de superar este límite utilizando campos magnéticos externos y  pulsos de radiofrecuencia para reducir el impacto de los diversos mecanismos de decoherencia. Sin embargo, no parece que se pueda llegar a mucho más de un segundo sin nuevas innovaciones.

Dibujo20130728 Signal pulse energy and retrieved images vs storage time

El artículo Nuño Domínguez en esMateria.com nos decía que estos físicos alemanes han logrado almacenar imágenes. En realidad resulta que la memoria de pulsos de luz es multimodo y permite almacenar modos espaciales de la luz. Gracias a ellos los autores han logrado una imagen con un conjunto de rayas horizontales con unos 100 micrómetros de largo. Pero hay que tener cuidado, ya que no se puede almacenar una imagen óptica clásica cualesquiera, sólo se pueden almacenar modos ópticos. Estos modos son muy prometedores porque permiten el desarrollo de técnicas de multiplexado espacial de la información. En un futuro cuando se puedan almacenar fotones individuales que se comporten como bits cuánticos, estas técnicas de multiplexado permitirán almacenar múltiples fotones (o bits cuánticos) en diferentes lugares del cristal. Pero por ahora esto es especulación y no parece fácil que se vaya a poder lograr a corto plazo sin nuevas innovaciones técnicas en este tipo de experimentos.

El nuevo artículo ilustra sus memorias ópticas con pulsos luminosos clásicos y además tiene bastantes limitaciones en cuanto a eficiencia de almacenamiento (menor del 1%). Las aplicaciones prácticas de esta técnica y la extensión del esquema al régimen cuántico requieren superar enormes desafíos. No es una tarea fácil, peo hay muchos grupos de investigadores en todo el mundo que están trabajando en este campo. A la pregunta de si será posible lograr tiempos de almacenamiento de horas lo único que podemos decir es que utilizando los cristales de silicato de itrio dopado con praseodimio será muy difícil sino imposible superar los 100 segundos (incluso con pulsos clásicos). Quizás se pueda lograr un ligero incremento con una temperatura mucho más baja de los 4 Kelvin, pero la esperanza, en mi opinión, está en nuevos materiales de estado sólido que se puedan proponer en los próximos años capaces de lograr el almacenamiento de luz coherente durante horas. Habrá que estar al tanto de estos avances.

Lo dicho, si no has escuchado aún mi último podcast para Trending Ciencia, sigue este enlace.


Archivado en: Óptica, Ciencia, Física, Noticias, Physics, Podcast en Trending Ciencia, Recomendación, Science Tagged: Óptica, Ciencia, Curiosidades, Experimento, Física, Física cuántica, Luz lenta, Noticias

El espaciotiempo en la teoría de cuerdas y el principio de reciprocidad de Born

$
0
0

Dibujo20130729 string theory - spacetime

Mucha gente afirma que la teoría de cuerdas (teoría M) describe campos cuánticos de objetos extensos (cuerdas y branas) en un espaciotiempo plano con dimensiones extra. Sin embargo, la dualidad T y la simetría del espejo indican que en la escala de Planck el espaciotiempo en teoría cuerdas es muy exótico (muy alejado de la intuición clásica sobre lo que es un espaciotiempo plano). Djordje Minic (Virginia Tech, VA, USA) y varios colegas proponen usar el principio de reciprocidad de Born (1935) para (re)interpretar la geometría del espaciotiempo en la teoría de cuerdas usando un nuevo objeto matemático que bautizan como geometría de Born. Una idea curiosa, aún en fase emergente, pues sólo ha sido aplicada a la teoría de cuerdas bosónicas, que nos recuerda que “hay mucho sitio en el fondo” (parafraseando a Feynman pero en referencia a la escala de Planck). El artículo técnico es Laurent Freidel, Robert G. Leigh, Djordje Minic, “Born Reciprocity in String Theory and the Nature of Spacetime,” arXiv:1307.7080, Subm. 26 Jul 2013.

El principio de reciprocidad de Born afirma que la validez de la mecánica cuántica implica una simetría fundamental en la naturaleza, tanto el espaciotiempo como el espacio momento-energía tienen que estar curvados. En la teoría clásica de la gravedad de Einstein el espaciotiempo está curvado, pero el espacio momento-energía es lineal y plano (espacio cotangente de uno-formas diferenciales). Max Born, “Quantised Field Theory and the Mass of the Proton,” Nature 136: 952-953, 1935, para generalizar la simetría x→p y p→−x del electromagnetismo propuso que si el campo gravitatorio en relatividad general dota de una estructura métrica al espaciotiempo (x), entonces debe haber una estructura métrica dual asociada al espacio momento-energía (p). Desarrolló su idea en más detalle en Max Born, “A Suggestion for Unifying Quantum Theory and Relativity,” Proc. R. Soc. Lond. A. 165: 291-303, 1938, y Max Born, “Reciprocity Theory of Elementary Particles,” Rev. Mod. Phys. 21: 463-473, 1949. Una formulación matemática rigurosa del principio de reciprocidad de Born parece posible en el marco de la teoría de cuerdas, como ya indicó Gabriele Veneziano, “A Stringy Nature Needs Just Two Constants,” EPL (Europhysics Letters) 2: 199-204, 1986. Djordje Minic y sus colegas tratan de formalizar esta idea de forma rigurosa y extender la dualidad T a un espacio-tiempo-momento-energía curvado y no compacto (un espacio de fases lo más general posible).

Su artículo parte de la acción de Polyakov en un espaciotiempo de Minkowski. Lo habitual es considerar que el world-sheet X(σ, τ) es una función periódica en σ con periodo 2π, sin embargo, nada prohíbe que sea cuasiperiódica con X(σ+2π, τ) = X(σ, τ) + p, donde el cuasiperiodo no nulo carece de una interpretación geométrica obvia en el espaciotiempo. Djordje Minic y sus colegas interpretan el cuasiperiodo usando un world-sheet Y(σ, τ) en el espacio momento-energía. Introduciendo una acción dual a la de Polyakov que depende de X e Y obtienen un sigma-modelo que implementa de forma natural el principio de reciprocidad de Born. La dos acciones duales entre sí, una en el espacio-tiempo y la otra en el espacio momento-energía, definen una estructura bi-lagrangiana y se pueden escribir en la llamada forma de Tseytlin que muestra explícita su estructura quiral. Djordje Minic y sus colegas llaman geometría de Born a este tipo de espacios matemáticos que presentan una estructura bi-lagrangiana y una estructura quiral. La geometría de Born implementa un espacio de fases (espacio-tiempo-momento-energía) con cuatro tipos de invarianza: Weyl (W), Lorentz (L), bajo difeomorfismos en el espaciotiempo (D) y bajo difeomorfismos en el espacio momento-energía (H). Según los autores, estas simetrías implementan la simetría fundamental de la teoría de cuerdas y logran la primera formulación matemática explícita y consistente del principio de reciprocidad de Born.

No soy experto en teoría de cuerdas, pero a mí me ha resultado muy sugerente el artículo de Minic y sus colegas. Como es obvio, estas ideas pioneras están todavía en fase muy primitiva y habrá que esperar a futuros estudios que describan la física de la teoría de cuerdas utilizando el nuevo lenguaje de la geometría de Born. ¿Cómo se interpreta el espaciotiempo a la escala de Planck en esta nueva teoría? El artículo no lo aclara, pero deja caer que es un objeto muy exótico del que emerge de forma dinámica el espaciotiempo curvado que refleja nuestra intuición clásica. No sé si los autores podrán aclarar algún día los detalles de este proceso de emergencia, pero creo que los lectores de este blog que sepan de teoría de cuerdas deberían leer el artículo de Minic y sus colegas.


Archivado en: Ciencia, Física, Matemáticas, Mathematics, Noticia CPAN, Noticias, Physics, Science Tagged: Ciencia, Física, Física teórica, Matemáticas, Noticias, Teoría de cuerdas (String Theory)

Futurología: En la presente década se desvelará el misterio de la materia oscura

$
0
0

Dibujo20130729 dark matter questionnaire - Tim MP Tait

La materia oscura ha sido descubierta gracias a sus efectos gravitatorios, sin embargo, nos gustaría saber si corresponde a una nueva partícula y en su caso cuál es su masa, su espín, si es estable o metaestable, cómo se acopla a las interacciones débiles, al campo de Higgs, a los quarks y gluones, a los leptones, incluso si se trata de una reliquia térmica de la gran explosión (big bang). Hay muchos experimentos en curso que buscan rellenar estos detalles durante la presente década (antes de 2020). La charla de Tim M.P. Tait, “Assembling a Theory of Dark Matter,” Snowmass, Jul 29, 2013 [slides], nos propone un cronograma.

Dibujo20130729 a possible timeline to dark matter discovery - Tim MP Tait

Esta calendario se basa en la idea de que la materia oscura tenga dos posibles candidatos que se repartan al 50%, una partícula WIMP y un axión. Si esta hipótesis fuera correcta, tendríamos la información sobre sus características alrededor del año 2020.

Dibujo20130729 a multi-pronged search strategy indentifies a mixture of dark matter WIMP and axion - Tim MP Tait

Como es obvio, hay muchas teorías que predicen un candidato a la partícula de materia oscura y aún no sabemos cuál será la correcta.

Dibujo20130729 Theories of dark matter - Tim MP Tait

Los tres pilares para el descubrimiento de la partícula responsable de la materia oscura, las búsquedas directas, indirectas y en colisionadores, se complementan entre sí y tienen un gran potencial en la presente década. Quizás sea muy optimista pensar que en el año 2020 ya se haya resuelto el problema de la materia oscura, pero como ya os he comentado en varias ocasiones en este blog, mi opinión es la misma que la de Tait: en la presente década será desvelado el misterio de la materia oscura.


Archivado en: Ciencia, Física, Materia oscura, Noticias, Physics, Prensa rosa, Science Tagged: Ciencia, Conferencia, Física, Física teórica, Materia oscura, Noticias, Opinión, predicción

Qué pasa al entrar en un agujero negro

$
0
0

Dibujo20121224 falling into a black hole

El principio de equivalencia de la teoría general de la relatividad de Einstein implica que no pasa nada al cruzar el horizonte de sucesos de un agujero negro, un observador no debe notar nada especial; de hecho, en un agujero negro supermasivo, la curvatura del espaciotiempo en el horizonte de sucesos es muchos órdenes de magnitud más pequeña que en la superficie de la Tierra. Pero este resultado es clásico y la aplicación de la física cuántica a los agujeros negros indica que su horizonte de sucesos debe emitir radiación de Hawking. ¿Notaría de alguna forma el observador que cae la existencia de esta radiación si tuviera un instrumento adecuado? La pregunta puede parecer una tontería, pero su respuesta es más complicada de lo que parece a primera vista, pues en rigor requiere una teoría cuántica de la gravedad y todavía no tenemos ninguna. Por supuesto, podemos aplicar las reglas de la mecánica cuántica a la teoría de la gravedad de Einstein y obtener resultados correctos en el límite de campos débiles, es decir, de agujeros negros con gran masa (como ya hizo Hawking); en dicho caso, el observador no notaría nada (la radiación de Hawking no puede ser detectada en agujeros negros de masa estelar y menos aún en agujeros negros supermasivos).

Sin embargo, el problema sigue estando ahí en el caso de campos fuertes (agujeros negros de masa muy pequeña, llamados microagujeros negros); en dicho caso tenemos que usar una teoría cuántica de la gravedad y la respuesta nos lleva a la frontera entre lo que sabemos y lo que nos gustaría saber. Nos lo contó en Madrid Kyriakos Papadodimas (University of Groningen), “Falling into a Black Hole and the Information Paradox in AdS/CFT,” IFT Xmas Workshop 2012, December 20 [slides]; la charla está basada en su artículo Kyriakos Papadodimas, Suvrat Raju, “An Infalling Observer in AdS/CFT,” arXiv:1211.6767, 28 Nov 2012.

Dibujo20130730 hawking radiation - pure state becomes thermal radiation

Papadodimas estudia el problema de la observación de la radiación de Hawking en un agujero negro en un espaciotimpo AdS (anti-de Sitter), que en relatividad general corresponde a una solución de vacío de las ecuaciones de Einstein con una constante cosmológica negativa (atractiva). Gracias a la correspondencia AdS/CFT, este agujero negro equivale a un plasma de quarks y gluones en una teoría gauge conforme (CFT) similar a la cromodinámica cuántica con un número infinito de cargas de color. Gracias a esta analogía, tras un buen número de cálculos, Papadodimas concluye que en un agujero negro macroscópico un observador semiclásico que penetra en el horizonte de sucesos no nota nada especial.

Este resultado contradice dos especulaciones teóricas llamadas en inglés “fuzzball” y “firewall” que afirman que al cruzar el horizonte de sucesos (en ciertos agujeros negros “viejos”), un observador debe notar la radiación de Hawking. En la propuesta de tipo “firewall” el observador acabaría siendo incinerado, como ya discutimos de forma breve en este blog en “Polchinski y varios colegas afirman que un agujero negro “viejo” será una “incineradora infernal”,” 8 agosto 2012 (el propio Polchinski lo divulgó en el blog de Sean Carroll, “Guest Post: Joe Polchinski on Black Holes, Complementarity, and Firewalls,” 27 Sep 2012; su artículo ha sido citado más de 78 veces en ArXiv).

Dibujo20130730 ads - cft correspondence - black hole - quark-gluon plasma

La correspondencia AdS/CFT (o gravedad/gauge) nos permite entender problemas gravitatorios en agujeros negros con campos intensos utilizando herramientas de teoría de campos cuánticos débiles y, viceversa, entender problemas de campos cuánticos intensos utilizando herramientas de la teoría de la gravedad para campos débiles. La idea es clave es que la teoría gauge está descrita en un espaciotiempo con una dimensión menor que la teoría gravitatoria correspondiente (como si los grados de libertad del campo gauge fueran equivalentes a dimensiones extra en el campo gravitatorio). En el caso general, esta correspondencia sigue siendo una conjetura, pero con el paso de los años cada día parece más cercano el momento en el que sea demostrada con rigor (algo que se ha logrado sólo en algunos “modelos de juguete”) y la mayoría de los físicos la utiliza como si lo fuera.

La conjetura AdS/CFT nos ayuda a entender (¿resolver?) el problema de la pérdida de información en los agujeros negros. Recuerda que los estados puros entrelazados que caen en el agujero negro incrementan su masa, área y entropía. Y que la radiación de Hawking decrementa su masa, área y entropía. Esta radiación es térmica, lo que implica que los estados puros que caen en el agujero negro no pueden evolucionar de forma unitaria (es decir, según las leyes de la mecánica cuántica) a estados mezcla en la radiación. Los cálculos de Papadodimas indican que no hay ningún problema, ya que los estados puros se preservan en la radiación de Hawking, que sólo es térmica en apariencia; la razón por la cual no se detectan estos estados puros, aunque se conservan, es que su número es exponencialmente pequeño. Por tanto, la evolución unitaria se preserva y no existe el problema de la pérdida de información cuántica.

Dibujo20130107 Black Hole Firewalls Confound Theoretical Physicists - Scientific American

Como nos contó John Preskill (Instituto Técnico de California, CalTech), “Is Alice burning? The black hole firewall controversy,” Quantum frontiers, Dec 3, 2012, lo interesante de la idea de los “firewalls” es que nos hace replantearnos muchas ideas que ya parecían muy claras sobre la información cuántica y los agujeros negros, ideas que quizás nos ayuden a entender cómo será una futura teoría cuántica de la gravedad. Uno de los opositores a la idea de Polchinski y sus colegas, Raphael Bousso impartió una conferencia muy interesante con sus argumentos en contra, que aparece en el siguiente vídeo.

Obviamente, mientras no haya experimentos sobre la radiación de Hawking (aunque sea en sistemas análogos físicos a agujeros negros) no podremos estudiar en detalle qué pasa con la información cuántica entrelazada entre el interior y el exterior del agujero negro. La física requiere experimentos y cuando carecemos de ellos hay que tener mucho cuidado con las ideas que se argumentan.


Archivado en: Ciencia, Física, Noticias, Physics, Relatividad, Science Tagged: AdS/CFT, Agujero negro, Ciencia, Curiosidades, Física, Física teórica, gravedad, Noticias

Los radiólogos tampoco ven al gorila

$
0
0

Dibujo20130801 radiologists scroll through hundreds of chest CT images

¿Ves el gorila en esta imagen? Ya habrás visto en youtube ejemplos de ceguera intencional: cuando estás concentrado en una tarea, no te das cuenta de sucesos inesperados. ¿Le ocurre también a los expertos que llevan años realizando dicha tarea? 24 radiólogos expertos en detectar nódulos en el pulmón han sido expuestos a radiografías (algunas con un gorila); el 83% de los radiólogos (19 de los 23) no se dio cuenta (aunque el gorilla era 48 veces mayor que un nódulo típico). La técnica de seguimiento de ojos (eye tracking) indica que los radiólogos miraron hacia la zona donde se encontraba el gorila al menos durante 0,25 segundos, sin percibirlo (en media dedicaron 5,7 segundos a cada radiografía). La “ceguera intencional” afecta incluso a los radiólogos. El artículo técnico es Trafton Drew, Melissa L.-H. Võ, Jeremy M. Wolfe, “Sustained Inattentional Blindness in Expert Observers,” Psychological Science, July 17, 2013. Nos lo resume Sadaf Shadan, “Psychology: Spot the gorilla,” Nature 500: 36, 01 Aug 2013.

Dibujo20130801 did you see the gorilla - experiment


Archivado en: Ciencia, Medicina, Noticias, Science Tagged: Ciencia, Curiosidades, Experimento, Nature, Noticias, psicología, Radiología
Viewing all 1793 articles
Browse latest View live