Quantcast
Channel: Francis (th)E mule Science's News
Viewing all 1793 articles
Browse latest View live

Nuevos resultados combinados ATLAS+CMS sobre el bosón de Higgs

$
0
0

Dibujo20150901 prl cover higgs cms atlas - higgs coupling summary - atlas cms lhc cern

La colaboración entre ATLAS y CMS es clave para caracterizar el Higgs. Ya se publicó el valor combinado para la masa del bosón de Higgs en la revista Physical Review Letters: 125,09 ± 0,24 GeV/c² = 125,09 ± 0,21 (est.) ± 0,11 (sist.) GeV/c². Ahora se hace público el análisis combinado ATLAS+CMS para cada uno de sus modos de producción y canales de desintegración. El valor que resume los resultados es la potencia de la señal (signal strength) μ = 1,09 ± 0,11, que es perfectamente compatible con el modelo estándar (μ = 1).

Ha hecho público estos resultados Marco Pieri, “Higgs boson coupling measurements,” The 3rd Annual Large Hadron Collider Physics Conference (LHCP2015), 01 Sep 2015 [contribution]. Ya me hice eco del resultado combinado para la masa en “Combinación oficial ATLAS+CMS para la masa del bosón de Higgs,” LCMF, 17 Mar 2015. El artículo ya publicado es G. Aad et al. (ATLAS Collaboration, CMS Collaboration), “Combined Measurement of the Higgs Boson Mass in pp Collisions at √s = 7 and 8 TeV with the ATLAS and CMS Experiments,” Phys. Rev. Lett. 114: 191803, 14 May 2015, doi: 10.1103/PhysRevLett.114.191803, arXiv:1503.07589 [hep-ex].

Dibujo20150901 higgs mass combination - atlas cms lhc cern

ATLAS y CMS han recopilado una cantidad similar de datos de colisiones protón contra protón en el LHC Run 1. En concreto, cada uno ha logrado una luminosidad integrada de ~5 /fb a 7 TeV (2011) y de ~20 /fb a 8 TeV (2012). Por tanto, un análisis combinado ATLAS+CMS corresponde a unos 50 /fb de colisiones (recuerda /fb = fb-1 se lee inversos de femtobarn). Para la estimación de la masa del Higgs se han usado los dos canales de desintegración más significativos (la desintegración en dos fotones vía un bucle y la desintegración en cuatro leptones vía una pareja ZZ). La tabla de arriba resume los resultados concretos.

Dibujo20150901 higgs signal strength - atlas cms lhc cern

Para comparar los valores predichos por la teoría del modelo estándar (a orden perturbativo NNLO o NLO según el modo o canal) y los resultados experimentales se utiliza la potencia de la señal μ, el cociente entre el valor experimental y su predicción teórica (μEXPSM). Para los modos de producción se compara la sección eficaz de producción observada (σi) y la predicha (σiSM) resultando μi = σi / σiSM. Para los modos de desintegración se compara la fracción (probabilidad) observada (BRf) y la predicha (BRfSM) resultando μf = BRf / BRfSM. Esta tabla muestra los resultados para ATLAS, CMS y su combinación ATLAS+CMS.

Dibujo20150901 production modes higgs - atlas cms lhc cern

Esta figura ilustra la comparación entre los diferentes modos de producción del Higgs (espero que los diagramas de Feynman sean autoexplicativos). El resultado para cada uno de los canales de desintegración (elipses de color) y el mejor ajuste combinado (símbolo +) muestran un buen acuerdo con el modelo estándar (símbolo ∗). Por supuesto, las curvas corresponden a las elipses a 1 sigma (68% CL). Con solo unos 50 /fb de colisiones del LHC Run 1 no podemos esperar mucho más.

Dibujo20150901 couplings higgs - atlas cms lhc cern

También se pueden comparar los acoplos entre el Higgs y las demás partículas usando los parámetros κi = Σ μif BRf. Para los bosones vectoriales (i = V) y para los fermiones (i = F). Los resultados para diferentes canales (parte izquierda de la figura) y los resultados combinados (parte derecha de la figura) están en buen acuerdo con el modelo estándar (recuerda que el mejor ajuste está en + y la predicción teórica en ∗).

Dibujo20150901 higgs couplings as functoin of particle mass - atlas cms lhc cern

Esta figura muestra la manera más común de resumir la situación experimental con los acoplos del Higgs a las diferentes partículas. Se presentan los acoplos (con su incertidumbre) para las partículas vectoriales (bosones) y para los fermiones en función de la masa de la partícula (este figura requiere normalizar de forma diferente ambos tipos de acoplos). El resultado teórico es una línea recta. El resultado experimental está en muy buen acuerdo con la predicción teórica.

Se presentan más resultados, pero no quiero aburrir. La masa del bosón de Higgs se ha medido con un error del 0,2%. Además, se ha (re)descubierto a más de 5 σ el Higgs en el modo de desintegración ττ y en el modo de producción VBF. Todos los acoplos y potencias de señal se ajustan al modelo estándar con una precisión de O(10%). Para mejorar estos resultados de forma significativa habrá que esperar a que el LHC Run 2 con colisiones a 13 TeV acumule un número similar de colisiones (es decir, dentro de un par de años).

El resumen es que el Higgs observado con unos 50 /fb de colisiones se parece tanto al predicho por el modelo estándar como cabía esperar. No se observa ninguna desviación reseñable (que no esté justificada por errores estadísticos y/o sistemáticos).

PS: uso el término “acoplos” en lugar del más correcto en español “acoplamientos” por costumbre en el área.

La entrada Nuevos resultados combinados ATLAS+CMS sobre el bosón de Higgs fue escrita en La Ciencia de la Mula Francis.


En entredicho la universalidad leptónica en el modelo estándar

$
0
0

Dibujo20150902 semileptonic b meson decay - anomaly - babar - belle - lhcb

La universalidad leptónica en el modelo estándar implica que los bosones vectoriales se acoplan por igual a las tres familias de leptones. BaBar, Belle y LHCb han observado una anomalía en la universalidad leptónica gracias a la desintegración semileptónica de los mesones Bº en mesones D*. La desintegración en un leptón tau y un neutrino tau es más probable que la desintegración en un muón o electrón y su neutrino. Babar, Belle y LHCb han observado la anomalía en el parámetro R(D*) a 2,7 σ, a 1,8 σ y a 2,1 σ, respectivamente, que algunos combinan hasta alcanzar 3,8 σ. Sin embargo, no se ha observado ninguna anomalía en el parámetro R(D).

¿Se oculta nueva física en esta anomalía? Aún no lo sabemos, pero hay que ser cautos. El valor de R(D*) está controlado por los errores sistemáticos y una anomalía a menos de 3 σ puede tener su origen en una estimación inapropiada de los sucesos de fondo (es decir, la relación señal/ruido). Además, combinar estas anomalías de forma naïve no es riguroso; algunos artículos apuntan a una anomalía combinada menor de 3,0 σ. Más aún, la estimación teórica depende del parámetro |Vcb| que se determina gracias, entre otras, a la desintegración del quark b → c + ℓ ν, es decir, a la del mesón Bº → D*+ ℓ ν, luego hay cierto círculo vicioso.

Deseamos ver nueva física y la buscamos con tanto ahínco que vemos indicios por doquier. Pero hasta que LHCb no analice esta anomalía con los datos del LHC Run 2 y se confirme su existencia con mayor significación no debemos hacernos demasiadas ilusiones. Los artículos relevantes son LHCb collaboration, “Measurement of the ratio of branching fractions BR(Bº→D*+τν))/BR(Bº→D*+μν),” arXiv:1506.08614 [hep-ex], Belle Collaboration, “Measurement of the branching ratio of B→D*τν relative to B→D*ℓν decays with hadronic tagging at Belle,” arXiv:1507.03233 [hep-ex], y The BABAR Collaboration:, “Measurement of an Excess of B→D*τν Decays and Implications for Charged Higgs Bosons,” Phys. Rev. D 88, 072012 (2013), doi: 10.1103/PhysRevD.88.072012, arXiv:1303.0571 [hep-ex]. Aunque muchos otros relacionados.

Dibujo20150902 corrected - b_dstar_lnu_brock_zeus_physik_uni-bonn-de

LHCb ha analizado 1,0 /fb de colisiones pp a 7 TeV y 2,0 /fb a 8 TeV. Los sucesos de desintegración semileptónica con un leptón tau, B0 → D∗+τντ, se observan gracias a la desintegración τ → µνµντ (canal de señal) y B0 → D∗+µνµ (canal de normalización). Los sucesos de desintegración semileptónica con un muón, B0 → D∗+µνµ, se observan gracias a la desintegración D∗+ → D0 π+ → K π+ π+. Para las estimaciones del fondo se han usado los programas Pythia, EvtGen y Geant4. Los físicos de LHCb saben lidiar a la perfección con estos análisis, lo que no quita que sean complicados y estén dominados por errores sistemáticos, que son comparables o incluso mayores que los errores estadísticos.

Dibujo20150902 new - semileptonic b meson decay - anomaly - babar - belle - lhcb

Toda desviación respecto a las predicciones del modelo estándar en un test de precisión es una señal que no debemos obviar. Sin embargo, en este caso concreto, debería haber otras señales de la violación de la universalidad leptónica. Pero solo las hay en estas desintegraciones tan raras (por poco probables). Me da la sensación de que nos estamos agarrando a un clavo ardiendo. Espero estar equivocado.

La entrada En entredicho la universalidad leptónica en el modelo estándar fue escrita en La Ciencia de la Mula Francis.

Francis en Mapping Ignorance: Recent advances in lithium-ion rechargeable batteries

$
0
0

Dibujo20150903-Fig1-sony-dell-li-ion-battery-640x334

Te recomiendo leer mi última contribución “Recent advances in lithium-ion rechargeable batteries,” Mapping Ignorance, 02 Sep 2015, cuyo primer párrafo (en inglés) dice: “Lithium-ion batteries are widely used in portable electronic devices and electric vehicles since their introduction by Sony in 1991. Safety is an important concern since about two billion cells are produced every year but with a one-in-200,000 failure rate. Excessive temperature variations and high temperatures over the melting point of the metallic lithium can cause a thermal runaway reaction that ignites a fire and consequently cause a violent explosion. To avoid the inherent instability of lithium metal, non-metallic lithium batteries are preferred, but at the price of a lower energy density. However, in some cases Li dendrites form, leading to severe short circuiting. Hitoshi Maruyama, from University of Tsukuba, Ibaraki, Japan, and colleagues have proposed a new anode material that minimizes dendritic Li formation; concretely, they have suggested the use of three-dimensional amorphous silicon polymers poly(methylsilyne) and poly(phenylsilyne) for the anode. Both exhibit an excellent performance in thermal-abuse tests.”

Seguir leyendo en Mapping Ignorance…

Mi post se basa en los siguientes artículos publicados en agosto:

  1. Hitoshi Maruyama et al., “Improving battery safety by reducing the formation of Li dendrites with the use of amorphous silicon polymer anodes,” Scientific Reports 5: 13219, 07 Aug 2015, doi: 10.1038/srep13219.
  2. Feng Leng et al., “Effect of Temperature on the Aging rate of Li-Ion Battery Operating above Room Temperature,” Scientific Reports 5: 12967, 06 Aug 2015, doi: 10.1038/srep12967.
  3. Sa Li et al., “High-rate aluminium yolk-shell nanoparticle anode for Li-ion battery with long cycle life and ultrahigh capacity,” Nature Communications 6: 7872, 05 Aug 2015, doi: 10.1038/ncomms8872.
  4. Goojin Jeong et al., “A room-temperature sodium rechargeable battery using an SO2-based nonflammable inorganic liquid catholyte,” Scientific Reports 5: 12827, 05 Aug 2015, doi: 10.1038/srep12827.
  5. Giuseppe Antonio Elia, Jusef Hassoun, “A Polymer Lithium-Oxygen Battery,” Scientific Reports 5: 12307, 04 Aug 2015, doi: 10.1038/srep12307.

La entrada Francis en Mapping Ignorance: Recent advances in lithium-ion rechargeable batteries fue escrita en La Ciencia de la Mula Francis.

Los avances en la predicción numérica del tiempo meteorológico

$
0
0

Dibujo20150903  Physical processes of importance to weather prediction - nature14956-f2

Abbe (1901) y Bjerknes (1904) propusieron que las leyes de la física se podrían usar para pronosticar el tiempo. Los avances científicos y tecnológicos permiten pronosticar a 6 días con la misma precisión que a 5 días hace diez años o a 4 días hace 20 años. Richardson (1922) propuso la predicción numérica del tiempo: resolver mediante ordenador las ecuaciones de Navier-Stokes (incluyendo el efecto de la rotación de la Tierra) junto a las leyes de la termodinámica para los gases ideales para pronosticar los cambios espaciotemporales del viento, presión, densidad y temperatura de la atmósfera.

Charney, Fjoertoft, von Neumann (1950) usaron por primera vez un ordenador en Princeton para post-predecir el tiempo y Bolin (1955) lo usó en Estocolmo para predecirlo. Pero fueron necesarios los supercomputadores de la década de los 1970 para que las predicciones numéricas fueran fiables. Hoy en día se usa una jerarquía de muchos modelos acoplados con diferente nivel de complejidad que cubren las proyecciones globales del clima, la predicción meteorológica mundial y la modelización de área local para la predicción meteorológica de alta fiabilidad.

Nos lo cuenta el artículo de revisión (review) de Peter Bauer, Alan Thorpe, Gilbert Brunet, “The quiet revolution of numerical weather prediction,” Nature 525: 47–55, 03 Sep 2015, doi: 10.1038/nature14956.

Dibujo20150903 A measure of forecast skill at 3- 5- 7- 10-day ranges - nature14956-f1

Esta figura muestra la mejora en el acierto de la predicción (forecast skill) a tres días (azul), cinco días (rojo), siete días (amarillo) y diez días (gris) tanto en el hemisferio norte (curva más oscura superior) como en el hemisferio sur (curva más clara inferior). Se mide el porcentaje de acierto comparando la predicción con la observaciones atmosféricas a una altura de 500-hPa (hectopascales). Los valores superiores al 60% se consideran predicciones útiles y los superiores al 80% son de muy alta precisión. En estas mejoras no sólo han influido los avances en supercomputación y modelado atmosférico, sino también la mejora en la calidad de los datos obtenidos gracias a la cobertura mediante satélites meteorológicos.

La figura que abre esta entrada resume los procesos físicos más importantes que hoy en día se incorporan en los modelos de predicción numérica. Muchos de estos procesos no se pueden resolver en detalle (pues se requiere llegar a escalas moleculares), pero se incorporan de forma aproximada mediante correlaciones. Estas mejoran conforme lo hace nuestra comprensión en detalle de los procesos físicos.

Dibujo20150903 Schematic diagram of 36-h ensemble forecasts over the UK - nature14956-f3

Uno de los grandes avances ha sido el uso de técnicas de predicción por conjuntos (ensemble forecast). Poincaré (1914) reconoció que las predicciones precisas en sistemas no lineales son casi imposibles por el hoy llamado efecto mariposa: pequeñas perturbaciones en las condiciones iniciales tienen un enorme impacto en las predicciones a largo tiempo. Thompson (1957) realizó las primeras estimaciones cuantitativas del crecimiento de los errores iniciales durante el pronóstico. Pero todo el mundo recuerda a Lorenz (1963) que introdujo el efecto mariposa y ofreció una comprensión holística del problema, lo que hoy llamamos teoría del caos (determinista). Predecir el tiempo meteorológico más allá de 15 días parecía una empresa imposible de abordar.

Dibujo20150903 Schematic of the ensemble analysis and forecast cycle - nature14956-f4

La solución práctica han sido los modelos de conjuntos. Las observaciones tienen cierto rango de incertidumbre (que depende del tipo de medida). Dentro de ese rango se construye un conjunto de condiciones iniciales perturbadas de forma aleatoria que se hace evolucionar de forma independiente. Las primeras estimaciones se obtienen interpretando las tendencias observadas en el conjunto de todas las soluciones. Conforme se van obteniendo nuevos datos se descartan las soluciones que se desvían demasiado y se reinician los modelos.

Aplicando una técnica estadística de agregación de resultados se obtiene una única predicción probabilística de consenso, de gran robustez y de gran precisión, incluso a muchos días vista. Más aún, usando métodos estadísticos bayesianos (que calculan probabilidades a posteriori a partir de las probabilidades a priori) los modelos están sometidos a un proceso constante de autocorrección conforme se recaban nuevas observaciones. En los modelos de conjuntos también se usan técnicas de la teoría de control óptimo que permiten minimizar la incertidumbre.

Dibujo20150903 CPU and power requirements as a function of NWP model resolution - nature14956

La predicción numérica del tiempo tiene una gran ventaja respecto a las demás disciplinas científicas: sus resultados son evaluados de forma objetiva y diaria en todo el mundo. Por ello el éxito o el fracaso de los pronósticos se conoce con precisión y se pueden evaluar en tiempo real todas las mejoras en los modelos. Cada día se recaban unos diez millones de observaciones que se usan para las condiciones iniciales para los modelos. En el Centro Europeo de Previsiones Meteorológicas a Medio Plazo (ECMWF por European Centre for Medium-Range Weather Forecasts) se calcula una nueva predicción cada 12 horas usando una malla tetradimensional de 650 millones de nodos con una resolución espacial máxima de 16 km y un paso de tiempo de 10 minutos sobre un periodo de 10 días (1440 pasos de tiempo). Las simulaciones ensemble para 50 condiciones iniciales con una resolución máxima entre 30 y 60 km y pasos de tiempo de 30 minutos se usan para predecir en intervalos entre 15 y 30 días.

La evolución de la meteorología ha estado ligada a la de la informática de alto rendimiento y a la de los sistemas de observación usando satélites. Aún hay muchos retos científicos y tecnológicos que resolver para alcanzar en un futuro resoluciones en espacio de un kilómetro y en tiempo de un minuto (cruciales para una correcta descripción de la convección en la atmósfera). Hay mucho que estudiar en el tratamiento de las incertidumbres inherentes a los modelos que promedian la física y la parametrizan (por ejemplo, para el modelado de las plumas convectivas que requieren escalas menores de 1 km). También en los procesos químicos y físicos relacionados con el acoplamiento entre la atmósfera y el océano, la superficie de la tierra y el hielo (terrestre y marino).

Dibujo20150903  Key challenge areas for NWP in the future - nature14956

También hay retos tecnológicos. Hoy en día se usan los supercomputadores que se encuentran en el top 20 de los 500 sistemás más potentes y que son capaces de ejecutar operaciones en el régimen de los petaflops (mil billones de operaciones en punto flotante por segundo). El futuro de la meteorología numérica requiere que la ley de Moore se siga cumpliendo en las próximas décadas, algo que muchos consideran poco razonable. Habrá que buscar alternativas como la computación masivamente paralela (al ritmo actual, en diez años habría que usar sistemas con cerca de un millón de procesadores). El consumo energético de los supercomputadores será uno de los factores que limiten los progresos.

La revolución silenciosa de la predicción numérica del tiempo ha requerido una combinación científica, observacional y tecnológica cuya continuidad supone grandes desafíos. Retos científicos y tecnológicos interdisciplinares e interdependientes. Si tienes acceso, te recomiendo la lectura del artículo de revisión que ha aparecido en Nature, porque la predicción numérica del tiempo es un tema que nos afecta a todos, todos los días.

La entrada Los avances en la predicción numérica del tiempo meteorológico fue escrita en La Ciencia de la Mula Francis.

Se observa la anomalía quiral en un aislante topológico tipo semimetal de Dirac

$
0
0

Dibujo20150904 Evidence for the chiral anomaly in the Dirac semimetal Na3Bi - science mag

En 2014 se descubrió que el bismuturo de trisodio es una especie de grafeno tridimensional: un aislante topológico de tipo semimetal de Dirac cuyas cuasipartículas superficiales se comportan como fermiones de Dirac sin masa. Un fermión de Dirac se puede interpretar como dos fermiones de Weyl de quiralidad opuesta. Se publica ahora en Science que la aplicación de un campo eléctrico y otro magnético paralelos rompe la quiralidad y transforma los fermiones de Dirac en este material en sendos fermiones de Weyl. Un fenómeno predicho en 1983 por Holger Bech Nielsen y Masao Ninomiya.

Los estados de conducción superficiales en un semimetal de Dirac corresponden a dos bandas que se cruzan en un punto de Dirac, una desde la zona de valencia a la de conducción y otra desde la de conducción a la de valencia. Al aplicar un campo magnético y un campo eléctrico las dos bandas que se cruzan se separan, resultando un semimetal de Weyl que propaga estados superficiales de tipo Weyl. Dichos estados se han observado gracias a la aparición de una magetorresistencia longitudinal negativa. Por supuesto, serán necesarios futuros estudios para confirmar el resultado usando la técnica ARPES.

Un gran resultado que confirma de nuevo que 2015 es el año de los aislantes topológicos de tipo semimetal de Weyl. El artículo es Jun Xiong et al., “Evidence for the chiral anomaly in the Dirac semimetal Na3Bi,” Science, AOP, 03 Sep 2015, doi: 10.1126/science.aac6089. Recomiendo ojear las transparencias de N. P. Ong, “Evidence for the chiral anomaly in a Dirac Semi-metal,” University of Minnesota Digital Conservancy (2015).

Dibujo20150904 two weyl cones - b-e transition dirac to weyl

Una anomalía en una teoría cuántica de campos ocurre cuando una simetría de la teoría (lagrangiano) clásica no es una simetría de su versión cuántica. En los 1960 se construyó una teoría para los piones, que se interpretaron como bosones de Goldstone para la rotura de una simetría SU(2)×SU(2) en una simetría U(1)×U(1). El problema era que la tasa de desintegración de la desintegración del mesón pi neutro en dos fotones no era predicha por dicha teoría. En 1969 se descubrió que la razón era una anomalía quiral cuya inclusión clavaba los datos (Adler, 1969; Bell–Jackiw, 1969). Muchos consideran este éxito de la teoría como un paso histórico importante hacia la imposición de la cromodinámica cuántica (QCD) como la teoría correcta para la interacción fuerte entre hadrones.

Volviendo a la física de los aislantes topológicos, se predijo hace años que una anomalía quiral podría ser observada en semimetales de Dirac bajo la aplicación de un campo magnético. En el nuevo trabajo se aplica un campo eléctrico (que introduce niveles de Landau) y de forma simultánea un campo magnético paralelo que desdobla los conos de Dirac degenerados (superpuestos) en pares de conos de Weyl bien separados. Este año ha habido varios intentos de observar este fenómeno sin lograr un éxito completo.

Sin entrar en más detalles técnicos, se trata de un resultado muy interesante en uno de los campos más candentes de este año, los aislantes topológicos que son semimetales de Weyl.

La entrada Se observa la anomalía quiral en un aislante topológico tipo semimetal de Dirac fue escrita en La Ciencia de la Mula Francis.

Reseña: “Einstein”, “Schrödinger” y “Huygens” de David Blanco Laserna

$
0
0

Dibujo20150829 book covers - einstein - schrodinger - huygens - rba - david blanco

“Se ha escrito tanto sobre Einstein como para desbordar los estantes de la biblioteca de Babel, pero al menos una razón justifica que echemos más leña al fuego: su propia obra, que se mantiene viva y en plena expansión. [Una] obra [que] concedió carta de naturaleza a conceptos insólitos: viajes en el tiempo, agujeros negros, lentes gravitacionales, nuevos estados de la materia, universos en expansión, bombas capaces de aniquilar un mundo… Escoger bien las premisas, separar el grano de la paja, requería un don especial. Einstein nació con él.”

Hoy reseñaré una biografía de Einstein de David Blanco Laserna, físico, divulgador, guionista y escritor de ciencia ficción. Aprovecharé para reseñar sus otros dos libros en la colección Grandes Ideas de la Ciencia de RBA: “Einstein. La teoría de la relatividad. El espacio es una cuestión de tiempo,” RBA (2012) [175 pp.], “Schrödinger. Las paradojas cuánticas. El universo está en la onda,” RBA (2012) [167 pp.], y “Huygens. La teoría ondulatoria de la luz. Un rayo atrapado en una onda,” RBA (2013) [165 pp.].

Me ha gustado mucho “Einstein”. A veces pensaba, si yo escribiera una biografía sobre Albert usaría un estilo similar al de David. También me ha gustado “Schrodinger” y algo menos “Huygens”. Pero los tres libros están muy bien y demuestran que el autor es un escritor un gran dominio del lenguaje y del ritmo. Hay que recordar que para escribir una biografía sobre un físico hay que ser, sobre todo, un buen relator de historias. Y David lo es. Pero, además, estos libros contienen una buena descripción de los logros más importantes de estos físicos. Y para ello, además de físico, hay que ser un buen divulgador. Y David también lo es.

Dibujo20150829 photo - home - project einstein - rba - david blanco

“Einstein” consta de una introducción, cinco capítulos y una serie de lecturas recomendadas. Tras la Introducción [pp. 7-13], nos cuenta la vida de Albert Einstein (14 Marzo 1879 – 18 Abril 1955) hasta su annus mirabilis (1905) el capítulo 1, “La revolución electromagnética” [pp. 15-38]. Tras un buen resumen de lo que supuso el electromagnetismo en la ciencia del siglo XIX, acaba el capítulo con Albert a los 17 años, que “ya había puesto encima de la mesa los grandes temas de su vida: había escrito su primer artículo científico, había protagonizado un serio encontronazo con las autoridades, se había enamorado y desenamorado, y se había formulado una pregunta capaz de detonar una revolución científica, ¿qué sucedería si persiguiera un rayo de luz?”

El capítulo 2, “Todo movimiento es relativo” [pp. 39-84], empieza con Einstein y Mileva: “Una mujer que aspirase a una carrera científica era una rara avis en su entorno social, un espécimen precioso por su singularidad. Se veían investigando juntos, discutiendo juntos, viviendo juntos, superando juntos cualquier oposición familiar. [Se] casaron en 1903, [pero] sufrieron la erosión de la convivencia en una situación económica muy precaria, interpretaron una sinfonía de celos y reproches, y acabaron en una guerra soterrada y con los hijos convertidos en arma arrojadiza. Su idilio despuntó como una comedia romántica y derivó en un drama matrimonial.”

“¿[Mileva] es el autor secreto de la relatividad? [Todo] el grueso de la imputación se remonta a una referencia de Einstein, de 1901, sacada de contexto y al hecho de que se comprometiera a entregar el dinero del Nobel a Mileva después de su divorcio. [Se] conserva parte de la correspondencia de Mileva con su amiga Helene Kaufler, donde expresa su admiración hacia el trabajo de su marido sin atribuirse ninguna participación en él.”

Berlin, Germany --- Original caption: Photo shows the noted scientist, Dr. Albert Einstein, director of the Kaiser Wilhelm Institute of Physics, addressing a group of fellow scientists in Harnackhaus, Berlin-Dahlem.  The lecture concerned "space-ether". --- Image by © Underwood & Underwood/Corbis
Dr. Albert Einstein imparte una conferencia sobre el éter en Harnackhaus, Berlin-Dahlem, Berlín, Alemania. — Imagen de © Underwood & Underwood/Corbis

“El éter [luminífero] se comportaba igual que el asesino de una novela negra: cometía el crimen de transportar la luz, pero luego no dejaba rastro. [Gracias a] Lorentz y Poincaré [entre] 1898 y 1905 [se] había establecido el principio de relatividad, planteando la constancia de la velocidad de la luz y cuestionando el concepto de simultaneidad. Pero a los dos les cegaba la bruma del éter. [Einstein] interpretó el papel del detective privado, libre de prejuicios o compromisos institucionales que le impidieran señalar el verdadero culpable. [Así] funda la relatividad [en] Sobre la electrodinámica de los cuerpos en movimiento (1905). [Comprimió] el núcleo de la teoría en dos asertos y [desplegó] todo un universo físico a su alrededor [que] deslumbró a muchos de sus lectores.”

Tras una presentación bastante estándar, pero bien escrita e ilustrada, sobre la teoría de la relatividad, se comete un grave error (muy habitual en ciertos foros). “Cuando la aceleración se presenta, hay que ampliar el terreno de juego hasta el marco de la relatividad general” (pág. 77). El error aparece reiteradas veces en el resto del libro. Una pena. La relatividad especial, además de cinemática (física en sistemas inerciales), tiene dinámica (física en sistema no inerciales); por tanto se pueden estudiar fuerzas y aceleraciones (y sistemas de referencia acelerados) sin ningún problema. No es necesaria la teoría general para estudiar los sistemas de referencia acelerados. Su necesidad es resolver el problema de la gravedad newtoniana y su acción a distancia instantánea. Lo único que salva al autor es que este error lo cometen muchos libros de divulgación.

Dibujo20150829 einstein blackboard - home - project einstein - rba - david blanco

Tras la relatividad especial en el capítulo segundo, le llega el turno a la general en el tercero, “Los pliegues del espacio-tiempo” [pp. 85-121]. Se empieza recordando que “en julio de 1909, [Einstein] recibió un doctorado honoris causa por la Universidad de Ginebra, y en octubre se planteó su primera candidatura al premio Nobel.” Y aparece “Elsa, [el] negativo fotográfico de la callada, introvertida y atormentada Mileva: coqueta, divertida, un animal social sin ningún interés en la ciencia…”

El autor vuelve a cometer el mismo error: “si lograba introducir la aceleración en la relatividad, la gravedad encajaría en ella de modo automático.” La gravedad equivale localmente a una aceleración, pero esto no significa que el estudio de los sistemas de referencia acelerados no se pueda realizar en la teoría especial. Pero vayamos al grano, se presenta la teoría de la relatividad general para un público lego bastante bien, incluyendo la teoría de superficies de Gauss, el concepto de métrica del espaciotiempo e, incluso, la ecuación de Einstein (aunque sin muchos detalles). Se finaliza el capítulo con la relación entre Einstein y David Hilbert y la prioridad de la, a veces, llamada ecuación de Einstein–Hilbert (el autor se la concede a Einstein).

El capítulo 4, “Las escalas del mundo” [pp. 123-153], nos habla de la cosmología relativista y de “la confirmación experimental en 1919 de la desviación de la luz bajo la acción de la gravedad [que] convirtió a Einstein en una celebridad de la noche a la mañana.” Empieza fuerte: “Al final de cada tormenta creativa, Einstein caía enfermo. La crudeza de la resaca era proporcional al esfuerzo invertido. Si después de los meses de hiperactividad que alumbraron los artículos de 1905 pasó dos semanas en cama, tras su largo y sostenido pulso con la relatividad general la convalecencia se alargó, con intermitencias, varios años. [A partir] de 1917 su organismo cedió ante una sucesión de pequeños colapsos, cálculos biliares, hepatopatías, ictericia, úlcera de estómago, que lo postraron en cama durante meses, haciéndole temer que nunca se recuperaría del todo.”

1933 --- Original caption: Albert Einstein, (1879-1955), is shown.  He was awarded the Nobel Prize for Physics in 1921. --- Image by © Bettmann/CORBIS
1933 — Albert Einstein, Nobel Prize for Physics in 1921. — Image by © Bettmann/CORBIS

Se presenta en detalle “la apoteosis del eclipse de 1919,” que da paso al efecto fotoeléctrico y la concesión del Premio Nobel. Pasando por varios temas, como las lentes gravitacionales y la estadística de Bose–Einstein. El último capítulo, “El exilio interior” [pp. 155-170], nos habla de las últimas décadas de Einstein viviendo en EEUU. Faltan muchas cosas, como la paradoja EPR, y se acaba con “la ciencia funciona como una máquina de pulir que cada vez arroja descripciones más precisas de la naturaleza. Quién sabe qué rostro acabará mostrando en el futuro. Sin duda, Einstein distinguiría en él sus viejas obsesiones sobre el tiempo, el espacio y la gravedad, bajo la nueva luz de los descubrimientos.”

En resumen, “Einstein” es un gran libro, que me ha gustado mucho. Y que recomiendo incluso a quienes ya conocen muchas otras obras sobre este gran genio. Realmente no hay nada nuevo, pero el estilo de escritura anima a la lectura y, al fin al cabo, cuando uno lee un libro lo que quiere es disfrutar. Y este libro se disfruta.

Dibujo20150829 schrodinger blackboard - rba - david blanco

“Schrödinger” tiene una introducción, cuatro capítulos y una lista de lecturas recomendadas. La introducción [pp. 7-15] nos cuenta que “Erwin Schrödinger fue el magnífico ejemplar de una especie ya extinguida, hijo de la gran cultura centroeuropea. [Era] capaz de escribir un artículo sobre mecánica cuántica donde, con la misma soltura, saltaba de los Principia de Newton a un episodio del viaje de Darwin a bordo del Beagle o introducía un análisis sobre la evolución de la poesía de Luis de Góngora. [Un] conversador formidable, que disfrutaba seduciendo, ya fuera a las mujeres o al auditorio de sus clases y conferencias. [Tuvo] tres hijas con tres mujeres distintas, ninguna de ellas su esposa, de la que no se separó jamás.”

El capítulo 1, “Luz y materia” [pp. 15-48], nos cuenta cómo la mecánica estadística del siglo XIX llevó al nacimiento de la mecánica cuántica en el siglo XX. Junto a anécdotas de niñez y juventud se destaca que “durante toda su vida Schrödinger llevó por escrito la cuenta de las mujeres que seducía. La lista llegó a ser casi tan extensa como la de los artículos científicos que publicó. [La] mecánica cuántica es una teoría que trata de las relaciones entre la luz y la materia. [En] su primer artículo cuántico, Einstein sacó el fraccionamiento de la energía del horno de Planck y, para demostrar que trascendía el capricho de los osciladores, lo aplicó a esclarecer tres fenómenos conocidos.”

“En mayo de 1910 Schrödinger conquistó el grado de doctor, gracias a un trabajo Sobre la presencia de la electricidad en la superficie de aislantes en presencia de aire húmedo. [Ya] en sus primeros artículos científicos exhibió un notable virtuosismo matemático que, no obstante, se apoyaba en una intuición física todavía sin afilar. [En 1918], para vadear la desolación anímica y la malnutrición de la posguerra, se volcó en la filosofía, como ya había hecho durante las horas más bajas en el frente.”

Dibujo20150829 schrodinger biography - rba - david blanco

“La ecuación de ondas” [pp. 49-96], el capítulo segundo, se inicia con un Schrödinger “[volcado] en el estudio de la percepción de los colores. [Su] primer artículo Teoría de los pigmentos de máxima luminosidad [le permitió ser] ayudante de Max Wien, en la Universidad de Jena, en la primavera de 1920. [En dos años] conoció tres ciudades y cuatro puestos académicos. [En] la cultura germana la movilidad laboral representaba una rutina. Todas las universidades se conectaban entre sí como vasos comunicantes. Cada vacante ocasionaba una corriente de desplazamientos, como fichas de dominó, que se traducía en una cadena de ascensos, donde decenas de profesores se cruzaban en las estaciones de tren, intercambiando destinos.”

“En Stuttgart se enfrascó en la lectura de Estructura atómica y líneas espectrales, de Arnold Sommerfeld, que se convirtió en un clásico desde el mismo día en que salió a la calle. [La] curiosidad antojadiza de Schrödinger cayó bajo su influjo y publicó casi de inmediato un artículo, puliendo detalles del modelo atómico de Sommerfield. [Su trabajo] parecía confirmar el dicho popular de que quien mucho abarca, poco aprieta: Todavía no había producido ninguna obra mayor en ninguno de los campos que había tentado. [El] modelo de Bohr-Sommerfeld proporcionaba el atisbo de un mecanismo revolucionario, ajeno por completo a la física clásica. [El] físico holandés Peter Debye le espetó a Schrödinger en Zúrich: ‘Ahora, usted no está trabajando en nada de importancia. No entiendo todo este asunto de De Broglie. Léalo. A ver si puede dar una clarla interesante’. [Tras la charla le] reprochó que para hablar de ondas era necesario contar con una ecuación de ondas: ¡Encuéntrela!”

Dibujo20150829 schrodinger - irish times - rba - david blanco

“[El] matemático Hermann Weyl, amigo de Erwin y amante de Annemarie [la esposa de Schrödinger], [dice que] ‘hizo su trabajo trascendental durante un arrebato amoroso tardío’. Weyl debía de saber lo que se decía, ya que colaboró estrechamente con el físico austriaco, ayudándole a salvar las dificultades técnicas de la ecuación de ondas. [Mientras] duró el trabajo, ambos convinieron en reunirse cada semana los martes por la noche, para discutir los avances.” El libro dedica varias páginas a explicar la ecuación de ondas, su conexión con las vibraciones de una cuerda y con las notas musicales. Así mismo se trata de explicar cómo se deduce la fórmula de Balmer para las líneas espectrales del hidrógeno. “En 1933, Annemarie, Erwin y Hilde recalaron en Oxford. Cinco días después, Annemarie atendía una llamada de teléfono [de] The Times, al día siguiente publicarían que a su marido le habían concedido el Premio Nobel de Física, que compartía con Paul Dirac.”

“El principal misterio de la ecuación de Schrödinger es a qué magnitud física representa la incógnita, la famosa función ψ.” A ello se dedica el capítulo 3, “La búsqueda del sentido” [pp. 97-140]. Tras discutir el trabajo de Heiseinberg, Born y Jordan de 1925 que introdujo la mecánica matricial, se presenta la interpretación estadística de Born de la función de onda. “La verdadera magnitud con sentido físico no era ψ, sino ψ·ψ*, que también se representa como |ψ|². [Sus] valores determinaban qué porción de carga eléctrica [del electrón orbitando un átomo] se hallaba en cada punto en cada instante. [Ya] fuera con matrices y probabilidades de transición, o con funciones estadísticas, el azar presidía las leyes de la naturaleza [emborronando] cualquier imagen del átomo.”

Tras presentar la idea de orbitales atómicos y la interpretación cuántica de la tabla periódica de los elementos (que el autor llama “el secreto de la química”) se discute la oposición de Schrödinger a la interpretación estadística de Born. “Jamás aceptó el modo en que Born había adulterado su función de onda y, hacia el final de su vida, ante el éxito casi unánime de la interpretación estadística, se lo reprochaba con humor, cariño y una pizca de indignación.” La equivalente entre la formulación matricial y la ondulatoria, demostrada por Schrödinger en 1926, “dejaba claro [que] las bases matemáticas de la mecánica cuántica habían cuajado ya. Quedaba por librar la pelea de la interpretación.”

Erwin Schrödinger, österr. Physiker, nach seiner Antrittsvorlesung an der Universität in Wien. Photographie. 1956. Erwin Schroedinger, Austrian physicist, after his inaugural lecture at the University of Vienna. Photography. 1956.
Erwin Schroedinger, tras su discurso inaugural en la Universidad de Viena, Austria. Photography. 1956.

Por cierto, no me gusta que en el libro se hable de “principio de incertidumbre de Heisenberg” cuando es más adecuado hablar de “principio de indeterminación” (un matiz importante a la hora de su interpretación física). Pero, al grano, no podía faltar en el libro una mención al famoso gato de Schrödinger. El último capítulo, “El gato encerrado” [pp. 141-162], tras comentar que “a lo largo de su vida en común, entre Annemarie y Erwin se habían cruzado muchas personas, [pero el] aventurero y conservador, cerró sus días de don Juan cortejando a su mujer.” El gato vivo o muerto permite discutir los experimentos de doble rendija más recientes: “En 1999 fueron moléculas de sesenta átomos de carbono; un año después, corrientes en anillos superconductores; por fin, en 2011, moléculas formadas por 430 átomos, más grandes que la insulina.”

Finaliza el libro con una breve discusión del experimento EPR. “Los dos principales adversarios de la lectura más antiintuitiva de la mecánica cuántica, Schrödinger y Einstein, contribuyeron decisivamente a su perfeccionamiento.” En resumen, el libro está muy bien, aunque me gusta más “Einstein”, ambos comparten un estilo similar y serán del disfrute de muchos aficionados a la divulgación científica.

Dibujo20150829 huygens - rba - david blanco

“Huygens” tiene una introducción, cuatro capítulos y un listado de lecturas recomendadas. Me ha gustado menos que “Einstein” y “Schrödinger”, pero, como siempre, las comparaciones son odiosas. La introducción [pp. 7-13] nos cuenta que Christiaan Huygens (14 Abril 1629 – 08 Julio 1695) “prefigura al científico moderno, no ya por sus obras, sino por su actitud, por su conciencia de que la ciencia procede mediante aproximaciones. Él no pretendía descubrir la Verdad, con mayúscula, sino crear modelos operativos.”

El capítulo 1, “La geometría de la luz” [pp. 15-47], nos habla de “la luz, [la] gran obsesión científica de Huygens, que se inició con su estudio de la óptica geométrica [y] culminó con el mayor descubrimiento astronómico desde Galileo: Titán” [luna de Saturno]. Como no podía ser de otra forma, Hyugens nació “la madrugada de un sábado, [que] para los holandeses [era] el día de Saturno.” Sus primeras investigaciones “tendrían escasa repercusión en la historia de las matemáticas, [pero] le granjearon la admiración de sus contemporáneos. [En] lugar de llaves y destornilladores, Huygens se servía del álgebra y la geometría. Todas sus pasiones concurrieron en ciertos inventos, como los telescopios y los relojes, surgidos en un cruce casi mágico entre la artesanía, la física y las matemáticas.”

“A finales de octubre de 1652, Huygens confesó [que] la dióptrica [de Kepler] me absorbe por completo.” El autor aprovecha para presentarnos un breve curso de óptica geométrica y su aplicación a las lentes ópticas. “Los telescopios nacieron aquejados de dos enfermedades ópticas, la aberración esférica y la aberración cromática. [Huygens] completó en dos años el primer borrador, [con un] centenar de páginas, [de] su interpretación matemática de la dióptrica. [En] marzo de 1665, [tras] un año de esfuerzos, [su hermano] Constantijn y Christiaan completaron el montaje de su primer telescopio, que medía 4 m de largo y proporcionaba 43 aumentos. [El] 25 de marzo de 1665 [advirtió] la presencia de un punto brillante en la vecindad del planeta [Saturno]. Noche tras noche siguió su evolución. [El] joven Christiaan había estrenado su telescopio con el mayor descubrimiento astronómico desde Galileo.”

Dibujo20150829 Tilt Saturn rings seen from Earth - huygens - rba - david blanco

“A mediados de marzo de 1656 salía de la imprenta De Saturni luna observatio nova (‘Nuevas observaciones de la luna de Saturno’), [que] proclamaba el descubrimiento de Titán.” Además, escondía un anagrama con la solución al mayor problema asociado a la enigmática forma en el telescopio de este planeta. En el capítulo 2, “El enigma de Saturno” [pp. 49-84], aparece la solución: “En el verano de 1659, [se] publicó Systema Saturnium, que ofrecía la solución al anagrama: ‘Lo rodea un anillo plano y delgado, que no lo toca en ningún punto, inclinado respecto a la eclíptica’.” Las mutaciones de Saturno se explican por el ángulo del eje de rotación del planeta y porque “los planos que contienen las órbitas de la Tierra y de Saturno no coinciden, lo que nos sitúa a veces ‘por encima’ de Saturno y otras, ‘por debajo’.” El libro contiene gran número de figuras que aclaran estas ideas.

“Con pequeños ajustes a su modelo, Huygens consiguió predecir las siguientes mutaciones de Saturno con una exactitud sin precedentes. El Systema Saturnium se puede considerar como una digna continuación del Siderius nuncius de Galileo. [Incluye] observaciones de Júpiter y de la nebulosa de Orión.” Usando un micrómetro Huygens estimó el diámetro de los planetas, comparado con el del Sol. Acaba un capítulo con un resumen de la historia hasta la actualidad de nuestro conocimiento sobre los anillos de Saturno.

El capítulo 3, “La esencia escurridiza de la luz” [pp. 85-118], nos presenta a Huygens en París, invitado por el Rey Sol, como un científico hiperactivo. Protagoniza el capítulo una roca misteriosa, el espato de Islandia, una variedad de calcita transparente que presenta birrefringencia, es decir, que tiene una doble refracción. Un rayo incidente que la atraviesa se divide en dos rayos, “uno se ajusta a la ley de Snell [de los senos], el ‘rayo ordinario’, y el otro no, el ‘extraordinario’. [Sin embargo,] al incidir en un segundo [espato] los rayos no se dividían.” Hoy sabemos que la razón es la polarización de la luz. Huygens escribió su segundo eureka en agosto de 1677.

Dibujo20150829 Refraction aperture Huygens-Fresnel principle - wikipedia commons

“En 1679 [presentó] su Tratado sobre la luz, [pero] no lo publicó hasta diez años después. [Huygens] postuló la existencia de una materia sutil e invisible, el éter. [Las] partículas de un cuerpo luminoso se agitan y colisionan contras las partículas de éter de su entorno inmediato, comunicándoles su agitación. [A] escala microscópica, el modelo de Huygens despliega un colosal juego de billar en tres dimensiones. [Lo que él] atribuía a la palabra ‘onda’ no coincide con el que asumieron científicos posteriores. [La] pieza clave de su [modelo] es el llamado ‘principio de Huygens': cada partícula afectada por un frente luminoso se transforma a su vez en el origen de un nuevo frente” (pero siempre en dirección hacia adelante, nunca hacia atrás).” Este modelo permitió explicar la birrefringencia del cristal de espato de Islandia.

“El tiempo en sus manos” [pp. 119-159], el último capítulo, nos habla de los relojes. “Huygens fue el primero en construir un reloj con la suficiente precisión para merecer el calificativo de instrumento científico. El diseño de su reloj de péndulo presenta otra perfecta simbiosis de geometría, física y mecánica. [Su] obra magna, el Horologium oscillatorium” nos lleva a su relación con Newton: “[Le] resultaba inconcebible que la materia ejerciera una atracción de forma instantánea por su mera presencia, sin ningún proceso de propagación. [Newton] y Huygens podían no ponerse de acuerdo en asuntos científicos, pero se respetaban.”

El cálculo infinitesimal de Newton y Leibniz fue fundamental para el diseño del reloj de péndulo. Huygens necesitaba una curva isócrona y “halló la solución teórica a su problema: [el] péndulo ideal [debía oscilar] siguiendo una cicloide. Ahora debía implementarla con los elementos que tenía a su disposición. [Jugó] matemáticamente con la naturaleza con el fin de forzar un verdadero movimiento periódico donde no lo había. Fue un hito en la historia de la ciencia. [La] quinta parte del Horologium se cierra con trece teoremas sin demostración sobre la fuerza centrífuga.” Huygens también ideó un reloj con resorte metálico que “permitía la fabricación de relojes de bolsillo, [pero] Hooke proclamó a los cuatro vientos que él había descubierto el reloj de muelle dieciséis años atrás y que el resorte de Huygens ‘no valía un penique’.

Dibujo20150829 Christiaan Huygens Clock - Horologii Oscillatorii - huygens - rba - david blanco

Finaliza el libro con el trabajo de Huygens sobre las colisiones elásticas entre bolas. “Hay que recalcar que se desenvolvió en un marco conceptual prenewtoniano. No empleó en ningún momento la noción de fuerza. [Su] análisis de las colisiones se puede considerar revolucionario, ya que marca el nacimiento de la física matemática. [A] la hora de imaginar a un físico en plena faena a uno le viene de inmediato a la mente una pizarra llena de ecuaciones. [Las] grandes hojas en las que apuntó sus cálculos sobre colisiones, en 1652, registran la primera vez que alguien escribió ecuaciones” en una pizarra. “Los cambios de perspectiva que animan De motu corporum ex percussione desprenden un fuerte aroma relativista. Un detalle que Einstein no pasó por alto.”

En resumen, “Huygens” me gusta menos que los otros dos libros, pero también está muy bien. He disfrutado con la lectura de estos libros mientras paseaba a mi mascota por las calles de Málaga. La verdad, se disfruta mucho más con un libro entre las manos.

La entrada Reseña: “Einstein”, “Schrödinger” y “Huygens” de David Blanco Laserna fue escrita en La Ciencia de la Mula Francis.

El LHC durante el mes de septiembre

$
0
0

Dibujo20150905 lhc schedule september 2015 - lhc cern

Ya ha acabado la parada técnica de cinco días de la primera semana de septiembre. El lunes deberían reanudarse las colisiones a 13 TeV c.m. con paquetes separados a 25 ns. Como ya conté, algunos problemas han reducido las expectativas para este año, el primero del LHC Run 2. Pero no hay que preocuparse demasiado, ya que el año próximo será espectacular.

Drew Day nos resume estos problemas en un comentario en el blog de Jester, “Weekend plot: SUSY limits rehashed,” Résonaances, 30 Aug 2015. Permíteme que te describa dichos problemas.

Dibujo20150905 ulo mb 15r8 lhc 29 apr 2015 - lhc cern

Hay un ULO en MB.15R8.B2 (trasparencia 27). Se llaman ULOs (Unidentified Lying Objects) a cualquier cosa que esté pegada en la parte interior de alguno de los tubos, quizás algo congelado, que desprende UFOs (Unidentified Falling Objects). Se estudió in situ a finales de abril de 2015 mediante un scanner (transparencias de D. Mirarchi). Se han tomado varias medidas para mitigarlo, pero puede seguir dando problemas conforme se incremente el número de paquetes por haz.

Por cierto, quizás te preguntes dónde está el punto MB.15R8.B2. Hay dos tubos, uno por cada haz; el ULO está en el tubo del haz 2 (B2). El LHC está dividido en 8 octantes con puntos de interacción entre ellos, donde están los detectores; cada octante se divide en dos semioctantes, a la izquierda (L) y a la derecha (R) de cada punto de interacción. R8 se refiere al semioctante que está en la parte derecha (R) del punto de interacción 8 (donde está el detector LHCb). Cada semioctante tiene 34 semiceldas, formadas por tres dipolos y un cuadripolo. El número 15 se refiere a la semicelda 15 (en este caso del semioctante R8).

Dibujo20150905 lhc bunch structure - 2015 - lhc cern

En 2013, se descubrió que los TDI no cumplen con las especificaciones de fabricación (transparencia 6). Esto limita el número total de paquetes que se pueden inyectar, reduciendo el número máximo de diseño 2808 a un número cercano a ~2500. Por ahora no es un problema, pero será una limitación pues no se podrá alcanzar la luminosidad instantánea máxima de diseño. Por cierto, los TDI (LHC injection beam stopper) son una especie de colimadores que actúan como sistema de protección de LHC durante el proceso de inyección de paquetes.

Dibujo20150905 doublet scrubbing beam - pyecloud simulation - lhc cern

El sistema de limpieza del interior de los tubos (scrubbing) que usa “paquetes dobles” no ha funcionado tan bien como se esperaba según las simulaciones por ordenador (transparencia 31). Esto significa que será necesario limpiar (scrub) más a menudo de lo esperado cuando se usen haces con paquetes separados a 25ns. Los expertos están estudiando cómo mejorar el sistema de limpieza pero no es fácil.

Dibujo20150905 doublet scrubbing - pyecloud simulation - lhc cern

Por cierto, el sistema Doublet scrubbing consiste en provocar una inestabilidad en los paquetes (bunches) de protones reduciendo el voltaje y la emitancia longitudinal; luego se cambia la fase de radiofrecuencia en 180 grados y se vuelve a subir el voltaje. Tras este proceso los paquetes se duplican en dos (llamados bunchlets). Se esperaba que este sistema mejorara la calidad de la limpieza interior de los tubos (más información).

Dibujo20150905 dqhsu - sqcsu - lhc run 2 - ls1 - lhc cern

Algunas de las ~ 1200 placas electrónicas con sistemas para la detección de problemas en los imanes superconductores (quench protection equipment) no son tan resistentes a la radiación como se esperaba (transparencias). Se instalaron durante la parada larga (LS1) entre 2013 y 2014. Al no funcionar bien se producen más cortes en los haces de los previstos. Durante la parada técnica de esta semana (TS2) uno de los objetivos ha sido reemplazar todos estas placas. Se espera que esto resuelva (o mitigue) el problema.

Además hay otros problemas menores cuyo análisis y solución posterior está reduciendo el número de días dedicados a colisiones para física (ya se han perdido dos semanas). Todo ello conlleva que este año se acumularán muchas menos colisiones (luminosidad integrada) de las esperadas. Por supuesto, esto no significa que los problemas vayan a continuar el año próximo. Y por supuesto, todos deseamos que el LHC Run 2 en 2016 funcione a las mil maravillas y compense los problemillas de este año.

La entrada El LHC durante el mes de septiembre fue escrita en La Ciencia de la Mula Francis.

La gran belleza de lo excepcional

$
0
0

Dibujo20150906 event 254833 cms experiment 2015 aug 22 cms lhc cern

El detector CMS del LHC ha observado un suceso candidato a par electrón-positrón con una masa invariante récord, casi 3 TeV. El modelo estándar predice este tipo de sucesos con muy baja probabilidad (se estiman 0,002 sucesos con una energía M(ee) > 2,5 TeV en los ~ 100 /pb de colisiones protón contra protón a 13 TeV en el LHC Run 2 que han sido analizadas). Por supuesto, un suceso candidato es solo eso, un único suceso candidato. Si no se observan más y si no se observan también en ATLAS, el otro gran detector del LHC, todo se quedará en nada. Bueno, en nada no, nos quedará un bello suceso para el recuerdo.

Este espectacular suceso fue observado el sábado 22 de agosto. Pero, como es obvio, con un solo suceso no se puede hacer estadística. Más información técnica en CMS Collaboration, “Event Display of a Candidate Electron-Positron Pair with an Invariant Mass of 2.9 TeV,” CMS DP -2015/039, 30 Aug 2015; se han hecho eco muchos blogs, como Tommaso Dorigo, “A 3 TeV Dielectron Event By CMS !,” AQDS, 03 Sep 2015; Luboš Motl, “CMS: a 2.9TeV electron-positron pair resonance,” TRF, 03 Sep 2015; y muchos más.

Dibujo20150906 cms experiment 2015 aug 22 cms lhc cern

Supongamos que este suceso fuera el primero de toda una serie de sucesos que observarán en los próximos meses. ¿Qué puede ser este suceso? Lo más razonable es que su origen fuese una nueva partícula similar al bosón vectorial Z, un bosón Z′. Casi todas las teorías de gran unificación (GUT) predicen la existencia de nuevas simetrías U(1) en el modelo estándar; por ejemplo, la teoría de cuerdas prefiere una GUT E6 que se rompe a baja energía en el producto de grupos gauge SU(3)×SU(2)×U(1)×U(1). El bosón vectorial neutro asociado a dicha simetría U(1) se suele llamar Z′ y ha sido descartado en las colisiones del LHC Run 1 con una masa menor de 1,8 TeV. Por tanto, no se descarta su existencia con una masa de casi 3,0 TeV.

Dibujo20150906 two other views of event 254833 cms experiment 2015 aug 22 cms lhc cern

El análisis cinemático de este suceso indica que tiene una masa invariante de 2,9 TeV. Esta es la masa que tendría una partícula que en reposo se hubiera desintegrado en los dos electrones (no sabemos cuál es el electrón y cuál es el positrón) que se han detectado en los calorímetros electromagnéticos de CMS. La energía de los dos electrones (1,28 y 1,26 TeV) es muy similar lo que sugiere un origen común. Todo en este suceso es muy sugerente, de ahí su belleza.

Ahora mismo CMS ha acumulado unos 200 /pb de datos. Como dice Dorigo, bajo la hipótesis de que no es un suceso espurio, o hemos tenido mucha suerte, o pronto habrá noticias de nuevos sucesos similares. Por supuesto, Motl interpreta este suceso como una primera señal de la validez de la teoría de cuerdas; de hecho, ya ve señales de un bosón W′ a 2,1 TeV, un Z′ a 2,9 TeV y un segundo Higgs a 5,2 TeV (“Signals at 2,3,5TeV as the new W′, Z′, Higgs’ bosons,” TRF, 05 Sep 2015).

En mi opinión, tanto Dorigo como Motl son muy optimistas. En el LHC Run 2 serán habituales este tipo de sucesos “únicos” que cual rara avis no se repetirán. Ya pasaba con el Tevatrón y pasará mucho más con el LHC conforme vaya envejeciendo. Las falsas alarmas son el día a día en física de partículas (y en general en big science). Por supuesto, espero equivocarme.

La entrada La gran belleza de lo excepcional fue escrita en La Ciencia de la Mula Francis.


El paragrafeno: la predicción teórica del penta-hexa-hepta-grafeno

$
0
0

Dibujo20150906 paragraphene - dirac cone - nl-2015-02512u_0004 - pubs acs org

El grafeno es el alótropo bidimensional más estable del carbono. Sin embargo, se pueden concebir otros alótropos bidimensionales del carbono con una estructura con pentágonos, hexágonos y heptágonos de grafeno, llamados grafinos (graphynes). Se publica en la revista Nano Letters un estudio computacional de las propiedades electrónicas del penta-hexa-hepta-grafeno, bautizado como paragrafeno. El estudio predice que este nuevo alótropo bidimensional del carbono es el más estable de todos los grafinos, casi tanto como el grafeno.

Las propiedades electrónicas del paragrafeno son similares a las del grafeno. También permite la conducción de electricidad mediante cuasipartículas de tipo fermión de Dirac sin masa, aunque con ciertas diferencias. Los conos de Dirac en la estructura de bandas del paragrafeno se pueden inclinar aplicando tensión mecánica, algo imposible con el grafeno, luego la velocidad (de Fermi) de las cuasipartículas se puede controlar (al menos en teoría). Gracias a ello el paragrafeno podría encontrar un nicho tecnológico específico que no compita con el del grafeno.

Por supuesto, una predicción teórica es solo eso, una predicción teórica. Sintetizar en laboratorio el nuevo alótropo no será nada fácil y su fabricación será todo un alarde técnico (nada que ver con exfoliar el grafito). El artículo es Zhenhai Wang et al., “Phagraphene: A Low-Energy Graphene Allotrope Composed of 5–6–7 Carbon Rings with Distorted Dirac Cones,” Nano Letters, AOP 11 Aug 2015, doi: 10.1021/acs.nanolett.5b02512.

Dibujo20150906 paragraphene - band structure - nl-2015-02512u_0002 - pubs acs org

El paragrafeno ha sido descubierto en una búsqueda sistemática por ordenador de grafinos de gran estabilidad. Se trata del grafino de menor energía de todos los estudiados (salvo el grafeno); la energía por átomo para el grafeno es −9,23 eV/atom, mientras que para el paragrafeno es de −9,03 eV/atom, siendo el siguiente el llamado δ-grafino con −8,49 eV/atom. Lo más interesante es su estructura de bandas electrónicas, que se ha determinado por dos métodos: DFT (Density Functional Theory) y TB (Tight Binding). Como ilustra esta figura ambos métodos dan un resultado similar. Dos bandas se cruzan en el nivel de Fermi (cerca del punto Y) dando lugar un cono de Dirac.

Dibujo20150906 double dirac cone - paragraphene - band structure - nl-2015-02512u_0003 - pubs acs org

La celda unidad en el grafeno está formada por dos átomos y en la zona de Brillouin tiene dos puntos con sendos conos de Dirac (de ahí que propague fermiones de Dirac sin masa). El paragrafeno también tiene dos puntos con sendos conos de Dirac en la línea Γ–Y−Γ, como ilustra esta figura (los dos cruces de las curvas marcadas con I y II). Recuerda que la estructura de bandas (relación de dispersión para las cuasipartículas) es tridimensional y no se puede dibujar; lo habitual es tomar una serie de puntos clave, que se conectan con líneas y se dibujan las bandas sobre dichas líneas.

Lo sorprendente del paragrefeno es que cambia su estructura de bandas cuando es sometido a tensión mecánica (cuando se estira). En esta figura se ve el cambio al estirar un 5% en dos direcciones diferentes (llamadas a1 y a2). Esto no se puede hacer con el grafeno, luego supone una ventaja para el paragrafeno y quizás le permita encontrar un nicho tecnológico.

Pero, como siempre, no contemos el cuento de la lechera antes de tiempo. Con los aislantes topológicos, primero vino la predicción teórica y al poco tiempo su descubrimiento experimental. Pero dicho caso es muy excepcional, lo habitual en ciencia de los materiales es que primero se haya fabricado el material y luego se analicen sus propiedades. Fabricar un material como el paragrafeno parece extremadamente difícil con la tecnología actual. Aunque quien sabe, lo mismo la Naturaleza nos ofrece un bonito regalo y resulta que el paragrafeno se puede formar de modo espontáneo en la combustión de materiales formados por carbono. En dicho caso, ahora que sabemos qué propiedades tiene, lo podremos buscar y quizás la suerte nos sonría.

La entrada El paragrafeno: la predicción teórica del penta-hexa-hepta-grafeno fue escrita en La Ciencia de la Mula Francis.

Francis en #rosavientos: La Tierra tiene más de 3 billones de árboles

$
0
0

Dibujo20150905 Map of data points and raw biome-level forest density data - nature14967-f1

Ya está disponible el audio del podcast de Eureka, mi sección en La Rosa de los Vientos de Onda Cero. Como siempre, una transcripción, unos enlaces y algunas imágenes.

El primer mapa detallado de la densidad de árboles en nuestro planeta viene con dos noticias, una buena y una mala. La buena es que hay muchos más árboles de los que se pensaba, unos tres billones. La mala es que los humanos destruimos unos 15 mil millones de árboles cada año y que el número de ejemplares se ha reducido en un 46 % desde que existe nuestra civilización. Publicado por la revista Nature, el estudio estima que hay 422 árboles por cada persona. Los árboles son críticos en la Tierra: almacenan grandes cantidades de carbono, son esenciales para el ciclo de nutrientes, para la calidad del agua y el aire, y muchas más cosas. Las mayores densidades de árboles se encuentran en los bosques boreales subárticos, pero las mayores extensiones se encuentran en los trópicos, que albergan el 43% de todos los árboles del planeta (el 24% está en las zonas boreales y el 22% en las zonas templadas). El nuevo estudio nos recuerda la importancia capital de los árboles en el cambio climático y la salud humana en el futuro.

El artículo es T. W. Crowther et al., “Mapping tree density at a global scale,” Nature, AOP 02 Sep 2015, doi: 10.1038/nature14967. Más información en Henry B. Glick, Thomas Crowther, “How we found out there are three trillion trees on Earth,” The Conversation, 03 Sep 2015; Annie Hauser, “Study: Humans Have Halved the Number of Trees on Earth,” Weather.com, 03 Sep 2015.

En español puedes leer también a Antonio Martínez Ron, “La Tierra ha perdido la mitad de sus árboles desde que hay humanos,” Next, Voz Pópuli, 02 Sep 2015; Araceli Acosta, “El planeta tiene más de 3 billones de árboles,” Ciencia, ABC, 03 Sep 2015.

Dibujo20150905 The global map of tree density 1 sq km - nature14967-f2

Tras un verano tórrido, viene a la cabeza el cambio climático. La desforestación es unas de las causas del cambio climático. Los árboles desempeñan un papel crucial en la absorción de CO2 (un gas de efecto invernadero). ¿Sabemos cuántos árboles hay en en la Tierra? Los árboles ocupan gran parte de la superficie de tierra firme de nuestro planeta. Vemos árboles a diario, tanto grandes como pequeños. Los árboles desempeñan un gran número de funciones en los diferentes ecosistemas. La ecología forestal usa imágenes de satélite para estudiar la superficie cubierta por bosques, pero determinar el número de árboles, es decir, su densidad, no es fácil usando solamente imágenes de satélite. Se ha publicado esta semana en la prestigiosa revista Nature el primer estudio científico que estima con rigor y precisión la densidad de árboles y con ella su número total en todo el planeta. Durante dos años de investigación usando técnicas de big data se ha acumulado y analizado una ingente cantidad de datos (429.775 estimaciones de la densidad de árboles tomadas a pie de tierra en más de 50 países de todos los continentes) y estos datos se han comparado con las imágenes de satélites. El resultado es sorprendente, hay unos 3,041 ± 0,096 billones de árboles en todo el mundo, es decir, unos 422 árboles por habitante en la Tierra. Este número ha sido una sorpresa porque es unas siete veces mayor que el que se calculó en el año 2005, aunque sólo se usaron imágenes de satélites, aquella estimación de unos 400 mil millones de árboles, o unos 61 árboles por persona, se ha quedado muy corta. De hecho, otro estudio publicado en la revista Science en 2013 estimaba que había 390 mil millones de árboles solamente en la cuenca del Amazonas. Por ello, muchos expertos creen que el nuevo valor es mucho más fiable que el anterior, aunque sea 7 veces más grande.

El estudio sobre el Amazonas es Hans ter Steege et al., “Hyperdominance in the Amazonian Tree Flora,” Science 18 October 2013: Vol. 342: 6156, 18 Oct 2013, doi: 10.1126/science.1243092.

Dibujo20150905 map Amazonia location 1430 ATDN plots - science-mag

Hay más árboles de los que se pensaba, lo que parecen buenas noticias. Pero la desforestación sigue siendo un grave problema en muchas regiones del mundo, ¿qué nos dice el nuevo estudio sobre el efecto de la desforestación? El nuevo estudio, liderado por el experto en ecología forestal Thomas Crowther, de la Universidad de Yale, EEUU, tiene como objetivo fundamental determinar con precisión los cambios en la densidad de los árboles en las diferentes regiones de la Tierra. Se ha realizado un análisis multifactorial para determinar qué parámetros son los que más influyen. La densidad de árboles aumenta con la temperatura y la humedad disponible en un ecosistema. Pero se ha descubierto que el factor más relevante que afecta a la densidad de árboles es la desforestación, tanto para obtener madera, como para transformar la tierra para la agricultura. El impacto antropogénico es el factor más importante para determinar la densidad de árboles en todos los biomas del planeta. El nuevo estudio estima que los humanos causan una pérdida neta de unos 15.300 millones de árboles al año. Más aún, se estima que el número total de árboles se ha reducido en un 45,8 % desde el comienzo de la civilización humana moderna (hace unos 12.000 años cuando comenzó la agricultura).

Dibujo20150905 The global map of tree density - nature14967-f2

Sin lugar a dudas son malas noticias. Resulta curioso que obteniendo un mapa global de la densidad de los árboles se puede saber qué efecto ha tenido la civilización humana durante su historia. ¿Cómo se ha determinado el ritmo de pérdida de cubierta forestal? Los investigadores liderados por Thomas Crowther de la Universidad de Yale, EEUU, han usado la base de datos del Programa de las Naciones Unidas que cuantifica la superficie forestal de la Tierra después de la última edad de hielo. Estos datos se obtienen ajustando las observaciones geofísicas y antropometricad mediante modelos por ordenador. Se considera que su método es muy fiable, pero no incluye mapas específicos de la densidad de árboles. Los autores del nuevo estudio han realizado una estimación propia de la tasa de pérdida de árboles a partir de estos datos de Naciones Unidas. Gracias a ello han observado que la pérdida de árboles ha sido más alta en las regiones tropicales, pero se observa en todos los ecosistemas de la Tierra. Ajustando la estimaciones teniendo en cuenta el número de árboles, la escala de este efecto es similar y consistente en todos los biomas forestales. Por ello, los autores del estudio concluyen que la causa de la pérdida de árboles sido las decisiones históricas sobre el uso del suelo, sobre todo en relación a la agricultura, políticas de gestión forestal que han acabado dando forma a todos los ecosistemas naturales en nuestro planeta.

Dibujo20150905 Estimates of the total tree number for each of the biomes that contain forested land, as delineated by The Nature Conservancy - nature14967-t2

Se han obtenido mapas de la densidad de árboles en todo el planeta. Por la radio es difícil ilustrar un mapa, pero ¿podemos resumir las conclusiones más importantes de dichos mapas? Los mapas detallados obtenidos en este nuevo estudio publicado en Nature para las diferentes regiones del mundo muestran que las mayores densidades de árboles se alcanzan en las bosques boreales de las regiones subárticas, en Rusia, Escandinavia y Norteamérica. En estas regiones los bosques son muy compactos y solo el 24,2 % de todos los árboles se encuentran en estas zonas boreales. El mayor número de árboles se encuentra en las regiones con climas más cálidos y con bosques más extensos, en concreto, las zonas tropicales y subtropicales, que albergan el 42,8 % de todos los árboles del planeta; el 21,8 % se encuentra en las zonas templadas y el 11% se encuentra en el resto del planeta. Los resultados del nuevo estudio ilustran también cómo cambia la densidad según el tipo de bosque. Por supuesto, serán necesarios futuros estudios que permitan comprender mejor el papel que juegan los árboles en nuestro mundo y cómo evolucionan bajo la presión antropogénica. Todavía quedan muchos interrogantes. El número de árboles es sólo una pieza del rompecabezas. Un árbol en la tundra no es lo mismo que un árbol en la selva. Los árboles son esenciales tanto para los ecosistemas del planeta como para el futuro de la salud humana. Hemos reducido casi a la mitad el número de árboles en el planeta en 12.000 años. Esto implica un gran impacto sobre el clima cuyas consecuencias futuras aún desconocemos. El nuevo estudio publicado en Nature nos recuerda que debemos intensificar los esfuerzos para proteger y restaurar los bosques en todo el mundo.

La entrada Francis en #rosavientos: La Tierra tiene más de 3 billones de árboles fue escrita en La Ciencia de la Mula Francis.

La respuesta de varios físicos a la propuesta de Hawking

$
0
0

Dibujo20150908 gargantua black hole - interstellar movie

Varios físicos han escrito artículos sobre la reciente propuesta de Stephen W. Hawking para resolver la paradoja de la información en los agujeros negros gracias a las supertraslaciones y el grupo BMS. Todo el mundo tiene claro que la dimensión infinita de este grupo de simetrías permite almacenar una cantidad infinita de entropía en el horizonte. Sin embargo, por ahora, nadie sabe como construir una teoría cuántica coherente que reproduzca la entropía (finita) de Bekenstein–Hawking. Quizás el futuro artículo de Hawking, Perry y Strominger nos desvele una solución usando el paradigma de la teoría de cuerdas.

Recomiendo leer la transcripción de la charla en youtube de S. W. Hawking, “The Information Paradox for Black Holes,” arXiv:1509.01147 [hep-th]. También los artículos de Gerard ‘t Hooft, “Diagonalizing the Black Hole Information Retrieval Process,” arXiv:1509.01695 [gr-qc], y Gia Dvali, Cesar Gomez, Dieter Luest, “Classical Limit of Black Hole Quantum N-Portrait and BMS Symmetry,” arXiv:1509.02114 [hep-th].

Sobre supertraslaciones (y su conexión con ondas gravitacionales) recomiendo Michael Boyle, “Transformations of asymptotic gravitational-wave data,” arXiv:1509.00862 [gr-qc], que incluye un software para calcularlas.

Dibujo20150908 stephen hawking - gerard t hooft - stockholm - kth

El primero en apuntarse a la propuesta de Hawking ha sido el Premio Nobel Gerard ’t Hooft, uno de los padres del principio holográfico en gravitación. El grupo de Bondi–Metzner–Sachs (BMS) generaliza el grupo de Poincaré (P) sustituyendo las traslaciones por supertraslaciones, es decir, traslaciones que dependen del ángulo. En símbolos, una supertraslación ST(a) es una transformación (u, θ, φ) → (u + a(θ, φ), θ, φ); recuerda que una traslación es T(a): (u, θ, φ) → (u + a, θ, φ). En el infinito, un espaciotiempo asintóticamente plano es invariante ante supertraslaciones (ST) y ante el grupo de Lorentz (L), es decir, bajo el grupo BMS = ST⊗L; uno de cuyos subgrupos es el grupo de Poincaré P = T⊗L.

Para intuir el concepto de supertraslación se suele poner el siguiente ejemplo: si rodeas un objeto que emite ondas gravitacionales con una distribución esférica de satélites, cada uno de ellos se mueve al paso de estas ondas, siendo su movimiento una traslación y al mismo tiempo una rotación, es decir, una supertraslación. De hecho, el grupo BMS es muy usado por los expertos en ondas gravitacionales, pero no parecía jugar ningún papel en la física básica de los agujeros negros; al menos, hasta los recientes trabajos de Andrew Strominger y varios colegas que han inspirado a Hawking.

Dibujo20150908 no-hair theorem - black holes

Con toda seguridad habrás oído hablar del teorema que afirma que los agujeros negros no tienen pelo. Este teorema afirma que el único “pelo” es el permitido por el teorema de Noether aplicado al grupo de Poincaré, es decir, la masa, el momento angular y las cargas asociadas a campos cuánticos de alcance infinito (como la carga eléctrica asociada al campo electromagnético). La idea de Hawking es que los agujeros también admiten como “pelo” el permitido por el teorema de Noether aplicado al grupo BMS, es decir, infinitas “cargas” tipo momento angular. Las cargas BMS son una generalización del concepto de momento angular que comparten con este que son muy difíciles de imaginar o intuir.

Todavía no disponemos de una descripción cuántica de las cargas BMS, pero sabemos que deberá incluir el efecto de la retrorreación (back-reaction) del campo gravitacional. En opinión de ‘t Hooft esta retrorreacción cuántica podría limitar el número de cargas BMS a un número finito. Y en su opinión, dicho número debería coincidir con la entropía de Bekenstein–Hawking. Su artículo (arXiv:1509.01695 [gr-qc]) presenta algunos argumentos físicos y matemáticos que apoyan su opinión. Su idea es salvar la complementaridad en los agujeros negros que el argumento AMPSS de los muros de fuegos (firewalls) parece contradecir.

Los argumentos de ‘t Hooft se basan en teoría de cuerdas. Su idea más sugerente es que el horizonte de sucesos es la hoja del mundo (worldsheet) de cuerdas que almacenan la información del objeto cuyo colapso da lugar al agujero negro. Pero estas cuerdas no son “ordinarias” (las usuales en teoría de cuerdas), sino objetos unidimensionales (quizás algún tipo de 1-branas) que codifican las cargas BMS. Por desgracia, sus argumentos son poco rigurosos y aún no es posible usarlos para calcular nada. Quizás físicos más jóvenes se puedan inspirar en sus ideas y llevarlas hasta buen puerto.

Dibujo20150908 Effect of space translation on coordinates of future infinity - boyle - arxiv

Los argumentos de Dvali, Gómez y Lüst (arXiv:1509.02114 [hep-th]) también son sugerentes, pero son (semi)clásicos dadas las enormes dificultades de un tratamiento cuántico riguroso. El horizonte de sucesos sería similar a un condensado tipo Bose–Einstein de gravitones que almacenaría N cubits de información cuántica en grados de libertad de Bogoliubov–Goldstone. En esta analogía de materia condensada el espaciotiempo plano de Minkowski emerge como un estado condensado de N = ∞ gravitones. En su opinión, los modos de Bogoliubov–Goldstone aparecen vía la rotura de la simetría BMS asociada a las supertraslaciones; esta rotura estaría provocada por la presencia del agujero negro.

Por supuesto, un número finito es más pequeño que un número infinito y la catástrofe ultravioleta nos enseñó a principios del siglo XX que la física cuántica puede volver finitas cantidades que en física clásica son infinitas. Pero estos argumentos, bien conocidos por todo el mundo, son los únicos que aportan en rigor todos los artículos que están ofreciendo quienes siguen la estela de Hawking. Quizás es muy pronto para esperar más, pues los cálculos en gravedad cuántica no son fáciles (incluso en el límite cuasiclásico).

Los ejercicios de ‘t Hooft y Dvali et al., por muy sugerentes que sean, por ahora, se quedan en nada. La única esperanza es que inspiren a jóvenes físicos teóricos a atacar el problema con nuevos ojos. Aunque quizás haya que esperar al as en la manga que afirma esconder Hawking. El gran genio de la segunda mitad del siglo XX ha demostrado en muchas ocasiones que sus intuiciones son acertadas y sus ideas son muy profundas. Habrá que esperar.

Dedicatoria: Este post está dedicado a la física bloguera Laura Morrón aka @lauramorron. Os recomiendo leer sus historias de la historia de la ciencia en su blog Los mundos de brana, así como sus colaboraciones en otros blogs y medios.

La entrada La respuesta de varios físicos a la propuesta de Hawking fue escrita en La Ciencia de la Mula Francis.

Naukas Bilbao 2015: Superredes de grafeno (y aislantes topológicos de Weyl)

$
0
0

Dibujo20150910 naukas 2015 - superredes grafeno - semimetales de weyl

Ya está disponible el vídeo de mi charla del viernes, 11 de septiembre, a las 11:20 en Naukas Bilbao 2015. Pronto estará disponible el vídeo. Mientras tanto, puedes disfrutar de esta transcripción libre de la charla. ¡Qué la disfrutes!

Dibujo20150910 slide 2 - naukas 2015 - superredes grafeno - semimetales de weyl

El año 2015 será recordado en los libros de historia de la física por el descubrimiento de los aislantes topológicos que son semimetales de Weyl. Los aislantes topológicos son materiales tridimensionales cuyo interior es aislante, pero que conducen la electricidad por su superficie como si esta fuera una hoja bidimensional de grafeno. El grafeno es un semimetal de Dirac y hay aislantes topológicos que son semimetales de Dirac. Este año se han descubierto los aislantes topológicos que son semimetales de Weyl.

Dibujo20150910 slide 3 - naukas 2015 - superredes grafeno - semimetales de weyl

La conductividad eléctrica en un material se explica mediante la teoría de bandas. Los niveles energéticos de un átomo se duplican en una molécula formada por dos átomos idénticos, se triplican con tres átomos y se multiplican por trillones cuando tenemos trillones de átomos. Los niveles energéticos se transforman en bandas de energía. El último nivel energético del átomo ocupado por electrones da lugar a la banda de valencia. El siguiente nivel energético, que está vacío, da lugar a la banda de conducción. Los electrones se mueven como ondas parecidas a partículas, que se llaman cuasipartículas.

Dibujo20150910 slide 4 - naukas 2015 - superredes grafeno - semimetales de weyl

Si las bandas de conducción y de valencia se solapan o se tocan tenemos un conductor (un metal). Si están separadas por una banda prohibida estrecha tenemos un semiconductor, como el silicio, pero si la banda prohibida es ancha tenemos un aislante, como el diamante.

Dibujo20150910 slide 5 - naukas 2015 - superredes grafeno - semimetales de weyl

El diagrama de bandas del diamante muestra que es un aislante, ya que tiene una banda prohibida (la zona rosada donde se encuentra el nivel de Fermi, la energía más alta de los electrones en el cero absoluto de temperaturas). La estructura de bandas de un material es tridimensional y para dibujarla se eligen una serie de puntos, que se conectan con líneas y se dibujan las bandas a lo largo de dichas líneas. En el diamante cada átomo de carbono está unido a otros cuatro átomos de carbono mediante orbitales híbridos sp³ y es un aislante. [01:00]

Dibujo20150910 slide 6 - naukas 2015 - superredes grafeno - semimetales de weyl

Sin embargo, el grafito es un buen conductor de la electricidad. El grafito está formado por hojas de grafeno unidas débilmente entre sí. En el grafeno cada átomo de carbono se une a otros tres átomos de carbono mediante orbitales híbridos sp² (enlaces muy fuertes que permiten exfoliar el grafito para extraer grafeno). La estructura hexagonal del grafeno son dos redes triangulares superpuestas; mirad el círculo verde, si mueves un átomo en azul y lo colocas sobre uno rojo, los hexágonos no se superponen. La celda unidad del grafeno está formado por dos átomos de carbono.

Dibujo20150910 slide 7 - naukas 2015 - superredes grafeno - semimetales de weyl

El grafeno es muy buen conductor gracias a los electrones de cada átomo de carbono que no se encuentran en los orbitales híbridos sp². Estos electrones forman enlaces tipo pi y pi*. Las bandas electrónicas asociadas a estos enlaces pi y pi* (dibujadas en azul) se cruzan en dos lugares (círculos verdes), llamados puntos de Dirac (K y K’), asociados a los dos átomos de carbono de la celda unidad. [Fuente: Allan MacDonald (University of Texas & KITP), “Chirality & Correlations in Graphene,” KITP Workshop, 10 Jan 2007; slides PDF]

Dibujo20150910 slide 8 - naukas 2015 - superredes grafeno - semimetales de weyl

En los puntos K y K’ la estructura de bandas del grafeno tiene forma de doble cono (los conos de Dirac). En la celda unidad del grafeno hay dos conos de Dirac. En un semiconductor las bandas son curvas y las cuasipartículas tienen masa efectiva. Sin embargo, en el grafeno hay una relación lineal entre la energía y el momento, similar a la de las partículas sin masa en relatividad, como los fotones. Luego las cuasipartículas en el grafeno se comportan como partículas sin masa que se mueven a la velocidad más rápida posible en el material, la velocidad de Fermi [unas 300 veces menor que la velocidad de la luz en el vacío].

Dibujo20150910 slide 9 - naukas 2015 - superredes grafeno - semimetales de weyl

La función de onda cuántica para las cuasipartículas en el grafeno tiene cuatro componentes divididas en dos parejas. Hay dos conos de Dirac (K y K’) y en cada uno hay dos bandas que se cruzan asociadas a las dos redes triangulares (A y B). Como resultado, la función de onda de las cuasipartículas en el grafeno tiene un (pseudo)espín igual a 1/2, igual que el electrón, y por tanto son fermiones de Dirac [sin masa]. Cada una de las parejas es un fermión de Weyl. [Fuente: Charles Kane, “Quantum Theory of Graphene,” pedagogical lecture; slides PDF].

Dibujo20150910 slide A - naukas 2015 - superredes grafeno - semimetales de weyl

Un material aislante puede conducir electricidad por su superficie gracias al efecto Hall cuántico (entero) al aplicar un campo magnético externo. Los electrones se muevan en órbitas (ciclotrónicas) circulares, salvo en la superficie donde solo pueden describir un semicírculo. Gracias ello se mueven en la superficie todos en la misma dirección. Los físicos teóricos predijeron que podrían existir aislantes con un campo magnético intrínseco (generado por el acoplamiento espín-órbita de los electrones en átomos de la parte baja de la tabla periódica de los elementos). En estos materiales los estados superficiales se pueden mover en ambas direcciones, pero con el espín acoplado al momento, los que se mueven en una dirección tienen espín hacia arriba y los que se mueven en la otra dirección lo tienen hacia abajo (son cuasipartículas de quiralidad opuesta).

Dibujo20150910 slide B - naukas 2015 - superredes grafeno - semimetales de weyl

En el año 2014 se descubrieron los aislantes topológicos que son semimetales de Dirac, el grafeno 3D. La celda unidad (efectiva) en su superficie presenta una estructura muy parecida al grafeno y su diagrama de bandas presenta dos conos de Dirac. Por ello presentan estados superficiales que se propagan como cuasipartículas de tipo fermión de Dirac sin masa.

Dibujo20150910 slide C - naukas 2015 - superredes grafeno - semimetales de weyl

Este año 2015 se han descubierto aislantes topológicos con una estructura superficial diferente a la del grafeno. La celda unidad (efectiva) en su superficie presenta un único átomo y por tanto tienen un único cono de Dirac. La función de onda de sus cuasipartículas está descrita por una pareja de componentes y se comportan como fermiones de Weyl sin masa. Las leyes de la física [la rotura de la invariancia ante la simetría de inversión temporal] exigen que los fermiones de Weyl se generen siempre en parejas de quiralidad opuesta conectados por una arco de Fermi, es decir, como estados superficiales topológicamente protegidos.

Dibujo20150910 slide D - naukas 2015 - superredes grafeno - semimetales de weyl

La diferencia entre un aislante topológico y uno convencional es el número de veces que las bandas asociadas a los estados de conducción superficial cruzan el nivel de Fermi en la semicelda unidad [la mitad de la zona de Brillouin]. Si lo cruzan un número par de veces, tenemos un aislante convencional y estos estados no son robustos, ya que subiendo o bajando el nivel de Fermi [dopando el material] desaparecen. En un aislante topológico cruzan el nivel de Fermi un número impar de veces. Por tanto, son robustos, no se pueden destruir subiendo o bajando el nivel de Fermi.

Dibujo20150910 slide E - naukas 2015 - superredes grafeno - semimetales de weyl

¿Para qué sirven los invariantes topológicos de Weyl? Sabemos que sus cuasipartículas están topológicamente protegidas. Ambos fermiones de Weyl están conectados por un arco de Fermi que actúa como una cuerda. Si una perturbación localizada afecta a uno de los extremos de la cuerda no la destruye, sino que la acorta [el arco de Fermi]. Esta protección topológica promete ser útil en computación cuántica topológica. Los fermiones de Weyl tienen pseudoespín, luego también podrían ser útiles en espintrónica. Pero todavía no sabemos cuál será el nicho tecnológico de los aislantes topológicos de Weyl. Los acabamos de descubrir y seguro que nos reservan muchas sorpresas. La ciencia de materiales es apasionante. La ciencia es puro asombro.

La entrada Naukas Bilbao 2015: Superredes de grafeno (y aislantes topológicos de Weyl) fue escrita en La Ciencia de la Mula Francis.

La resaca tras Naukas Bilbao 2015

$
0
0

Dibujo20150916 francis - naukas15 - xurxomar

“Francis @emulenews, el hombre que se alimenta de grafeno, demostrando de manera sencilla en qué consiste el espín y zanjando así la cuestión.” Tras la resaca de Naukas Bilbao 2015, os recomiendo pasear por la Crónica Fotográfica Comentada de Naukas Bilbao 2015 del genial Xurxo Mariño (Google+).

La divulgación es una labor gratificante cuando, entre momentos frustantes, aparecen eventos deslumbrantes como Naukas Bilbao 2015. Mi agradecimiento más sincero a todos los que lo han hecho posible. Parece fácil cuando todo va como la seda, pero requiere un esfuerzo tan ingente que pocos se atreven a alcanzar las cotas de excelencia logradas el pasado fin de semana.

Podéis disfrutar del vídeo de todas las charlas en la web de EITB.eus, que ha hecho una labor impagable; la mejor manera de devolverles el favor es visitar su web y disfrutar de sus vídeos. Puedes disfrutar de todas las charlas del viernes (Naukas Bilbao 2015: 11 Sept) y las del sábado (Naukas Bilbao 2015: 12 Sept) seleccionándolas usando la barra de scroll en el lateral derecho. ¡Disfrútalas!

¡Gracias! ¡La pasión esté con vosotros!

Dibujo20150916 foto coral - naukas15 - xurxomar

No tengo palabras de agradecimiento. No sé qué seleccionar entre tanta excelencia. Por ello os propongo un poco de autobombo. Mis charlas pasadas…

“La búsqueda del bosón de Higgs,” Amazings Bilbao 2011, Paraninfo de la Universidad del País Vasco, Bilbao, España, 24 de septiembre de 2011.

“Los números que no se pueden calcular (Homenaje a Turing),” Amazings/Naukas Bilbao 2012, Paraninfo de la Universidad del País Vasco, Bilbao, España, 28 de septiembre de 2012.

Mesa redonda sobre inteligencia artificial, Amazings/Naukas Bilbao 2012, Paraninfo de la Universidad del País Vasco, Bilbao, España, 28 de septiembre de 2012. En la mesa estábamos Miguel Santander, Arturo Quirantes, Aberrón, J. Cuesta y un servidor.

Taller “El zoo de las partículas,” junto a Mario Herrero Valea (IFT UAM/CSIC, Universidad Autónoma de Madrid) y Arturo Quirantes Sierra (Universidad de Granada), Amazings/Naukas Bilbao 2012, Paraninfo de la Universidad del País Vasco, Bilbao, España, 28 de septiembre de 2012.

“Lo siento, Planck, pero no me lo creo,” Naukas Bilbao 2013, Paraninfo de la Universidad del País Vasco (UPV/EHU), Bilbao, España, 27 de septiembre de 2013.

“El timo del ordenador cuántico comercial,” Passion for Knowledge, Naukas Quantum 13, San Sebastián/Donostia, España, 02 de Octubre de 2013.

“Un buen polvo para un futuro premio Nobel,” Naukas Bilbao 2014, Paraninfo de la Universidad del País Vasco (UPV/EHU), Bilbao, España, 26 de septiembre de 2014.

“Superredes de grafeno (y semimetales de Weyl),” Naukas Bilbao 2015, Paraninfo de la Universidad del País Vasco (UPV/EHU), Bilbao, España, 11 de septiembre de 2015.

La entrada La resaca tras Naukas Bilbao 2015 fue escrita en La Ciencia de la Mula Francis.

Reseña: “La materia oscura” por Alberto Casas

$
0
0

Dibujo20150916 book cover - materia oscura - alberto casas - rba

“Este libro [describe] los esfuerzos teóricos y experimentales para comprender la materia y la energía oscuras. Se ha avanzado mucho, pero seguimos sin comprender su naturaleza ni el porqué de su existencia. Estos misteriosos ingredientes del universo siguen desafiando el ingenio y la curiosidad humana.” Así empieza el último párrafo del libro de Alberto Casas González, “La materia oscura. El elemento más misterioso del universo,” Un paseo por el cosmos, RBA (2015) [159 pp.]. No te dejes engañar por el título, no se trata de un libro sobre la materia oscura (discutida en un tercio del libro), sino también sobre la energía oscura (otro tercio) y sobre la historia de la cosmología moderna (un último tercio).

El libro me ha gustado (me lo he leído casi de un tirón), está bastante bien y te lo recomiendo (ahora se puede comprar en quioscos). Sin embargo, lo considero una oportunidad perdida por el autor. En muchos momentos recuerda demasiado a su libro “El lado oscuro del universo,” CSIC/Catarata (2013) [125 pp.] (breve reseña en LCMF), que también te recomiendo. La línea argumental es muy parecida y, la verdad, no entiendo, ni quiero entender, el porqué el autor no ha realizado un esfuerzo mayor para marcar una diferencia nítida entre ambos textos. Hay muchísimos temas que echo en falta y que me parecen casi imprescindibles en un libro sobre materia oscura. Una pena.

Sin embargo, el libro, como es habitual en Casas, muestra las grandes dotes de docente y divulgador del autor. Todos los conceptos se introducen con explicaciones muy detalladas y asequibles, casi, para todos los públicos. La verdad, empieza muy bien, pero va cayendo en “El lado oscuro del universo” conforme progresan los capítulos. Alberto, si lees esto, espero picarte para escribir un futuro libro sobre materia oscura que trate sobre materia oscura en exclusiva ;).

Dibujo20150916 author - materia oscura - alberto casas - elpais com - l s

El libro tiene una introducción, cinco capítulos y un listado de lecturas recomendadas (como viene siendo habitual en los libros de RBA Coleccionables). La introducción [pp. 7-11] parece apuntar a un libro sobre materia oscura, con una mención colateral a la energía oscura. Alberto se atreve a afirmar: “En el caso de la materia oscura [aún] carecemos de una detección directa que nos informe de sus características concretas. Así que puede decirse que estamos ‘a medio camino’ de su descubrimiento, y por ello en un momento excitante, tanto desde el punto de vista teórico como desde el experimental y observacional. [No solo] está ahí fuera, sino también aquí, entre nosotros, ya que se extiende por todo el universo. Su enigmática presencia despierta nuestra curiosidad y nos transmite con fuerza el mensaje de que nuestro conocimiento de la naturaleza es incompleto.”

Dibujo20150916 Dynamics in the satellite system of Triangulum  arxiv org 1206 5730 - materia oscura - alberto casas - elpais com - l s
Halo de materia oscura que conecta M33 (Galaxia del Triángulo) y M31 (Andrómeda). doi: 10.1093/mnras/sts392.

El capítulo 1, “El descubrimiento de la materia oscura” [pp. 13-35], parte de Eratóstenes en el siglo II a.C. y nos lleva hasta Vera Rubin. “El tamaño de la Tierra era bastante bien conocido desde el griego Eratóstenes, [pero] no se sabía nada acerca de su densidad. ¿Cómo se pudo determinar la masa de nuestro planeta?” Gracias al movimiento de la Luna podemos determinar el producto G M, y gracias al experimento de Cavendish el valor de la constante universal de la gravitación G. “¿Es posible determinar la masa de la Vía Láctea o cualquier otra galaxia? Sí, usando el mismo procedimiento que [usó] Newton para medir la masa del Sol: estudiando las velocidades de objetos (típicamente estrellas) que [la] orbitan. Rubin y Ford [usaron] la técnica del efecto Doppler. Lo que encontraron fue sorprendente.”

“La velocidad de las estrellas distantes [al centro de la galaxia] parecía ser siempre aproximadamente la misma. Rubin y Ford estudiaron unas sesenta galaxias, encontrando el mismo fenómeno una y otra vez. Típicamente, la masa visible (ordinaria) de una galaxia es del orden del 10% de la misma; el 90% restante es materia oscura. Existen galaxias pequeñas formadas casi por entero (en un 99%) por materia oscura. A nivel cósmico la proporción de materia oscura es algo menor: entre un 80% y un 85% de la materia total del universo.”

Dibujo20150916 MACS J1149 2223 Einstein cross - HST NASA ESA - materia oscura - alberto casas - rba
La cruz de Einstein de la supernova Refsdal. doi: 10.1126/science.aaa3350.

“Experimentos cósmicos” [pp. 37-58] nos habla de la teoría de la relatividad de Einstein y de las razones en contra de las teorías MOND. “La idea de algunos científicos fue que la ley de Newton dejaba de funcionar bien a grandes distancias, hipótesis con la que [simpatiza] la propia Vera Rubin, [un] efecto que parece debido a una materia oscura. [Las] teorías MOND, acrónimo inglés de Modified Newtonian Dynamics (dinámica newtoniana modificada) [supondrían] un descubrimiento todavía más importante que el de la propia materia oscura, de manera que [dicha] hipótesis es cualquier cosa menos conservadora. ¿Pero puede ser cierta? [Así como] la órbita anómala de Mercurio no se debía a ninguna materia oscura, sino a un fallo de la ley de Newton para planetas cercanos al Sol, ¿no podría ser que la ley de Newton fallara también para estrellas muy lejanas que orbitan alrededor de una galaxia?”

La respuesta la conocemos gracias al efecto de lente gravitacional, que “recuerda al que produciría una lupa o una gran bola de cristal. [La] mayor parte de la materia de los cúmulos de galaxias se encuentra en forma de gas. ¿Podemos despojar al cúmulo de su gas intergaláctico, y comprobar si sigue exhibiendo el mismo efecto de lente gravitacional? El llamado Cúmulo de la Bala [son] dos cúmulos galácticos en colisión. [Las galaxias] no se encuentran en el mismo sitio que las [nubes de gas]. El efecto de lente gravitacional [muestra que] la mayor parte de la materia de los cúmulos no está en las nubes de gas. En consecuencia, la hipótesis MOND no es sostenible. [El efecto de la materia oscura] debería aparecer [en] las nubes de gas, ya que es allí donde hay más masa ordinaria. El Cúmulo Bala es la prueba más impresionante y directa de la existencia de la materia oscura.”

Dibujo20150916 dark matter - cmb spectrum - uchicago edu - whu
Cómo cambia el espectro multipolar de la radiación de fondo cósmico de microondas con el contenido total de materia del universo. Wayne Hu (University of Chicago).

El capítulo 3, “El rastro de lo invisible en las reliquias del Big Bang” [pp. 59-92], describe la nucleosíntesis primordial y nos recuerda que “si la materia oscura fuera alguna forma de materia ordinaria, eso significaría que la densidad auténtica de materia ordinaria no sería la que observamos sino siete veces mayor. Pero entonces los cálculos de la nucleosíntesis primitiva para la abundancia de los elementos no concordarían en absoluto con las observaciones.” Tras ello pasa a describir la formación del fondo cósmico de microondas durante la recombinación. La explicación está bastante bien (y me recuerda mucho a “El lado oscuro del universo”).

En el espectro multipolar de la radiación cósmica de fondo (que Casas explica con una analogía acústica basada en el timbre de un instrumento musical) se “deduce de la altura del primer pico [que] la densidad de materia es aproximadamente un 32% de la densidad crítica. [La] altura del segundo pico [es] menor que la del primero, [estando] relacionada con la cantidad de materia ordinaria: [un] 5% de la densidad crítica. [Esto] significa que el 27% restante es un tipo de materia distinto de la ordinaria y que no interacciona con ella. [Entonces,] ¿dónde está el 68% que falta? [No] puede ser materia ordinaria ni materia oscura, sino que ha de ser ‘otra cosa’, y esa otra cosa es la energía oscura.”

Dibujo20150916 planck cmb multipole spectrum - esa planck
Espectro multipolar de las anisotropías del fondo cósmico de microondas del telescopio espacial Planck de la ESA.

Un libro sobre materia oscura escrito por un experto seguro que discutiría en detalle todas las propuestas actuales para explicar la materia oscura. Destacaría sus ventajas e inconvenientes, así como sus señales específicas que permiten su búsqueda en los experimentos y observatorios. Casas se limita a dos propuestas, WIMPs y axiones, que presenta (de forma muy breve) en su capítulo 4, “La naturaleza de la materia oscura. En busca de la ‘partícula X'” [pp. 93-126]. Sabemos que “la materia oscura interacciona muy débilmente con la materia ordinaria; no puede estar hecha de partículas ordinarias; deben ser partículas eléctricamente neutras; han de ser partículas muy estables, con una vida media de como mínimo 13800 millones de años; y tampoco parecen interaccionar mucho consigo mismas. La materia oscura no solo es invisible para nosotros sino también para ella misma.”

Tras presentar de forma breve el modelo estándar de las partículas y el efecto de la materia oscura en los procesos de formación galáctica, en la página 112 se nos presentan “algunos candidatos a materia oscura” (se acaba en la página 118). Por un lado, “partículas con una masa entre 10 veces y 1000 veces la masa de un protón, [con] solo interacciones débiles (una de las cuatro interacciones fundamentales). [Se llaman] WIMPs, acrónimo inglés de Weakly Interacting Massive Particles, o sea ‘partícula masiva con interacción débil’. [Son] los candidatos más estudiados. [Se menciona] otra propuesta, [los] modelos con dimensiones espaciales extra.” Y por otro lado, “los axiones [propuestos] para resolver un problema teórico del modelo estándar relacionado con la estructura de las interacciones fuertes. No podemos entrar aquí en los detalles técnicos.”

Dibujo20150916 dark matter candidates -  T Tait
Representación incompleta y resumida de los posibles candidatos a materia oscura. (C) T. Tait.

“La caza de la materia oscura” [pág. 118] se puede realizar por “detección directa, detección indirecta y producción [en colisionadores]. La detección directa [busca] observar la interacción entre las partículas de materia oscura y los núcleos atómicos [mediada] por el intercambio de bosones de Higgs. Este es un aspecto bastante técnico.” La verdad, no sé por qué Casas no profundiza en estos asuntos. Quizás le falta espacio pues lo gasta hablando de energía oscura. Una pena, porque el capítulo 4 podría haber dado para varios capítulos sobre un campo tan interesante y vasto como la materia oscura.

El capítulo 5, “La energía oscura y el destino del universo” [pp. 127-154], en mi opinión, sobra en un libro sobre materia oscura. Supongo que Casas no tenía tiempo para completar con rigor su encargo editorial y decidió tirar de “El lado oscuro del universo.” Nos cuenta que dos “grupos de investigadores se habían propuesto medir la ralentización de la expansión [cósmica]. El High-z Supernova Search Team y el Supernova Cosmology Project presentaron sus resultados en 1998, y desde entonces han sido confirmados por otros equipos: El universo está acelerando su expansión.”

Dibujo20150916 universe evolutoin -xabopoti blogspot com 2015 03 energia oscura

Tras discutir la constante cosmológica como una presión negativa, de ahí que provoque la aceleración de la expansión, se nos presenta el destino del universo. Casas nos recuerda que la energía oscura fue predicha en 1987 por Steven Weinberg (Premio Nobel de Física en 1979). Usó el principio antrópico para estimar que “la densidad de energía oscura sería distinta de cero, y con una magnitud no muy diferente a la densidad de materia, ¡y acertó!” Finaliza el libro hablando del multiverso. “La idea del principio antrópico asociada al multiverso para explicar la energía oscura es controvertida. A muchos físicos teóricos (¡incluido Weinberg!) no les gusta. [Sin embargo,] guste o no, la idea podría ser correcta.”

En resumen, me ha gustado el libro. Me gusta como escribe Alberto Casas, pero echo en falta una discusión más detalla sobre la materia oscura. Si el libro tiene un título debería ser respetado en su contenido. Habrá que estar atento a las próximas obras de la colección “Un paseo por el cosmos” de RBA. Muchos amigos y divulgadores han contribuido y en este blog acabarán teniendo una reseña.

La entrada Reseña: “La materia oscura” por Alberto Casas fue escrita en La Ciencia de la Mula Francis.

Francis en #rosavientos: El secreto de los inuits para abusar de las grasas omega 3

$
0
0

Dibujo20150919 meat bowhead being cut up by an Inuit - photo by aptn

Ya está disponible el audio del podcast de Eureka, mi sección en La Rosa de los Vientos de Onda Cero. Como siempre, una transcripción, unos enlaces y algunas imágenes.

Abusar de la carne (grasas y proteínas) provoca efectos negativos sobre la salud, como problemas cardiovasculares. Los inuits de Groenlandia llevan siglos sobreviviendo a base de una dieta rica en grasas y proteínas. Su secreto son una serie de mutaciones genéticas (ocurridas hace unos 20.000 años), que permiten que su metabolismo transforme las grasas saturadas (omega 6 y omega 3) en grasas menos saturadas. Las virtudes del omega 3 en nuestra dieta se basaron en estudios con inuits. Ahora se sabe que son virtudes ficticias. El omega 3 es bueno sólo para los inuits. Este estudio se ha publicado en Science.

El artículo es Matteo Fumagalli et al., “Greenlandic Inuit show genetic signatures of diet and climate adaptation,” Science 349: 1343-1347, 17 Sep 2015; doi: 10.1126/science.aab2319; recomiendo leer también Sarah Tishkoff, “Strength in small numbers,” Science 349: 1282-1283, 18 Sep 2015, doi: 10.1126/science.aad0584; y Greg Laden, “Micro-Evolution In Greenland: Inuit Diet, Weight, and Stature,” Science Blogs, 18 Sep 2015.

Más información en español en “Los inuit, protegidos genéticamente de las grasas,” Agencia SINC, 18 Sep 2015; Antonio Martínez Ron, “De cómo los inuits se adaptaron a comer ballenas,” Next, Voz Pópuli, 17 Sep 2015. También recomiendo José Manuel López Nicolás, “Mitos y realidades de los alimentos y suplementos enriquecidos en ácidos grasos Omega-3,” Scientia, 16 Sep 2011.

Dibujo20150919 omega-3 formulae - smarternootropics com

En los supermercados encontramos muchos productos alimentacios (como la leche) enriquecidos con ácidos grasos Omega-3. Estos alimentos funcionales prometen ayudar a la función cardiovascular y a nuestra salud general. ¿Realmente está demostrada científicamente su utilidad? Todo el mundo sabe que abusar de las grasas conduce a problemas de salud, sobre todo cardiovasculares. Los ácidos grasos omega 3 son grasas poliinsaturadas que se encuentran en los pescados azules, en algunos vegetales y en algunos frutos secos. La mayoría de los estudios sobre el efecto del consumo de grandes cantidades de omega 3 se basan en las comunidades humanas que consumen mucho pescado y carne de animales marinos (como los inuits o esquimales, y los japoneses). En estas comunidades la incidencia de enfermedades cardiovasculares es más baja que en el resto del mundo. Por ello algunos estudios científicos han afirmado que el consumo de omega-3 parece tener efectos beneficiosos sobre la salud cardiovascular. Sin embargo, no conocemos ningún mecanismo fisiológico que sustente esta relación causa-efecto; de hecho, hay muy pocas pruebas firmes que apoyen la relación causa-efecto entre tomar omega 3 y los beneficios en salud más allá de la salud de los inuits y de los japoneses. Esta semana se ha publicado en la revista Science un estudio que afirma que los inuits tienen en su genoma una serie de mutaciones en los genes que regulan la conversión de ácidos grasos omega 6 y omega 3 en grasas menos saturadas. Estas adaptaciones en sus genes les permiten contrarrestar los efectos negativos de una dieta rica en grasas de mamíferos marinos como focas y ballenas que se alimentan de peces con altos niveles de omega 3. Durante mucho tiempo, se pensó que la salud cardiovascular de los inuit era argumento firme para defender las virtudes del omega 3 en todos los humanos. Ahora podemos poner en duda esta relación causa-efecto.

Dibujo20150919 association between the fatty acids in the omega-3 and omega-6 synthesis pathways - science mag

Comer en exceso carne y grasas lleva a problemas de salud, pero parecía que las grasas del pescado, como el Omega-3, eran beneficiosas. ¿El nuevo estudio afirma que son beneficiosas para los inuit pero no para el resto del mundo? Los inuit son pueblos esquimales que habitan las regiones árticas del norte de América y de Groenlandia, cuyos ancestros provienen de Siberia. Desarrollan una vida nómada, siguiendo las migraciones de los animales que cazan (caribúes, osos, ballenas y focas), aunque durante el crudo invierno del Ártico comen sobre todo focas y ballenas. El nuevo estudio en Science liderado por investigadores de la Universidad de California en Berkeley (EE UU) ha analizado el genoma de 191 personas inuit de Groenlandia con menos del 5% de ascendencia europea y lo ha comparado con los genomas de 60 europeos y 44 chinos. A partir de los resultados concluyen que los inuit y sus ancestros siberianos tienen mutaciones especiales en su genoma que les protegen del consumo excesivo de grasas, incluyendo los ácidos grasos omega 3 y omega 6. Estas mutaciones genéticas (polimorfismos de un único nucleótido) están relacionadas con el metabolismo de las grasas se encuentran en casi el 100% de los inuit, pero solo se encuentran en un 2% de los europeos y en un 15% de la etnia Han en China. Los investigadores concluyen de su estudio que las ventajas en salud asociadas al consumo de altos niveles de ácidos grasos poliinsaturados omega 3 y omega 6 en los inuit no se pueden extrapolar a otras poblaciones humanas.

Dibujo20150919 mutations - chromosomes - inuit snp - science mag

Este estudio ha encontrado mutaciones en el genoma de los inuits que les permite tener una dieta basada en animales marinos. ¿Cuáles son estas mutaciones que les permiten metabolizar gran cantidad de grasas omega 3? La mayoría de las mutaciones encontradas en el ADN de los inuit asociadas al consumo de grasas poliinsaturadas se encuentran en el cromosoma 11. En concreto, los genes que controlan el procesamiento de ácidos grasos en los inuit son menos eficientes que los de la mayoría de nosotros; de hecho, son más parecidos a los de los chimpancés y otras especies humanas antiguas que a los humanos modernos. Estos genes codifican enzimas como las desaturasas de ácidos grasos (que reducen la saturación de los ácidos grasos, es decir, el número de enlaces dobles entre carbonos), además de genes que juegan un papel en la distribución de la grasa y en el desarrollo muscular y del corazón. Algunas de estas diferencias genéticas protegen del estrés oxidativo asociado al consumo de grasas, protegen contra cardiomiopatías, aumentan los niveles de insulina y de ‘colesterol bueno’, reducen los niveles de ‘colesterol malo’, e influyen en la diferenciación de las células adiposas en la conocida como ‘grasa marrón’. Se estima que estas mutaciones en los inuit aparecieron en la Última Edad de Hielo, hace más de 20.000 años, cuando las poblaciones ancestrales cruzaron el estrecho de Bering y se establecieron en lo que hoy es Groenlandia. Lo sorprendente es que algunas de las mutaciones encontradas en el genoma de los inuit para metabolizar ácidos grasos tienen un efecto negativo en la hormona del crecimiento que gobierna la altura corporal. Como resultado los inuits suelen a ser un poco más bajos (unos 2 centímetros en media) que los europeos.

Dibujo20150919 weight - height - inuit snp - science mag

En relación a los alimentos enriquecidos con Omega-3, ¿podemos afirmar que su consumo no ofrece beneficios cardiovasculares y de salud? No, las conclusiones del nuevo estudio son todavía preliminares a este respecto. Se necesita más investigación para clarificar la relación entre el omega 3 y la salud del corazón de los inuit. Este nuevo trabajo es solo un comienzo. Son necesarios futuros estudios que deberán clarificar el mecanismo exacto que protege a los inuit y cuáles pueden sus posibles aplicaciones biomédicas para el resto de nosotros. Los perfiles genéticos humanos obtenidos a escala masiva están demostrando que las diferentes poblaciones humanas se han adaptado a diferentes dietas como resultado de una evolución divergente. Hoy en día lo que es un alimento saludable para una persona puede que no sea saludable para otras personas. En un futuro, el conocimiento del genoma individual de una persona conducirá hacia una medicina personalizada. Hoy en día se está investigando en el diseño de dietas personalizadas a partir de nuestra carga genética. Igual que muchos ven el futuro de la medicina en la medicina personalizada, el futuro de la nutrición y de la dietética serán las dietas personalizadas basadas en los perfiles genéticos de cada persona.

Science Magazine

La existencia de mutaciones genéticas en los inuits nos recuerda que los humanos seguimos evolucionando (al menos en ciertas regiones del planeta Tierra). ¿Se sabe si la especie humana evoluciona a escala global en el planeta? Por ahora los estudios científicos no son concluyentes a este respecto. Hay múltiples pruebas de que los humanos están evolucionando en diferentes regiones de nuestro planeta. Los diferentes grupos humanos están sometidos a una evolución divergente en respuesta a los diferentes entornos en los que vivimos. En el Tibet y en América del Sur hay poblaciones adaptadas a condiciones bajas en oxígeno, las poblaciones de pastores han evolucionado para tolerar la lactosa y algunos poblaciones humanas en Africa, como los pigmeos, tienen una pequeña estatura para soportar mejor los ambientes tropicales. Algunos estudios apuntan a que en los países desarrollados los humanos estamos evolucionando para reducir los niveles de colesterol en sangre, para reducir la presión sanguínea o para aumentar la edad de la menopausa. Sin embargo, todavía no son estudios concluyentes. No está claro aún si hay una evolución global de toda la especie en su conjunto. El nivel de vida y las pautas de alimentación de las personas en muchos lugares del mundo está igualándose entre sí, lo que podría dar lugar a evolución convergente. Pero que yo sepa aún no hay pruebas de esta evolución humana a escala global. El estudio genético de las poblaciones indígenas de diferentes lugares del mundo nos dará mucha información sobre los factores genéticos que influyen en los fenotipos complejos. Todos estos estudios acabarán teniendo aplicaciones biomédicas y nutricionales que acabarán redundando en una mejora de nuestra salud. Sin lugar a dudas los estudios genéticos acabarán revolucionando nuestra salud.

La entrada Francis en #rosavientos: El secreto de los inuits para abusar de las grasas omega 3 fue escrita en La Ciencia de la Mula Francis.


Reseña: “Un primer curso en gravedad cuántica de lazos” por Gambini y Pullin

$
0
0

Dibujo20150922 book cover - gravedad cuantica lazos - gambini-pullin - reverte

“En estos tiempos modernos muchos de los desacuerdos acerca de la gravedad cuántica de lazos se ventilan en blogs y grupos de discusión de internet. En general no recomendamos que la gente aprenda de la controversia allí. Dado que representan opiniones no editadas de gente [y] son escritos relativamente rápido, en muchas circunstancias contienen afirmaciones muy inexactas.” Por ello, creo muy recomendable para los estudiantes de física y el resto de los físicos interesados un libro como el de Rodolfo Gambini y Jorge Pullin, “Un primer curso en gravedad cuántica de lazos,” Editorial Reverté (2012), traducción al español de “A First Course in Loop Quantum Gravity,” Oxford University Press (2011).

“La gravedad cuántica de lazos (en inglés loop quantum gravity) ha emergido como una posible avenida hacia la cuantización de la relatividad general. Hasta el momento actual tanto la teoría de cuerdas como la gravedad cuántica de lazos son paradigmas incompletos y como consecuencia han surgido controversias acerca de cual es el enfoque más promisorio. [Este] primer acercamiento al tema pensado específicamente para el nivel de licenciatura, enriquecido con ejercicios que ayudan a la reflexión y compresión. [No supone] conocimientos previos de relatividad general. El único material previo que requeriremos es conocimiento de la teoría electromagnética de Maxwell, un conocimiento mínimo de mecánica lagrangiana y hamiltoniana, relatividad especial y mecánica cuántica.”

El libro tiene 11 capítulos y se lee bastante bien salvo los últimos capítulos; más duros y omitiendo gran número de detalles. Para un español la gran dificultad es el dialecto latinoamericano usado (el nombre de muchos términos matemáticos y físicos no corresponde al habitual en España). Sin embargo, creo que no supondrá un problema grave para quienes quieran adentrarse en español en la gravedad cuántica de lazos (por supuesto, también se puede disfrutar de la versión en inglés). El libro puede considerarse como un punto de partida para profundizar más tarde con libros más completos y avanzados (aunque todos en inglés).

Dibujo20150922 authors gambini pullin - gravedad cuantica lazos - gambini-pullin - reverte
Jorge Pullin (con la gaita) y Rodolfo Gambini (sentado), ambos en sus despachos.

El capítulo 1, “¿Por qué cuantizar la gravedad?” [pp. 13-20], nos recuerda que “la gravedad cuántica de lazos es un intento de lograr ese objetivo, pero es una teoría incompleta. [Aún] hoy no tenemos un solo experimento que requiera la gravedad cuántica para su explicación. Es quizá la primera vez en la historia de la física que uno está tratando de construir una teoría sin guía experimental.” Por supuesto, tenemos los problemas asociados a las singularidades en “los dos paradigmas principales de la física, la relatividad general y las teorías cuánticas de campos.” Pero solo tenemos “la estética, los experimentos pensados, la atractiva posibilidad de que la unificación resuelva los problemas de los paradigmas aislados.”

“Tanto la teoría de cuerdas como la gravedad cuántica de lazos son teorías incompletas. Algunas personas las ve como compitiendo entre ellas y por ende si una es correcta la otra no lo es. Nuestro punto de vista es más conservador, pues pensamos que podría ser que tanto la teoría de cuerdas como la gravedad cuántica de lazos son una cuantización de la gravedad en distintos lenguajes y resaltan distintos aspectos del problema en forma natural en los dos enfoques. Por el momento la situación no está decidida.”

Los capítulos del segundo al sexto introducen (o recuerdan) los conceptos básicos de relatividad y teoría cuántica de campos necesarios para el resto del libro. El capítulo 2, “Relatividad especial y electromagnetismo” [pp. 21-36], es un repaso muy esquemático de cinemática, mecánica y electrodinámica relativista. El capítulo 3, “Algunos elementos de relatividad general” [pp. 37-62], es un poco más avanzado; sin conocimientos previos puede ser difícil de comprender. La curvatura (sección 3.3) y las ecuaciones de Einstein y algunas de sus soluciones (sección 3.4) se introducen en pocas páginas. La formulación hamiltoniana de la relatividad general (sección 3.6) y la introducción de las tríadas (sección 3.7) son indispensables para seguir los capítulos siguientes. En mi opinión, quien no haya estudiado estos temas con anterioridad encontrará bastantes dificultades con la notación y el tratamiento (que difiere de la habitual en otros libros de texto).

Dibujo20150922 constraints - lagrange multipliers - gravedad cuantica lazos - gambini-pullin - reverte

“Mecánica hamiltoniana incluyendo vínculos y campos” [pp. 63-78], el capítulo 4, presenta la formulación hamiltoniana de la mecánica bajo restricciones holónomas (vínculos) y el uso del método de multiplicadores de Lagrange. En pocas páginas se pasa a usarla en teoría de campos (sección 4.3): para la teoría de Maxwell, “la componente temporal del vector potencial, A0, [nunca] va acompañada de una derivada temporal, ∂0. Sólo derivadas espaciales de A0 aparecen. Entonces habíamos supuesto incorrectamente que era una variable de configuración. ¡Era un multiplicador de Lagrange!” La idea de vínculo suavizado (suave, diferenciable) y la invariancia de calibre (invariancia de gauge en inglés) nos llevan a un bonito ejemplo (sección 4.4), la “mecánica clásica [de] un reloj que atrasa en forma consistente y no-lineal, y que el tiempo T(t) que mide es una función conocida del tiempo t en el que vale la ley de Newton. ¿A quién le puede interesar estudiar la mécanica con un reloj malo? En relatividad general uno de hecho está enfrentado con una situación notablemente similar: la teoría es invariante bajo cambios arbitrarios de la variable temporal.”

El capítulo 5, “Teorías de Yang–Mills” [pp. 79-88], es necesario porque “la relatividad general escrita en términos de las variables de Ashtekar se parece a una teoría de Yang–Mills [basada] en su(2), [como] las interacciones débiles.” El álgebra de Lie su(2) corresponde a las matrices de Pauli. La introducción es breve y se remite varias veces al libro de John C. Baez y Javier P. Muniain, “Gauge Fields, Knots and Gravity,” World Scientific (1994). Se introduce el concepto de holonomía (sección 5.2) y se finaliza con la definición de la exponencial ordenada en camino, que generaliza el teorema de Stokes para la “circulación al caso de Yang–Mills. ¿Podemos relacionar la exponencial ordenada en camino a una integral en la superficie contenida por la curva? La respuesta es afirmativa, pero el resultado, llamado teorema de Stokes no abeliano es bastante complicado y no es fácil de usar. La exponencial ordenada en camino de un potencial vector a lo largo de una curva cerrada es llamada holonomía y es una matriz.”

La última sección del capítulo 5 puede resultar dura para la mayoría de los lectores, que tendrán que recurrir al libro de Baez y Muniain (1994) para detalles adicionales. Pero es muy importante ya que “la traza de la holonomía es mucho más que un ejemplo de observable. ¡Es una base para todo posible observable que sea solamente función de la conexión! Este resultado central será la base de la representación de lazos para teorías de calibre y gravedad.”

Dibujo20150922 qft - gravity - iem cfmac csic es - gravedad cuantica lazos - gambini-pullin - reverte

La cuantización canónica de una teoría de campos se presenta de forma breve en el capítulo 6, “Mecánica cuántica y elementos de teoría de campos” [pp. 89-110]. “Dada una teoría clásica uno puede construir una versión cuántica a través de un procedimiento llamado cuantización canónica.” Se formula en forma hamiltoniana y “se elige un conjunto de cantidades físicas que es lo suficientemente grande como para describir la física de interés y las promueve a operadores auto-adjuntos actuando sobre un espacio de Hilbert.” Me permito destacar la nota a pie de página: “En general elegir distintas elecciones llevará a teorías inequivalentes, [resultado] conocido como teorema de Groenewold–van Hove (1946,1951).”

Tras cuantizar el oscilador armónico se aplica la idea de un campo escalar. Tras la representación de Schrödinger se discute “el cuadro de Heisenberg para apreciar mejor cómo los campos cuánticos operan en el espacio-tiempo.” Se introduce el concepto de propagador (“a veces llamado la función de correlación a dos puntos o la función de Green de dos puntos”). Los campos interactuantes (sección 6.3) se presentan con un campo escalar con potencial cuártico, incluyendo la fórmula de Dyson y los diagramas de Feynman. Su renormalizabilidad (sección 6.4) permite discutir “la gravedad donde la constante de acoplamiento tiene unidades. [La] teoría libre describe un campo tensorial simétrico sin masa y corresponde a partículas de espín 2 conocidas como gravitones. [La] única manera de cancelar las divergencias es agregar un número infinito de términos al lagrangiano desnudo. [Esos] términos son irrelevantes a bajas energías, así que [se] puede utilizar la gravedad cuántica perturbativa como una teoría efectiva a energías bajas.”

“La discusión [hecha] de este tema [es] muy superficial.” Gambini y Pullin recomiendan “una discusión más detallada pero aún muy legible de la gravedad cuántica perturbativa [en] el artículo de revisión” de Richard P. Woodard, “How far are we from the quantum theory of gravity?,” Reports on Progress in Physics 72: 126002 (2009), doi: 10.1088/0034-4885/72/12/126002, arXiv:0907.4238 [gr-qc]. Finaliza el capítulo 6 como una mención al “escenario de seguridad asintótica (asymptotic safety en inglés), introducido por primera vez por Weinberg (1979). [La] expectativa [de] que los infinitos contratérminos de alguna manera se puedan reabsorber en una redefinición de parámetros desnudos, la constante de Newton y la constante cosmológica. Trabajos recientes sobre el tema han significado un avance pero no hay un consenso general sobre si provee una teoría viable de la gravedad cuántica.”

Dibujo20150922 book cover - loop quantum gravity - gambini-pullin - oxford

El tema central del libro se introduce en el capítulo 7, “Relatividad general en términos de las nuevas variables de Ashtekar” [pp. 111-124]. “En la acción de Einstein–Hilbert, si uno examina en detalle la expresión de la curvatura, concluye que la componente g00 de la métrica y las componentes g0i aparecen sin estar derivadas con respecto al tiempo. Por consiguiente son multiplicadores de Lagrange. [La] teoría por ende tiene seis grados de libertad de configuración (gij es una matriz simétrica de 3×3) y cuatro vínculos, lo que deja dos grados de libertad, exactamente como el caso de la teoría de Maxwell.” Por ello, “Ashtekar (1986) introdujo un nuevo conjunto de variables para describir la relatividad general en el lenguaje canónico. La mitad de [estas] variables son las tríadas densitizadas Eai (sección 3.7) y la otra mitad se comportan como una conexión de Yang–Mills SU(2), Aia (sección 5.1).”

“El espacio de fases (sin vínculos) de la relatividad general escrito en términos de las nuevas variables de Ashtekar coincide con el espacio sin vínculos de una teoría de Yang–Mills. De hecho uno puede considerar a la relatividad general como un tipo distinto de teoría de Yang–Mills, una que en adición a la ley de Gauss tiene cuatro vínculos extra y tiene un hamiltoniano nulo. Por supuesto hay diferencias profundas entre la dinámica de la relatividad general y la de las teorías de Yang–Mills.” El acoplamiento con la materia (sección 7.3) y su cuantización canónica (sección 7.4) nos lleva a la cuestión: “¿Qué pasa con el vínculo hamiltoniano? Allí uno se enfrenta a varios problemas. El primero es que dicho vínculo no genera una simple acción geométrica ni siquiera a nivel clásico. [Además] la presencia de dos tríadas causa problemas. [Se produce] una delta de Dirac [que] en teoría de campos cuántica usual con un espacio-tiempo de fondo fijo [se] trabaja [mediante] regularización. [Pero] este no es un buen procedimiento en el caso donde uno no tiene una geometría de fondo fija.”

Dibujo20150922 spin networks - gravedad cuantica lazos - gambini-pullin - reverte

Los lazos y las redes de espín aparecen en el libro en el capítulo 8, “Representación de lazos de la relatividad general” [pp. 125-145]. “Trabajar en un espacio de lazos puede sonar extraño al principio, pero tiene propiedades muy naturales, particularmente en el contexto de la gravedad. Por ejemplo, es fácil resolver el vínculo de difeomorfismos en dicho espacio.” Por supuesto, “para atender el problema de la sobre-completitud de la base de lazos [hay] que hablar un poco acerca de representaciones de álgebras. [La] conexión que uno usa para describir la relatividad general es una conexión su(2). [Las] redes de espín de hecho constituyen una base para todas las funciones invariantes de calibre que minimiza el grado de sobre-completitud de la base de lazos.” Por supuesto, seis páginas no dan para mucho y los autores confiesan que han “omitido una gran cantidad de detalles matemáticos en [la] sección [8.1] para hacer el material accesible a nivel de la licenciatura.”

Los operadores geométricos en la representación de lazos (sección 8.2) permiten la introducción del parámetro de Barbero–Immirzi que “aparece explícitamente en la expresión del área. [Si] pudiéramos medir el cuanto de área podríamos determinar el valor del parámetro. [La] imagen que emerge es la de que las redes de espín acarrean ‘cuantos de área’ en sus líneas y ‘cuantos de volumen’ en sus intersecciones y estos se vuelven los ladrillos fundamentales para construir una geometría cuántica.” El vínculo hamiltonianao de Thiemann (sección 8.3) está “bien definido [lo que] es un resultado importante. Constituye una teoría bien definida de la gravedad cuántica. Sin infinitos. [Un] tratamiento no perturbativo que es finito y sin divergencias.” Pero hay que poner los pies sobre la tierra. “¿Debería ser esto causa de celebración? Sólo si la teoría captura la física correcta. No es meritorio, por lo menos desde el punto de vista físico, construir teorías que son matemáticamente consistentes pero vacías de contenido físico.”

Dibujo20150922 quantum loop cosmology - gravedad cuantica lazos - gambini-pullin - reverte

El capítulo 9, “Una aplicación: cosmología cuántica de lazos” [pp. 147- 158], discute si “la singularidad [primordial] es eliminada en cosmología cuántica de lazos. La presentación será difícil de seguir para quien no tenga buenos conocimientos de cosmología relativista. La “cuantización tradicional de Wheeler–de Witt” (sección 9.2) se deduce del vínculo hamiltoniano. “Una ecuación de evolución en [un] tiempo emergente [que permite] construir paquetes de onda picudos centrados en una solución clásica, digamos, para grandes volúmenes del universo, con incertezas pequeñas en el volumen y su variable canónica conjugada.” La presentación es parca en detalles y entender “el vínculo hamiltoniano” (sección 9.4) requerirá que el lector profundice en estos asuntos con libros más avanzados. Lo que quiero destacar es que “la teoría cuántica no tendrá como límite semiclásico la relatividad general, al menos en ciertos regímenes.”

“La teoría semiclásica” (sección 9.5) permite evitar estudiar la teoría cuántica completa y muestra que “si uno continúa hacia atrás el universo re-expande. Un ‘rebote’ ha reemplazado la gran explosión.” Se elimina la gran explosión (big bang) gracias a que “la teoría [tiene] valores mínimos para los cuantos de área y volumen negándose a contraerse por debajo de dichos mínimos.” Por supuesto, estas conclusiones de la teoría semiclásica “no [permiten] concluir seriamente de este análisis que la gran explosión se elimina. Sin embargo, es la conclusión del tratamiento cuántico completo. [La] gran explosión es reemplazada por un gran rebote y la cosmología comienza a expandirse de nuevo hacia el pasado.” Pero “uno debe ser cuidadoso. La cosmología cuántica de ciclos [o de lazos] no es automáticamente una aproximación a la teoría completa.” Gambini y Pullin recomiendan el artículo de Martin Bojowald, “Loop Quantum Cosmology,” Living Reviews in Relativity 11: 4 (2008), doi: 10.12942/lrr-2008-4, arXiv:gr-qc/0601085.

“Otros resultados” [pp. 159- 193] aparecen en el capítulo 10. Primero, la entropía de los agujeros negros (sección 10.1.1) y la radiación de Hawking (sección 10.1.2) en gravedad cuántica de lazos (sección 10.1.3) permiten determinar el valor del parámetro de Barbero–Immirzi. “El cálculo de la entropía ha sido repetido para un número de agujeros negros de distinto tipo y en todos los casos el mismo valor del parámetro de Barbero–Immirzi es necesario para reproducir el resultado de Bekenstein.” Segundo, el vínculo maestro (sección 10.2.1) y las discretizaciones uniformes (sección 10.2.2). Tercero, las espumas de espín (sección 10.3.1) y las integrales de camino (sección 10.3.2), que describen “la transición entre geometrías; dada una geometría inicial en una feta tridimensional del espacio-tiepmo y una final, ¿cuál es la probabilidad de transición?” Y cuarto, los posibles efectos observacionales (sección 10.4).

Dibujo20150922 gamma-ray burst - discrete spacetime - universe-review ca

El capítulo 10 será difícil de seguir para la mayoría de los lectores que no hayan leído/estudiado con anterioridad artículos sobre gravedad cuántica de lazos. Salvo quizás la sección 10.4.1, sobre la propuesta de Amelino-Camelia et al. (1998) que “efectos de la gravedad cuántica potencialmente podrían dejar una huella en observaciones de explosiones de rayos gama.” Se presenta un “efecto distinto del encontrado por Amelino-Camelia et al. en teoría de cuerdas. Allí no encontraron dependencia en la helicidad, [un] efecto posible en gravedad cuántica de lazos, pero de ninguna manera [una] certeza. Resulta que el efecto de hecho está experimentalmente descartado, no por observaciones de rayos gama pero por radioastronomía. [Hay] preguntas conceptuales [generadas] por el cálculo [que] no se entienden bien aún. La más obvia es que las ecuaciones efectivas corregidas de Maxwell que resultan no son invariantes Lorentz. Romper la invariancia Lorentz es muy peligroso para una teoría dado que puede rápidamente llevar a discrepancias experimentales grandes.”

Quizás lo que más me ha gustado del capítulo 10 es “el problema del tiempo” (sección 10.5). La interpretación de las constantes del movimiento que evolucionan usando probabilidades condicionales es muy sugerente. Un trabajo de Gamini et al. (2009) cuya “idea es construir probabilidades condicionales pero donde las cantidades que se usan son constantes del movimiento que evolucionan. [Por] supuesto uno está aún lejos de resolver el problema del tiempo en situaciones de interés, dado que se tienen que construir las constantes que evolucionan y eso en general no es posible en relatividad general en vacío.” Como “la mayor parte del material de este capítulo es sobre investigaciones actuales [en 2011] existen pocas introducciones pedagógicas, el único material para leer más que se pueden recomendar son las referencias citadas.”

El último capítulo, “Temas abiertos y controversias” [pp. 195-200], nos recuerda que “no hay muchas cosas que el estado del arte actual de la teoría permita calcular explícitamente.” Mucha controversia se dirige “a la versión específica del vínculo hamiltoniano propuesta por Thiemann y que [se discute] en este libro. Una objeción importante es el nivel de ambigüedad de la construcción. Por un lado, existen ambigüedades de orden de factores y existe la ambigüedad de qué tipo de lazo uno agrega al vértice para dar la curvatura y conexión que aparece en el vínculo hamiltoniano en el límite cuando la triangulación se encoge. [La] guía usual es usar naturalidad. [Pero] ¿son las ambigüedades en la definición del vínculo hamiltoniano similares a los infinitos contratérminos que uno necesita introducir en teoría de perturbaciones en el caso no renormalizable? La gente que trabaja en gravedad cuántica de lazos tienen a pensar que no lo son.” Como dice Ashtekar (2008) “el aspecto más insatisfactorio del estatus actual del programa es que el significado físico y las ramificaciones de estas ambigüedades está aún pobremente entendido.”

Dibujo20150922 cpt univ-mrs fr - arton

“Otro punto que preocupa a la gente es ¿dónde están los infinitos que aparecen en la gravedad cuántica perturbativa reflejados en la gravedad cuántica de lazos? Todo parece ser finito. Desafortunadamente es difícil hacer contacto con la gravedad cuántica perturbativa partiendo de la teoría completa. Así que la respuesta a este punto no es conocida.” El libro concluye con sabias palabras: “Sólo el tiempo y más trabajo nos dirán si la gravedad cuántica de lazos es viable o no. En conjunto las muchas lecciones aprendidas [hacen] el esfuerzo muy valioso y atractivo [si importar] el éxito final en proveer una teoría de la gravedad cuántica.”

En resumen, un buen libro que al estar escrito en español acercará la gravedad cuántica de lazos a muchos lectores jóvenes que aún tienen miedo del inglés. Sin embargo, el libro, en su brevedad, pasa de puntillas por encima de muchos temas que requieren una discusión más profunda (aunque también técnicamente más complicada). En general me parece que Gambini y Pullin han alcanzado un buen equilibrio entre lo que se puede contar a nivel de licenciatura y lo que se debe contar para promover vocaciones hacia la gravedad cuántica de lazos. ¡Les deseo el máximo éxito en su empresa!

La entrada Reseña: “Un primer curso en gravedad cuántica de lazos” por Gambini y Pullin fue escrita en La Ciencia de la Mula Francis.

La danza del anillo

$
0
0

Dibujo20150922 geometry wedding ring spun on horizontal table - physical review e - aps org

Quizás has jugado a poner a rotar sobre una mesa un anillo. Quizás has notado que el sentido de giro se invierte justo antes de su caída y parada final, casi como un boomerang. Se ha observado con cámaras de alta velocidad en anillos rotando con cuatro marcas para trazar su movimiento en detalle. Y se ha verificado usando simulaciones numéricas por ordenador.

La razón es la existencia de una delgada capa de aire atrapada entre el borde inferior del anillo y la superficie sobre la que gira. El orificio central del anillo permite que este aire atrapado fluya y escape, lo que afecta a las fuerzas de fricción que actúan sobre el anillo. El resultado es un cambio en la dirección de movimiento de rotación. Con un disco similar al anillo el aire no puede fluir y el fenómeno no se observa. Un curioso experimento que te será fácil repetir si tienes un anillo a mano (o en algún dedo de la mano) y alguna moneda de tamaño similar (en la cartera o en el bolsillo).

El artículo es Mir Abbas Jalali, Milad S. Sarebangholi, Mohammad-Reza Alam, “Terminal retrograde turn of rolling rings,” Physical Review E 92: 032913, 22 Sep 2015, doi: 10.1103/PhysRevE.92.0329, arXiv:1412.1852 [physics.class-ph]; más información en Katherine Wright, “Dance of the Wedding Rings,” Physics, 22 Sep 2015.

Este vídeo ilustra bastante bien la experiencia. La simulación numérica por ordenador requiere usar la mecánica del sólido rígido con restricciones (o ligaduras) no holónomas. Los detalles del modelo físico son sencillos, pero los omito porque sólo serán de interés para los físicos (que preferirán leerlos de primera mano en el artículo en arXiv).

Dibujo20150922 First cycloidal turn of the ring - four marks for motion tracking - physical review e - aps org

La entrada La danza del anillo fue escrita en La Ciencia de la Mula Francis.

Los premios Ig Nobel 2015

$
0
0

Dibujo20150922 ig nobel 2015 - 25th ceremony - poster - improbable com

Como todos los años, os presento el listado de ganadores de los premios Ig Nobel. El año 2015 es el 25 aniversario de la ceremonia de entrega de premios. El pasado 17 de septiembre fue la de este año en el Teatro Sanders de la Universidad de Harvard. Sin olvidar el toque de humor se trata de premios a la inteligencia y a la astucia para saber vender a los medios investigaciones que de otra manera pasarían desapercibidas por el gran público. Por ello tiene mucho mérito ser ganador de un Ig Nobel.

Te recomiendo ver el vídeo de la ceremonia en youtube, así como visitar su página web y el listado histórico de premiados.

Dibujo20150922 jetting urination large animals - elephant cow goat dog - pnas org

El premio de Física ha sido concedido a Patricia J. Yang (EEUU y Taiwan), David L. Hu (EEUU y Taiwan), Jonathan Pham (EEUU) y Jerome Choo (EEUU) por estudiar la fisiología de la micción de los mamíferos y comprobar que su duración es casi constante de forma independiente de su masa (y tamaño), exactamente 21 ± 13 segundos. Se han usado vídeos de 44 animales del Zoo de Atlanta para estudiar la hidrodinámica de la micción en animales con un peso entre tres kilogramos y ocho toneladas. El artículo es Patricia J. Yang et al., “Duration of Urination Does Not Change With Body Size,” PNAS 111: 11932–11937, 2014, doi: 10.1073/pnas.1402289111.

¿Por qué? Por un lado, porque el sistema urinario es isométrico, es decir, el volumen de la vejiga y la longitud y diámetro de la uretra varían de forma lineal con el volumen del cuerpo del animal. Y por otro lado, porque el papel de la fuerza de la gravedad en la micción es más relevante conforme el animal es más grande. El funcionamiento de la vejiga urinaria se inicia gracias a la presión muscular, pero se mantiene gracias a la fuerza de la gravedad. El nuevo estudio muestra que la presión es casi constante, 5,2 ± 0,86 kPa, sin importar el tamaño del animal; por ello, en animales de mayor tamaño la gravedad tiene un papel dominante.

¿Para qué sirve este estudio? Por un lado, para estimar la salud del sistema urinario de los animales de forma no invasiva (por ejemplo, la obesidad afecta a la micción). Muchos problemas urinarios reducen el flujo y prolongan la micción. Y por otro lado, el modelo matemático del sistema urinario desarrollado puede dar lugar a sistemas fluidomecánicos bioinspirados de interés industrial.

Dibujo20150922 egg folded proteins denature to unfolded proteins and aggregate to aggregated proteins - tumblr com

El premio de Química ha sido concedido a Callum Ormonde y Colin Raston (Australia), y a Tom Yuan, Stephan Kudlacek, Sameeran Kunche, Joshua N. Smith, William A. Brown, Kaitlin Pugliese, Tivoli Olsen, Mariam Iftikhar y Gregory Weiss (EEUU) por inventar una receta química para transformar (parcialmente) un huevo cocido en un huevo fresco. Como bien sabrás, la cocción de huevo conlleva la desnaturalización de proteínas de la clara del huevo; con la temperatura estas proteínas pierden su solubilidad y la clara del huevo deja ser líquida y transparente pasando a ser sólida y opaca de color blanco. El nuevo artículo ha logrado revertir la desnaturalización de una de estas proteínas, la lisozima y la caveolina-1, en un huevo cocido. El artículo es Tom Z. Yuan et al., “Shear-Stress-Mediated Refolding of Proteins from Aggregates and Inclusion Bodies,” ChemBioChem 16: 393–396 (2015), doi: 10.1002/cbic.20140 2427.

¿Cómo se ha logrado? Se ha aplicado una tensión de cizalla a una película delgada de clara de huevo cocido con unos micrómetros de grosor. El proceso provoca el replegamiento rápido de estas proteínas en una escala de tiempo unas cien veces más rápida que usando técnicas convencionales mediante diálisis. ¿Para qué sirve? La producción de estas proteínas tiene interés industrial y el nuevo artículo propone un nuevo método para obtenerlas a partir del huevo cocido. Por supuesto, se requieren importantes mejoras en el método para poderlo aplicar a escala industrial.

El premio de Biología ha sido concedido a Bruno Grossi, Omar Larach, Mauricio Canals, Rodrigo A. Vásquez (Chile), José Iriarte-Díaz (Chile y EEUU), por un artículo que ya fue noticia en este blog: “Pollos que caminan como dinosaurios gracias a una cola artificial,” LCMF, 09 Feb 2014. Como bien sabes las aves son dinosaurios tetrápodos evolucionados, por lo que podemos añadirles una cola artificial para reproducir en laboratorio cómo caminaban. El artículo es Bruno Grossi et al., “Walking Like Dinosaurs: Chickens with Artificial Tails Provide Clues about Non-Avian Theropod Locomotion,” PLoS ONE 9: e88458 (2014), doi: 10.1371/journal.pone.0088458.

Dibujo20150922 1 Sting Locations - Drawing of the human form with Xs and labels at the sting locations - wiley

El premio de Fisiología y Entomología ha sido concedido a Justin Schmidt (EEUU y Canadá) por crear el llamado índice de Schmidt para el dolor tras ser picado por varios insectos, y a Michael L. Smith (EEUU, Reino Unido, Países Bajos) por dejarse picar por abejas melíferas en 25 lugares de su propio cuerpo con objeto de averiguar cuáles son menos dolorosas (cráneo, punta del dedo medio del pie y parte superior del brazo) y cuáles son más dolorosas (fosas nasales, labio superior y pene).

Estos estudios dolorosos (de interés para apicultores) se han publicado en los artículos: Justin O. Schmidt, Murray S. Blum, William L. Overal, “Hemolytic Activities of Stinging Insect Venoms,” Archives of Insect Biochemistry and Physiology 01: 155-160 (1983), doi: 10.1002/arch.940010205, y Michael L. Smith, “Honey Bee Sting Pain Index by Body Location,” PeerJ 02: e338 (2014), doi: 10.7717/peerj.338.

Dibujo20150922 hollywood most longer kiss - eternitykiss_hmed_grid

El premio de Medicina ha sido concedido a partes iguales a Hajime Kimata (Japón, China), y a Jaroslava Durdiaková (Eslovaquia, EEUU, Reino Unido), Peter Celec (Eslovaquia, Alemania), Natália Kamodyová, Tatiana Sedláčková, Gabriela Repiská, Barbara Sviežená y (Eslovaquia), por sus estudios experimentales de los beneficios biomédicos y de las consecuencias fisiológicas de besarse de forma intensa y apasionada (y de otras actividades sexuales). Así que ya sabes, si tienes alergia al polen o las ácaros del polvo, el Dr. Kimata te recetará relaciones sexuales con tu pareja.

Hajime Kimata, “Kissing reduces allergic skin wheal responses and plasma neurotrophin levels,” Physiology & Behavior 80: 395–398 (2003), doi: 10.1016/j.physbeh.2003.09.004, y Hajime Kimata, “Kissing selectively decreases allergen-specific IgE production in atopic patients,” Journal of Psychosomatic Research 60: 545–547 (2006), doi: 10.1016/j.jpsychores.2005.09.007, muestran que besarse reduce problemas alérgicos y dermatológicos, así como los niveles de neurotrofinas e inmunoglobulinas E en el plasma sanguíneo. Ha estudiado a unos 150 japoneses (tanto sanos, como con rinitis alérgica o dermatitis atópica), realizando tests de alérgenos antes y después de que besaran apasionadamente a sus cónyuges o parejas habituales. Los resultados muestran que besar es bueno para la salud, así que adelante, a qué esperas.

No solo besar, también practicar el sexo. Hajime Kimata, “Reduction of allergic skin weal responses by sexual intercourse in allergic patients,” Sexual and Relationship Therapy 19: 151-154 (2004), doi: 10.1080/14681990410001691361, estudió el efecto beneficioso de las relaciones sexuales en las respuestas de la piel a alérgenos (polen de cedro japonés y ácaros del polvo doméstico) en pacientes con alergia. Sus estudios con japoneses tienen una estadística limitada y han de ser cogidos con alfileres, pero ¡y a quién le importa si la dicha es buena!

Finalmente, Natália Kamodyová et al., “Prevalence and persistence of male DNA identified in mixed saliva samples after intense kissing, ” Forensic Science International: Genetics 07: 124–128 (2013), doi: 10.1016/j.fsigen.2012.07.007, han identificado ADN masculino en muestras de saliva de 12 mujeres tras una sesión intensa de besos. Gracias a su trabajo la policía científica podrá usar como prueba en casos de agresión sexual la detección de ADN en la saliva (quizás como prueba de una relación consentida, ya que los besos no son habituales en las agresiones). Se ha detectado ADN usando instrumentos de alta sensibilidad y alta especificidad (PCR) hasta 8 horas después. Por supuesto se requieren muchos más estudios para ratificar la validez como prueba forense de este tipo de análisis.

Dibujo20150922 Pain over speed bumps in diagnosis of acute appendicitis diagnostic accuracy study - thebmj

El premio al Diagnóstico Médico ha sido concedido a Diallah Karim (Canadá, Reino Unido), Anthony Harnden (Nueva Zelanda, Reino Unido, EEUU), Nigel D’Souza (Bárein, Bélgica, Dubai, India, Sudáfrica, Reino Unido, EEUU), Andrew Huang (China, Reino Unido), Abdel Kader Allouni (Siria, Reino Unido), Helen Ashdown, Richard J. Stevens y Simon Kreckler (Reino Unido), por determinar que una apendicitis aguda se puede diagnosticar de forma fiable por el dolor aparente que sufre el paciente cuando va en un coche que cruza un badén reductor de velocidad. Un estudio que sin lugar a dudas parece realizado a propósito para buscar un Ig Nobel publicado en Helen F. Ashdown et al., “Pain Over Speed Bumps in Diagnosis of Acute Appendicitis: Diagnostic Accuracy Study,” BMJ 345: e8012 (2012), doi: 10.1136/bmj.e8012.

Por supuesto este tipo de estudios se basan en cuestionarios que se pasan a los pacientes y a los acompañantes de los pacientes en el trayecto en automóvil hasta el hospital. Han participado 101 pacientes entre 17 y 76 años, de los que 64 tenían apendicitis. Entre ellos 34 confirmaron haber pasado por badenes y 33 de ellos haber sufrido un aumento del dolor. Los que al final no tenían apendicitis no indicaron este aumento del dolor. De ahí la alta especificidad de este método diagnóstico. Nadie espera encontrarse en esta situación, pero quizás convenga tenerlo presente. Nunca se sabe cuando uno tendrá que acompañar a un posible enfermo al hospital.

¿Por qué es importante que el médico que atienda en urgencias pregunte al paciente por su dolor en los badenes? La razón que ofrecen los autores del estudio es que el diagnóstico clínico de apendicitis aguda es difícil en muchos casos. Quizás en el futuro todos los médicos en las salas de urgencia pregunten de forma rutinaria por el dolor durante el viaje y en especial al atravesar badenes de reducción de la velocidad como parte de su evaluación clínica. Quizás.

Dibujo20150922 moroccan-sultan-moulay - livescience com

El premio de Matemáticas lo han recibido Elisabeth Oberzaucher (Austria, Alemania, Reino Unido) y Karl Grammer (Austria, Alemania), por usar técnicas matemáticas para determinar cómo fue posible que el Sultán Mulay Ismail de Marruecos (que reinó entre 1672 y 1727) fue capaz de tener al menos 888 hijos entre 1697 y 1727. Su conclusión es sencilla, basta que su harén tuviera unas 65 mujeres y que copulara con alguna de ellas entre 0,83 y 1,43 veces al día durante al menos 32 años. El máximo número de hijos que pudo tener fue de 1171.

Un estudio histórico-matemático realmente curioso que se publicó en Elisabeth Oberzaucher, Karl Grammer, “The Case of Moulay Ismael-Fact or Fancy?” PLOS ONE 09: e85292 (2014), doi: 10.1371/journal.pone.0085292. Si no te crees los cálculos, las simulaciones por ordenador se realizaron con un código Python que se incluye en el artículo como información suplementaria. Gracias a dicho código puedes cambiar los parámetros y estudiar (en función de tus hábitos sexuales) cuántos hijos podrías llegar a tener si no tomas medidas anticonceptivas. ¡Quizás te interese!

El premio de Literatura lo han recibido Mark Dingemanse (Países Bajos, EEUU), Francisco Torreira (Países Bajos, Bélgica, EEUU) y Nick J. Enfield (Australia, Países Bajos), por descubrir que la palabra “huh?” (o sus equivalentes) parece existir en todos las lenguas humanas, aunque no está aún clara cuál es la razón. Por ello podría tratarse de una correlación ficticia. El artículo es Mark Dingemanse, Francisco Torreira, Nick J. Enfield, “Is ‘Huh?’ a universal word? Conversational infrastructure and the convergent evolution of linguistic items,” PLoS ONE 09: e94620 (2014), doi: 10.1371/journal.pone.0094620.

El premio de Gestión Empresarial y el premio de Economía, como pasa con los premios Nobel de Economía, creo que tienen poco interés para los lectores de este blog. Por ejemplo, en Economía se premia a la Policia Local de Bangkok (Tailandia) por ofrecer un sobresueldo a los policías que no acepten sobornos.

En resumen, como siempre curiosos e interesantes. Por cierto, algún día la revista PLoS ONE tendrá que recibir el premio Ig Nobel por ser la revista que publica más estudios galardonados en estos premios. Quizás debería recibir el premio de Literatura. Ya veremos que pasa en el futuro.

La entrada Los premios Ig Nobel 2015 fue escrita en La Ciencia de la Mula Francis.

Francis en Mapping Ignorance: Micro black holes are seeds of vacuum instability

$
0
0

Dibujo20150924 micro-black-hole - mapping ignorance

Te recomiendo leer mi última contribución “Micro black holes are seeds of vacuum instability,” Mapping Ignorance, 23 Sep 2015, cuyo primer párrafo (en inglés) dice: “Our universe is not stable according to the currently measured values of the top quark and Higgs particle masses. There is a non-null probability that at any instant in the next billions of years the present “false vacuum” will change to a “true vacuum” by quantum tunneling, destroying all matter, energy and spacetime without any forewarning. Theoretically, a first-order phase transition will occur by bubble nucleation. Usually, phase transitions are dominated by bubbles nucleating around fixed sites, like impurities in the medium or imperfections in the containment vessel. Philipp Burda, from Durham University, U.K., and two colleagues have studied the effect of quantum gravity corrections added to the Higgs potential during the vacuum instability phase transition. Their result is amazing, small black holes can act as nucleation seeds for the decay of the metastable vacuum.”

Seguir leyendo en Mapping Ignorance…

Mi contribución se basa en los siguientes artículos:

Philipp Burda, Ruth Gregory, Ian G. Moss, “Vacuum metastability with black holes,” Physical Review Letters 115: 071303, 13 Aug 2015, doi:10.1103/PhysRevLett.115.071303, arXiv:1501.04937 [hep-th].

Joan Elias-Miró et al., “Higgs mass implications on the stability of the electroweak vacuum,” Physics Letters B 709: 222–228, 19 Mar 2012, doi:10.1016/j.physletb.2012.02.013, arXiv:1112.3022 [hep-ph].

Sidney Coleman, Frank De Luccia, “Gravitational effects on and of vacuum decay,”Physical Review D 21: 3305–3315, 1980, doi: 10.1103/PhysRevD.21.3305.

Philipp Burda, Ruth Gregory, Ian Moss, “Vacuum metastability with black holes,” preprint submitted on 25 Mar 2015, arXiv:1503.07331 [hep-th].

La entrada Francis en Mapping Ignorance: Micro black holes are seeds of vacuum instability fue escrita en La Ciencia de la Mula Francis.

Francis en #ENR15: El Higgs en ‘La Noche Europea de los Investigadores’ de Málaga

$
0
0

Dibujo20150925 La-ciencia-visitara-el-centro-de-Malaga-en-La-Noche-Europea-de-los-Investigadores_topnew-uciencia-uma

‘La Noche Europea de los Investigadores’ es un evento promovido por la Comisión Europea y organizado en más de 350 ciudades por toda Europa. En Andalucía lo promueve la Fundación Descubre. En Málaga lo organizan la Universidad de Málaga y el Jardín Botánico-Histórico ‘La Concepción’ (Ayuntamiento de Málaga). Habrá una amplia oferta de talleres, microencuentros, actuaciones musicales, visitas científicas, monólogos y debates. La Noche Europea de los Investigadores es una tarde/noche abierta a todos los públicos y a todas las edades.

Colaboro con un microencuentro: “El bosón de Higgs. ¿Cómo lo hemos descubierto?” a las 20:00 horas en la sede de Unicaja emplazada en la Plaza de la Marina (el número de plazas está limitado a doce y ya están cubiertas). La foto que abre esta entrada nos la hicieron en la Sala de Juntas del Rectorado, donde se presentó la iniciativa a los medios. Entre los más de 60 investigadores que participamos sólo cinco asistimos al acto (yo soy el de los pantalones cortos y las bandas de Moiré en el polo).

Más información en “La ciencia visitará el centro de Málaga en ‘La Noche Europea de los Investigadores’,” UCiencia, UMA, 23 Sep 2015. También en la web de la Fundación Descubre.

La entrada Francis en #ENR15: El Higgs en ‘La Noche Europea de los Investigadores’ de Málaga fue escrita en La Ciencia de la Mula Francis.

Viewing all 1793 articles
Browse latest View live