Quantcast
Channel: Francis (th)E mule Science's News
Viewing all 1793 articles
Browse latest View live

Cómo afecta el flujo de sangre en el ventrículo izquierdo a su función cardíaca

$
0
0

Dibujo20130824 velocity vectors and specific kinetic energy at beginning of systole - physics of fluids

Hace una década estuve estudiando cómo simular por ordenador el flujo de sangre en el ventrículo izquierdo para compararlo con las medidas de la perfusión cardíaca en los ecocardiógrafos de contraste. Al final todo quedó en una solicitud de proyecto de investigación que no nos concedieron y decidí cambiar de tema de estudio; sin embargo, me sigue gustando leer artículos científicos que presentan los resultados que nosotros podríamos haber obtenido. Se publica en Physics of Fluids una simulación del flujo de sangre en el ventrículo izquierdo que muestra que los patrones del flujo no afectan a la función cardíaca (su efecto es insignificante), aunque mejoran el mezclado de la sangre y el tiempo de residencia de las células sanguíneas en el ventrículo. Me ha sorprendido que este resultado fuera el mismo que imaginaba el cardiólogo con el que yo colaboraba. Quizás los que rechazaron nuestro proyecto también lo imaginaban. Por cierto, hoy en día muchos cardiólogos utilizan en su práctica clínica la ecocardiografía de contraste que permite visualizar el flujo de la sangre en el ventrículo izquierdo gracias a la cavitación de las microburbujas (que producen los contrastes que se inyectan por vía intravenosa, normalmente femoral). Aunque influya poco en la función cardíaca, el flujo depende mucho de la condición cardíaca y un flujo anómalo permite detectar muchas patologías. El nuevo artículo es Jung Hee Seo, Rajat Mittal, “Effect of diastolic flow patterns on the function of the left ventricle,” Physics of Fluids 25: 110801, 23 Aug 2013.

Dibujo20130824 geometry and mesh left ventricle - physics of fluids

El método más utilizado para simular el flujo en el ventrículo izquierdo (y en el corazón en general) es el método del contorno sumergido (IBM por Immersed Boundary Method), que permite simular el movimiento elástico del músculo junto al del fluido (cuyo número de Reynolds es moderado Re∼4000). Se ha utilizado una malla tridimensional de 256 × 256 × 384 (unos 25 millones de elementos), que parece suficiente. Como condiciones de contorno para la entrada de fluido a través de la válvula mitral (desde la aurícula izquierda) y para su salida por la válvula aórtica (hacia la aorta) se utiliza un modelo de parámetros concentrados que simula los sistemas circulatorios periférico y pulmonar. No entraré en más detalles pues se trata de técnicas bastante estándares en la simulación del corazón y no hay novedades al respecto en el nuevo artículo.

Dibujo20130824 Time evolution of vortical structure during the diastole stage and at the mid-systole - physics of fluids

Se ha supuesto un latido cardíaco de 60 pulsaciones por minuto (un ciclo cardíaco por segundo) y se ha simulado un ciclo cardíaco en el ventrículo, es decir, la entrada de fluido a través de la válvula mitral (onda E) y su salida a través de la aórtica (onda A). Un parámetro clave es el cociente E/A entre las velocidades de entrada (llenado del ventrículo) y salida (llenado de la aurícula); utilizando ecocardiografía se puede estimar el cociente E/A, que es utilizado en la práctica clínica. En un corazón sano el cociente E/A ~ 1,2, siendo valores mucho más grandes (E/A ~ 2) o más pequeños que la unidad (E/A ~ 0,5) indicadores de disfunción cardíaca. Por ejemplo, con la edad la pared de la aurícula se vuelve más rígida y se produce un incremento de presión en el ventrículo reduciendo la velocidad de llenado (E) y el cociente E/A.

Las simulaciones muestran que para E/A=1,2 (corazón sano), alrededor de los 0,2 segundos aparece un gran vórtice con forma anular que penetra dentro del ventrículo, donde el flujo está en reposo (desprovisto de vórtices) tras el ciclo cardíaco previo. El vórtice es inestable debido a su interacción con la pared del ventrículo y se destruye. Alrededor de los 0,6 segundos aparece un segundo vórtice anular, más pequeño, generado por el reflujo asociado a la onda A y que interacciona con los restos del primer vórtice. Alrededor de los 0,8 segundos, en la mitad de la sístole, gran parte de las estructuras producidas por los vórtices han desaparecido. Para E/A=0,5 el vórtice asociado a la onda E es mucho más débil, pero el asociado a la onda A es más fuerte, por lo que el flujo es más irregular alrededor de los 0,8 segundos. Para E/A=2, el vórtice E más fuerte, pero la evolución general es parecida al caso normal E/A=1,2.

Dibujo20130824 Pressure-volume loop left ventricle - Time variation of the rate of viscous dissipation - physics of fluids

El ciclo presión-volumen permite evaluar el trabajo mecánico del ventrículo durante el ciclo cardíaco. La presión varía entre 0,6 kPa en la diástole hasta unos 11,8 kPa en la sístole. Las mayores diferencias en función del cociente E/A se observan en la diástole, siendo la sístole muy similar. Los autores han calculado la eficiencia de bombeo en función del cociente E/A, definida como el cociente entre la energía mecánica del flujo de salida por la aorta y el trabajo total realizado por el músculo cardíaco durante la sístole; esta definición permite un cálculo puramente hidrodinámico en sus simulaciones. Las diferencias en función de E/A son muy pequeñas, variando la eficiencia de bombeo entre el 97,8% y el 98%, lo que indica que el patrón del flujo no influye en la función de bombeo del ventrículo. Los autores también han calculado la energía viscosa disipada por el fluido en el ventrículo durante el ciclo cardíaco. Hay diferencias en función del parámetro E/A, pero desde el punto de vista cuantitativo son pequeñas.

En resumen, este estudio concluye que la dinámica del flujo dentro del ventrículo izquierdo para diferentes valores de E/A influye poco en su eficiencia de bombeo y tiene un impacto fisiológico pequeño. Por supuesto, los patrones de flujo son muy sensibles a la condición cardíaca y por tanto permiten estimarla, sirviendo para pronosticar muchas patologías.


Archivado en: Ciencia, Mathematics, Medicina, Noticias, Science Tagged: cardiología, Ciencia, corazón, Experimento, Física computacional, Informática, Matemática aplicada, Noticias

Qué significa nueva física más allá del modelo estándar

$
0
0

Dibujo20130825 Standard Model 4 generations - emmynoethercms uni-hamburg de

El modelo estándar (SM) nació en 1973 con dos generaciones de fermiones (SM2), la segunda aún incompleta (el quark charm se descubrió en 1974). La tercera generación de partículas (SM3) fue física más allá del modelo estándar, en su momento (el quark botttom y el leptón tau se descubrieron en 1977, el quark top en 1995 y el neutrino tau en 2000), pero hoy en día se asume que el modelo estándar tiene tres generaciones. ¿Será nueva física más allá del modelo estándar el descubrimiento de una cuarta generación de fermiones? En mi opinión, el modelo SM4 será llamado así durante pocos años y acabará volviendo a ser llamado SM, a secas.

Cuando nació el modelo estándar se pensaba que los neutrinos no tenían masa. En 1998 se descubrió física más allá del modelo estándar, la oscilación de sabor de los neutrinos (hoy en día confirmada fuera de toda duda). Para muchos físicos la masa de los neutrinos ya no es física más allá del modelo estándar, sino una parte íntegra del SM3, aunque no sabemos cuál es la forma correcta de incorporar la masa de los neutrinos (pues no sabemos si son partículas de Dirac, Majorana o una mezcla, y si su jerarquía de masas es normal o invertida; si todo va bien en un par de años lo sabremos). Si al final resulta que los neutrinos son partículas de Dirac y que su jerarquía de masas es normal, en mi opinión, seguiremos hablando de modelo estándar SM3, sin más coletillas.

Dibujo201308125 Instantons are Locally Correlated with the Chiral Condensate - bu edu

El modelo estándar es una teoría no lineal (toda teoría de campos gauge no abeliana es no lineal) y predice fenómenos no lineales que aún no han sido observados (porque son raros y débiles ya que están exponencialmente suprimidos). Estas predicciones del modelo estándar dan lugar a configuraciones topológicas no triviales de los campos, siendo las más conocidas los monopolos magnéticos y los instantones; aún no han sido observados, pero no se conoce ninguna ley física que prohíba su existencia. Estos fenómenos no perturbativos no pueden representarse con diagramas de Feynman e implican violaciones de los números bariónico y leptónico. Los muy optimistas creen que podrían mostrarse en las colisiones a 14 TeV c.m. en el LHC, aunque quizás haya que esperar a un futuro HL-LHC. Hoy en día se incluyen estos fenómenos en las búsquedas de física exótica y más allá del modelo estándar, pero lo cierto es que si acaban siendo descubiertos engrosaran el gran número de predicciones confirmadas del modelo estándar.

Todavía no entendemos bien el confinamiento de los quarks predicho por la cromodinámica cuántica (QCD) y no conocemos ninguna razón que impida que existan los hadrones exóticos. Todos los hadrones conocidos están formados por tres quarks de diferente color (bariones) o por un pareja quark-antiquark (mesones). Los hadrones exóticos son estados confinados de cuatro, cinco o más quarks. Se han observado algunas resonancias que podrían ser hadrones exóticos, aunque también podrían ser “moléculas” de hadrones, estados ligados de mesones con mesones, o de mesones con bariones. También pueden existir las glubolas, estados confinados de gluones (con pares quark-antiquark virtuales), sin quarks de valencia, y otros estados exóticos. Estos fenómenos de física exótica son considerados física más allá del modelo estándar por algunos físicos, pero muchos otros creemos que sólo reflejan nuestra ignorancia de todas las predicciones de la QCD.

En resumen, la búsqueda desesperada de nueva física más allá del modelo estándar incita a mucha gente a hablar de “pesadilla” cuando no se encuentra, pero en mi opinión no debemos matar la gallina de los huevos de oro antes de tiempo; hay mucha física dentro del modelo estándar que aún no ha sido descubierta, e incluso mucha física descubierta que aún no ha sido explorada con todo detalle. Los próximos años serán apasionantes porque nos desvelarán muchos fenómenos predichos por el modelo estándar; cuando sean descubiertos mucha gente hablará de física más allá del modelo estándar, pero llegará un momento en que serán aceptados como parte íntegra del modelo estándar, porque lo son. Tiempo al tiempo.


Archivado en: Ciencia, Física, LHC - CERN, Noticia CPAN, Physics, Science Tagged: Ciencia, Física, Física teórica, LHC - CERN, modelo estándar, Noticias, Partículas elementales

Naturalidad y nueva física más allá del modelo estándar

$
0
0

Dibujo201308125 naturalness - slide - SEARCH 2013 - raman sundrum

En física, cuando los experimentos no marcan la pauta, hay ideas y gurús que marcan el camino. La última década ha estado dominada por la idea de la naturalidad, cuyo gran gurú es Nima Arkani-Hamed. Esta idea afirma que la solución “natural” a varios problemas del modelo estándar es la existencia de nueva física en la escala de energía de los TeV (entre 100 GeV y 1000 GeV), la escala que explorará en detalle el LHC del CERN. Natural significa que no se requiere un ajuste fino de los parámetros. Si la idea de la naturalidad es correcta, la nueva física más allá del modelo estándar está a la vuelta de la esquina (supersimetría, dimensiones extra y demás física exótica). El LHC entre 2010 y 2012 no ha encontrado nueva física. ¿Significa eso que la naturalidad es una idea errónea? Quizás no, pues también es “natural” que la nueva física esté entre 1 TeV y 10 TeV, o incluso más allá; por qué es “natural” un parámetro del orden de la unidad, pero lo es menos uno que sea del orden de una décima o de una milésima. Nos lo recuerda Raman Sundrum, uno de los organizadores del workshop SEARCH (Susy, Exotics And Reaction to Confronting Higgs) [slides, video]. Más charlas en la web del SEARCH workshop. Un buen resumen en Matt Strassler, “SEARCH day 1,” Aug 21, 2013, “SEARCH Day 2,” Aug 22, 2013, y “Final Day of SEARCH 2013,” Aug 23, 2013.

Dibujo201308125 sparse spectrum - slide - SEARCH 2013 - raman sundrum

La naturalidad pretende resolver el problema de la jerarquía. Hay muchas definiciones posibles de este problema, expondré una de ellas. El modelo estándar no predice la masa del bosón de Higgs y una masa de 125 GeV es igual a 10-17 veces la masa de Planck. ¿Por qué es tan pequeña? La naturalidad nos propone que lo es porque hay nuevas partículas con masa por debajo de 1000 GeV, ya que los bosones escalares (partículas de espín cero) en el pasado siempre han estado asociadas a nuevas partículas (recuerda que en el pasado los bosones escalares siempre han sido partículas compuestas).

Pero hay que tener claro que, incluso si la idea de la naturalidad es correcta, en la escala TeV nadie espera encontrar un gran número de nuevas partículas; como mucho, sólo los primeros ejemplos de nuevos tipos de partículas (como las supersimétricas). Entre la masa del electrón (0,000511 GeV) y la del quark top (173 GeV) hay cinco órdenes de magnitud, ¿por qué no va a ocurrir lo mismo con las nuevas partículas?

Dibujo201308125 long lifetimes - slide - SEARCH 2013 - raman sundrum

Más aún, la vida media de las nuevas partículas puede ser enorme, incluso puede que sean estables. Si hay una simetría que proteja a las nuevas partículas, impedirá que las más ligeras se desintegren en partículas del modelo estándar, con lo que detectar estas nuevas partículas será muy difícil. Habrá que excitarlas en nuevas partículas más pesadas para que puedan decaer en partículas conocidas y las podamos identificar en las búsquedas en los grandes colisionadores de partículas (como el LHC). El camino no tiene porqué ser fácil.

En cierto sentido la idea de la naturalidad es algo parecido al “principio antrópico” y como tal no gusta a mucha gente. El Sol y la Luna tienen un diámetro aparente casi idéntico visto desde la Tierra, lo que nos brinda el espectáculo de los eclipses solares, pero no hay ninguna razón física para ello, se trata de una pura coincidencia. ¿Cuántos planetas extrasolares tendrá una luna similar? Quizás el espectro de las partículas es el resultado de un proceso dinámico a alta energía y depende fuertemente de las condiciones iniciales, que pueden ser aleatorias. Sólo el tiempo nos dará la respuesta. La física de partículas, como la vida misma, da sorpresas. Quizás la nueva física que observe el LHC no tenga nada que ver con lo que esperamos observar.

Dibujo201308125 higgs to invisible - dark matter - cms - lhc

En este sentido Mattt Strassler nos propone en su charla [blog, slides, video] cuatro caminos “exóticos” hacia la nueva física que hay que explorar (la figura de arriba está sacada de la charla de CMS sobre el Higgs [slides, video]). (1) Desintegraciones “exóticas” del Higgs, ya que sus acoplos son muy sensibles a nuevas partículas. (2) Modelos “naturales” de la supersimetría, en los que la masa del Higgs, W y Z cambia muy poco, por lo que tienen un Higgsino ligero (cientos de GeV o menos), un stop (top squark) ligero y un gluino en el rango de 1 a 2 TeV. (3) Partículas de larga vida (mayor de una billonésima de segundo), capaces de recorrer más de 1 mm antes de desintegrarse. Y (4) señales “blandas” (con energías del orden del GeV) que acompañan a las colisiones “duras” que producen nuevas partículas. Se trata de cuatro caminos poco explorados y con toda seguridad habrá físicos experimentales se volcarán en la búsqueda de estas señales.

Buscar las llaves bajo la farola es fácil, todos sabemos hacerlo. Buscar donde no llega la luz requiere el desarrollo de nuevas técnicas de búsqueda. Quizás el camino hacia la nueva física esté en la mano de físicos jóvenes que decidan “rascar donde no pica.”


Archivado en: Ciencia, Física, Noticia CPAN, Physics, Science Tagged: Ciencia, Conferencia, Física, Física teórica, Partículas elementales, SEARCH 2013

El consumo de chocolate y el número de premios Nobel en un país

$
0
0

Dibujo20130827 chocolate - nobel prize awardee - s harris - nature com

En  octubre de 2012 fue noticia un artículo en la prestigiosa revista New England Journal of Medicine que relacionó el consumo anual per capita de chocolate en un país con el número de ganadores de un Premio Nobel. Como es obvio, este resultado no implica que haya una relación de causalidad entre tomar chocolate y recibir un Nobel, aunque haya estudios que prueban que el consumo de chocolate mejora las funciones cognitivas. La revista Nature ha consultado a 23 laureados con el Nobel y les ha preguntado su opinión. Todos opinan que no tiene nada que ver. Sin embargo, el 43% toma chocolate al menos dos veces a la semana, mientras que sólo lo hace el 25% de los 237 científicos sin Nobel consultados. Nos lo contó Beatrice A. Golomb, “Lab life: Chocolate habits of Nobel prizewinners,” Nature 499: 409, 25 Jul 2013; en español pudiste leer el año pasado Muy Interesante, BBC Mundo, El Mundo Salud, ABC Salud, etc.

Dibujo201308127 chocolate consumption per capita and nobel laureates per 10 million population

Te preguntarás por qué Francis rescata esta noticia tras haberse tomado una porción de chocolate. La razón es que quería mostraros esta figura del artículo original (Franz H. Messerli, “Chocolate Consumption, Cognitive Function, and Nobel Laureates,” New Engl. J. Med. 1562–1564, 2012 [copia gratis]). Y recordaros un estudio que afirma que “los adultos [del estudio] que consumían chocolate con mayor frecuencia tenían un IMC (índice de masa corporal) más bajo que aquellos que lo consumían con menos frecuencia. Los resultados no se explican por la ingesta de calorías, la actividad, u otros factores evaluados” (Beatrice A. Golomb, Sabrina Koperski, Halbert L. White, “Association Between More Frequent Chocolate Consumption and Lower Body Mass Index,” Arch Intern Med. 172: 519-521, 2012 [open access]).


Archivado en: Ciencia, Medicina, Noticias, Prensa rosa, Science Tagged: Chocolate, Ciencia, Curiosidades, Estadística, Medicina, Noticias, Premio Nobel

Por qué el ordenador “cuántico” D-Wave Two no es cuántico

$
0
0

Dibujo20130827 D-Wave Quantum Computers

Lo he dicho en varias ocasiones en este blog, pero conviene repetirlo. Un ordenador montado a base de conectar 512 cubits (bits cuánticos) superconductores no es un ordenador cuántico. Para serlo además debe demostrar que durante su operación estos cubits están entrelazados entre sí; si no lo están, estos cubits se comportan como bits probabilísticos y es un ordenador clásico no determinista sin paralelismo cuántico. La compañía canadiense D-Wave no ha demostrado que su ordenador D-Wave Two con 512 cubits sea un ordenador cuántico, por tanto es un ordenador clásico no determinista. Esta hipótesis queda confirmada al analizar con ojos críticos los resultados de D-Wave Two que han sido publicados por la propia compañía. Más aún, ni siquiera es un ordenador de propósito general, capaz de ejecutar un algoritmo no determinista arbitrario; se trata de un ordenador de propósito específico que ejecuta un único algoritmo, el recocido cuántico, la versión con cubits del recocido simulado (simulated annealing). Esta entrada viene a colación por el artículo de Jesse Dunietz, “Quantum Computing Disentangled: A Look behind the D-Wave Buzz,” Scientific American, Aug 27, 2013.

Dibujo20130827 Geordie Rose - near the nucleus of a D-Wave Quantum Computers

El físico canadiense Geordie Rose fundó la compañía D-Wave en 1999 con el objetivo de desarrollar el primer ordenador cuántico comercial. Su idea era desarrollar un ordenador cuántico de propósito general (capaz de ejecutar cualquier algoritmo cuántico) basado en puertas lógicas cuánticas implementadas con cubits superconductores. En 2003 decidió que era imposible luchar contra la decoherencia (quizás no conocía el dicho “lo hizo porque no sabía que era imposible”) y cambió su objetivo, desarrollar un ordenador cuántico adiabático (AQC) de propósito general. En esta tecnología no es necesario que todos los cubits estén en un estado de superposición durante toda la ejecución del algoritmo, basta que haya subconjuntos grandes de cubits en superposición, aunque no importa que vayan fluctuando de forma aleatoria. A priori parece que un AQC permite luchar contra la decoherencia, sin embargo es necesario que haya intersecciones no nulas entre los subconjuntos de cubits en superposición durante la ejecución del algoritmo. Sin este requisito y sin subconjuntos “grandes” en superposición, no se puede obtener un AQC de propósito general.

En 2007, a bombo y platillo, la compañía D-Wave anunció su primer ordenador cuántico comercial, Orion, con 16 cubits. La rueda de prensa mostró que Orion era capaz de resolver un Sudoku y otros problemas similares, pero no demostró que fuera un AQC. Los expertos en computación cuántica adiabática mostraron serias dudas, pues D-Wave no demostró que sus cubits formaran estados de superposición durante la ejecución de sus algoritmos. Según estos expertos, lo poco que se dijo sobre su diseño era suficiente para afirmar que la tecnología de D-Wave no era capaz de lograr estados de superposición de cubits.

La hoja de ruta de D-Wave en 2007 mostraba que su objetivo era obtener un ordenador de 1024 cubits en 2012. Un objetivo muy optimista, quizás. D-Wave logró el objetivo de su rueda de prensa y recabó financiación a fondo perdido (de empresas como Google). Sin embargo, su objetivo inicial se les ha resistido. En 2011 anunció un ordenador de 128 cubits llamado Rainier, luego cambiado a D-Wave One (que fue comprado por la empresa Lockheed Martin, quizás por pura cuestión de marketing) y en 2013 ha anunciado un ordenador de 512 cubits llamado D-Wave Two (que fue comprado en mayo por el nuevo Laboratorio de Inteligencia Artificial Cuántica, consorcio de Google y NASA, de nuevo por pura cuestión de marketing).

Los investigadores de la compañía D-Wave han publicado varios artículos en prestigiosas revistas de investigación (como Nature, Physical Review Letters, etc.). Estos artículos no han demostrado que los ordenadores de D-Wave sean ordenadores cuánticos adiabáticos de propósito general, todo lo contrario. Conforme ha pasado el tiempo los expertos han podido descubrir que se trata de ordenadores de propósito específico que implementan un solo algoritmo, el recocido cuántico. Este algoritmo no es un algoritmo cuántico en sentido estricto, ya que no requiere estados de superposición “grandes” de los cubits y por tanto no aprovecha el paralelismo cuántico (responsable del speedup cuántico respecto a un ordenador clásico).

La opinión actual de los expertos es que D-Wave Two es un ordenador clásico no determinista que utiliza cubits superconductores como probits (bits probabilísticos). Por tanto, su implementación del recocido cuántico no es más eficiente que una implementación en un ordenador clásico, aunque quizás es más fiel, pues implementar un probit utilizando un cubit es mucho mejor que usando un generador de números aleatorios.

Este año ha sido noticia un artículo de D-Wave que afirma que D-Wave Two resuelve un Sudoku mediante recocido cuántico 3600 veces más rápido que un ordenador clásico. Sin embargo, el anuncio tiene trampa. Se comparó el resultado de D-Wave Two con una implementación clásica usando un software comercial de optimización de propósito general adaptado a resolver un Sudoku. La adaptación usada (disponible en la web) era bastante mala y unas semanas más tarde unos informáticos publicaron una versión mejorada que era sólo 14 veces más lenta que D-Wave Two. Un software comercial para la resolución de Sudokus puede ganar a D-Wave Two sin ningún problema en tu ordenador personal como un Ferrari le gana a una Vespa en una autopista. Geordie Rose dice que esta comparación no es justa y que hay que comparar el mismo algoritmo en su ordenador “cuántico” y en un PC. Sólo en dicho caso las decenas de millones de dólares que cuesta su ordenador “cuántico” son capaces de vencer a un PC de mil dólares.

Lo importante es que el análisis en detalle de los resultados publicados este año sobre el rendimiento de D-Wave Two no deja duda a los expertos. No se trata de un ordenador cuántico, sino de un ordenador clásico. El speedup cuántico es exponencial y se puede diferenciar del speedup clásico logrado mejorando un algoritmo que es polinómico; los resultados no dejan lugar a dudas, el speedup demostrado por D-Wave Two no es cuántico.

¿Algún día D-Wave será capaz de fabricar un ordenador cuántico adiabático? Nadie lo sabe. Tras 10 años de investigación y desarrollo han logrado fabricar ordenadores cuánticos adiabáticos de cuatro cubits (cuyo funcionamiento correcto ha sido publicado en revistas de gran prestigio), pero cablear estas unidades de proceso para formar un ordenador de 512 cubits no garantiza que el resultado final también lo sea. De hecho, ni siquiera han demostrado ser capaces de cablear dos unidades de cuatro cubits para formar un AQC de ocho cubits. Muchos expertos creen que el trabajo técnico de los investigadores de D-Wave es muy interesante y que hay que separarlo de los anuncios propagandísticos con objeto de recabar fondos privados para su financiación.

En resumen, D-Wave no está fabricando ordenadores cuánticos adiabáticos de propósito general, sino implementaciones hardware del algoritmo de recocido cuántico basadas en cubits superconductores como probits. Que te den gato por liebre no está mal, si te gusta comer carne de gato.


Archivado en: Ciencia, Computación cuántica, Informática, Noticias, Science Tagged: Ciencia, Computación cuántica, Computación cuántica adiabática, Curiosidades, D-Wave, Noticias, Sudoku

El campo de Higgs, el inflatón, la energía oscura y los monopolos magnéticos

$
0
0

Dibujo20130822 higgs boson discovery - ethan siegel - july 4 2012 Para algunos el descubrimiento del bosón de Higgs ha sido un jarro de agua fría, para otros una diversión sin límite. Como es una partícula escalar (de espín cero) y se han propuesto campos escalares como solución a muchos de los problemas actuales (energía oscura, materia oscura, etc.), extender la física del campo de Higgs para que se comporte en cierto régimen como uno de esos campos es fácil y además se publica fácil en muchas revistas. Por ello, muchos medios publican noticias que afirman que el bosón de Higgs puede explicar la energía oscura, la materia oscura, la inflación cósmica, etc. Hay que tener cuidado con estas noticias. El bosón de Higgs está hasta en la sopa, pero se trata de ideas especulativas que extienden la física del campo de Higgs más allá de lo que está demostrado y los autores de estos trabajos no estudian todas las consecuencias de sus teorías, por lo que en muchos casos contradicen la física conocida (al centrarse en explicar cierto fenómeno, olvidan que su idea tiene consecuencias en otros fenómenos en apariencia alejados). Permíteme poner unos ejemplos de actualidad. Dibujo20130828 upper bound on the top pole mass as a function of the Higgs mass La explicación más sencilla a la inflación cósmica es la existencia de un campo escalar llamado inflatón. Como el Higgs es un campo escalar, se puede acoplar a la gravedad usando un acoplo “no mínimo” (es decir, añadiendo al lagrangiano un término \sqrt{-g}\,\xi\,H^{\dagger}\,H\,R, donde R es el escalar de Ricci, H es el doblete del Higgs, g es el determinante de la métrica g_{\mu\nu} y la constante de acoplo es \xi\gg 1; un valor razonable es \xi \approx 10^{4}, compatible con la mejor estimación actual que es |\xi|<2.6\times 10^{15} según Michael Atkins, Xavier Calmet, “Bounds on the Nonminimal Coupling of the Higgs Boson to Gravity,” Phys. Rev. Lett 110: 051301 (2013)arXiv:1211.0281 [hep-ph]). Utilizando una teoría efectiva, la ecuación del grupo de renormalización hasta NNLO nos indica que los valores actuales de la masa del Higgs y del quark top (ver figura) están a entre dos y tres sigmas de los valores necesarios para que el Higgs pueda actuar como inflatón. Esta posibilidad no se puede excluir, pero no está favorecida por los datos del LHC en el CERN. Los detalles en Alberto Salvio, “Higgs Inflation at NNLO after the Boson Discovery,” FTUAM-13-22, IFT-UAM/CSIC-13-089, arXiv:1308.2244 [hep-ph], Subm. 9 Aug 2013. Dibujo20130828 Higgs see-saw mechanism for dark energy El bosón de Higgs podría estar asociado a una explicación del valor no nulo pero muy pequeño de la constante cosmológica que explica la energía oscura. Lawrence Krauss (Univ. Estatal Arizona) y James Dent (Univ. Louisiana) proponen la existencia de un nuevo campo escalar (más allá del modelo estándar) acoplado al campo de Higgs mediante un mecanismo tipo balancín (see-saw) al que llaman Higgs-saw; la energía del vacío de este nuevo campo crece cuando decrece la del Higgs y viceversa, de tal forma que el vacío a 246 GeV del campo de Higgs implica un vacío con una energía tan pequeña como la necesaria para explicar la energía oscura. ¿Por qué no se han observado las partículas escalares asociadas a este nuevo campo? Porque su masa está en la escala GUT, inalcanzable en los experimentos. El artículo técnico es Lawrence M. Krauss, James B. Dent, “Higgs Seesaw Mechanism as a Source for Dark Energy,” Phys. Rev. Lett. 111: 061802 (2013)arXiv:1306.3239 [hep-ph]). Recomiendo leer a Lisa Grossman, “Dark energy could be the offspring of the Higgs boson,” New Scientist, 14 Aug 2013, y también Lubos Motl, “Krauss-Dent small C.C. from a Higgs seesaw,” TRF, Aug 16, 2013.

El problema con esta idea (en apariencia muy sugerente) es que la masa de la nueva partícula escalar debe ser muy pequeña para explicar la energía oscura. Estas nuevas partículas no han sido observadas. Los experimentos del LHC permiten descartar la existencia de cualquier partícula escalar con una masa menor de la mitad de la masa del Higgs (menor de unos 63 GeV). De hecho, también descartan que la materia oscura sea debida a una partícula escalar (como el axión) de baja masa. Nos lo cuenta, por ejemplo, Dejan Stojkovic, “Implications of the Higgs discovery for gravity and cosmology,” arXiv:1305.6960 [gr-qc], Subm. 29 May 2013. Dibujo20130828 Plot of hc as a function of s and xi for monopole mass 10 TeV El acoplo del Higgs a la gravedad (\xi\neq 0) también conduce a la predicción de la existencia de monopolos magnéticos. André Fuzfa y sus colegas los llaman monopolos de Brout-Englert-Higgs y predicen que debe existir un fondo cósmico de monopolos magnéticos resultado de la escalarización espontánea del vacío en los primeros instantes del Big Bang. Por el momento no hay ningún indicio de la existencia de estos monopolos, por lo que los autores de este estudio asumen una masa de al menos 10 TeV (compatible con un valor de (\xi>10^4). El artículo técnico es Andre Fuzfa, Massimiliano Rinaldi,y and Sandrine Schlogelz, “Brout-Englert-Higgs Monopoles,” arXiv:1305.2640 [gr-qc], Subm. Aug 22, 2013. Dibujo20130828 conformal spacetime diagram for our universe - electroweak vacuum shaded César Tomé, “Los monos mecanógrafos contra la evolución,” Zientziakultura, 23 Ago 2013, nos hablaba del cerebro de Boltzmann en el contexto de la teoría de la evolución. Como no podía ser menos, el bosón de Higgs también está relacionado con el cerebro de Boltzmann, pero en un contexto cosmológico. Nos lo cuenta el padre de esta idea Sean M. Carroll en su blog “The Higgs Boson vs. Boltzmann Brains,” Aug 22, 2013, siendo el artículo técnico Kimberly K. Boddy, Sean M. Carroll, “Can the Higgs Boson Save Us From the Menace of the Boltzmann Brains?,” arXiv:1308.4686 [hep-ph], Subm. 21 Aug 2013. Recomiendo la lectura de este artículo y me permito un resumen muy breve de su contenido para incentivarla.

César decía que “una infinidad de monos con un tiempo infinito podrían haber sido los autores de los libros de la famosa Biblioteca de Babel, del cuento homónimo de Jorge Luis Borges.” El modelo cosmológico de consenso ΛCDM, donde ”Λ” representa la constante cosmológica y “CDM” son las siglas en inglés de Materia Oscura Fría, también tiene el problema del cerebro de Boltzmann. Si la expansión acelerada del universo es eterna, en cierto momento habrá fluctuaciones aleatorias que producirán de forma espontánea objetos tan complicados como un cerebro. Esto es inaceptable en una teoría física razonable. La solución a este problema es la metaestabilidad del vacío del campo de Higgs. El vacío del campo de Higgs, es decir, el vacío del universo actual, puede ser estable, metaestable o inestable. Si es inestable se producirá una transición de fase a otro valor de vacío (si es que existe) o el universo se desintegrará. Si es estable el universo será eterno pero tendremos el problema del cerebro de Boltzmann. La metaestabilidad puede evitar ambos problemas. Dibujo20130828 percolation metastability stability - electroweak vacuum Esta figura muestra la estabilidad del campo de Higgs en función de su masa y de la masa del quark top. Si el campo de Higgs es estable (debajo de la línea azul de la figura), tenemos el problema del cerebro de Boltzmann. Si es metaestable (entre la línea azul y la roja), el vacío se volverá inestable y se formarán burbujas en el campo de Higgs, que se expanderán a la velocidad de la luz, pero estas burbujas no llegarán a tocarse, con lo que el universo sobrevivirá (los detalles son conocidos desde hace mucho tiempo, p.ej. Sidney Coleman, “Fate of the false vacuum: Semiclassical theory,” Physical Review D 15: 2929-2936, 15 May 1977 [pdf gratis]). Y si es inestable (por encima de la línea roja), las burbujas se forman tan rápido que llegan a tocarse y el universo se desintegraría; bueno en realidad este caso no se puede dar porque haciendo los cálculos resulta que el universo ya tendría que haberse desintegrado (y no podrías estar leyendo esta entrada).

Según los datos de ATLAS y CMS en el LHC la masa del Higgs es 125,66 ± 0,34 GeV, y la del quark top es de 173,20 ± 0,87 GeV, por tanto el campo de Higgs es “metaestable,” en apariencia. La razón es que la masa del quark top se puede definir de varias formas diferentes y según el reciente artículo de CMS Collaboration, “Determination of the top-quark pole mass and strong coupling constant from the ttbar production cross section in pp collisions at sqrt(s) = 7 TeV,” arXiv:1307.1907 [hep-ex], Subm. 7 Jul 2013, en los estudios de la estabilidad del campo de Higgs el valor que hay que utilizar para la masa del quark top es 176,7 ± 3,6 GeV. Por tanto no sabemos aún si estamos en la región de estabilidad o en la de metaestabilidad.

Si estamos en la región de metaestabilidad, ¿qué es lo más seguro para nuestro universo? Según Carroll justo el borde por debajo de la línea roja, es decir, cuando el quark top tiene una masa de 178 GeV. En dicho caso se puede estimar que nuestro vacío actual tendrá una vida de unos 20 mil millones de años (y ya llevamos unos 13,8 mil millones). Dentro de unos miles de millones de años se producirá la transición a un nuevo vacío, pero el universo sobrevivirá a la transición (como es obvio nosotros y el resto del contenido del universo no sobrevivirán). Lo curioso es que el universo podrá ser eterno ya que renacerá de sus cenizas cual ave Fénix.

Por supuesto, en estas estimaciones se considera que no existe nueva física a altas energías (escala GUT o escala de Planck) que altere estas estimaciones. En mi opinión hay muchos indicios de que hay nueva física a altas energías (al menos en la escala de GUT), luego todas las conclusiones de Carroll son pura especulación. Lo que no quita que sean muy sugerentes.

Lo dicho, recomiendo leer a Sean Carroll.


Archivado en: Bosón de Higgs, Ciencia, Física, Noticia CPAN, Noticias, Physics, Science Tagged: Bosón de Higgs, Ciencia, Cosmología, Curiosidades, Energía oscura, Física, Física teórica, Inflación cósmica, LHC - CERN, Metaestabilidad, Monopolos magnéticos, Noticias, Partículas elementales

Descubierta una red de autocitas entre cuatro revistas brasileñas

$
0
0

Dibujo20130828 citation stacking - four brazilian journals - outside jcr

Cuatro revistas brasileñas han perdido su índice de impacto en el último Journal of Citation Reports JCR 2012 de Thomson-Reuters y han sido puestas en cuarentena. Mauricio Rocha-e-Silva pensó que había descubierto la gallina de los índices de impacto. Desde 2009, junto a otros tres editores de revistas han estado publicando artículos que contienen cientos de citas a artículos de las revistas de los demás, cuyo único objetivo es incrementar su factor de impacto. Los algoritmos de análisis de autocitas de Thomson Reuters fueron engañados hasta el 19 de junio de 2013, el día que alguien descubrió la trampa. Con los nuevos algoritmos de análisis de autocitas se evitará que esto vuelva a ocurrir en el futuro. Por supuesto, Rocha-e-Silva, médico ya jubilado, ya no es editor de su revista, con sede en São Paulo (ha sido despedido por la editorial); sin embargo, los otros tres editores siguen en su puesto. Nos lo cuenta Richard Van Noorden, “Brazilian citation scheme outed. Thomson Reuters suspends journals from its rankings for ‘citation stacking’,” News, Nature 500: 510–511, 29 Aug 2013.

Dibujo20130828 football fans - brazil

La “ingeniería” del factor de impacto es una práctica inmoral que practican muchos editores de revistas. Thomson Reuters detecta las autocitas excesivas y lucha contra ellas retirando la revista del JCR. Por supuesto, no siempre son responsables los editores, ya que también se detectan grupos de autores que se autocitan entre ellos, incrementando el índice de impacto de las revistas en las que publican. Pero lo más curioso es cada día las prácticas utilizadas por editores y autores inmorales son más “inteligentes” y tratan de engañar de forma explícita a los algoritmos automáticos de detección de Thomson Reuters. Por ello, están mejorando dichos algoritmos de forma constante y continua.

Abel Packer, coordinador del sistema de publicaciones abiertas (open access) patrocinadas por el gobierno de Brasil, llamado SciELO, afirma que la acción de los cuatro editores es “lamentable e inaceptable,” pero añade que estos editores han caído en la tentación debido a la mala política de la Agencia del Ministerio de Educación de Brasil, llamada CAPES. Muchos editores brasileños han hecho campaña durante años contra la política de la CAPES. Dice el propio Rocha-e-Silva que la CAPES ”siempre se han negado rotundamente a cambiar de política.”

En concreto, se acusa a la CAPES de evaluar los programas de posgrado (maestría y doctorado) en función del índice de impacto de las revistas en las que publican los estudiantes de investigación. Estos estudiantes publican sobre todo en revistas brasileñas, con lo que se justifica la práctica de engordar el índice de impacto de dichas revistas de forma artificial utilizando malas prácticas. En respuesta, CAPES ha dicho que ninguno de los artículos publicados entre 2010 y 2012 en las cuatro revistas retiradas del JCR será tenido en cuenta en la evaluación de los programas de posgrado.

Bruno Caramelli, editor de la Revista da Associação Médica Brasileira, y Carlos Roberto Ribeiro de Carvalho, director del Jornal Brasileiro de Pneumologia, argumentan que su idea era exponer la calidad de los artículos que se publican en revistas brasileñas, para atraer nuevas contribuciones de calidad, sin ninguna intención de incrementar su índice de impacto de forma inmoral.

Por supuesto, no se trata de un caso específico de Brasil. En el último JCR 2012 publicado en junio de 2013, se retiró el índice de impacto a 37 nuevas revistas, con un total acumulado de 66 revistas retiradas. Estas revistas pasan por un purgatorio de dos años y si logran demostrar que ya no realizan prácticas inmorales recuperan su índice de impacto; en otro caso, son retiradas de forma definitiva y tienen que reiniciar todos los procesos de petición de índice de impacto como cualquier nueva revista. Por supuesto, 66 revistas de 10.853 representan sólo el 0,6%. Es decir, se trata de un problema de menor importancia. Pero ya se han detectado nuevas revistas que el año que viene saldrán del listado JCR 2013. El prestigio de Thomson Reuters está en juego y el que mete la pata, si le pillan, cumple su purga.


Archivado en: Bibliometría, Ciencia, Noticias, Política, Science Tagged: Bibliometría, Ciencia, Curiosidades, Factor (o índice) de impacto, JCR 2012, Noticias, Publicaciones científicas

Diferentes teorías sobre qué son el espacio y el tiempo

$
0
0

Dibujo20130828 Quantum_gravity_head_FLAT - nature com

Zeeya Merali ha entrevistado al físico Mark Van Raamsdonk (Univ. Columbia Británica en Vancouver, Canadá), uno de los padres de la idea ER=EPR, sobre qué es el espaciotiempo. Su respuesta es sencilla: “pura información codificada en un holograma” cual una película de ciencia ficción como Matrix. El “principio holográfico” puede parecer extraño, pero según Van Raamsdonk es fundamental para entender la relación entre la relatividad general, que explica cómo la gravedad es resultado de la curvatura del espaciotiempo, y la mecánica cuántica, que gobierna el mundo subatómico. Recomiendo la lectura de Zeeya Merali, “Theoretical physics: The origins of space and time,” Nature 500: 516–519, 29 Aug 2013. Me permito un traducción libre en forma de resumen para quienes no tengan acceso a este interesante artículo.

Dibujo20130828 black holes and holography - nature com

Merali ha aprovechado que Van Raamsdonk y muchos colegas están reunidos en el “KITP Rapid Response Workshop: Black Holes: Complementarity, Fuzz, or Fire?,” organizado entre el 19 y el 30 de agosto por Raphael Bousso (UCB), Samir Mathur (OSU), Rob Myers (PI), Joe Polchinski (KITP), Lenny Susskind (Stanford) y Don Marolf (UCSB) [listado de las charlas con enlaces a los vídeos]. Confieso que yo he visto todas las charlas de la semana pasada. Para entender muchas de ellas hay que leer los artículos técnicos más recientes de los conferenciantes, pero lo más interesante no es el contenido, sino el diálogo entre expertos y las discusiones al margen sobre las ideas presentadas. Obviamente, sólo recomendable para frikis de estos asuntos.

El principio holográfico se inspiró en la entropía de Hawking-Bekenstein asociada a los agujeros negros (que es proporcional al área del horizonte de sucesos, en lugar de al volumen como en cualquier objeto material). Esta entropía corresponde a un conjunto de microestados del agujero negro que están de alguna forma codificados en el horizonte de sucesos, que actúa como un holograma plano que almacena la información del espacio tridimensional que acota. El físico argentino Juan Maldacena (Instituto de Estudio Avanzado de Princeton, Nueva Jersey) publicó en 1998 un modelo holográfico del universo que aplicó la misma idea al espaciotiempo, que sería un concepto emergente a partir de la información holográfica. Esta información equivaldría a partículas cuánticas en una teoría cuántica de campos asociada al holograma.

En 2010, Van Raamsdonk estudió que pasaría si las partículas del holograma estuvieran entrelazadas (el entrelazamiento cuántico corresponde a correlaciones entre partículas que garantizan que al medir el estado de una partícula también se altera el estado de la otra partícula). Descubrió que si todas estas partículas están entrelazadas a pares (monogamia del entrelazamiento), cuando se rompe este entrelazamiento entre dos partículas es como si se divide el espaciotiempo tridimensional interior al horizonte en dos partes. Repitiendo el procedimiento el volumen del espaciotiempo se va reduciendo en potencias de dos. Para Van Raamsdonk es como si el entrelazamiento cuántico en el holograma fuera lo mismo que el espaciotiempo emergente. Según Maldacena, “la información cuántica en el holograma es fundamental y el espaciotiempo es emergente.”

Dibujo20130828 gravity - thermodynamics - loop quantum gravity - nature com La gravedad emergente a partir de la termodinámica también nació al tratar de generalizar a todo el espaciotiempo la entropía de Hawking-Bekenstein. En 1995, Ted Jacobson (Univ. Maryland en College Park) postuló que todo punto en el espacio pertenece al horizonte de sucesos de un microagujero negro y a partir de esta idea derivó las ecuaciones de Einstein de la relatividad general (usando sólo conceptos termodinámicos sin introducir de forma explícita el concepto de espaciotiempo, que emerge a partir de los primeros). La idea alcanzó la fama en 2010, cuando Erik Verlinde (Univ. de Amsterdam) dio un paso más allá derivando las leyes de Newton a partir de la termodinámica estadística de los constituyentes del espaciotiempo (sean estos lo que sean). Thanu Padmanabhan (Centro Interuniversitario de Astronomía y Astrofísica de Pune, India) mostró que las ecuaciones de Einstein se pueden reescribir en una forma equivalente a las leyes de la termodinámica.

Verificar estas ideas mediante experimentos es muy difícil, porque los constituyentes discretos del espaciotiempo se estima que tienen una tamaño en la escala de Planck. Sin embargo, se puede medir su efecto sobre la propagación de los fotones de muy alta energía en los rayos gamma producidos en fenómenos violentos del universo. Giovanni Amelino-Camelia (Univ. de Roma) y varios colegas publicaron en abril de 2013 los primeros indicios de este fenómeno, que tendrán que ser confimados en los próximos años. También están en curso varios experimentos en laboratorio. Por ejemplo, en 2012, físicos de la Univ. de Viena y del Imperial College de Londres propusieron un experimento de interferometría para estudiar la estructura discreta del espaciotiempo. 

La gravedad cuántica de bucles nació a mitad de los 1980 gracias al trabajo de Abhay Ashtekar (Instituto de Física Gravitacional y Geometría, Univ. Estatal de Pensilvania) y otros que describieron el tejido del espaciotiempo como una red de enlaces que portan información cuántica sobre las áreas y los volúmenes. Estos enlaces pueden cerrarse sobre sí mismos formando bucles (que no tienen nada que ver con las “cuerdas” de la teoría de cuerdas). Los bucles son cuánticos y definen una unidad mínima de área (la unidad de área en la escala de Planck) de forma similar a como la mecánica cuántica aplicada a un átomo de hidrógeno define un estado de energía mínima para su electrón. Esta unidad de área no se puede curvar demasiado con lo que no se pueden producir singularidades en curvatura como las que predice la gravedad de Einstein en el interior de los agujeros negros o en el Big Bang.

En 2006, simulaciones por ordenador realizadas por Ashtekar para la singularidad del Big Bang, y por Rodolfo Gambini (Univ. de la República, Montevideo, Uruguay) y Jorge Pullin (Univ. Estatal de Luisiana, Baton Rouge) para un agujero negro demostraron cómo evita las singulariades la gravedad cuántica de bucles. Sin embargo, esta teoría aún tiene muchos problemas básicos que resolver, por ejemplo, cómo unificar la gravedad con otras fuerzas o cómo emerge el espaciotiempo a partir de la red de información cuántica de los bucles.

Dibujo20130828 causal sets - causal dynamics triangulations - nature com

La teoría de redes causales nació con el trabajo pionero Rafael Sorkin (Perimeter Institute, Waterloo, Canada). Esta teoría postula que los bloques que forman el espaciotiempo son puntos matemáticos conectados por enlaces causales, que conectan pasado con futuro. En una simulación por ordenador la red resultante construye el espaciotiempo de forma gradual, lo que según Sorkin “permite ver cómo emerge el espaciotiempo a partir de los puntos originales igual que la temperatura emerge a partir de los átomos de un gas. ¿Qué es la temperatura de un sólo átomo? De igual forma no tiene sentido preguntar dónde está el espaciotiempo en la red causal.”

A finales de los 1980, Sorkin calculó el número de puntos en el universo observable y su razonamiento le llevó a inferior que existía una pequeña energía intrínseca que causa que el universo acelere su aceleración. Esta predicción se confirmó en 1998 con el descubrimiento de la energía oscura. Según Sorkin, “su predicción fue la primera predicción de la teoría cuántica de la gravedad.” Obviamente, no todo el mundo opina lo mismo. 

Las triangulaciones dinámicas causales son una variante de las redes causales que nació a principios de los 1990 y cuya simulación por ordenador tiene ciertas ventajas técnicas. Los bloques de espaciotiempo son símplices tetradimensionales (la generalización de un triángulo o un tetraedro a cuatro dimensiones) que de forma espontánea se agregan unos a otros mientras sufren fluctuaciones cuánticas aleatorias. Las simulaciones de Renate Loll (Univ. Radboud, Nijmegen, Holanda) resultan en “universos” exóticos con una geometría muy complicada y un número erróneo de dimensiones (o muchas o muy pocas). Sin embargo, cuando se fuerza que el pegado de símplices preserve la causalidad se obtienen universos en cuatro dimensiones que son diferenciables (muy similares a nuestro universo).

La idea de que en el Big Bang el universo nació con sólo dos dimensiones (una de espacio y una de tiempo) y que fue ganando dimensiones conforme fue evolucionando es muy sugerente. Aún así, todavía nadie ha derivado las ecuaciones de la gravedad a partir de esta idea, aunque algunos expertos creen que la aparición de la energía oscura en los universos que crecen hasta alcanzar cuatro dimensiones es un signo de que la idea no es del todo incorrecta.

El artículo de Merali concluye así, sin ofrecer una respuesta, pero se decanta claramente por el principio holográfico. Hay muchas otras ideas sobre la emergencia del espaciotiempo que han sido publicadas y que quizás merecerían estar en la lista, pero las que están son sugerentes.


Archivado en: Ciencia, Física, Noticias, Physics, Science Tagged: Agujero negro, Ciencia, Física, Física teórica, Gravedad cuántica, Gravedad cuántica de bucles, gravedad de Verlinde, Noticias, Principio holográfico, Teoría de cuerdas (String Theory), triangulaciones dinámicas causales

Por qué Sgr A* acreta materia de forma tan ineficiente

$
0
0

Dibujo20130829 Zoom into the galactic center - supermassive black hole Sgr A emitting a broad spectrum of light from radio up to x-rays

Sgr A*, el agujero negro supermasivo en el centro de la Vía Láctea, ha sido observado por el telescopio espacial Chandra de rayos X. Hay una fuente puntual rodeada por una región de 2″ (segundos de arco) con estrellas muy débiles y nubes de gas. El 99% de este gas no alcanza el horizonte de sucesos de Sgr A*, porque el flujo de entrada es casi equilibrado por un flujo de salida, impidiendo que la materia capturada en esta región llegue a acercarse al horizonte. Por ello el brillo de Sgr A* en rayos X es un millón de veces menor del esperado (pues su tasa de acreción debería ser de 10-5 masas solares por año). Que la materia cercana a Sgr A* sea eyectada es una predicción de los modelos teóricos RIAF (por Radiatively Inefficient Accretion Flows) para agujeros negros que acretan materia de forma muy ineficiente. En los próximos meses una gran nube de gas colisionará con Sgr A* y debería provocar un incremento de su luminosidad en un factor de un millón confirmando estos modelos teóricos. Habrá que estar al tanto. Nos lo cuenta Jeremy D. Schnittman, “The Curious Behavior of the Milky Way’s Central Black Hole,” Science 341: 964-965, 30 Aug 2013, que se hace eco de Q. D. Wang et al., “Dissecting X-ray–Emitting Gas Around the Center of Our Galaxy,” Science 341: 981-983, 30 Aug 2013.

Dibujo20130829 X-ray overview 56 x 46 arcseconds around Sgr A-star - Science mag

En el centro de la Vía Láctea se encuentra un agujero negro supermasivo llamado Sgr A* (Sagitario A-estrella), un laboratorio ideal para estudiar la teoría de la relatividad general bajo condiciones extremas. Esta figura muestra una región de 56′′ × 46′′ a su alrededor. La región central (rodeada de un círculo blanco a trazos discontinuos) marca la región central de Sgr A* donde Chandra ha obtenido las nuevas observaciones que se publican en Science. El telescopio Keck ha observado el movimiento de las estrellas alrededor de Sgr A* indicando que tiene unos 4 millones de masas solares concentrada, según los radiotelescopios, en una región con un radio menor de 40 millones de kilómetros. Un agujero negro así sólo puede acretar la materia que se encuentra en una región de 4″ (segundos de arco).

Dibujo20130829 X-ray images of Sgr A-star in quiescence - Science mag

Los rayos X tienen una longitud de onda muy corta y permiten obtener imágenes de alta resolución. El telescopio Chandra de rayos X permite obtener imágenes con una resolución de 0,4″ (recuerda que 1″ corresponde a unas cien mil veces su radio de Schwarzschild). El perfil de temperatura y densidad de las nubes de gas en la región a 2″ de Sgr A* muestra múltiples estrellas, demasiado débiles para ser observadas de otro modo, y nubes de gas con lo que parecen chorros de materia arrancados a las estrellas y dirigidos hacia el agujero negro. Pero por alguna razón gran parte de este gas (como un 99%) no alcanza el horizonte de sucesos del agujero negro.

Dibujo20130829 extracted from the inner circle with local-background-subtracted and model fits - Science mag

El espectro de rayos X muestra líneas de emisión que permiten estimar la temperatura y densidad del gas. La nueva medida permite rechazar la hipótesis de que su origen sqan llamaradas estelares originadas en la corona de las estrellas que rodean Sgr A*. Hay cuatro razones para ello, entre las que destaca que se trata de una emisión en reposo que no muestra variaciones en escalas de tiempo de horas o días, como se esperarIa de las erupciones coronales de estrellas individuales. El espectro observado ha sido ajustado con las predicciones de los modelos RIAF mostrando un ajuste excelente. El perfil de densidad sugiere la presencia de un flujo de salida que casi equilibra el flujo de entrada, resultando que menos del 1% de la materia inicialmente capturada en esta región llega a penetrar a la región más interna alrededor de Sgr A *, lo que reduce su potencial de acreción de materia. Esto explica su baja luminosidad bolométrica y la ausencia de chorros de gran alcance.


Archivado en: Astronomía, Ciencia, Física, Noticias, Physics, Science Tagged: Agujero, Agujero negro, Astrofísica, Astronomía, Chandra, Ciencia, Experimento, Física, Noticias, Observatorio espacial Chandra, Rayos X, Sgr A*

Superconductores cuya temperatura crítica es insensible a la densidad de portadores

$
0
0

Dibujo20130829 Anomalous independence of interface superconductivity from carrier density

El secreto de los superconductores de alta temperatura es uno de los problemas más importantes de la física teórica actual. Cada año se descubren nuevas e inesperadas propiedades de los cupratos y pnicturos. Se publica en Nature que hay cupratos cuya temperatura de transición Tc es insensible a la densidad de portadores. Se ha estudiado una estructura bicapa formada por una película de un cuprato aislante, La2CuO4, y otra de uno metálico, La2-xSrxCuO4, en la que se ha variado el porcentaje de dopado x entre 0,15 y 0,47; la sorpresa para los autores del estudio es la temperatura crítica Tc no cambia (aunque otras propiedades como la resistencia Hall cambian en un orden de magnitud). Nadie tiene una explicación a algo tan exótico e inesperado, que además pone en problemas varias teorías prometedoras para explicar los superconductores de alta temperatura. Lo apasionante de este campo es que conforme crece el número de experimentos, el número de incógnitas a resolver también crece. Sin lugar a dudas quien idee una teoría que explique el comportamiento superconductor de cupratos y pnicturos observado en los experimentos merecerá un Premio Nobel inmediato, pues habrá logrado explicar muchas más cosas que la mayoría de los laureados con este premio; aunque quizás no haya una única teoría, sino una red compleja de diversas teorías que explican la superconductivdad a alta temperatura en diversos materiales y en diversas circunstancias. El artículo técnico con el nuevo descubrimiento es J. Wu et al., “Anomalous independence of interface superconductivity from carrier density,” Nature Materials, Published online 04 August 2013.

Dibujo20130830  The temperature dependence of the critical temperature of various channels from the same combinatorial library - Nature MaterialsLa mayoría de los superconductores de alta temperatura están formados por capas planas de átomos y las propiedades de estas capas sólo se pueden explorar en detalle cuando corresponden a la interfaz plana entre dos materiales. Por ello, uno de los campos más activos en superconductores de alta temperatura es el estudio de sistemas formados por capas alternas (películas delgadas) de materiales de diferente naturaleza. Este campo está ofreciendo bastantes sorpresas.


Archivado en: Ciencia, Física, Nanotecnología, Noticias, Physics, Science Tagged: Ciencia, cupratos, Curiosidades, Experimento, Física, Física de materiales, Noticias, Superconductividad

La escala de energía de la supersimetría más allá del alcance del LHC

$
0
0

Dibujo20130830 Savas Dimopoulos - States of BSM Theorists after LHC 8

Recordar es fácil para los viejos, olvidar es fácil para los jóvenes. A principios de los 1990 se pensaba que había una plétora de partículas supersimétricas con una masa inferior a la masa del bosón Z que resolvían de forma natural el problema de la jerarquía. Gracias a LEP sabemos que no es así. A principios de los 2010 muchos físicos pensaron que esas partículas tenían una masa al alcance del LHC, pero las colisiones a 8 TeV c.m. del año 2012 nos han mostrado que no es así. Sólo los más optimistas esperan una plétora de partículas supersimétricas al alcance del LHC con colisiones a 14 TeV c.m. aunque aún no tengamos ningún indicio. Los más realistas pensamos que a lo sumo cabe esperar una o dos partículas nuevas. ¿Por qué la supersimetría tiene que resolver el problema de la jerarquía? ¿No es más razonable que resuelva el problema de la inestabilidad del vacío del campo de Higgs? En dicho caso no podemos esperar que la escala de la supersimetría sea muy inferior a diez millones de TeV, un millón de veces más energía que la que se podrá alcanzar con el LHC. Nos lo cuenta, como no, Luis Ibáñez (Instituto de Física Teórica UAM-CSIC, Madrid), “The Scale of SUSY Breaking, the Higgs Mass and String Theory,” SUSY 2013, ICTP, Trieste, Aug 28, 2013 [slides pdf]. Algunas de las figuras de esta entrada están extraídas de Savas Dimopoulos (Stanford University), “States of BSM Theorists after LHC 8,” SUSY 2013, ICTP, Trieste, Aug 28, 2013 [slides pdf].

Dibujo20130830 squark-gluino-neutralino model - atlas - lhc 8 tev - cern

Buscar partículas supersimétricas en el LHC no es fácil, pero se ha dedicado tanto esfuerzo a desarrollar técnicas de análisis para lograrlo. Hoy se ha explorado un gran espacio de parámetros asociado a las masas de las posibles partículas supersimétricas y podemos afirmar sin rubor que por debajo de un TeV no hay gluinos ni squarks ni neutralinos. Por supuesto, los límites actuales para winos y higgsinos no los excluyen en esta escala, pero siempre se ha pensado que el gluino era clave en el espectro de superpartículas. Todo indica que si existe una partícula supersimétrica con masa inferior a un TeV debe estar muy escondida en el espacio paramétrico de la supersimetría (lo que no es imposible pues hay más de cien parámetros libres).

Dibujo20130830 susy breaking scale Mss GeV - ibanez  - valenzuela

La masa del bosón de Higgs tampoco ofrece esperanzas a la supersimetría. Aunque predice una masa inferior a 130 GeV, prefiere un valor más cercano a 120 GeV, con lo que un Higgs con una masa de 126 GeV está en la parte alta de las predicciones de la SUSY. Sin embargo este valor también tiene sus ventajas. Con una masa de 126 GeV para el Higgs el vacío del modelo estándar no es estable, sino metaestable, volviéndose inestable a una escala de energías alrededor de 1011 GeV. La supersimetría podría resolver este problema (y estabilizando el vacío del modelo estándar), en lugar del problema de la jerarquía. En dicho caso, la escala de energía de la rotura de la supersimetría tiene que ser de este orden y no podemos esperar partículas supersimétricas con una masa muy inferior a unos 1010 GeV (aunque tampoco las podemos descartar con seguridad, basta recordar la diferencia de masa entre los neutrinos y el quark top).

Luis Ibáñez nos recuerda que muchas compactificaciones en teoría de cuerdas predicen una escala de energía intermedia Mss para la rotura de la supersimetría, por debajo de la cual tenemos el modelo estándar y por encima un modelo supersimétrico mínimo; nos propone como ejemplo la unificación SU(5) en IIB/F-theory. En su charla no se resiste a buscar un resquicio para la SUSY en la escala TeV, pues como todo los físicos que han trabajado en teoría de cuerdas/teoría M confía en que la supersimetría sea la primera señal de esta teoría de todo.

No debemos perder la esperanza de que el LHC a 14 TeV c.m. encuentre algún indicio de la supersimetría. Pero hay que estar preparados para que no sea así, en cuyo caso habrá que confiar en otros medios para explorar la escala de energías a la que el Higgs desestabiliza el vacío pues allí se puede ocultar la supersimetría. La desintegración del protón y la física de los neutrinos son caminos prometedores para explorar el universo, aunque de forma indirecta, a dicha escala de energías, una escala millones de veces por encima de lo alcanzable en el LHC o en cualquier otro colisionador de partículas que podamos disponer durante el siglo XXI.


Archivado en: Bosón de Higgs, Ciencia, Física, Noticia CPAN, Noticias, Physics, Science Tagged: Bosón de Higgs, Ciencia, Curiosidades, Física, Física teórica, LHC - CERN, Noticias, Partículas elementales, supersimetría, SUSY, Teoría de cuerdas (String Theory)

En el 31 cumpleaños del CD, un repaso a su evolución hasta el Blu-ray

$
0
0

Dibujo20130901 ali ghalehban - Comparison CD DVD HDDVD BD

El Compact Disc (CD) ha cumplido 31 años. Luis Quevedo ‏(@luis_quevedo) nos lo recordó con un tuit: “el 31 de agosto de 1982, se anunciaba en Tokyo el lanzamiento del primer sistema de CD por parte de Sony, CBS/Sony, Philips y Polygram.” Acompañó su tuit con esta figura (fuente original) que muestra la evolución de la tecnología de almacenamiento óptico de datos desde el CD de música hasta el Blu-Ray, pasando por el DVD y HD DVD. La figura ofrece mucha información, como el cambio de la frecuencia (color) del láser, la distancia entre pistas, el tamaño de los pits (marcas que representan los bits) y el diámetro del punto de luz sobre la pista de datos. Le prometí a Luis una explicación de la figura y toda promesa es una deuda. Por cierto, la primera vez que me enteré de la física del CD fue en el artículo de John A Cope, “The physics of the compact disc,” Physics Education 28: 15-21, 1993. En aquella época yo pasaba muchas horas en la hemeroteca todas las semanas. Algunas figuras de esta entrada están extraídas del ”White Paper Blu-ray Disc™ Format General,” 3rd Edition, December, 2012.

Dibujo20130901 electron micrograph - Comparison CD DVD Blu-ray

Esta micrografía electrónica confirma que la figura que abre esta entrada es bastante realista. Los datos se graban en el disco en forma de marcas llamadas pits, pequeños agujeros o depresiones que el láser de grabación deja al quemar la superficie de resina donde se graban los datos en binario (la resina es la parte verde en la imagen inferior de la figura que abre esta entrada). La resina fotorresistente se recubre con una fina capa de aluminio para incrementar su reflectividad. La luz del láser de lectura interfiere de forma destructiva con la luz reflejada por las marcas, lo que reduce la intensidad de luz reflejada; donde no hay marca no hay interferencia destructiva. Un fotodiodo mide las subidas y bajadas de la intensidad de la luz reflejada para la lectura de la información almacenada en la pista en forma de bits (dígitos binarios) codificados con la técnica de no retorno a cero (NRZI).

Dibujo20130901 numerical aperture na defined as sine of semi-angle

En el CD se usa la luz de un láser semiconductor rojo con una longitud de onda de 780 nm, que en DVD se reduce a uno rojo con 650 nm y en Blu-ray a uno azul con 405 nm. La pista con las marcas (pits) de información se encuentra a 1,2 mm de la superficie del disco (más o menos el grosor del  disco sin etiqueta). La luz del láser es enfocada por una lente que produce un cono de luz, cuya forma viene determinada por un parámetro llamado apertura numérica (NA), dado por el seno del semi-ángulo θ del cono (ver esta figura). En un CD la lente produce un cono de luz con un semi-ángulo θ de 27º (grados) en el aire, pero este valor se reduce dentro del material del disco (un plástico de policarbonato cuyo índice de refracción n es de 1,55) a un semi-ángulo θ’ de unos 17º (recuerda θ’ = θ/n). En los cálculos basados en la apertura numérica se utiliza este último ángulo.

El diámetro del disco de luz que incide sobre la superficie de un CD es de 2 x 1,2 mm x tan 17º = 0,73 mm, varios órdenes de magnitud superior al tamaño de las marcas que codifican la información; la ventaja de esta decisión de diseño es que cualquier objeto sobre la superficie del disco con un diámetro inferior a 0,5 mm, como una raya, una mota de polvo o incluso un cabello humano, afectará poco al paso de la luz del haz hacia la pista de música y permitirá la lectura sin error de los datos (por supuesto se usan códigos con corrección de errores para codificar la información almacenada, pero no entraré en sus detalles).

Como muestra esta figura (y la que abre la entrada), la lente no enfoca la luz en el plano de la resina (a 1,2 mm) sino en un plano de enfoque intermedio. En el CD se encuentra a 1,1 mm de la superficie (o 0,1 mm de la pista de datos). Pero este plano de enfoque cambia con la tecnología estando a 0,6 mm de la superficie en DVD y HD DVD, y a 0,1 mm en Blu-ray (como muestra la figura que abre esta entrada, en la parte de abajo). Por ello, el disco de luz sobre la resina que almacena la información es un poco mayor que la punta del tronco-cono de luz. El valor de la apertura numérica asociado a cada tecnología corrige este efecto para permitir calcular con precisión el diámetro del disco de luz que incide sobre la resina.

Dibujo20130901 laser beam size - comparison CD DVD Blu-ray

El tamaño del disco de luz proyectado por el tronco-cono de luz que incide sobre la resina está limitado por los efectos de la difracción. Según esta teoría, sobre la resina incide un patrón de difracción de Airy formado por varios anillos concéntricos alrededor de un disco central que concentra el 84% de la luz (Airy disk en wikipedia). En un CD el diámetro ø de este disco central es de 1,22 (λ/n) / sin θ’ = 1,22 (0,780/1,55) / sin(17º) = 2,11 μm (valor que se reduce a 1,32 μm en el DVD y a 0,58 μm en el Blu-ray). Por cierto, en la figura que abre esta entrada se indican números diferentes para el diámetro ø para cada tecnología, en concreto 1,6 μm para el CD, 1,1 μm para el DVD, 0,62 μm para el HD DVD y 0,48 μm para el Blu-Ray; parece que el autor de la figura ha utilizado la fórmula aproximada D ≈ λ’/NA en lugar de la fórmula más correcta ø = 1,22 λ’/NA.

El diámetro del disco de Airy sobre la resina determina la separación entre pistas y entre las marcas que representan los datos en el disco. Por seguridad se usa una separación de pistas p (por pitch) un poco mayor, así se evitan efectos de aberración óptica en la lente y se permite cierto error en el seguimiento de la pista (tracking error). Como indica la figura que abre esta entrada en el caso del CD se usa p = 1,6 μm, valor que se reduce a 0,74 μm en el DVD, 0,40 μm en el HD DVD y sólo 0,32 μm en el Blu-ray.

Dibujo20130901 reading on the track - on-groove and in-groove - intensity profile

El impacto de la luz del láser en la superficie de la resina donde están grabados los datos se encuentra con dos posibilidades, que haya un pit (“agujero”), in-groove en esta figura, o que no lo haya, on-groove. Cuando el láser de lectura impacta sobre la superficie de la resina (on-groove) se refleja y el fotodiodo de lectura recibe cierta intensidad de luz. Sin embargo, cuando el láser de lectura impacta sobre un pit, parte de su luz es reflejada en el pit y parte en la superficie, produciéndose dos haces reflejados que interfieren entre sí de forma destructiva, con lo que el fotodiodo recibe una intensidad de luz del 50% respecto al otro caso. Siempre se recibe luz, pero en un caso se recibe más luz y en el otro menos.

En el CD la longitud de onda en el plástico de policarbonato es de 503 nm, con lo que interferencia destructiva entre dos haces de luz reflejada requiere una diferencia de recorrido en distancia de unos 250 nm. Por ello la profundidad del pit es de 125 nm (un cuarto de longitud de onda); en realidad, por cuestiones de fabricación, la profundidad de los pits en la resina fluctúa entre 110 nm y 135 nm. Los cálculos para las otras tecnologías son similares, siendo la profundidad de los pits para el DVD de 105 nm y para el Blu-ray de 65 nm.

La información digital en el disco no se almacena en bytes (8 bits) mediante unos y ceros consecutivos, para evitar que haya dos unos consecutivos (aunque se permite la existencia de hasta 10 ceros consecutivos). Se utiliza una palabra (word) de 14 bits y cada palabra se separa por 3 bits (luego se usan 17 bits por cada 8 bits de información). La técnica se llama modulación EFM de 8 a 14, que garantiza que cada pareja de unos está separada por como mínimo dos ceros y como máximo diez ceros (tabla de conversión). Se utiliza la codificación de no retorno a cero (NRZI), de tal forma que un uno binario se almacena como la transición de resina a agujero (entrada en un pit) o mediante la transición de agujero a resina (salida de un pit), mientras que un cero binario corresponde a la ausencia de cambio, es decir, seguir en la resina o seguir en el pit, según corresponda el caso. Esta técnica facilita la electrónica de lectura de la señal del fotodiodo, pues es más fácil leer un frente (cambio brusco) que una señal continua.

La técnica NRZI hace que los pits tengan diferente longitud según el lugar del código EFM que corresponda. Los pits más cortos (que representan dos ceros en el código EFM) en el CD tienen una anchura w = 0,60 μm y una longitud l = 0,80 μm, que se reducen en el DVD a w = 0,32 μm y l = 0,40 μm, en el HD DVD a w = 0,20 μm y l = 0,20 μm, y en el Blu-ray a w = 0,13 μm y l = 0,15 μm. Cuando hay diez ceros seguidos graba en el disco el pit más largo cuya longitud es cinco veces mayor, pero su anchura es siempre la misma.

Hay muchas más cosas sobre la tecnologías de los CD y su evolución hasta el Blu-ray que me he dejado en el tintero, pero espero que este repaso rápido incentive a los interesados en profundizar a buscar en la web más información sobre esta tecnología que en su momento fue revolucionaria.


Archivado en: Óptica, Ciencia, Física, Historia, Noticias, Science Tagged: Almacenamiento óptico de datos, Óptica, Ciencia, Curiosidades, Disco compacto, Física, láser, Noticias, tecnología

La supergravedad como una doble teoría gauge

$
0
0

Dibujo20130831 the big bang theory - parking spot escalation - s cooper

Uno de los resultados más interesantes de la física teórica de la última década es que la gravedad es dual al “cuadrado” de una teoría de Yang-Mills (GR = YM×YM), propiedad que también muestra la supergravedad (SUGRA=SYM×SYM). Visto al revés, la “raíz cuadrada” de la (super)gravedad es una teoría (super)Yang-Mills. Este resultado de Bern, Carrasco y Johansson (CBJ) es análogo a las relaciones de Kawai, Lewellen y Tye (KLT) en teoría de cuerdas, que afirman que las cuerdas cerradas (responsables de la gravedad) son duales al producto de cuerdas abiertas levógiras y cuerdas abiertas dextrógiras (ambas representando teorías gauge). El objetivo de quienes trabajan en este campo es demostrar que la supergravedad es una teoría finita. Los avances recientes han sido grandes, pero aún queda mucho camino por recorrer. Nos resume el estado actual Henrik Johansson (CERN) en “Towards Determining the UV Behavior of Maximal Supergravity,” SUSY 2013, ICTP Trieste, Aug 29, 2013 [pdf slides; video].

Dibujo20130831 gravity should be simple off shell - Johansson SUSY 2013

La gravedad pura (sin materia, sólo con gravitones) es finita a un loop, pero diverge a dos loops (con materia también diverge a un loop). La supersimetría ayuda porque todas las teorías de supergravedad pura son finitas hasta dos loops. Desde 1978 se conocen argumentos a favor de que la SUGRA N=4 en D=4 diverge a tres loops, pero en 2012 se demostró que la SUGRA N=4 pura en D=4 es finita a tres loops; también la SUGRA N=8 pura es finita a tres loops. Hay argumentos a favor de la divergencia de SUGRA N=4 en D=4 a más de tres loops, pero todavía no se ha encontrado ninguna divergencia de forma explícita, luego podría ser finita. De hecho, para la SUGRA N=8 en D=4 se sabe que no hay divergencias con menos de siete loops. ¿Son finitas las SUGRA en D=4 a todos los órdenes? Nadie lo sabe, pero algunos físicos que atesoran esta esperanza.

Dibujo20130831 known uv divergences sugra and sym - Johansson SUSY 2013

Los cálculos a más de tres loops son muy complicados, pero se facilitan un poco gracias a la dualidad BCJ. La gravedad de Einstein (más el dilatón y un axión) son duales al producto de dos teorías de Yang-Mills convencionales (YM); la SUGRA N=4 es dual al producto de una teoría super-Yang-Mills (SYM) N=4 y una teoría de Yang-Mills (N=0); la SUGRA N=6 es dual al producto de una SYM N=4 y una SYM N=2; y la SUGRA N=8 al producto de dos SYM N=4. Estas dualidades permiten eliminar el mayor hándicap en contra de la renormalizabilidad de la gravedad, que su constante de acoplo tiene dimensiones; ver la gravedad como una doble copia de una teoría de Yang-Mills tiene la ventaja de que su constante de acoplo es adimensional, lo que facilita la renormalizabilidad. Sin embargo, los cálculos con teoría SYM son muy complicados y los avances en este campo son lentos. 

¿Cuál es la situación actual a más de tres loops? A cuatro loops se sabe que las SUGRA N=4 y N=8 divergen para D=11/2, pero se cree que no lo hacen en D=4 (hay indicios contando potencias, pero aún no hay demostración rigurosa). El cálculo requiere evaluar 85 diagramas topológicos y está en curso. A cinco loops hay que calcular 416 diagramas topológicos para SUGRA N=4 y 752 para N=8. Se sabe que la teoría N=4 diverge para D=26/5, pero para D=4 los cálculos también están en curso. Para más de cinco loops sólo hay avances indirectos a siete loops para N=8 en D=4 , gracias al cálculo (en curso) a 5 loops en D=24/5 (que podría presentar un contratérmino importante para 7 loops). En resumen, se esperan avances para los próximos años, pero todavía estamos lejos de una demostración de la finitud de la SUGRA.

¿Para qué sirve saber que la SUGRA N=8 en D=4 es finita? La esperanza es que haya una nueva simetría responsable de este hecho; desvelarla puede tener importantes consecuencias fenomenológicas y teóricas. ¿Ya hay algún indicio sobre esta nueva simetría? Más allá de la dualidad BCJ (la gravedad como doble copia de teorías gauge), también hay una dualidad entre color y cinemática, además de otros indicios menos claros. No es mucho, pero menos es nada.


Archivado en: Ciencia, Física, Noticia CPAN, Noticias, Physics, Science Tagged: Ciencia, Física, Física teórica, gauge, Gravedad cuántica, Noticias, Supergravedad, Yang-Mills

Francis en Quantum Naukas Donosti y los ordenadores cuánticos

$
0
0

Dibujo20130903 naukas quantum donosti - banner

El miércoles 2 de octubre de 2013 a las 19:50 podrás disfrutar de mi charla de 10 minutos “El timo del ordenador cuántico comercial” en el evento Naukas Quantum (anuncio oficial en Naukas). En el escenario del Teatro Victoria Eugenia, Donostia (San Sebastián), España, podrás disfrutar de múltiples charlas cortas de 10 minutos sobre divulgación de la ciencia. Charlas sencillas, dinámicas, divertidas y originales.

Dibujo20130730 program - naukas quantum

Para ir abriendo boca, te dejo un vídeo youtube de mi charla “Quantum Computer Simulations using Supercomputers,” que ofrecí en el HPC Advisory Council Spain Workshop 2012 en Málaga (septiembre de 2012). El sonido no está muy bien (se grabó con un micrófono puesto en la mesa) y está en inglés (mi pronunciación no es muy buena, pero quizás por ello será más fácil de entender para los hispanohablantes).

En Donostia mi charla será en español. Si te apetece, ¡nos vemos en Donostia!


Archivado en: Ciencia, Colaboración Naukas.com (antes Amazings.es), Computación cuántica, Física, Noticias, Physics, Prensa rosa, Recomendación, Science Tagged: Ciencia, Computación cuántica, Conferencia, Física, Física computacional, Noticias

Un videojuego que podría mejorar la función cognitiva en ancianos

$
0
0

Dibujo20130905 neuroracer - experimental condition and training design - nature com

En 2010 un artículo en Nature afirmó que el videojuego Brain Training no mejora las habilidades cognitivas de los ancianos, sólo su habilidad de jugar al propio juego, como cualquier otro videojuego (incluso los violentos). Un nuevo artículo en Nature concluye que el videojuego NeuroRacer permite evaluar la capacidad cognitiva multitarea, a cualquier edad, e incluso mejorar dicha capacidad. Este resultado indica una posible utilidad terapéutica en ancianos. Como es obvio habrá que esperar a futuros estudios, no sólo con este juego (similar a los que usan en los autoescuelas para aprender a conducir automóviles), sino con otros juegos similares. El artículo técnico es J. A. Anguera et al., “Video game training enhances cognitive control in older adults,” Nature 501: 97–101, 05 Sep 2013. Recomiendo ver el vídeo “Revving up brain skills,” Nature, 05 Sep 2013. Más información en español en Javier Sampedro, “Un videojuego contra el deterioro cognitivo de la edad,” El País, 4 Sep 2013, y en Laura Tardón, “Un videojuego que retrasa la demencia, científicamente demostrado,” El Mundo, 4 Sep 2013.

Dibujo20130905 multitasking cost - post-pre and pre-post tasks - nature com

El experimento ha contado con 174 participantes con edades entre 20 y 79 años (unos ~30 por década). Primero se usó NeuroRacer para evaluar sus habilidades cognitivas multitarea y luego fueron entrenados para mejorarlas. Las mejoras observadas no dependen de la edad, pero son más interesantes en los ancianos en declive cognitivo, que sufren pérdidas de memoria de trabajo y dificultades para mantener la atención. Los autores creen que además es muy interesante la evaluación de este software en niños con TDAH (trastorno de déficit de atención con hiperactividad) y en adultos con depresión y demencia.

Dibujo20130905 eeg - older - younger - adults - nature com

Por supuesto, que nadie se engañe, aunque se haya publicado en Nature, este tipo de estudios siempre deben ser replicados y sus resultados deben ser confirmados de forma independiente. Rejuvener las habilidades cognitivas jugando a un videojuego es más un sueño que una realidad.


Archivado en: Cerebro, Ciencia, Medicina, Noticias, Science Tagged: Cerebro, Ciencia, Experimento, Nature, Noticias, Videojuego

Qué futuro laboral le espera a un joven doctor en física de partículas

$
0
0

Dibujo20130906 job hunting - unemployed now taking longer to find a job - news com au

Para un joven doctor en física de partículas lograr un postdoc que le permita iniciar una carrera académica es cada día más difícil (la competencia es terrible). Muchos tienen que cambiar de área de investigación, o bien abandonar la esperanza y dirigirse hacia la industria. El Fermilab, en Batavia, cerca de Chicago, lleva décadas produciendo doctores en física para la industria local en el entorno de Chicago. Sin embargo, el CERN no tiene ningún polo concreto que absorba a los jóvenes doctores que no pueden continuar su carrera laboral en física de partículas. Por ello, su mayor problema es encontrar un puesto de trabajo, no ya un buen puesto de trabajo, sólo un puesto de trabajo. Nos lo recuerda Adrian Cho, “After the LHC, the Deluge,” Science Careers, Aug 29, 2013. Recomiendo leer también Chris Knight, “A field where jobs go begging,” Symmetry Magazine, April 2010; Calla Cofield, “From particle physics to the computing industry,” Symmetry Magazine, Sept. 2012; “How particle physics improves your life,” Symmetry Magazine, March 26, 2013.

Adrian Cho entrevista a varios físicos jóvenes. Peter Onyisi (31 años) pensaba que le sería imposible encontrar un trabajo académico, pero lo logró en la Universidad de Texas (UT) en Austin, tras superar a otros 85 candidatos. ¿Muchos? No tantos, para muchas plazas académicas en EEUU compiten más de 100 aspirantes y muchos jóvenes muy brillantes no logran plaza. Björn Penning (34 años) postdoc en la Universidad de Chicago y en el Fermilab (Batavia, Illinois) afirma que “Para los jóvenes físicos de partículas los tres problemas más importantes son encontrar un puesto de trabajo, encontrar un puesto de trabajo y encontrar un puesto de trabajo.”

En una reciente encuesta a 956 físicos de partículas (343 de ellos eran postdocs) realizada en el congreso Snowmass 2013 resultó que el 60% aspira a una carrera académica. Elizabeth Worcester (37 años) postdoc en el Laboratorio Nacional Brookhaven, en Upton, Nueva York, dice que “Aunque sólo uno de cada diez postdoc acaben logrando un trabajo académico fijo (tenure-track), ninguno pierde la esperanza de ser el que lo logre, si no lo pensara así no estaría realizando un postdoc.” Pero no hay que ser pesimistas, la mayoría de los jóvenes “que abandonaron la física de partículas son felices y opinan que su formación ha sido muy valiosa para su trabajo actual,” sobre todo por lo que han aprendido de programación (informática), análisis de datos y estadística.


Archivado en: Ciencia, Física, Noticia CPAN, Noticias, Política, Science Tagged: Ciencia, empleo, Física, Noticias, Partículas elementales, política científica

Sólo para frikis que quieran usar un ordenador cuántico

$
0
0

Dibujo20130906 qcloud - centre for quantum photonics - university bristol

El gran problema de los ordenadores cuánticos es la falta de algoritmos. Muchos jóvenes frikis desarrollarían gratis algoritmos cuánticos si pudieran, pero no tienen acceso a un ordenador cuántico donde ejecutarlos. El profesor Jeremy O’Brien de la Univ. de Bristol lo sabe y ha anunciado hoy, 6 de septiembre, el proyecto Qcloud: Acceso gratis a un simulador de su ordenador cuántico (que utiliza tecnologías fotónicas). Los algoritmos que funcionen de forma correcta en el simulador podrán solicitar ser ejecutados en su ordenador cuántico de verdad de forma gratuita. Gracias a ello cualquier joven friki podrá desarrollar algoritmos cuánticos y ejecutarlos en un ordenador cuántico de verdad. ¿Te animas? ¿A qué estás esperando? Regístrate en la web bristol.ac.uk/quantum-computing, donde podrás leer los manuales y las guías de usuario del simulador, dale al coco y ponte a desarrollar algoritmos cuánticos, ¿no te gustaría ser el primero en usar un ordenador cuántico gracias a Qcloud? Nos lo cuentan en “Quantum in the Cloud,” Press release, Univ. Bristol, 6 Sep. 2013; me he enterado gracias a un tuit de Jorge Barreto (@GHKBarreto).


Archivado en: Ciencia, Computación cuántica, Informática, Noticias, Recomendación, Science Tagged: Ciencia, Computación cuántica, Curiosidades, Informática, Noticias, Ordenadores cuánticos, Qcloud, Simulación por ordenador

Cómo medir la velocidad de un objeto móvil ultralento

$
0
0

Dibujo21030906 two-beam interaction in a slow-light medium - optics letters - optics infobase org

El cartomago argentino René Lavand siempre repite que “no se puede hacer más lento.” El efecto Doppler permite medir de forma remota la velocidad de un cuerpo en movimiento gracias a la luz que refleja (es lo que hacen las pistola de radar de la policía), pero para un cuerpo ultralento el cambio en frecuencia es minúsculo. Se publica en Optics Letters un método capaz de medir una velocidad de una billonésima de metro por segundo, al detectar corrimientos Doppler menores de 1 µHz con un tiempo de integración de sólo un segundo. El secreto es combinar un “medio de luz lenta” (usan un cristal líquido) y un interferómetro. La luz de un láser se separa en dos haces, uno que incide en el medio de luz lenta y otro que se refleja en el objeto móvil para luego entrar en dicho medio; comparando la frecuencia de ambos haces de luz una vez fuera del medio se logra medir su diferencia en frecuencia con gran precisión. El artículo técnico es Umberto Bortolozzo, Stefania Residori, John C. Howell, “Precision Doppler measurements with steep dispersion,” Optics Letters 38: 3107-3110, 2013. Más información en Angela Stark, Lyndsay Meyer, “Researchers Slow Light to a Crawl in Liquid Crystal Matrix,” OSA News, Aug 13, 2013.

Dibujo20130906 experimental setup two-beam coupling in liquid crystal light-valve - optics letters

Un medio de luz lenta es un medios óptico cuya curva de dispersión presenta grandes picos. Hay muchos fenómenos físicos que presentan esta propiedad, como la transparencia inducida electromagnéticamente (EIT) en átomos fríos, las oscilaciones coherentes de la población de electrones (CPO) en sólidos, la dispersión estimulada de Brioullin (SBS) y Raman (SRS) en fibras ópticas, o la mezcla de cuatro ondas (FWM) en cristales líquidos nemáticos (usados en el nuevo trabajo). Estos medios se caracterizan por el retraso de la velocidad de grupo que logran; cuanto mayor es este retraso mayor es la sensibilidad a los desplazamientos por efecto Doppler de la nueva técnica. El mínimo desplazamiento Doppler que se puede medir es de 900 nHz, valor limitado por el ruido asociado a la electrónica y óptica utilizada (el llamado “photon shot noise”).

Dibujo20130906 nematic liquid crystal as slow-light medium - optics express

En cristales líquidos nemáticos se puede reducir la velocidad de grupo de un pulso de luz a sólo 1 mm/s (milímetro por segundo); recuerda que la velocidad (de fase) de la luz en el vacío es de 299.792.458.000 mm/s (casi 300 mil millones de veces más grande). La gran ventaja de los cristales líquidos nemáticos es que trabajan a temperatura ambiente y que su longitud se puede hacer grande (permitiendo almacenar (o retrasar) pulsos de luz durante 160 ms). El artículo técnico es D. Wei, U. Bortolozzo, J. P. Huignard, S. Residori, “Slow and stored light by photo-isomerization induced transparency in dye doped chiral nematics,” Optics Express 21: 19544-19554, 2013 [recuerda que OE es open access].

Dibujo20130906 measured voltage as function of doppler shift - gray region is photon shot noise - optics letters

Los cristales líquidos nemáticos (similares a los usados en una televisión LCD o en una pantalla de ordenador) tienen una gran ventaja en óptica no lineal, ya que permiten lograr efectos no lineales con potencias ópticas muy bajas. Por ello son ideales para quienes trabajamos en solitones (se llaman nematicones en cristales líquidos) y nos gusta que sea un campo con grandes posibilidades tecnológicas (como en este caso en teledetección y en almacenamiento óptico), aunque nos dediquemos a hacer investigación básica (analogías onda-partícula aplicadas a nematicones en potenciales efectivos).


Archivado en: Óptica, Ciencia, Física, Noticias, Physics, Science Tagged: Óptica, Ciencia, Cristales líquidos nemáticos, Curiosidades, Experimento, Física, Luz lenta, Noticias, velocidad de grupo

Reseña sabatina: “S=ex². La ciencia del sexo” de Pere Estupinyà

$
0
0

Dibujo20130907 book cover - sex2-la-ciencia-del-sexo-9788499922386 - pere estupinya

“En ciencia, cada investigador sabe que lleva una tenue linterna que le permite iluminar sólo una parte de una enorme habitación oscura. Uno enfoca hacia una dirección y otro en otra. Por separado pueden iluminar diferentes rincones y llegar a conclusiones totalmente dispares. Pero poco a poco, cuando las luces científicas van aumentando y juntándose unas con otras, la habitación empieza a revelar su contenido. Y sólo el que no quiere ver se resiste a modificar sus ideas preconcebidas.” Extracto de la página 78 del nuevo y muy recomendable libro de Pere Estupinyà, ”S=ex². La ciencia del sexo,” Debate, abril 2013. El texto sigue más o menos así: “Muchas veces se descubre una ventana a otra sala oscura todavía más grande, que, vaya paradoja, aumenta nuestro desconocimiento sobre la realidad. Éste es el lento proceso que estamos siguiendo con la naturaleza, el universo y el cerebro humano, esperando que algún día la luz científica sustituya a la oscuridad y la elucubración.”

Dibujo20130907 sex2-la-ciencia-del-sexo - pere estupinya

Tengo un problema cada vez que hablo con alguien de Pere Estupinyà. Le presento como el divulgador científico autor de “El ladrón de cerebros,” pero no lo puedo evitar, siempre tengo que mencionar que trabajó en el programa “Redes” de TVE, dirigido por Eduard Punset, el abuelo que todo el mundo quiere tener. Entonces la cara de mi interlocutor cambia, como si Pere fuera el hijo de Eduard; ya no hay más que decir, todo el mundo entiende que tiene que ser un gran divulgador científico de la escuela de Punset. Lo que me pone en la tesitura de decidir si tengo que aclarar que son dos estilos de divulgación muy diferentes o si es mejor callar para asentir. El estilo de Pere es muy fresco en España, aunque similar al de los grandes divulgadores de EEUU, pero Eduard es la gallina de los huevos de oro de la divulgación en español.

Por supuesto, un libro sobre la ciencia del sexo escrito por Punset sería un libro sobre el papel de las neuronas espejo y sobre su importancia en el amor y en la felicidad. Un libro sobre una hipótesis, que las neuronas audiovisomotoras del giro frontal inferior (F5) del macaco también se encuentran en los humanos, una hipótesis que ya no es defendida ni por su propio descubridor. Por ello me alegra que Pere mencione esta hipótesis sólo de pasada en su libro (al final del capítulo 3 y luego en la página 275), en relación a los estudios sobre la pornografía. “En nuestra especie el sentido más involucrado en la atracción sexual es la vista.” [Página 93] “Una idea provocadora y mucho más especulativa es que el gran poder de la pornografía, sobre todo en hombres, procede de una supuesta activación de circuitos [neuronales] responsables de la imitación, en la que podrían estar involucradas neuronas espejo. Estas neuronas existen en muchos mamíferos, pero no se sabe todavía su influencia real en humanos; algunos autores sugieren que podrían estar relacionadas con la empatía (ver sonreír a alguien induce en nosotros otra sonrisa y cierto bienestar). Un estudio publicado en 2006 en la revista Neuroimage observó que las imágenes pornográficas activan la corteza frontal premotora, área donde (de existir) se situarían las neuronas espejo.” Dice Pere que le “sorprende que los neurocientíficos no utilicen el porno para analizar la existencia y el papel de las neuronas espejo o los circuitos de empatía.”

El libro contiene un capítulo dedicado a la pornografía, el número once. [Página 276] “La idea básica es que ver porno es un acto placentero que activa el sistema de recompensa del cerebro haciéndonos segregar altas cantidades de dopamina desde el área ventral tegmental al nucleus accumbens. Como otras actividades placenteras, si la realizamos de forma obsesiva, puede llegar a volverse una adicción conductual. Algunos conciben la adicción al porno dentro de la “adicción a internet,” es decir, a la novedad y excitación constante que nos ofrece el mundo online. Somos buscadores compulsivos de novedades y es en este sentido que podemos pasarnos horas y horas navegando de un enlace a otro por internet o interactuando en redes sociales. La pantalla nos absorbe.” [Página 277] “Se entra en una rutina cibernética de la que es difícil escapar. Pero con el porno la situación se puede agravar por dos motivos. Primero, que nuestro cerebro está programado para preferir el sexo y es normal que atrape más a nuestro sistema límbico. Y segundo, si va acompañado de la masturbación, la liberación de dopamina es todavía mayor, el cerebro empieza a asociar esa actividad con placer intenso y con las repeticiones el condicionamiento se va reforzando.”

Dibujo20130907 book cover - el-ladron-de-cerebros - pere estupenya

Los libros de divulgación que más se disfrutan son los libros repletos de historias, y “S=ex²” es un buen ejemplo. No sólo historias de la historia, que las incluye, sino también historias vividas por el propio autor en su búsqueda de información para el propio libro. El capítulo “Sexo en nuestro cerebro” se inicia con las hazañas intelectuales del neurocientífico Barry Komisaruk, que lidera un novedoso proyecto sobre neurofeedback. [Página 77] “El biofeedback ya hace tiempo que se conoce y es la capacidad de modular algunas de nuestras constantes vitales si nos muestran sus valores en una pantalla (es como un entrenamiento para controlar las funciones del cuerpo). Tiene límites, pero funciona. Hay evidencias que sugieren que se podría hacer algo parecido con la actividad del cerebro al observar nuestro propio fMRI a tiempo real. Barry cree que un campo como el del sexo puede ser un modelo ideal para probar este neurofeedback. Es muy especulativo todavía,” pero como Pere nos cuenta en su libro, los primeros resultados son prometedores.

Barry Komisaruk le propuso a Pere ser “el primer hombre del mundo en tener un orgasmo bajo un escáner de fMRI” (las imágenes aparecen en la página 83 de su libro). [Página 79] “Pánico escénico y obvio pavor al gatillazo. La situación empeoró cuando se me insistió en que lo más importante era que mantuviera la cabeza lo más quieta posible. Sería bueno que practicaras.” [Página 84] “Barry me llamó muy alterado. Estaba viendo los resultados en ese mismo momento y me dijo que eran de una calidad excelente. Se ve que había cumplido muy bien mi misión de no mover la cabeza.” Barry comparó el resultado con sus estudios previos con mujeres. [Página 85] “Las similitudes eran mucho más grandes que las diferencias. Lo único distinto es que el hipotálamo no se activó durante el orgasmo, como sucedía con todas las mujeres.” Recuerda que “el hipotálamo es la zona donde se segrega la oxitocina, la llamada hormona del amor.”

La buena formación científica del autor (Pere es químico y bioquímico) se nota a lo largo de todo el libro. [Página 87] “Leyendo un artículo de Roy Levin sobre el período refractario tras el orgasmo decidí llamar a Barry Komisaruk. Le pregunté por qué tras mi orgasmo bajo el escáner no continuamos con el experimento para ver qué cambiaba en mi cerebro respecto a la estimulación inicial. Barry me respondió “¡Claro! ¡Cómo no se me había ocurrido antes! Se podrían comparar personas sanas con otras con disfunción eréctil. Quizá daría información muy interesante. ¡Nadie lo ha hecho aún!” Me sorprendió, pero al tiempo vi que no era una excepción.” Estos estudios “pueden ofrecer información muy interesante no sólo sobre el sexo, sino sobre las bases neurobiológicas de nuestra conducta.”

“Toda la información captada por nuestros sentidos llega al cerebro, pero sólo somos conscientes de una minoría. Tenemos atención selectiva.” [Página 93] “Analizando movimientos de cabeza y cambios de atención los investigadores observaron que los hombres heterosexuales respondían de forma positiva a las mujeres desnudas e ignoraban las imágenes masculinas, mientras que con los gays y las mujeres ocurría lo contrario. Cuando alguien nos diga “¡se te va la mirada!”, podemos responder confiados: “¡Exacto! Se va sola. Yo no soy responsable, lo es mi inconsciente. Lo dice un artículo de la revista PNAS.” Bueno, en realidad, poca gente conoce la revista PNAS y su prestigio.

Dibujo20130907 pere estupinya - bworld - facebook com

El libro de Pere nos ilustra con muchos ejemplos que el sexo sigue siendo un tabú para la ciencia. [Página 292] “Impresiona el pavor que el Gobierno de EEUU le tiene al sexo, incluso en su aspecto científico y médico. Contacté con el instituto del NIH responsable lesiones medulares para preguntar si tenían en cuenta la respuesta sexual de los discapacitados y ni me respondieron. La sexualidad humana está censurada en la agencia pública de investigación biomédica estodunidense y en menor grado en la ciencia en general. Y es una lástima.”

El sexo forma parte íntegra de nuestras vidas y toma el control hasta en las situaciones más incómodas. [Página 435] “Una noche me presentaron al ex ciclista profesional Peio Ruiz Cabestany. Estaba entusiasmado explicándole a Peio un estudio científico sobre mujeres que tenían orgasmos haciendo ejercicios y según el cual sucedía a menudo al ir en bicicleta. Peio se quedó desconcertado, pero de repente me respondió: “bueno… a mí me ha pasado varias veces, sobre todo al subir cuestas.” Debby Herbenick (Univ. Indiana, EEUU) realizó este estudio en 2011 con 246 mujeres. Según Debby es un fenómeno muy interesante porque representa un nuevo ejemplo de reflejo orgásmico espontáneo desvinculado del deseo y de la actividad sexual. Se está investigando qué mecanismos fisiológicos podrían estar involucrados. Debby sugiere que la activación del sistema nervioso simpático debido al estrés físico podría ser el desencadenante del orgasmo.”

En resumen, el libro  ”S=ex². La ciencia del sexo” de Pere Estupnyà es muy recomendable, casi imprescindible. Bien escrito, de lectura fácil, está repleto de anécdotas y curiosidades para recordar, pero además incluye una extensa bibliografía con artículos técnicos para los que quieran profundizar en los detalles. Yo me lo he pasado muy bien leyendo este libro y en varias ocasiones, tras comentar con amigos su contenido más fascinante, he tenido que decir: “No. No te lo presto. ¡Cómpratelo!”


Archivado en: Cerebro, Ciencia, Libros, Medicina, Noticias, Recomendación, Science Tagged: Ciencia, Curiosidades, Medicina, Noticias, Reseña, Sexo

Francis en ¡Eureka!: Nanocristales para ventanas inteligentes

$
0
0

Dibujo20130907 smart windows for heat and light control - lawrence berkeley national laboratory

Ayer se inició la nueva temporada de mi sección ¡Eureka! en La Rosa de los Vientos, Onda Cero. Puedes escuchar el audio siguiendo este enlace. Como siempre, una transcripción y algunos enlaces para profundizar.

Muchos jóvenes científicos españoles se ven obligados a emigrar en el mejor momento de su carreras y están logrando grandes éxitos fuera de España. La noticia de hoy es sobre una joven catalana que emigró a EEUU. Anna Llordés realizó su tesis doctoral en nanocristales en el Instituto de Ciencia de Materiales de Barcelona, que pertenece al CSIC, y la defendió en el año 2010 en la Universidad Autónoma de Barcelona. Tras la tesis emigró a EEUU, como postdoc en el Laboratorio Nacional Lawrence Berkeley en California. Al final, desde mayo de 2013, está contratada allí como investigadora, pero mantiene colaboraciones con sus compañeros españoles en el campo de los nanocristales, como Jaume Gázquez. Ha sido noticia que su último artículo sobre la aplicación de los nanocristales a ventanas inteligentes ha llegado a portada de la prestigiosa revista Nature, quizás la más prestigiosa del mundo. Un logro que pocos españoles han logrado.

Más información en “Nuevo material electrocromático para ventanas inteligentes,” 22 Ago 2013. El artículo técnico es Anna Llordés, Guillermo Garcia, Jaume Gazquez, Delia J. Milliron, “Tunable near-infrared and visible-light transmittance in nanocrystal-in-glass composites,” Nature 500: 323–326, 15 Aug 2013. Más información en español en “Ventanas inteligentes con nanocristales permiten regular luz y calor,” ALT1040, que incluye un vídeo promocional en inglés de la empresa.

Las ventanas inteligentes son capaces de controlar la cantidad de luz y calor que entra dentro de una habitación. ¿Qué utilidad tienen los nanocristales en estas ventanas? Ya hay ventanas inteligentes en el mercado, pero ninguna permite bloquar el paso de la luz y el calor de la radiación solar de forma independiente. Este control separado permite un ajuste de la ventana a las condiciones ambientales logrando un gran ahorro energético. De hecho, los estudios de eficiencia térmica estiman que entre el 4% y el 5% de la energía que consumen los hogares se pierde a través de las ventanas. Anne Llordés, Jaume Gázquez y sus colegas estadounidenses han logrado un nuevo recubrimiento para los vidrios de las ventanas basado en una fina capa de nanocristales que cambia sus propiedades cuando se le aplica un voltaje. Los nanocristales tienen un tamaño entre 5 y 15 nanómetros, cuando la luz visible al ojo humano tiene una longitud de onda entre 400 y 700 nanómetros, y el infrarrojo está entre 800 y 2500 nanómetros, por lo que los nanocristales son tan pequeños que permiten que el vidrio de la ventana sea transparente a la luz y al calor. Hay que recordar que el calor del Sol es debido a la radiación solar en el infrarrojo. El recubrimiento de nanocristales de óxido de indio y estaño es un material electrocromático, que cambia sus propiedades al aplicar un voltaje y es capaz de bloquear más del 50% del calor y hasta el 70% de la luz visible.

Dibujo20130907 Universal-Smart-Window

Estas ventanas inteligentes basadas en nanocristales tienen varios modos de funcionamiento según dejen pasar la luz y el calor, o lo bloqueen de forma separada. Las nuevas ventanas inteligentes podrán funcionar en tres modos de funcionamiento: el modo “brillante” que deja pasar tanto la luz como el calor del Sol al interior, el modo “oscuro” que bloquea tanto la luz como el calor del Sol, y el modo “fresco” que permite la entrada de luz, pero bloquea el calor. Este último modo es uno de los más interesantes porque la mayoría de los vidrios de los cristales de las ventanas reflejan bastante bien el infrarrojo cercano, por lo que aislan del calor y no es fácil lograr que sean transparentes al calor para caldear una habitación.

¿Han planeado los investigadores la comercialización de estos nuevas ventanas inteligentes? Todavía hay algunas cuestiones técnicas que han de ser resueltas antes de que este nuevo recubrimiento de nanocristales salga al mercado (como abaratar costes de fabricación y mejorar los electrolitos utilizados). Aún así, los coautores estadounidenses del artículo crearon una empresa a finales de 2012, llamada Heliotrope Technologies, para lanzar el mercado estas ventanas inteligentes, su objetivo es hacerlo a lo largo del año 2017. He buscado por internet y los autores españoles de este trabajo, Llordés y Gázquez, no son miembros fundadores de la empresa. Hay gran diferencia entre España y EEUU en cuanto al diálogo entre centros de investigación y empresas, y allí los propios investigadores crean empresas spin-off con mucha más facilidad que aquí. Se trata de una de las asignaturas pendientes de la ciencia en nuestro país.

Lo dicho, si aún no has escuchado el audio sigue este enlace.


Archivado en: Óptica, Ciencia, Eureka (La Rosa de los Vientos), Física, Nanotecnología, Noticias, Physics, Science, Termodinámica Tagged: Óptica, Ciencia, Curiosidades, Experimento, Física, Física de materiales, Noticias, Química, Ventanas inteligentes
Viewing all 1793 articles
Browse latest View live