Quantcast
Channel: Francis (th)E mule Science's News
Viewing all 1793 articles
Browse latest View live

Francis en Trending Ciencia: La masa de los neutrinos y el modelo estándar

$
0
0

Dibujo20130512 slides from neutrino and the origin of mass - goran sanjanovic - pheno13

Ya puedes escuchar mi nuevo podcast sobre física para Trending Ciencia siguiendo este enlace. Como siempre, una transcripción del audio.

Mi nuevo podcast sobre física responde a una pregunta que me ha realizado por Twitter Alex San (@alexcalamaro): por qué Richard Ruiz (@bravelittlemuon) escribió en Twitter que “el único fallo del modelo estándar es su incapacidad para explicar la masa de los neutrinos.” Le prometí a Alex contestarle y voy a compartir mi respuesta con todos vosotros.

El físico Richard Ruiz hacía referencia a la charla de Goran Senjanović “Neutrino and the Origin of Mass” en la conferencia internacional Phenomenology 2013 Symposium, el Simposio de 2013 sobre Fenomenología, que ha tenido lugar en la Universidad de Pittsburgh, Pensilvania, EEUU, la semana pasada (entre el 6 y el 8 de mayo); Richard tuiteó dicha conferencia en directo. La masa de los neutrinos tiene dos posibles explicaciones en el marco del modelo estándar de la física de partículas elementales. La explicación depende de que los neutrinos sean partículas de Dirac o partículas de Majorana, es decir, si los neutrinos son diferentes de sus antipartículas o son idénticos a ellas. En ambos casos, se requiere un ajuste muy fino de los parámetros del modelo estándar, tan fino que apunta a un problema de consistencia del propio modelo estándar y pide a gritos física más allá del modelo estándar. A este hecho se refiere Goran Senjanovic en su charla como el fallo del modelo estándar asociado a la masa de los neutrinos. Permíteme explicarlo con más detalle.

Dibujo20130512 fermion chirality

El modelo estándar es una teoría cuántica de campos concreta y permite incorporar fácilmente nuevas partículas (caso de que sean descubiertas) y nuevas interacciones. En toda teoría cuántica de campos hay partículas de dos tipos, fermiones y bosones. En el modelo estándar hay tres familias de fermiones. Cada familia tiene dos tipos de fermiones, quarks y leptones. Los leptones a su vez se diferencian entre leptones cargados y leptones neutros. Entre los leptones cargados tenemos al electrón de todos los átomos, al muón y al leptón tau. Entre los leptones neutros tenemos tres neutrinos, cada uno asociado a un leptón cargado, es decir, el neutrino electrónico, el neutrino muónico y el neutrino tau. Para los leptones cargadas se cumple la ley de conservación del número leptónico: en toda desintegración el número de leptones de cada familia debe conservarse. Por ejemplo, si un muón se desintegra en un electrón, debe producirse un antineutrino electrónico y un neutrino muónico, para que el número de leptones tipo electrón y tipo muón se conserve. Sin embargo, el número leptónico no se conserva en los leptones neutrinos: un neutrino muónico puede cambiar de identidad y transformarse en un neutrino electrónico, o en un neutrino tau. A esta violación de la conservación del número leptónico se le llama oscilación de los neutrinos y sólo está permitida dentro del modelo estándar si los neutrinos son partículas con masa. Esta masa debe ser muy pequeña y los límites cosmológicos obtenidos por el telescopio Planck de la ESA en marzo de 2013 apuntan a que la suma de las masas de los tres neutrinos es menor que 0,24 eV, con un mejor ajusta para 0,06 eV. Este valor es muy pequeño. Recuerda que la masa del electrón, el leptón cargado más ligero es de 511.000 eV.

Hoy en día sabemos con toda seguridad que los neutrinos tienen masa, sin embargo, la incorporación de la masa de los neutrinos en el modelo estándar es un problema que aún no está del todo resuelto. La razón es sencilla. Hay dos posibilidades y no sabemos cuál es la correcta. Todo depende de si los neutrinos son partículas de Dirac, como los leptones cargadas, o son partículas de Majorana, al contrario que los leptones cargados. Veamos ambos casos por separado y cómo influyen en la opinión que expresa Goran Senjanović en su charla, de la que se hace eco Richard Ruiz, motivo de la pregunta que me hace Alex San en Twitter.

Los leptones cargados, como el electrón, el muón y el leptón tau son fermiones de Dirac y como tales corresponden a excitaciones cuánticas de un campo con cuatro componentes, divididas en dos parejas. Una pareja corresponde a la partícula y la otra pareja a la antipartícula. Recuerda que el campo electromagnético tiene dos componentes, eléctrica y magnética, y su partícula el fotón corresponde a la excitación simultánea de ambas componentes del campo (un fotón es una excitación localizada de campos eléctricos y campos magnéticos). El electrón también es una excitación cuántica de un campo que tiene dos componentes, que se llaman componente quiral izquierda y quiral derecha; su antipartícula, el positrón, es una excitación cuántica de otras dos componentes, totalizando el campo del electrón cuatro componentes, en lugar de dos, como el campo electromagnético. El electrón tiene masa porque sus dos componentes quirales (izquierda y derecha) interaccionan entre sí por medio del campo de Higgs. Las excitaciones de la componente izquierda interaccionan con el campo de Higgs y se transforman en excitaciones de la componente derecha, y viceversa. Gracias a esta interacción el electrón tiene masa. Los demás leptones cargados (y los quarks) tienen masa por un proceso físico análogo.

Si los neutrinos (leptones neutros) son partícula de Dirac, deben tener masa por el mismo proceso físico. Los neutrinos deberían tener dos componentes quirales, izquierda y derecha, que interaccionan entre ellas gracias al campo de Higgs. El problema es que los experimentos de física de alta energía nunca han observado las componentes derechas del neutrino; sólo se han observado las componentes izquierdas. Para los antineutrinos sólo se han observado las componentes derechas y nunca se han observado las componentes derechas. Esto es un grave problema para el modelo estándar porque requiere introducir un mecanismo especial que explique por qué las componentes derechas del neutrino (y las izquierdas del antineutrino) nunca han sido observadas en los experimentos hasta el día de hoy.

Se pueden matar dos pájaros de un tiro y explicar por qué los neutrinos tienen una masa tan pequeña, comparada con la del electrón, si se supone que las componentes quirales no observadas de los neutrinos existen pero tienen una masa muy grande, más allá de lo que pueden observar los experimentos actuales. Los neutrinos quirales derechos y los antineutrinos quirales izquierdos podrían existir pero no han sido observados porque su masa está más allá de lo que se puede observar en los experimentos. Esta solución se llama mecanismo seesaw (o mecanismo del columpio, o mecanismo del balancín). Igual que un columpio en el que se montan un adulto y un niño pequeño acaba con el niño por los aires y el adulto sentado en el suelo, este mecanismo permite explicar por qué los neutrinos izquierdos tienen una masa tan pequeña comparada con la del electrón si los neutrions derechos tienen una masa muy grande.

Este mecanismo parece una solución perfecta, pero tiene un problema. Hay que introducir un parámetro (una escala) de masa grande. El valor de este nuevo parámetro del modelo estándar requiere un ajuste fino del orden de 1 parte en un billón (una parte en un millón de millones). A muchos físicos una ajuste tan fino no les gusta. Más aún, muchos físicos creen que los ajustes tan finos como éste apuntan a la existencia de nueva física más allá del modelo estándar, nueva física que explique este ajuste fino, nueva física que aparezca a la escala de masas y/o energías asociada al nuevo parámetro. Hay mútiples posibilidades, como las teorías de gran unificación o la supersimetría. Por ello, Goran Senjanović en su charla nos dice que si el neutrino masivo es una partícula de Dirac tiene que haber nueva física más allá del modelo estándar. En cierto sentido, la masa del neutrino es un fallo del modelo estándar que no la explica sin recurrir a un ajuste fino demasiado fino. Y por tanto, poco natural.

Dibujo20130512 fermion dirac versus majorana

Pero hay otra posibilidad, que los neutrinos (leptones neutros) sean partículas de Majorana. Las partículas de Majorana son excitaciones de campos que tienen sólo dos componentes, como el campo electromagnético, pero a diferencia del electrón que tiene cuatro componentes. Por ello, las partículas de Majorana no tienen antipartículas, o lo que es lo mismo, estas partículas son sus propias antipartículas; una partícula de Majorana se puede aniquilar con otra partícula de Majorana (a diferencia de las partículas de Dirac en las que las partículas sólo se aniquilan al interaccionar con sus antipartículas). Si los neutrinos con masa son partículas de Majorana, se debería observar un proceso radiactivo llamado desintegración beta doble sin neutrinos, que está siendo buscado por muchos experimentos aunque todavía no ha sido observado. ¿Cómo obtienen masa las partículas de Majorana? El mecanismo de Higgs no permite explicar cómo obtienen masa las partículas de Majorana, por lo que si el neutrino es una partícula de Majorana, el modelo estándar no puede ser una teoría completa. Debe existir un mecanismo más allá del modelo estándar que explique cómo obtienen masa los neutrinos. Por supuesto se puede recurrir a una teoría de gran unificación o a la supersimetría para explicar la aparición de un término de masa asociado a las partículas de Majorana.

En resumen, hay dos posibilidades para los neutrinos masivos, que sean partículas de Dirac o de Majorana, pero en ambos casos, sobre todo en el segundo, se requiere nueva física más allá del modelo estándar para explicar el origen de su masa. Por ello Goran Senjanović nos dice en su charla que la existencia de neutrinos con masa es un fallo del modelo estándar que requiere nueva física más allá del modelo estándar. Espero haber contestado de una forma comprensible, y poco técnica, la pregunta que Alex San (@alexcalamaro) me formuló en Twitter.

Más información técnica para los interesados en Borut Bajc et al., “Probing seesaw at LHC,” Phys. Rev. D 76: 055011, 2007 [arXiv:hep-ph/0703080]; Goran Senjanovic, “Probing the Origin of Neutrino Mass: from GUT to LHC,” arXiv:1107.5322; Goran Senjanovic, “LHC and the origin of neutrino mass,” arXiv:0911.0029.

Como siempre, si no has escuchado aún mi podcast, disfrútalo en este enlace.


Archivado en: Ciencia

Los motores “hyperdrive” de Star Wars

$
0
0

Dibujo20130208 hyperdrive motor - star wars

En la Enciclopedia de Star Wars se dice que los motores “hyperdrive” están alimentados por generadores de fusión. La fusión libera una pequeña cantidad (menos del 1%) de la energía confinada en el hidrógeno según la fórmula E=mc², que puede impulsar los núcleos de helio resultantes en la parte trasera de la nave espacial a velocidades muy altas. La fusión de un gramo de combustible de hidrógeno puede proporcionar tanta energía como 20 mil litros de gasolina. Sin embargo, la ecuación del cohete de Tsiolkovski nos dice que para acelerar la nave a la velocidad de los gases de escape se necesitan 1,7 veces la masa de la nave en combustible; con esta cantidad un cohete químico sólo puede alcanzar 0,000015 veces la velocidad de la luz (c), mientras que uno de fusión podría llegar a 0,05 c. Si se quisiera acelerar la nave a dos veces la velocidad de los gases de escape se necesitaría 6,4 veces la masa de la nave en combustible y utilizando fusión sólo se alcanzaría una velocidad de 0,1 c. Para alcanzar una velocidad de 0,2 c se necesitarían 57 veces la masa de la nave en combustible. Acercamos aún más a la velocidad de la luz se hace inviable usando un motor “hyperdrive” de fusión. Los interesados en más detalles técnicos disfrutarán con Robert H. Frisbee (JPL, CalTech), “Advanced Space Propulsion for the 21st Century,” Journal of Propulsion and Power 19: 1129-1154, 2003 [pdf gratis].

Hay un problema adicional con el combustible para los motores hyperdrive del Halcón Milenario: para frenar se necesita gastar la misma cantidad de combustible que para acelerar.

¿Podríamos obtener todo el hidrógeno que necesitamos como combustible del propio espacio interestelar? Esta idea del Dr. Robert Bussard (1960) tiene como problema principal que la densidad de hidrógeno en el espacio es muy baja, en promedio un átomo de hidrógeno por centímetro cúbico (2,7 × 10-24 g/cm3). Una gran vela para recoger hidrógeno tendría un peso enorme y además el hidrógeno que se recoja ofrecerá resistencia a la nave. Como es obvio, el método no es nada práctico.

La solución que casi todo el mundo propone es utilizar un motor que aniquile materia y antimateria. A diferencia de la fusión, en la que sólo el 1% de la masa se convierte en energía, en este tipo de motor se podría lograr alcanzar el 100% produciendo un intenso chorro de luz (radiación de alta energía) que acelere la nave hasta cerca de la velocidad de la luz. Para acelerar la nave a 0,99 c, se necesitaría muy poco combustible, sólo trece veces la masa de la nave. Quizás este tipo de motor es la forma más eficaz para lograr altas velocidades.

Pero hay un gran problema: fabricar antimateria es muy costoso (en energía y tiempo). Con las técnicas actuales se estima que fabricar un miligramo de antimateria podría requerir unos 200.000 años. ¿Podría existir un método más rápido y más eficaz en el universo de Star Wars? Quizás la imaginación de George Lucas haya sido capaz de lograrlo.

Coda final: Esta entrada era mi borrador para participar en el XXXIX Carnaval de Física. Hoy la rescato y se la dedico a ”El Tercer Precog” (@Pr3cog). Por cierto, un blog imprescindible para todos los aficionados al uso de la ciencia ficción para la educación de futuros físicos, ingenieros y demás aspirantes a cuestionarse todo lo que les rodea.

Ya que estamos puestos, recomiendo también consultar Jorge A. Shitu y Omar G. Benvenuto, “El uso del cine de ciencia ficción para el planteo de problemas abiertos y como investigación,” Revista de Enseñanza de la Física 25: 89-108, 2012 [pdf gratis].


Archivado en: Ciencia, Física, Personajes, Physics, Recomendación, Science Tagged: Ciencia, ciencia ficción, divulgación, espacio, Física, Personajes, Propulsión, Star Wars

Lucas Sánchez @sonicando nos cuenta en DivulgA3 por qué un científico debe divulgar

$
0
0

Cómo puede un científico “ser el primero en descubrir algo y no salir corriendo a contarlo.” La ciencia nos hace “ver la luz en la oscuridad” y en el momento ¡Eureka! divulgar es mucho mejor que salir corriendo en paños menores por la calle cual Arquímedes. ”Un científico debe ser egoísta, porque la divulgación le sirve para muchas cosas. Primero, da un nuevo punto de vista que permite oír una historia diferente sobre nuestra propia investigación. Segundo, divulgar nos dará el feedback necesario para recordar que la ciencia es apasionante per se, incluso aunque lo olvidemos cada día de duro trabajo. Tercero, porque quienes nos financian deben saber lo que hacemos y para qué sirve, sólo así nos seguirán financiando. Cuarto, porque divulgar te permitirá conocer a gente muy variada que te hará ver la ciencia con ojos muy diferentes. Y quinto, porque permite ganar dinero, de vez en cuando. ¿Por qué entonces no divulgan todos los científicos?” Nos lo cuenta Lucas Sánchez (@sonicando), un investigador que divulga. La charla forma parte de las I Jornadas de divulgación científica “DivulgA3. Más allá de los papers,” 02 de Mayo de 2013. Puedes disfrutar de las demás charlas en youtube siguiendo este enlace.

Por cierto, Lucas también es músico en el grupo de rock Leftover Lights (@LeftoverLights). Puedes disfrutar de “Over” siguiendo este enlace. Y los que prefieran el álbum completo, pueden recurrir a este otro enlace.

PS: Recomiendo a los investigadores que quieran iniciarse en la divulgación la consulta del ”Manual de Comunicación para Investigadores” de la Universidad de La Rioja.


Archivado en: Ciencia, Noticias, Personajes, Recomendación, Science Tagged: Ciencia, divulgación, Noticias, Personajes

Epi y Blas (Ernie & Bert) los dos neutrinos UHE observados por IceCube

$
0
0

Los dos neutrinos electrónicos ultraenergéticos (energía superior a 1 PeV, peta-electrón-voltio) observados por IceCube (el detector de neutrinos situado en el Polo Sur) fueron bautizados como Ernie y Bert, los nombres en inglés de Epi y Blas, en homenaje a los protagonistas de la serie infantil Barrio Sésamo por el siguiente sketch en el que Epi mostraba sus “ice cubes” (cubos de hielo) a Blas (fuente).

 

Bert (Blas) se observó el 9 de agosto de 2011 y tiene una energía de 1040±16 TeV. Ernie (Epi) se observó el 3 de enero de 2012 y tiene una energía de 1140±17 TeV. Esta energía es enorme; recuerda que las colisiones protón contro protón en el LHC en 2012 han alcanzado 8 TeV en el centro de masas de la colisión. Sólo dos neutrinos observados en 616 días de observación, cuyo origen no parece ser atmosférico (resultado de un rayo cósmico (un protón de alta energía) que haya colisionado en la atmósfera y producido dichos neutrinos como producto secundario). Como se esperaban observar 0,082 ± 0,069 neutrinos atmosféricos con este energía, si su origen fuera atmosférico se trataría de una fluctuación estadística a 2,8 sigmas.

Dibujo20130516 UHE neutrinos observed in IceCube comparison with GZK and atmospheric origin

Pero tampoco se cree que sean neutrinos cosmológicos o GZK (por Greisen, Zatseptin y Kuzmin), resultado de la interacción de protones de alta energía con fotones del fondo cósmico de microondas, pues su energía es menor de la esperada (como muestra la figura de abajo). Por ello, los neutrinos Epi y Blas son todo un misterio. Lo más probable es que su origen sea astrofísico, pero se desconoce qué fuente astrofísica puede ser la responsable de su origen. Por supuesto, no se puede descartar que se trate de una fluctuación estadística, pues se necesitan obervar un par más para poder confirmar con más de 5 sigmas que su origen no es atmosférico. El artículo técnico es IceCube Collaboration, “First observation of PeV-energy neutrinos with IceCube,” arXiv:1304.5356, 19 Apr 2013.

Dibujo20130516 28 HE neutrinos observed in IceCube

Lo más curioso es que además de estos dos neutrinos UHE se han observado otros 26 neutrinos de alta energía (HE). Se esperaba observar 10,6 ± 0,4 neutrinos en dicho intervalo de energía, con lo que la observación de 28 neutrinos implica una desviación estadística de 4,3 sigmas. ¿Cuál es la fuente de estos neutrinos con energías de hasta 252,7 TeV? Nadie lo sabe, pero parece que su origen podría ser astrofísico. ¿Está relacionado su origen con el de Erni y Bert? Parece razonable suponerlo, pero todavía es pronto para afirmarlo con seguridad.

Dibujo20130516 28 HE neutrinos in IceCube - source direction

La fuente (dirección de entrada en IceCube de los neutrinos) parece aportar poca información sobre su origen. Son pocos eventos, pero su distribución parece isótropa (valor p del 0,8), salvo por los 7 que se ven en esta figura en el hemisferio sur a la izquierda (valor p de 0,08). Todo apunta a una fuente astrofísica de estos neutrinos, pero a día de hoy no tenemos ni idea de qué puede ser. El misterio de los neutrinos de alta energía de IceCube sólo podrá se aclarado con la recopilación de más datos en los próximos años. Más información en la charla de Nathan Whitehorn, Claudio Kopper, Naoko Kurahashi Neilson (for the IceCube Collaboration), “Results from IceCube,” IPA 2013, Univ. Wisconsin – Madison, May 15, 2013 [slides].

Más información divulgativa en ”IceCube obtiene evidencias de neutrinos altamente energéticos de origen cósmico,” CPAN Ingenio, 16 May 2013; nos anticipó la charla en IPA 2013 uno de los asistentes, Jorge Diaz, “Observatorio de neutrinos IceCube hará importante anuncio,” Conexión Casual, Mayo 15, 2013; aunque algunos medios apuntarán al origen cósmico, como “Primera evidencia de neutrinos de origen cósmico,” Europa Press, Mayo 16, 2013.


Archivado en: Ciencia, Física, Noticia CPAN, Noticias, Physics, Science Tagged: Ciencia, Experimento, Física, IceCube, Misterio, Neutrinos, Noticias

Francis in Mapping Ignorance: Transferencia anómala de calor de lo frío a lo caliente

$
0
0

He liquid He vapor between two plates

Te recomiendo leer mi última contribución al blog Mapping Ignorance, “Read it twice: Heat transfer from a cooler body to a hotter body,” May 16, 2013. El primer párrafo, en inglés, dice “Without any conflict with the second law of thermodynamics, heat can flow from a cooler but constantly heated body to another thermally connected and constantly hotter body. This anomalous heat transfer has been demonstrated in a two-phase liquid-vapor system composed of a Rayleigh–Bénard convection (RBC) cell filled one-half with normal liquid helium and one-half with helium vapor.” Seguir leyendo…

Mi contribución se basa en el artículo de Pavel Urban, David Schmoranzer, Pavel Hanzelka, Katepalli R. Sreenivasan, and Ladislav Skrbek, “Anomalous heat transport and condensation in convection of cryogenic helium,” PNAS 110(20): 8036-8039, May 14, 2013; además recomiendo consultar a Joseph J. Niemela, “Weather and anomalous heat flow occurring near absolute zero,” PNAS 110(20): 7969-7970, May 14, 2013.


Archivado en: Ciencia, Colaboración Mapping Ignorance, Física, Noticias, Physics, Recomendación, Science, Termodinámica Tagged: Ciencia, Curiosidades, Experimento, Física, Física (o Mecánica) de fluidos, helio, Noticias, Termodinámica, transferencia de calor

Prensa rosa: Por qué me interesa una noticia científica y no otra

$
0
0

Dibujo20130518 Prof Yuri S Kivshar photograph

Yuri S. Kivshar es uno de los popes del campo de investigación al que yo me dedico. Kivshar tiene un índice h de 69 y la friolera de 758 artículos en revistas impactadas (según el ISI Web of Science); entre ellos, 116 Optics Letters y 73 Physical Review LettersSu artículo más citado (“Dynamics of solitons in nearly integrable systems“) ha sido citado 886 veces. En 2005 me sorprendió que empezara a publicar más de 52 artículos al año (más de un artículo a la semana) y el año pasado (2012) publicó 70 artículos, incluyendo 5 Physical Review Letters. Son muchos artículos y no todos pueden ser buenos, pero la mayoría son muy buenos (al menos para los que trabajamos en mi campo).

Dibujo20130518 Asymmetric excitation of waveguided modes - Schematics of the circularly polarized dipole over a planar waveguiding structure

La razón por la que os hablo de Kivshar es que me ha sorprendido que su primer artículo en Science sea una Perspective, un comentario/noticia sobre un artículo (Andrey E. Miroshnichenko, Yuri S. Kivshar, “Polarization Traffic Control for Surface Plasmons,” Science 340: 283-284, 19 April 2013). Quizás no debería haberme sorprendido, pues tampoco tiene ningún artículo en Nature (aunque tiene un Nature Physics en 2009 y dos Nature Materials en 2012). En esta perspectiva Kivshar y Miroshnichenko se hacen eco del interesante artículo de Francisco J. Rodríguez-Fortuño (Centro de Tecnología Nanofotónica de Valencia, Universitat Politècnica de València, España) et al., “Near-Field Interference for the Unidirectional Excitation of Electromagnetic Guided Modes,” Science 340: 328-330, 19 April 2013. De hecho, se trata del primer artículo en Science del Centro de Tecnología Nanofotónica de Valencia, que no tiene ninguno en Nature y que sólo ha publicado un único Physical Review Letters.

Dibujo20130518 control of circularly polarized dipole over a planar waveguiding structure

Te preguntarás cómo es posible que una noticia tan interesante como que “Descubren una nueva forma de controlar la dirección de propagación de la luz guiada,” SINC, 18 abril 2013, llamara mi atención por un detalle tan poco importante como que Kivshar ha escrito una perspectiva en Science sobre ella. Los divulgadores científicos no profesionales tenemos ese problema, como no tenemos que responder ante nadie, pues nuestro sueldo proviene de otras fuentes, nos dejamos llevar por nuestros “sesgos o prejuicios cognitivos” para tomar decisiones sobre lo que publicamos o sobre cómo ilustramos lo que publicamos. Algunos lectores puede que se sienten dolidos por ello. Pero lo siento, la blogosfera es así.


Archivado en: Ciencia, General, Noticias, Personajes, Prensa rosa Tagged: Bibliometría, Ciencia, Curiosidades, divulgación, Noticias, Opinión, Personajes

Cuando el fin justifica los medios

$
0
0

Dibujo20130518 Diversity of transcript isoforms

El dogma central de la biología molecular, propuesto por Francis Crick en 1958, reza que todo gen (codificante) se transcribe en ARN mensajero que se traduce en una proteína. Hoy sabemos que las cosas nunca fueron tan sencillas. Un estudio del ADN de la levadura de la cerveza (S. cerevisiae) ha mostrado que, aunque contiene unos 6000 genes codificantes de proteínas, produce 1,88 millones de transcritos de ARN. Estas moléculas de ARN se llaman isoformas de transcripción (TIF por sus siglas en inglés) y tienen diferentes secuencias de inicio (5′) y final (3′). ¿Cuál es su función biológica? Lo más fácil es decir que su papel es regular la expresión de otros genes, pero esta función ha sido demostrado sólo en unos cientos de casos. La mayoría de los TIF podrían no tener ninguna función biológica, siendo un subproducto irrelevante de la maquinaria de transcripción. ¿Podrían tener algún papel en la evolución? Como es obvio, el contenido de TIF en un momento dado de una célula dentro de una población la diferencia de todas las demás y quizás podría proporcionarle la oportunidad de estar mejor adaptada a cambios en su entorno. Quizás esta gran diversidad de ARN transcritos sea una de las razones por la que es difícil matar a todas las células cancerosas de un tumor. Así finaliza su News & Views, cuyo titulo he copiado, B. Franklin Pugh, ”Molecular biology: The ends justify the means,” Nature 497: 48–49, 02 May 2013, quien se hace eco del artículo técnico de Vicent Pelechano, Wu Wei and Lars M. Steinmetz, “Extensive transcriptional heterogeneity revealed by isoform profiling,” Nature 497: 127–131, 02 May 2013.

Dibujo20130518 total transcript isoforms supported by at least two sequencing reads

Pelechano y sus colegas han estudiado unos 19 millones de transcritos de ARN entre los que han identificado unos 1,88 millones de TIF únicos; entre ellos, 777 mil se han observado repetidos (en al menos dos casos). Esta gran diversidad en la transcripción que produce un genoma eucariota tan simple como el de la levadura de la cerveza nos muestra que el otro gran dogma de la biología, “todo es sencillo,” también ha de ser desterrado. La bioquímica y la biología molecular cada día se vuelven campos más apasionantes que requieren ideas revolucionarias que pongan orden y concierto, que nos salven de ahogarnos en los datos. Como le dije a mis alumnos de bioinformática el primer día de clase: La solución del problema del “big data” en bioquímica está en vuestras manos, vosotros sois el futuro, yo sólo os puedo dotar de herramientas útiles en el pasado.

Por cierto, los interesados en la genética del cáncer y sus aplicaciones biomédicas, que además tengan acceso (vía su universidad, por ejemplo) a la revisa Science, disfrutarán con el Especial “Cancer Genomics” del 29 de marzo de 2013. “Desafortunadamente, no existe una fórmula mágica, ya que ninguna variante genética y ningún efecto epigenético se ha identificado como un objetivo único en la lucha contra todos los tipos de cáncer. Aún así, se espera un gran impacto clínico para los análisis del genoma del cáncer en la detección temprana y el tratamiento de la enfermedad.”


Archivado en: Biología, Bioquímica, Ciencia, Informática, Noticias, Prensa rosa, Science Tagged: ARN, Biología, Ciencia, Experimento, Noticias, transcripción

Cómo integrar cuarzo piezoeléctrico en circuitos integrados de silicio

$
0
0

Dibujo20130517 quartz on silicon - for piezoelectric integrated circuits

No es fácil integrar un reloj de cuarzo dentro de un chip de silicio, porque crecer cuarzo sobre silicio es muy difícil. Se necesitan películas de cuarzo nanoestructuradas para aplicaciones piezoeléctricas con alta frecuencia de resonancia, como dispositivos microelectromecánicos. Físicos españoles (ICMAB-CSIC de la UAB) y franceses han logrado superar el reto con una nueva técnica que permite el crecimiento de películas delgadas de α-cuarzo sobre silicio policristalino que permitirá desarrollar dispositivos piezoeléctricos integrados en chips. El α-cuarzo es la forma a baja temperatura del cuarzo, el segundo mineral más abundante en la Tierra, uno de los 11 polimorfismos cristalinos del dióxido de silicio (una sustancia tiene un polimorfismo si puede cristalizar en distintos sistemas cristalográficos según las condiciones de cristalización). La nueva técnica utiliza estroncio (Sr) y bario (Ba) como catalizadores, se basa en una desvitrificación heteroepitaxial y una posterior cristalización, siendo sencilla desde el punto de vista conceptual, pero bastante complicada de llevar a la práctica. Nos lo cuentan C. Jeffrey Brinker, Paul G. Clem, “Quartz on Silicon,” Science 340: 818-819, 17 May 2013, quienes se hacen eco del artículo técnico de A. Carretero-Genevrier et al., “Soft-Chemistry–Based Routes to Epitaxial α-Quartz Thin Films with Tunable Textures,” Science 340: 827-831, 17 May 2013.

Dibujo20130517 quartz on silicon

Dibujo20130517 quartz on silicon - desvitrification - crystallization


Archivado en: Ciencia, Física, Nanotecnología, Noticias, Physics, Science Tagged: Ciencia, Cuarzo, Experimento, Física, Física de estado sólido, Microelectromecánica, Noticias, Piezoelectricidad, silicio

Sábado, reseña: “Mala Farma” de Ben Goldacre

$
0
0

Dibujo20130518 mala farma - book cover - gen goldacre - paidos contextos

Me gustó “Mala Ciencia,” un libro fresco y necesario. El nuevo libro de Ben Goldacre, “Mala Farma,” editado por Paidós Contextos, sigue el mismo camino, pero lo lleva hasta el extremo. Quizás demasiado. Un libro recomendable para estudiantes de medicina y profesionales de la salud, pero que puede dejar un mal sabor de boca a los que somos pacientes potenciales. Goldacre en “Mala Farma” se recrea en la hipérbole, una figura retórica poco habitual en el ensayo de divulgación científica. En mi opinión, la hipérbole resulta un poco desagradable en un texto de 380 páginas. La verdad, no puede ser verdad que todo sea tan malo como lo pinta Goldacre en su libro. Su recopilación de casos (muchos poco conocidos) muestran una situación de la medicina y la farmacología tan escandolosa que el inexperto como yo llega a la conclusión de que no puede ser todo tan malo como lo pinta Goldacre en “Mala Farma.” Por supuesto, espero no equivocarme.

En el primer capítulo se trata el problema de los “Datos que faltan.” La ciencia funciona a base de contrastar hipótesis; cuando uno propone una hipótesis para explicar un fenómeno físico y realiza una experimentación para ratificarla, puede que, por  contra, los datos muestren que la hipótesis era incorrecta; en dicho caso, lo normal es que omita publicarlo, por vergüenza y porque publicar resultados negativos es casi imposible. Sin embargo, como nos cuenta Goldacre, en medicina el asunto es más complicado, hay vidas humanas en juego.

“En 2009, se publicó por primera vez un estudio que examinaba en concreto cuántas de esas primeras pruebas clínicas experimentales en seres humanos llega a ver la luz y cuántas quedan ocultas. Reunidos todos los ensayos de este tipo aprobados por un comité deontológico a lo largo de un año, se constató que al cabo de cuatro años [aún no] se habían publicado nueve de cada diez, y transcurridos ocho años, cuatro de cada cinco seguían sin estarlo.” [Páginas 26-27]

En física (y otras ciencias) no hay daños colaterales en pacientes debido a que no se publiquen los resultados negativos (las hipótesis fallidas).

“Dado que los investigadores gozan de total libertad para ocultar los resultados que quieran, los daños a los que se ven expuestos los pacientes son de una magnitud inconmensurable en el campo de la medicina, desde la investigación a la práctica diaria. Los médicos ignoran totalmente los verdaderos efectos de los tratamientos que aplican. ¿Funciona realmente este fármaco o me han ocultado la mitad de los datos? Vaya usted a saber. ¿Vale la pena este costoso fármacoo se han maquillado los datos? Vaya usted a saber. ¿Matará este fármaco a los pacientes? ¿Hay alguna evidencia de que sea peligroso? Vaya usted a saber.” [página 28]

Goldacre destaca la importancia de los metaanálisis realizados por la Colaboración Cochrane, como ya hizo en “Mala Ciencia,” aunque en “Mala Farma” el discurso resulta un poco pesado pues se reiteran los argumentos una y otra vez, como tratando de que hasta el más torpe se entere de lo que se quiere decir.

En el segundo capítulo “¿De dónde salen los nuevos medicamentos?” y en el tercero “Malos organismos reguladores,” Goldacre nos recuerda que “la pela es la pela” (en inglés “money talks”).

“La investigación sobre eficacia comparativa [de fármacos] es crucial, [pero muy costosa]. Barack Obama [actual presidente de EEUU] demostró a muchos académicos y médicos que comprendía [con claridad] los grandes problemas de la sanidad al anunciar [en 2008] que gastaría 1.000 millones de dólares en ensayos clínicos comparativos entre los fármacos que se emplean en los tratamientos más corrientes. [...] Porque la investigación sobre eficacia comparada de fármacos es un campo de vital importancia para todos, y en muchos casos la utilidad de averiguar cuál es el fármaco existente que mejor resultado da supera con creces el coste de desarrollar nuevos fármacos.” [páginas 144-145]

En el capítulo cuarto, “Malos ensayos clínicos,” se nos recuerda que hay efectos espurios en los ensayos si se realiza un número muy elevado de análisis o si se dividen los resultados en un número muy grande de subgrupos. Yo destacaría los comentarios de Goldacre sobre el ensayo de un procedimiento quirúrgico llamado endarteriectomía.

Los investigadores “decidieron examinar hasta qué extremo podían poner en práctica esta idea (en broma) dividiendo a los pacientes en la mayor cantidad de subgrupos imaginables. [... En uno de dichos subgrupos] observaron que el beneficio de la cirugía dependía del día de la semana en que había nacido el paciente: sería de imbéciles basar las decisiones clínicas en ese dato. Observaron [también] una maravillosa relación casi lineal entre el mes de nacimiento y el resultado clínico: en los pacientes nacidos en mayo y junio se observó un extraordinario beneficio, pero a medida que corría el calendario el efecto se diluía más y más, hasta que en marzo la intervención tenía visos de ser casi perjudicial. Si estos resultados descubrimientos hubieran sido en relación con una variables biológica plausible, como la edad, el análisis de dicho subgrupo habría sido difícil de ignorar.” [página 193]

El breve capítulo cinco, “Ensayos clínicos más amplios y más sencillos,” da paso al sexto, “Marketing.” Me ha resultado muy pesada la lectura de este capítulo. Yo destacaría el siguiente párrafo sobre el conflicto de intereses: “business is business, science is science.”

“Los científicos están obligados a declarar sus intereses económicos cuando publican un trabajo. Pero los editores [de las revistas científicas] que imponen este requisito a los colaboradores, casi todos se han eximido ellos mismos. Es curioso. La industria farmacéutica tiene unos ingresos de [unos] 600 billones de dólares y compra muchísimo espacio publicitario en las revistas académicas, lo que representa muchas veces el capítulo más importante de sus ingresos.”  [página 274]

Este problema no sólo afecta a los demás médicos, también nos afecta a todos nosotros (si somos médicos o futuros médicos). Goldacre recomienda algo obvio, pero como muchas cosas obvias, que se olvida fácilmente.

“Todos los médicos deben declarar los pagos, obsequios, invitaciones, cursillos formativos, etcétera, a los pacientes, a los colegas y en un registro central.” [página 302]

El epílogo final, “Mejores datos,” resume todo el libro en unas veinte páginas. Su primer párrafo merece ser repetido.

“Estarán abrumados, y no se lo reprocho. Dedicaremos unos instantes a recapitular y a reflexionar sobre cómo se defendería un ejecutivo de la industria para, a continuación, ver cómo arreglar las cosas.” [Página 305].

En resumen, un libro muy bien documentado, con gran número de referencias bibliográficas, pero cuya lectura resulta pesada. Repetir los mismos argumentos una y otra vez no ayuda a entenderlos mejor. Me gustó “Mala Ciencia,” pero no me ha gustado tanto “Mala Farma,” aunque recomiendo su lectura a los médicos y a quienes aspiran a serlo. Seré muy crédulo, pero no me parece que el panorama farmacológico sea tan pésimo como sugiere Goldacre en su libro “Mala Farma.”


Archivado en: Ciencia, Libros, Medicina, Noticias, Recomendación, Science Tagged: Empresas farmacéuticas, farmacología, Libros, Medicina, Noticias, Personajes, Reseña

Nota dominical: Einstein nunca dijo que su “mayor error” fue la constante cosmológica

$
0
0

Dibujoa20130517 albert einstein smiling

Mucha gente cree que Einstein dijo que introducir la constante cosmológica fue el “mayor error de su vida.” Pero se trata de un mito. Einstein nunca lo dijo. O si lo dijo en privado no existe ningún documento que lo acredite. La frase “el mayor error” o “la mayor metedura de pata” (en inglés “the biggest blunder“), en relación a la constante cosmológica y Einstein, fue escrita por primera vez por el físico George Gamow en un artículo publicado en septiembre de 1956 en la revista Scientific American (recuerda que Einstein murió en abril de 1955). Gamow repitió esta frase varias veces en otros textos y gracias a ello se popularizó esta cita apócrifa como si fuera del propio Einstein.

Por supuesto, el mito no quita que Einstein se sintiera descontento con haber introducido la constante cosmológica y que en una carta al cosmólogo Georges Lemaître le dijera que “soy incapaz de creer que una cosa tan fea pueda ser real en la Naturaleza” (“I was unable to believe that such an ugly thing should be realized in Nature”). Pero, la frase en inglés “the biggest blunder” fue acuñada por Gamow a modo de hipérbole y atribuida a Einstein por otros. Hay muchos mitos alrededor de la figura de Einstein que se propagan con el tiempo, nadie sabe muy bien el porqué. Me ha recordado este hecho, bien conocido por los que hemos leído biografías rigurosas de Einstein, el artículo de Mario Livio, “Lab life: Don’t bristle at blunders,” Nature 497, 309–310, 16 May 2013.

En su artículo, Livio nos recuerda también que en julio de 1991 se publicó en la revista Nature un artículo de los astrónomos Andrew Lyne, Matthew Bailes y S.L. Shemar que anunciaba el descubrimiento del primer planeta extrasolar; yo recuerdo este artículo porque entonces yo estaba suscrito a Nature en papel y la recibía con placer todas las semanas. Para sorpresa de todo el mundo no estaba orbitando una estrella similar al Sol, sino un pulsar (una estrella de neutrones residuo de la explosión de una supernova). Pocos meses más tarde, en enero de 1992, los autores tuvieron que retractarse de este artículo, pues su error era debido a que no habían corregido de forma adecuada el movimiento de la Tierra alrededor del Sol. Yo recuerdo haber leído dicha retracción con cierta inquietud, pues entonces pensaba que los artículos publicados en Nature eran muy fiables gracias a su rigurosa revisión por pares. Y además, la semana anterior se había publicado otro descubrimiento similar, un sistema planetario con dos exoplanetas.

Livio nos recuerda, yo no lo sabía, que Lyne reveló su error en una reunión de la Sociedad Astronómica Americana, donde recibió una clamorosa ovación por ello. Justo después de su charla, el astrónomo Aleksander Wolszczan anunció que había descubierto otros dos planetas extrasolares orbitando otro púlsar. Su artículo en Nature, junto a D.A. Frail, titulado “un sistema planetario alrededor del púlsar PSR 1257+12,” corrió mucha mejor suerte, pues fue confirmado con un artículo en Science en 1994, titulado “confirmación de planetas de masa terrestres alrededor del púlsar PSR 1257+12.” Gracias a ello, Wolszczan y Frail están en la carrera hacia el Premio Nobel (de hecho, mucha gente afirma que el primer planeta extrasolar se descubrió en 1994, olvidando el descubrimiento de 1992).

Wolszczan siempre ha dicho que el artículo de Lyne fue la “inyección de confianza” que le convenció de que las señales en sus datos sobre el púlsar PSR 1257+12 eran señales reales de exoplanetas. Si su artículo a Nature no hubiera sido enviado antes de la retracción de Lyne, quizás, Wolszczan hubiera descartado dichas señales y no sería uno de los candidatos más firmes al Premio Nobel de Física en los próximos años.

Los errores son una parte esencial del proceso científico. Si te ha picado la curiosidad esta entrada, y tienes acceso a una suscripción a Nature, te recomiendo leer el artículo de Livio en Nature. No te arrepentirás.


Archivado en: Ciencia, Física, Historia, Noticias, Personajes, Physics, Prensa rosa, Recomendación, Relatividad, Science Tagged: Ciencia, Curiosidades, einstein, Física, Física teórica, Mitos, Noticias, Personajes

Francis en ¡Eureka!: La clonación de células troncales pluripotentes humanas

$
0
0

Dibujo20130518 Human Embryonic Stem Cells Derived by Somatic Cell Nuclear Transfer

Ya está disponible el audio de mi sección ¡Eureka! en el programa La Rosa de los Vientos de Onda Cero. Sigue este enlace para disfrutarlo. Como siempre una transcripción libre.

La noticia de la semana ha sido la clonación de células madre humanas. Desde que se clonó la oveja Dolly en 1996 muchos investigadores han tratado de clonar células humanas por sus aplicaciones en medicina regenerativa. ¿Por qué ha costado tanto tiempo clonar células humanas? La oveja Dolly fue clonada a partir de una célula adulta mediante una técnica llamada transferencia nuclear somática. Se tomó el núcleo de una célula de la glándula mamaria de una oveja y se introdujo en un óvulo no fecundado y sin núcleo. Fueron necesarios 277 embriones fallidos para producir un nacimiento y en 2003, la oveja Dolly murió de vejez prematura (vivió la mitad que una oveja normal).

Todas las células tienen el mismo ADN en su núcleo, pero son muy diferentes entre sí (basta comparar una neurona y una célula de la piel). Pero todas las células pueden nacer a partir de células troncales pluripontentes, las llamadas células madre, capaces de diferenciarse en cualquier otra célula del cuerpo. Shoukhrat Mitalipov (del Centro Nacional de Investigación en Primates de Oregón, en EEUU) y sus colegas, entre ellos la embrióloga española Nuria Martí, emigrada a EEUU por los recortes en ciencia en España, han logrado aplicar la técnica utilizada con la oveja Dolly a células humanas.

Algunos oyentes recordarán que un científico surcoreano, el Dr. Hwang, experto en células madre, afirmó haberlo logrado en marzo de 2004, pero en diciembre de 2005 se descubrió había falsificado los datos de sus experimentos sobre la clonación de embriones humanos. Se levantó un gran escándalo y fue condenado a dos años de cárcel por un tribunal de Seúl. Ha costado casi 10 años de intenso trabajo lograr la clonación humana y lo más curioso es que la clave ha sido utilizar la cafeína.

Recomiendo leer a Gretchen Vogel, “Human Stem Cells From Cloning, Finally,” News & Analysis, Science 340: 795, 17 May 2013, y a David Cyranoski, “Human stem cells created by cloning. Breakthrough sets up showdown with induced adult lines,” Nature 497: 295–296, 16 May 2013. El artículo técnico es Masahito Tachibana et al., “Human Embryonic Stem Cells Derived by Somatic Cell Nuclear Transfer,” Cell, AOP, 15 May 2013. La cafeína se introdujo en la clonación de monos en S.M. Mitalipov, “Reprogramming following somatic cell nuclear transfer in primates is dependent upon nuclear remodeling,” Human Reproduction 22: 2232-2242, 2007.

En español recomiendo leer a Nuño Domínguez, “La clonación humana, cuestión de cafeína,” esMateria, 17 mayo 2013, y a Alfredo Pascual, “Nuestra generación no verá un órgano clonado, y mucho menos un ser humano,” El Confidencial, 17 mayo 2013.

La cafeína es un estimulante consumido por muchas personas en infusiones extraídas del café y del té. ¿Para qué se ha usado la cafeína en este estudio? La técnica utilizada en la clonación de la oveja Dolly no funciona en monos y humanos (aunque sí en ratones, cerdos y otros mamíferos). Mitalipov descubrió en 2007 que dicha técnica podía funcionar en monos añadiendo cafeína al medio que baña los ovocitos (óvulos inmaduros) durante la extracción del núcleo y la fusión celular. La cafeína estabiliza las moléculas clave en el citoplasma del ovocito que ayudan a reprogramar las células fusionadas en un estado embrionario, e impide que se active el óvulo antes de tiempo dando al traste con el proceso.

En humanos también ha sido clave la calidad de los óvulos usados. Con los más sanos, las posibilidades de éxito son del 50%, que con otros se reduce al 12% y con algunos es imposible generar células madre. Mitalipov y su grupo han descubierto que sin usar cafeína, sólo el 11% de los ovocitos humanos se desarrollan hasta la fase de blastocisto y ninguno de ellos produce células madre embrionarias. El blastocisto humano es un embrión entre 5 y 6 días de desarrollo que presenta una estructura celular formada por unas 200 células en forma de esfera hueca. Usando cafeína, el 23% de los embriones forman blastocistos y el 50% de ellos produce células madre embrionarias. Todavía no se entiende en detalle la bioquímica del efecto de la cafeína y serán necesarios futuros estudios para clarificarlo.

¿Exactamente en qué consiste la técnica de transferencia nuclear celular? Se introduce el material genético de la célula a clonar en un ovocito (un óvulo inmaduro) de la misma especie, que ha sido enucleado (se ha eliminado su núcleo, donde se encuentra su propio material genético). El ovocito tiene la capacidad de reprogramar el programa de expresión génica celular, reiniciándolo de alguna manera, de forma que la célula nueva resultante será capaz de dar lugar a cualquier otro tipo celular.

En concreto, se utiliza un proceso en tres etapas, que simplificando detalles técnicos es el siguiente. La primera etapa es la enucleación del ovocito: eliminar el material genéitco del óvulo inmaduro receptor. Suele usarse micromanipulación o métodos químicos. La segunda etapa es la transferencia del núcleo, fusionando el cariosoma (el núcleo celular envuelto por una pequeña porción de citoplasma) con el citoplasma del ovocito; se pueden utilizar estimulación eléctrica (electrofusión) o el uso de virus fusogénicos; también se puede realizar una microinyección intracitoplásmatica (similar a cómo el espermatozoide entra en el óvulo) pero esto es menos habitual en la clonación. Y finalmente se realiza la activación del ovocito: a diferencia del espermatozoide, las células adultas no son capaces de activar el ovocito, por lo que debe inducirse la activación una vez realizada la transferencia del núcleo para que el ovocito reprograme el genoma introducido y empiece el programa de desarrollo embrionario; para ello se utilizan estímulos químicos; el papel de la cafeína es retrasar este proceso al momento adecuado.

La nueva técnica lleva aparejados problemas bioéticos. ¿Se podrán clonar humanos con la nueva técnica? Mitalipov y sus colegas afirman que, por ahora, no hay que temer nada. Ellos, a pesar de más de 100 intentos, no han conseguido que los embriones de mono clonados por su técnica e implantados en una madre de alquiler hayan prosperado. Estas células troncales pluripotentes embrionarias se desarrollan hasta llegar al estado de blastocisto, pero a partir de este momento, las células que dan origen a la placenta no se desarrollan bien y aparecen anomalías que impiden que prosperen los embriones. El objetivo de esta investigación no es clonar seres humanos y, aunque lo fuese, nos encontramos lejos de conseguirlo.

¿Qué ventajas tiene la clonación respecto al uso de las células reprogramadas, método que recibió el Premio Nobel de Medicina en 2012? La nueva técnica de clonación está todavía en pañales y a día de hoy no tiene ninguna ventaja respecto a las células reprogramadas o células iPSC que el japonés Yamanaka descubrió en 2006. Estas células permiten tratar lesiones y enfermedades de un paciente con sus propias células sanas reprogramadas, evitando el rechazo que generan los trasplantes tradicionales. Pero no debemos olvidar que aún falta mucho tiempo para que se usen las células iPSC en ensayos clínicos.

Hay muchas cuestiones no resueltas, como el borrado de las marcas epigenéticas del ADN de la célula donante que aún no se han resuelto. La nueva técnica de clonación de células humanas tampoco resuelve estos problemas, más bien los agrava. Ahora mismo se necesitan entre 5 y 15 óvulos sanos, según la donante, para lograr tener éxito. Con las células reprogramadas tomadas de la piel, no se necesitan óvulos, ni mujeres donantes y también pueden generar casi cualquier tipo de tejido u órgano del cuerpo sin rechazos.

¿Qué aplicaciones terapéuticas puede tener la nueva técnica de clonación? Las células madre embrionarias tienen potencial para dar lugar a cualquier órgano. Las aplicaciones en medicina regenerativa son conocidas por la mayoría de los oyentes. Pero aún falta mucho tiempo para que estas aplicaciones vean la luz, pues aún no se ha demostrado que las nuevas células clonadas sean inocuas y no produzcan cáncer. Como estas células tienen gran capacidad para multiplicarse y diferenciarse, tiene como efecto secundario la aparición de cáncer. Hay que realizar mucha investigación básica para descubrir cómo impedirlo. Por ello, a corto plazo, la nueva fuente de células madre embrionarias de Mitalipov y su equipo será utilizada sobre todo en investigación básica en genética y biología.

Como siempre, si aún no has escuchado el audio, sigue este enlace para disfrutarlo.


Archivado en: Biología, Bioquímica, Ciencia, Eureka (La Rosa de los Vientos), Medicina, Noticias, Science Tagged: Biología, células madre, Ciencia, clonación, Experimento, Genética, Medicina, Noticias

Francis en Trending Ciencia: La física cuántica de la fotosíntesis

$
0
0

Dibujo20130519 Quantum Secrets of Photosynthesis Revealed

Sigue este enlace si quieres escuchar mi nuevo podcast en Trending Ciencia, que contesta una pregunta/petición formulada por Ces. Como siempre una transcripción del audio.

He elegido como tema para mi nuevo podcast sobre física la respuesta a una pregunta que me ha hecho uno de los lectores de mi blog, Ces, sobre la fotosíntesis y la física cuántica. Ces ha leído que la tasa de conversión de fotones en electrones en la clorofila alcanza el 90% gracias a la física cuántica. En realidad se trata de un mito. Igual que es falso que sólo usemos el 10% de nuestro cerebro, también es falso que la fotosíntesis tenga una eficiencia de más del 90%. La eficiencia máxima de la fotosíntesis como proceso bioquímico que produce biomasa a partir de radiación solar tiene una eficiencia máxima que ronda el 10%. Si sólo tenemos en cuenta los procesos que ocurren en las moléculas de clorofila, la eficiencia de la conversión de la energía de los fotones incidentes en el proceso de transferencia de electrones tiene una eficiencia que ronda el 50%. La eficiencia de más del 90% se refiere al proceso llamado “hoping” por el cual el fotón incidente en una molécula de clorofila produce una onda de tipo excitón que se mueve de forma sucesiva por varias moléculas de clorofila hasta alcanzar la molécula de clorofila “P” que realiza la transferencia de un electrón entre dos moléculas, una dadora de electrones y otra aceptora de electrones. Permíteme que explique todo esto en más detalle.

Dibujo20130519 The distributions of energy density of solar spectrum

La luz del Sol que es activa para la fotosíntesis es la que se encuentra en la banda entre 400 y 700 nm; recuerda que la luz con 400 nm tiene color azul y que la luz con 700 nm tiene color rojo. Como la clorofila absorbe mal en el centro de esta banda, los colores verdes, las hojas de los árboles son verdes (en lugar de negras). Se estima que como mínimos el 5% (y en muchos casos hasta el 10%) de la luz solar en la banda de 400 a 700 nm que incide sobre las hojas de las plantas se refleja y por tanto no es útil para la fotosíntesis.

Los fotones que inciden sobre la molécula de clorofila provocan su transición energética a un estado excitado, cuya relajación posterior se utiliza para producir energía. Los fotones en la banda activa para la fotosíntesis, entre 400 y 700 nm, tienen una energía media por mol de fotones de 205 kJ (kilojulios). La energía necesaria para activar el sistema fotosintético II (PSII) es la de un fotón con una longitud de onda de 680 nm, es decir, de unos 176 kJ/mol. Por otro lado, para el sistema fotosintético I (PSI) es la energía de un fotón de 700 nm, es decir, 171 kJ/mol. Por tanto, en promedio, el 6,6% de la energía solar incidente se pierde en forma de calor durante la relajación de los estados excitados de la clorofila.

También se pierde energía en el ciclo de Calvin que sintetiza los carbohidratos a partir de CO2 y la energía capturada. En la fotosíntesis C3, el ciclo de Calvin consume tres moléculas de ATP (adenosín trifosfato) y dos de NADPH (nicotinamida-adenina-dinucleótido-fosfato) para asimilar una molécula de CO2 (dióxido de carbono) en un carbohidrato (glucosa) y generar la molécula necesaria para cerrar el ciclo. La síntesis de las tres moléculas de ATP requiere 12 protones (4 cada una) y las dos  moléculas de NADPH requiere absorber 8 fotones.  Todo esto por cada molécula de CO2 asimilada, proceso que requiere una energía de 1388 kJ por mol. Un sexto de un mol de glucosa, es decir, el carbono que le aporta la molécula de CO2, contiene unos 477 kJ. Por ello, en el ciclo de Calvin para la fotosíntesis C3 se pierde el 24,6% de la energía solar incidente. Sumando todos los efectos, en la fotosíntesis C3 la máxima cantidad de energía solar que se transforma en carbohidratos es del 12,6%.

Algo parecido ocurre en el caso de la fotosíntesis C4. Hay tres subtipos para el ciclo de Calvin en este caso. Sin entrar en detalles, se pierde el 28,7%  de la energía contenida en la radiación solar incidente. Por tanto la eficiencia máxima de conversión de energía en la fotosíntesis C4 se estima en un 8,5%. Pero no queda todo ahí, también hay pérdidas adicionales en la respiración que se produce en la mitocondria. Estas pérdidas dependen de varios factores. De nuevo sin entrar en detalles, se estima que entre el 30% y el 60% del a energía se pierde.

Dibujo20130519 Minimum energy losses calculated for 1000 kJ of incident solar radiation at each discrete step of the plant photosynthetic process

En resumen, tomando el porcentaje mínimo para todas las pérdidas de energía que hemos indicado, la eficiencia máxima de conversión de energía del Sol en biomasa en la fotosíntesis C3 es del 4,6% (de cada 1000 kJ de energía incidente sólo se transforma en biomasa 46 kJ) y en la fotosíntesis C4 es del 6,0% (de cada 1000 kJ de energía solar incidente sólo se transforma en biomasa 60 kJ).

Artículo técnico para los interesados en los detalles de estos cálculos: X.G. Zhu, S.P. Long, D.R. Ort, “What is the maximum efficiency with which photosynthesis can convert solar energy into biomass?,” Curr. Opin. Biotechnol. 19: 153-159, 2008.

Por supuesto, los oyentes me dirán que he tenido en cuenta demasiados efectos y que Ces en mi blog sólo estaba interesado en la eficiencia de la conversión de fotones en electrones en la clorofila. Permíteme considerar este proceso en detalle.

Dibujo20130519 Three representative pigment protein complexes involved in natural photosynthesis

Un fotón incide sobre una “antena” molecular, un complejo proteíco formado por varias proteínas que contiene los pigmentos fotosintéticos (pongamos que sean moléculas de clorofila) y es absorbido excitando una molécula de clorofila, es decir, un electrón pasa desde un estado HOMO (siglas de orbital molecular ocupado de mayor energía) hasta un estado excitado no ocupado de mayor energía. Pocos picosegundos más tarde, esta molécula excitada decae, es decir, el electrón pasa desde el estado excitado a un estado LUMO (siglas de orbital molecular desocupado de menor energía) emitiendo un nuevo fotón. En este proceso la molécula vibra y pierde energía disipando calor. Obviando esta disipación térmica, la diferencia de energía entre los estados HOMO y LUMO debe corresponder a la energía del fotón absorbido por la molécula y a la energía del fotón emitido.

En las antenas moleculares fotosintéticas hay varias moléculas de clorofila que se excitan en secuencia a saltos (en inglés se habla de “hops” y al proceso se le llama “hoping”). Estos saltos acaban en una molécula de clorofila especial llamada clorofila “P” cuyo papel es la conversión del fotón en un electrón. La clorofila P está cerca de dos moléculas, una aceptora de electrones y otra dadora de electrones (DPA). Cuando la clorofila P se excita con un fotón (DP*A), decae en un proceso con dos etapas separadas: en la primera etapa transfiere un electrón a la molécula aceptora de electrones (DP+A-) y en la segunda etapa recibe un electrón de la molécula dadora de electrones (D+PA-), quedando en un estado no excitado tras este proceso.

La eficiencia energética de este proceso de conversión de energía la de un fotón en la transferencia de un electrón se puede calcular usando las leyes de la termodinámica. Podemos suponer que se trata de un ciclo de Carnot con un foco caliente, la energía de la molécula excitada, y un foco frío, la energía de la molécula en su estado fundamental. Asumiendo que la molécula de clorofila se comporta como una molécula en un gas, el cálculo resulta en una eficiencia máxima del 75%. Sin embargo, la clorofila in vivo no está en un gas y se encuentra acoplada a proteínas, lo que reduce la eficiencia a un valor entre el 57% y el 67%. Y en estos cálculos se ha omitido el trabajo requerido en las transiciones en las moléculas aceptora y dadora de electrones, lo que reduce la eficiencia de este ciclo de Carnot en como mínimo un 7% adicional.

En resumen, la eficiencia de la conversión de energía de un fotón a la de un electrón ronda el 60% en el mejor caso, siendo lo habitual que no supere el 50%. Pero entonces, ¿por qué comenta Ces en mi blog que ha leído que la eficiencia cuántica de la conversión de un fotón en un electrón en la fotosíntesis supera el 90%?

Más información sobre estos cálculos en Jérôme Lavergne, Pierre Joliot, “Thermodynamics of the Excited States of Photosynthesis,” BTOL-Bioenergetics, 2000 [pdf gratis].

La razón es sutil, pero sencilla. La eficiencia superior al 95% en la transferencia de energía en la fotosíntesis que mucha gente escribe en artículos de divulgación (yo mismo lo he escrito en mi blog en 2009) se refiere a la transferencia de los fotones entre moléculas de clorofila cercanas. El proceso que lleva los fotones desde la molécula de clorofila que ha capturado el fotón de la luz solar y la molécula de clorofila “P” que realiza la transferencia del electrón. El proceso de “hoping” tiene una eficiencia cercana al 95% gracias a la física cuántica, como se publicó en la revista Nature en el año 2007. Podemos decir que en este proceso de “hoping” se ejecuta un algoritmo cuántico de búsqueda que canaliza el fotón hasta la clorofila “P”.

En mi blog puedes leer “La conexión entre la fotosíntesis y los algoritmos cuánticos,” 2009, y “Publicado en Nature: Biología cuántica y computación cuántica adiabática en la fotosíntesis a temperatura ambiente,” 2010.

En 2007, Gregory S. Engel (de la Universidad de California en Berkeley) y sus colegas estudiaron la fotosíntesis en la bacteria fototrópica verde del azufre (Chlorobium tepidum). Según su estudio experimental mediante espectroscopia bidimensional utilizando la transformada de Fourier, el proceso de “hoping” corresponde a la propagación coherente de una onda cuántica de tipo excitón que transfiere la energía del fotón capturado hasta el centro químico activo donde se realiza la transferencia del electrón. La onda cuántica se propaga por las moléculas de clorofila durante cientos de femtosegundos y se comporta como si “visitara” de forma simultánea varios caminos posibles y eligiera el óptimo para llegar al centro activo. Engel y sus colegas afirmaron en su artículo de 2007 que el proceso es análogo al algoritmo cuántico de Grover, capaz de buscar un elemento dado en un vector de n componentes desordenadas en un número de pasos igual a la raíz cuadrada de n (cuando un algoritmo clásico requiere mirar al menos todos los elementos, es decir, un tiempo proporcional a n). Aunque el estudio experimental publicado en el año 2007 se realizó con a baja temperatura, unos 77 Kelvin, los autores afirmaron que el mismo mecanismo debe ocurrir a temperatura ambiente.

Recomiendo leer a Roseanne J. Sension, “Biophysics: Quantum path to photosynthesis,” News and Views, Nature 446: 740-741, 12 April 2007. El artículo técnico original es Gregory S. Engel et al. “Evidence for wavelike energy transfer through quantum coherence in photosynthetic systems,” Nature 446: 782-786, 12 April 2007.

De hecho, en el año 2010, se publicó en Nature otro artículo que comprobó dicho hipótesis, demostrando que el que dicho mecanismo también se da a temperatura ambiente. Elisabetta Collini (de la Universidad de Padua, Italia, aunque realizó la investigación trabajando en la Universidad de Toronto, Canadá) y sus colegas demostraron en un alga fotosintética que el mecanismo de “hoping” utiliza la coherencia cuántica incluso a temperatura ambiente. Pero repito, estos estudios, no implican que la eficiencia de la conversión de los fotones en electrones sea superior al 90%, como me preguntaba Ces en mi blog.

Recomiendo leer a Rienk van Grondelle, Vladimir I. Novoderezhkin, “Photosynthesis: Quantum design for a light trap,” Nature 463: 614-615, 4 Feb 2010. El artículo técnico es Elisabetta Collini et al., “Coherently wired light-harvesting in photosynthetic marine algae at ambient temperature,” Nature 463: 644-647, 4 Feb 2010

En resumen, espero haber contestado la pregunta de Ces de forma satisfactoria, aunque haya omitido muchos detalles técnicos. La fotosíntesis como proceso de conversión de energía solar en biomasa tiene una eficiencia máxima alrededor del 10%. El proceso fundamental que ocurre en la clorofila que permite la conversión de la energía de un fotón en la transferencia de un electrón tiene una eficiencia del orden del 50%. Y el proceso cuántico que tiene una eficiencia superior al 90% es el proceso de “hoping” por el que el fotón capturado en una molécula de clorofila recorre varias moléculas hasta llegar a la molécula de clorofila “P” que realiza la transferencia del electrón como tal.

Y esto es todo por hoy. Si te ha gustado la trancripción y quieres oír el podcast, sigue este enlace en Trending Ciencia.


Archivado en: Biología, Bioquímica, Ciencia, Física, Mecánica Cuántica, Noticias, Physics, Podcast en Trending Ciencia, Science, Termodinámica Tagged: Biofísica, Biología, Ciencia, Computación cuántica, Física, Física cuántica, Fotosíntesis

El “timo de la margarita” y el catalizador de energía E-Cat HT2 de Rossi

$
0
0

Dibujo20130520 Thermal image of the November test device ECat HT

Se acaba de publicar en ArXiv un artículo que presenta los resultados de tres experimentos con el catalizador de energía E-cat HT de Andrea A. Rossi. El artículo proclama un COP (cociente entre la potencia de salida y la de entrada) de 2,6 ± 0,5 (E-cat HT2, experimento en marzo de 2013) y de 2,9 ± 0,3 (E-cat HT2, exp. en diciembre de 2012). Se trata de un timo. El COP real es menor que la unidad. Si no lo fuera, implicaría una ganancia en energía imposible de explicar mediante reacciones químicas. Ya expliqué en “El secreto está en la (toma de) masa,” Naukas.com, 30 julio 2012, cómo funcionaba E-cat, pero era sólo una hipótesis, pues no tenía pruebas ni posibilidad de realizar los experimentos oportunos. Los autores del nuevo artículo los han hecho por mí y confirman la hipótesis. Fuera de toda duda, se trata de un timo, el “timo de la margarita.” El nuevo artículo técnico es Giuseppe Levi et al., “Indication of anomalous heat energy production in a reactor device containing hydrogen loaded nickel powder,” arXiv:1305.3913, 16 May 2013.

Dibujo20130520 Chart showing emitted power -blue- and consumed power -red- vs time for the ECat HT2

“Me quiere, no me quiere, me quiere, no me quiere, …,” pronuncias en voz alta mientras le quitas los pétalos a una margarita; al final, acabas (casi siempre) con un “me quiere.” ¿Por qué? Porque la mayoría de las margaritas tienen un número impar de pétalos. Lo mismo pasa con el catalizador de energía E-Cat en su nueva versión HT y HT2. Se afirma que la potencia eléctrica es suministrada al reactor mediante pulsos rectangulares (los pulsos en color rojo en la figura). En los experimentos se mide con una cámara infrarroja la emisión de radiación térmica del reactor y se estima la cantidad de energía radiada por la ley de Stefan. El resultado para la potencia emitida es la curva azul. Obviamente, se produce más energía que la suministrada (COP > 1).

Ahora bien, si la hipótesis que yo presenté en Naukas.com es correcta, la potencia pulsada medida está puenteada y en realidad es una potencia continua, no pulsada. Si las curvas rojas fueran continuas, el COP sería menor que la unidad y muchas reacciones químicas podrían explicar la potencia emitida por el reactor. No hay que recurrir a ningún fenómeno físico exótico. Todo se reduce a un timo. El “timo de la margarita.”

Muchos lectores dirán que no tengo pruebas y que mi afirmación sólo indica mi ignorancia. Sin embargo, en el artículo pone que el sistema de la alimentación de potencia eléctrica al reactor es secreto y no fue mostrado a los autores (“They were fed by a TRIAC power regulator device which interrupted each phase periodically, in order to modulate power input with an industrial trade secret waveform”). Por ello sólo les dejaron medir la potencia desde fuera, sin acceso a la conexión real que suministraba la potencia. ¿Por qué un generador de pulsos eléctricos cuadrados debe ser considerado un secreto industrial? Cualquiera de mis estudiantes de ingeniería es capaz de diseñar uno. La única explicación, en mi opinión escéptica, es que se utiliza un “truco” (el “puente” que comenté en mi entrada para Naukas.com). Si quienes han realizado las pruebas no han podido medir el suministro directo de potencia eléctrica y se han tenido que creer lo que dice Rossi (que es una inyección pulsada), en mi opinión, es porque no se trata de una inyección pulsada, sino una inyección continua. Más aún, si una inyección continua explica perfectamente el resultado obtenido sin recurrir a física exótica, como físico, no me queda otro remedio que considerar, repito, que estamos ante “el timo de la margarita.”

Por cierto, me apena el artículo de Tommaso Dorigo, “Is Cold Fusion For Real ?!,” A Quantum Diaries Survivor, May 20th 2013. Sugiere que el sistema E-cat HT de Rossi podría funcionar a la vista de los resultados de los experimentos. Siendo Dorigo un físico experimental (en física de partículas, trabaja en CMS, LHC) y siendo su blog muy visitado, me ha dolido que haga comentarios de este tipo. Para un físico debería ser obvio el “timo de la margarita.”

Coda final: En este blog también puedes leer “Mi opinión sobre la fusión fría alcanzada por los italianos Focardi y Rossi,” 19 enero 2011; y “Francis en Amazings.es: E-CAT, el secreto está en la (toma de) masa,” 30 julio 2012. También recomiendo Maikelnai y Francis, “Aunque la LENR se vista de seda, fusión fría se queda…,” Naukas.com, 7 noviembre 2012.


Archivado en: Ciencia, Física, Noticias, Physics, Prensa rosa, Science Tagged: Ciencia, Curiosidades, energía, energía gratis, Experimento, Física, Noticias, Personajes, Timo

Carnaval Matemáticas: El artículo matemático más corto de la historia

$
0
0

Dibujo20130521 counterexample to euler s conjecture on sums of like powers

Este artículo matemático con un solo párrafo, una sola referencia bibliográfica, título, autores y afiliaciones, podría ser el artículo matemático más corto (L. J. Lander and T. R. Parkin, “Counterexample to Euler’s conjecture on sums of like powers,” Bull. Amer. Math. Soc. 72: 1079, 1966), pero existen otros aún más cortos (dependiendo de la definición de longitud que decidamos tomar). El más parco en palabras (sólo dos palabras) es el siguiente.

Dibujo20130521 can n2plus1 unit equilateral triangles cover an equilateral triangle

Decía Paul Erdös que “un matemático es una máquina de convertir café en teoremas.” Alexander Soifer decidió retar a sus colegas en Princeton, durante la hora del café, a resolver el siguiente problema: ¿cuál es el mínimo número de triángulos equiláteros necesarios para recubrir un triángulo equilátero de lado n+ε? John H. Conway tenía que volar en avión a una conferencia y durante el trayecto descubrió una solución con n²+2 triángulos. Tras retornar, a la hora del café, Conway compartió su descubrimiento con Soifer. Mientras viajaba en avión a otra conferencia, Soifer logró construir una demostración gráfica a partir de la solución de Conway. A su regreso decidieron escribir un artículo conjunto. Conway quiso que su artículo fuera el récord absoluto en el número mínimo de palabras. Por ello, su artículo sólo tendría dos palabras “n²+2 can” y dos figuras (con la demostración gráfica). Nada más y nada menos. Lo enviaron el 28 de abril de 2004 a la revista American Mathematical Monthly, exactamente como aparece en la figura de arriba.

El 30 de abril, la asistente del editor, Mrs. Margaret Combs, les indicó que, por favor, añadieran alguna frase al texto explicando su artículo.

The Monthly publishes exposition of mathematics at many levels, and it contains articles both long and short. Your article, however, is a bit too short to be a good Monthly article. . . A line or two of explanation would really help.

Conway envió una carta el editor principal protestando y preguntando si “¿existe alguna relación entre la cantidad y calidad?”

I respectfully disagree that a short paper in general—and this paper in particular—merely due to its size must be “a bit too short to be a good Monthly article.” Is there a connection between quantity and quality?. . . We have posed a fine (in our opinion) open problem and reported two distinct “behold-style” proofs of our advance on this problem. What else is there to explain?

Conway era muy famoso y quizás por ello Bruce Palka, el editor principal, decidió proponerle lo siguiente el 4 de mayo de 2004:

The Monthly publishes two types of papers: “articles,” (…) from about six to twenty-five pages, and “notes,” which are shorter, (…) typically in the one-to-five page range. (…) The standard way in which we use such short papers these days is as “boxed filler” on pages that would otherwise contain a lot of the blank space that publishers abhor. . . If you’d allow us to use your paper in that way, I’d be happy to publish it.

Conway respondió que aceptaba que su artículo apareciera rellenado una de las páginas blancas entre artículos. El artículo apareció en el número de enero de 2005 de dicha revista, aunque el editor les cambió el título (J.H. Conway, A. Soifer, “Covering a triangle with triangles,” American Mathematical Monthly 112: 78-78, Jan. 2005).

Nos cuenta la historia con más detalles el propio Alexander Soifer, “Building a Bridge III: from Problems of Mathematical Olympiads to Open Problems of Mathematics,” Mathematics Competitions 23: 27-38, 2010.

Coda final: Esta entrada participa en la Edición 4.1231 del Carnaval de Matemáticas cuyo anfitrión es Matemáticas Interactivas y Manipulativas.


Archivado en: Ciencia, Historia, Matemáticas, Mathematics, Noticias, Personajes, Science Tagged: Ciencia, Curiosidades, Historia, Matemáticas, Personajes

El artículo físico más corto de la historia

$
0
0

Dibujo20130522 the ratio proton electron masses - paper physical review 1951

Hasta donde yo sé, el artículo de física más corto de la historia es Friedrich Lenz, “The Ratio of Proton and Electron Masses,” Phys. Rev. 82, 554–554 (1951). Para ver mejor lo corto que es, hay que contemplar la página entera en la que apareció.

Dibujo20130522 complete page - the ratio proton electron masses - paper physical review 1951

Por cierto, por si alguien se lo pregunta. El valor actual (Particle Data Group) de la masa del protón es 1,00727646681 u, el de la masa del electrón es 0,00054857990946 u, con lo que el cociente entre ambos es 1836,153 que difiere de 6*pi^5 = 1836,118.


Archivado en: Bibliometría, Ciencia, Física, Noticias, Physics, Science Tagged: Ciencia, Curiosidades, Física, Noticias, Physical Review

El telescopio Hubble pierde, la teoría de discos de acreción gana

$
0
0

Science Magazine

Hay experimentos que contradicen las teorías en boga. Descubrir un error en dichos experimentos reafirma dichas teorías y permite que muchos físicos respiren con alivio. El telescopio espacial Hubble midió la distancia a la estrella binaria SS Cygni y resultó ser mucho más grande de lo esperado. O bien la teoría de los discos de acreción era incorrecta, o bien Hubble había medido mal la distancia. Miller-Jones et al. publican en Science una nueva medida de la distancia a SS Cygni utilizando radiotelescopios que contradice a Hubble y confirma las predicciones de las teorías de los discos de acreción en binarias. ¡Menos mal! Se han utilizado VLBA (Very Long Baseline Array) y EVN (European VLBI Network) entre abril de 2010 y octubre de 2012. Nos lo cuenta M. R. Schreiber, “One Good Measure,” Science 340: 932-933, 24 May 2013, que se hace eco del artículo técnico de J. C. A. Miller-Jones et al., “An Accurate Geometric Distance to the Compact Binary SS Cygni Vindicates Accretion Disc Theory,” Science 340: 950-952, 24 May 2013.

Dibujo20130523 Parallax signature of SS Cygni - Right ascension - declination

SS Cygni es una estrella variable en la constelación del Cisne (Cygnus), quizás la más famosa y la más observada. Esta estrella binaria está compuesta por una enana blanca de 0,60 masas solares, densa y caliente, y una roja-naranja de 0,40 masas solares, de tipo espectral K4.5. Ambas estrellas están muy próximas entre sí, con un período orbital de sólo 6,6 horas. La estrella roja-naranja pierde materia de su superficie, formándose un disco de acrecimiento en torno a la enana blanca. SS Cygni es una estrella variable que presenta cambios en su magnitud aparente entre un mínimo de +12,2 y un máximo de +8,3. Estos cambios son debidos a los estallidos que se producen en su disco de acreción, rico en hidrógeno, cada 49 ± 15 días.

El telescopio espacial Hubble midió la distancia a la que se encuentra SS Cygni mediante paralaje en 1999, resultando que se encuentra a 159 ± 12 parsecs de la Tierra. Los modelos de disco de acreción implican que hay un valor crítico para la tasa de transferencia de masa a partir de la cual no se producen estallidos. Aplicando dicha teoría a SS Cygni con la distancia calculada por Hubble resulta que no debería presentar estallidos, pero los presenta. Contradicción. Durante años los físicos teóricos han tratado de entender el porqué de su extraño comportamiento, pero no han tenido éxito.

Dibujo20130523 Calculated mean mass transfer rates as a function of outer disc radius

La nueva medición de distancia realizada por Miller-Jones et al. indica que se encuentra a 114 ± 2 parsecs. Esta nueva medida es mucho más robusta que la realizada por Hubble e indica que la tasa de transferencia de masa está por debajo del valor crítico, por lo que la teoría de discos de acreción predice que SS Cygni debe presentar estallidos. De hecho, según la teoría debería estar a una distancia de ~117 parsec, en buen acuerdo con la nueva medida experimental. La teoría no era el problema.

PS: Más información en “Astronomers team up with the public to solve decade old puzzle,” ICRAR News, 23 May 2013, que incluye el siguiente vídeo explicativo

Dibujo20130524 schematic diagram of the white dwarf binary system SS Cygni


Archivado en: Astrofísica, Astronomía, Ciencia, Física, Noticias, Physics, Science Tagged: Astrofísica, Ciencia, Discos de acreción, enana blanca, Estrellas binarias, Estrellas variables, Experimento, Física, Física teórica, Noticias, Science

Nuevo evento Naukas en Bilbao: “El universo en un día”

$
0
0

Dibujo20130524 universo en un dia - naukas - 25 mayo 2013 - bilbao

El cartel creado por Alejandro Polanco (@Alpoma) es espectacular, pero más lo van a ser todas las charlas de 25 minutos que mañana 25 de mayo podrás disfrutar en el Paraninfo de la Universidad del País Vasco en Bilbao. Un viaje apasionante desde los primeros instantes del universo hasta sus posibles finales, que disfrutarás sin lugar a dudas.

La entrada, como de costumbre, será gratuita hasta completar el aforo.

SÁBADO 25 DE MAYO 2013

10:00 – El Big Bang – Miguel Santander (Astrofísico y escritor de ciencia ficción)

10:30 – Las primeras galaxias – Javier Armentia (Astrofísico y director del Pamplonetario)

11:00 – La vida de las estrellas – Natalia Ruiz (Divulgadora científica)

12:00 – Formación del sistema solar – Ricardo Hueso (Profesor en la ETS de Ingeniería y miembro del Grupo de Ciencias Planetarias de la UPV/EHU)

12:30 – El nacimiento de la Tierra – César Tomé (Divulgador científico)

El origen de la vida – Carlos Briones (Científico del CSIC en el Laboratorio de Evolución Molecular del Centro de Astrobiología CAB-INTA)

17:00 – La evolución – Antonio Osuna “Biotay” (Divulgador científico)

17:30 – Vida y diversidad – Carlos Chordá (Divulgador científico)

18:00 – Los inicios del hombre – Pepe Cervera (Paleontólogo y divulgador científico)

19:00 – Cultura y evolución humana – Juan Ignacio Pérez (Catedrático de Cultura científica UPV/EHU)

19:30 – El futuro de la Humanidad, de figurante a guionista del universo – Gouki (Divulgador científico y transhumanista)

20:00 – El final del Universo – Aitor Bergara (Profesor de Física de la Universidad del País Vasco y miembro del Centro de Física de Materiales – CSIC-UPV)

Habrá streaming en directo del evento en EITB.com. Sigue este enlace.

En Twitter el hastag para mañana será #Naukas24h (todos esperamos que sea TT).


Archivado en: Ciencia, Noticias, Recomendación, Science Tagged: Ciencia, Conferencias, Cosmología, Divulgación científica, El universo en un día (Naukas), Noticias

Por qué las medidas cuánticas débiles no son medidas

$
0
0

Una medida débil de un sistema cuántico, ¿ofrece información física sobre dicho sistema cuántico? Una densidad de probabilidad de una magnitud física debe ser una función real con un valor entre cero y uno. Las medidas débiles equivalen a utilizar “densidades de probabilidad” de magnitudes físicas cuyos valores son números complejos, cuyo módulo, ni siquiera, tiene que estar entre cero y uno. Por tanto, se obtienen resultados sin sentido cuya interpretación física es casi imposible. Imagina que mides el espín de un electrón y el valor débil que obtienes es 100, ¿qué significado tiene un valor del espín igual a 100 para un electrón cuyo espín sólo puede tomar los valores +1/2 y −1/2? Otro ejemplo, una magnitud cuyo valor está entre 1 y 2 puede tener un valor débil de −100, ¿qué significado tiene un valor negativo para una magnitud que siempre es positiva? Las medidas débiles, ahora muy de moda en mecánica cuántica, no son medidas y la interpretación física de los valores que se obtienen con ellas no es nada fácil. Me ha gustado el artículo de D. Sokolovski, “Are the ‘weak measurements’ really measurements?,” Quanta 2: 50-57 (2013) [arXiv:1305.4809], que retoma la escabrosa cuestión que ya se publicó en el famoso artículo de Yakir Aharonov, David Z. Albert, and Lev Vaidman, “How the result of a measurement of a component of the spin of a spin-1/2 particle can turn out to be 100,” Phys. Rev. Lett. 60: 1351-1354 (1988)Por cierto, ya hablé de este asunto en mi blog en “Las medidas cuánticas débiles y las probabilidades cuánticas negativas,” 5 agosto 2011.

¿Qué es una medida cuántica? El valor medio de la medida de un observable A en un sistema cuántico que está en el estado |ψ> es igual a <A>=<ψ|A|ψ>/<ψ|ψ>. Este valor medio se calcula promediando los resultados de muchas medidas independientes en sistemas preparados de forma idéntica, pues en cada medida se obtiene un autovalor An con una probabilidad <ψnn>, donde A|ψn>=Ann>, y el estado del sistema cambia de |ψ> a |ψn>. Este proyección del estado es imposible de evitar en una medida cuántica.

¿Qué es una medida cuántica débil? En una medida débil se consideran dos estados del sistema cuántico, sean |ψ> y |φ>, antes y después de la medida. El valor medio débil se obtiene como <<A>>=<φ|A|ψ>/<φ|ψ>. Una medida cuántica siempre proyecta el estado del sistema desde |ψ> a |ψn>, sin embargo, una medida cuántica débil se puede realizar sin proyectar el estado del sistema, con lo que el estado antes de la medida débil y después de ella puede ser casi exactamente el mismo. El problema con el valor <<A>>, a diferencia del valor <A>, es que está poco restringido y puede tomar valores sin sentido físico.

¿Qué ventaja tienen las medidas cuánticas débiles? Que permiten “medir” cosas que son imposibles de medir con medidas cuánticas, como, por ejemplo, la función de onda de un sistema cuántico, o controlar detalles del sistema cuántico más allá de lo posible, como retrasar el efecto de la decoherencia cuántica. Las medidas débiles reabren debates metafísicos como si es real la función de onda cuántica (en el sentido más filosófico del término “real”).


Archivado en: Ciencia, Física, Mecánica Cuántica, Noticias, Physics, Science Tagged: Ciencia, Curiosidades, Física, Física cuántica, Mecánica Cuántica, Medidas cuánticas, Medidas cuánticas débiles, Noticias, Problema de la medida

Nueva técnica de fabricación de nanopartículas de composición variable

$
0
0

Dibujo20130523 Multicomposition nanostructures - mechanism change composition oxide nanocrystals

María Ibáñez y Andreu Cabot, del Departament d’Electrònica, Univ. Barcelona, ​​España, nos cuentan en Science que se ha desarrollado una nueva técnica para fabricar nanopartículas utilizando nanocristales como molde que permite cambiar la composición de una manera controlado hasta extremos que hace poco parecían imposibles. La nueva técnica de fabricación tiene muchas aplicaciones potenciales, desde en electrónica hasta en catálisis química o en biotecnología. En su artículo Maria Ibáñez, Andreu Cabot, “All Change for Nanocrystals,” Science 340: 935-936, 24 May 2013, se hacen eco de Myoung Hwan Oh et al., “Galvanic Replacement Reactions in Metal Oxide Nanocrystals,” Science 340: 964-968, 24 May 2013.

Dibujo20130523 HRTEM images of the hollow nanostructures synthesized by the reaction

La nueva técnica permite la producción de nanoestructuras multicomponente de gran complejidad morfológica, así como estructuras porosas con huecos, muchas de ella fuera del alcance de otros enfoques. Las nanoestructuras multimetálicas porosas tienen muchas aplicaciones, por ejemplo, son materiales excelentes para el ánodo de baterías de iones de litio. El control preciso sobre las propiedades del material fabricado viene acompañado con un bajo coste, una buena escalabilidad y la posibilidad de realizar la síntesis en un solución.

“La (nano)ciencia avanza que es una barbaridad” como dice don Hilarión en la famosa zarzuela “La Verbena de la Paloma” (libreto de Ricardo de la Vega y música de Tomás Bretón). Esta zarzuela se estrenó el 17 de febrero de 1894 en Madrid y lleva por subtítulo de “El boticario y las chulapas y celos mal reprimidos.”


Archivado en: Ciencia, Física, Nanotecnología

Carnaval de Matemáticas: Otra demostración incorrecta de la hipótesis de Riemann

$
0
0

Dibujo20130524 showing how to imply proving the riemann hypothesis

Tras un curso de análisis complejo, todos los estudiantes de matemáticas deberían estudiar demostraciones incorrectas de la hipótesis de Riemann. El listado de Matthew Watkins es un buen lugar para empezar. Hao-cong Wu acaba de publicar una nueva demostración (incorrecta) en la revista EJMS. El error debería ser obvio para cualquier estudiante de matemáticas que merezca aprobar un curso de análisis complejo. No quiero parecer malvado, pero el problema matemático más importante y más difícil de la actualidad es ideal para extraer ejercicios de examen para los alumnos; algunos son ejercicios muy difíciles (pues el error en la demostración es muy sutil o está oculto en una demostración muy larga), pero otros son muy fáciles (sobre todo cuando la demostración tiene pocas páginas). Si eres matemático, has estudiado análisis complejo y te apetece el reto, ¿cómo calificarías el [flagrante] error de la demostración de Hao-cong? Sólo quiero que me digas si es fácil de ver o si es difícil de ver (si no eres experto en análisis complejo, claro, porque si lo eres dirás que es trivial).

Coda final: Esta entrada participa en la Edición 4.1231 del Carnaval de Matemáticas cuyo anfitrión es Matemáticas Interactivas y Manipulativas. Lo sé, lo sé, con esta entrada no ganaré el libro de @ClaraGrima firmado… Si te apetece estar entre los posibles ganadores, recuerda que el domingo es el último día para participar en esta edición del Carnaval de Matemáticas.


Archivado en: Ciencia
Viewing all 1793 articles
Browse latest View live