Quantcast
Channel: Francis (th)E mule Science's News
Viewing all 1793 articles
Browse latest View live

Francis en ¡Eureka!: El genoma de Copito de Nieve, el gorila albino

$
0
0

Dibujo201300608 gorilla gorilla - copito de nieve - national geographic cover 1967

Ya puedes disfrutar, siguiendo este enlace, del audio de mi sección ¡Eureka! en el programa de radio La Rosa de los Vientos, de Onda Cero. Como siempre una transcripción del audio y algunos enlaces para profundizar.

Esta semana ha vuelto a ser noticia Copito de Nieve, el gorila albino del Zoológico de Barcelona que murió hace diez años. Todo un icono para la ciudad de Barcelona. Copito de Nieve ha sido hasta la fecha el único gorila albino del que se tenga noticia. Comprado por el etólogo Jordi Sabater Pi en 1966 para el Zoológico de Barcelona su fama a nivel mundial nació con una portada de la revista National Geographic en 1967. Murió de cáncer de piel el 24 de noviembre de 2003, pero se conservan muestras de su ADN (quizás pensando en su futura clonación). En humanos el albinismo afecta a una de cada 17.000 personas y es un trastorno hereditario causado por la herencia de genes recesivos de ambos padres. Los albinos se conocen desde la antigüedad. Como curiosidad me gustaría comentar que se cree que el profeta Noé, el constructor del arca de Noé, era albino; al menos así lo indica el libro del profeta Enoc, que forma parte del canon de la Biblia de la Iglesia ortodoxa etíope, pero no es aceptado como canónico por las demás iglesias cristianas.

Más información en José R. Alonso, “¿En qué se parecen Copito de Nieve y Noé?,” UniDiversidad, 08 May 2013.

Hay dos tipos fundamentales de albinismo: el más común es el albinismo oculocutáneo, donde falta el pigmento, la melanina, en ojos, pelo y piel, y el albinismo ocular, presente solo en machos, donde la melanina falta sólo en los ojos. Copito de Nieve presentaba albinismo oculocutáneo. Como el ADN de Copito de Nieve se conserva en el Zoo de Barcelona gracias a una muestra de sangre que fue congelada antes de su muerte, investigadores del Instituto de Biología Evolutiva (centro mixto del CSIC y la Universidad Pompeu Fabra) han secuenciado con éxito su genoma completo y han averiguado la causa genética de su albinismo.

Dibujo201300608 gorilla gorilla - copito de nieve - bmc paper

¿El gen responsable del albinismo de Copito de Nieve es el mismo gen que lo causa en humanos? En humanos y en primates se conocen cuatro genes cuyas mutaciones recesivas pueden causar el albinismo oculocutáneo. Cada uno de los cuatro genes codifican diferentes enzimas en la ruta metabólica de la melanina. La variante OCA1 es causada por el gen TYR que codifica la enzima tirosinasa que cataliza el primer paso de la síntesis de la melanina; la variante OCA2 por un gen que codifica una proteína que regula el pH del melanosoma; la variante OCA3 por el gen TYRI1 que codifica una catalasa relacionada con la tirosinasa; y la variante OCA4 por el gen MATP (también llamado gen SLC45A2) que codifica una proteína de membrana que facilita la síntesis de melanina y que actúa como antigen para la formación de los melanocitos. Comparando el genoma de Copito de Nieve con el de otros dos gorilas no albinos se ha comprobado que en su caso el albinismo oculocutáneo es de tipo OCA4, en concreto, debido a un cambio de un único aminoácido en la proteína de membrana del gen MATP (o SLC45A2). Esta variante del albinismo es muy poco habitual en humanos.

Dibujo201300608 Membrane integration of non-albino wild-type and mutant -Snowflake- G518R sequences

El artículo técnico (de acceso gratuito) es Javier Prado-Martinez et al., ”The genome sequencing of an albino Western lowland gorilla reveals inbreeding in the wild,” BMC Genomics 14: 363, May 2013. En esta figura, wt es el gen para un gorila no albino y G518R es el de Copito de Nieve; se ve que el aminoácido glicina (G) está sustituido por arginina (R).

Se ha publicado esta semana que los padres de Copito de Nieve eran familiares cercanos, quizás tío y sobrina, con lo que este gorila albino sería resultado de un incesto (producto de la endogamia). El análisis de la variabilidad del genoma permite estudiar el grado de consanguinidad. En general, las copias materna y paterna del genoma en los gorilas difieren en casi dos nucleótidos cada 1.000 bases. En Copito de Nieve hay regiones de millones de bases en las que no hay ninguna diferencia entre ambas copias, lo que indica que son heredadas de un pariente común como resultado de la endogamia. Alrededor del 12% del genoma de Copito de Nieve es homocigoto. Un porcentaje muy elevado que sólo es posible en caso de que sus dos padres estén muy emparentados.

Recomiendo leer a CSIC, “La endogamia causó el albinismo de Copito de Nieve,” SINC, 4 Jun 2013; y Antonio Madridejos, “Los padres de Copito de Nieve eran familiares cercanos,” elPeriódico.com, 4 Jun 2013.

Hay muchas relaciones de parentesco que permiten explicar una consanguinidad del 12%, como el apareamiento entre hermanos, o entre abuelos y nietos, o incluso entre primos hermanos. Sin embargo, teniendo en cuenta las pautas de comportamiento entre gorilas se cree que lo más probable es una relación entre tío y sobrina, un macho adulto expulsado del grupo, algo muy habitual, que más tarde entra en contacto con una hembra joven que busca una nueva comunidad. Me gustaría destacar que en humanos también es más probable el albinismo en familias consanguíneas.

Una vez conocida cuál es la mutación, el estudio abre la puerta a cruzar a los descendientes de Copito que sean portadores con el objetivo de obtener un nuevo gorila albino. Como el albinismo es una característica genética recesiva, para manifestarse en un individuo es necesario que sus dos padres sean portadores de la mutación. Copito de Nieve tuvo 21 hijos, de los cuales 3 le sobreviven; también están vivos 11 nietos, de un total de 21, y 4 bisnietos. Ninguno de ellos ha nacido albino. Cruzar dos descendientes de Copito de Nieve portadores del gen recesivo descubierto permitiría, según las reglas de la herencia, lograr un albino con una probabilidad del 25%. Sin embargo, esto no forma parte de los planes del zoo de Barcelona. Hoy en día los zoos europeos buscan todo lo contrario, aumentar la diversidad genética mediante apareamientos de individuos muy alejados.

En 2009 se publicó un estudio sobre la endogamia en los Austrias, en concreto, el estudio genético indicó que la consanguinidad del rey Carlos II era similar a la de un hijo incestuoso. Carlos II El Hechizado fue resultado de los repetidos cruces entre parientes próximos que se dieron en sus antepasados. Su coeficiente de consanguinidad era mayor del 25%, similar al del fruto de una relación entre padre e hija, o entre hermano y hermana. Esta alta consanguinidad fue un factor clave en la desaparición de la dinastía de los Austrias en España porque cuando murió Carlos II en 1700 no dejó descendencia. Este resultado fue obtenido por Gonzalo Álvarez Jurado, catedrático de Genética en la Universidad de Santiago de Compostela, y varios colegas que analizaron la consanguinidad de 16 generaciones en el árbol genealógico de Carlos II desde que Felipe el Hermoso inauguró la dinastía al casarse con Juana La Loca. Como no se disponía del ADN de estos personajes se realizó un análisis de la mortalidad infantil en los descendientes de cada rey hasta los 10 años, que está en relación directa con el coeficiente de consanguinidad. También estudiaron las enfermedades achacables a mutaciones genéticas recesivas, que necesitan heredarse de los dos progenitores. Por ejemplo, Carlos II padecía raquitismo, por lo que no pudo tener hijos y a los 30 años parecía un viejo. En los Borbones el grado de consanguinidad es mucho menor.

Más información en M. Ruíz de Elvira, “La endogamia mató a los Austrias,” El País, 15 Abr 2009; María Valerio, “La endogamia acabó con los Austrias,” El Mundo, 15/04/2009. El artículo técnico es Gonzalo Alvarez, Francisco C. Ceballos, Celsa Quinteiro, “The Role of Inbreeding in the Extinction of a European Royal Dynasty,” PLoS ONE, 4: e5174, April 15, 2009 [acceso gratuito].

Para acabar, hay muchos animales blancos en los zoológicos, como los leones blancos, los tigres blancos o incluso los pavos reales blancos, ¿también se trata de albinos? En la mayoría de los casos no se trata de albinismo, sino de leucismo, que a diferencia del albinismo, no produce ningún cambio de coloración, ni defectos de visión en los ojos del animal. Estos animales leucísticos son capaces de producir melanina y por ello tienen los ojos con un color normal. Sólo se tratará de albinismo oculocutáneo cuando no existe melanina en el iris. Los oyentes deben fijarse si los ojos son de color violeta o incluso rojo, porque la luz penetra por el iris y se refleja de los vasos sanguíneos de la retina.

Más información en Biogeocarlos, “Leones blancos,” La Ciencia de la Vida, 24 Mar 2008.

Si aún no has escuchado el audio, sigue este enlace.


Archivado en: Biología, Bioquímica, Ciencia, Eureka (La Rosa de los Vientos), Historia, Medicina, Noticias, Recomendación, Science Tagged: Albinismo, Biología, Ciencia, Curiosidades, Gen recesivo, Genética, genoma, Historia, Noticias, Personajes

Francis en Trending Ciencia: El principio de incertidumbre de Heisenberg

$
0
0

Dibujo201300609 Bloch sphere representation of error - disturbance - original heis - osawa

Ya puedes disfrutar de mi nuevo Podcast sobre Física para Trending Ciencia siguiendo este enlace. Como siempre una transcripción del audio, figuras y referencias a artículos y fuentes para profundizar.

Ha llegado a portada en el portal de noticias Menéame una cuyo titular es “Científicos vieneses demuestran empíricamente la violación del Principio de Indeterminación de Heisenberg.” La noticia enlaza un artículo técnico aparecido en ArXiv el 30 de mayo, arXiv:1305.7251, titulado ”Violation of Heisenberg’s error-disturbance uncertainty relation in neutron spin measurements,” [Violación de la relación de incertidumbre de Heisenberg tipo error-perturbación usando medidas del espín del neutrón], firmado por Georg Sulyok, de la Universidad Técnica de Viena, y varios colegas. La entradilla en Menéame traduce la última frase del artículo, en la sección de conclusiones: “Conclusión: Así pues, nuestros resultados dan una demostración experimental de que la forma generalizada de la relación error-perturbación de Heisenberg tiene que ser abandonada.” Esta noticia en portada de Menéame ha generado mucho revuelo en Twitter y en varias ocasiones he tenido que aclarar que no se ha demostrado que el sacrosanto principio de indeterminación de Heisenberg es falso, más bien todo lo contrario, se ha reforzado su validez. El titular se puede tachar de sensacionalista y la entradilla parece indicar que el meneante de la noticia no se ha leído en detalle la introducción del artículo técnico. Permíteme una aclaración en este podcast para Trending Ciencia.

Antes de nada, en mi misma línea, quiero destacar que también ha sido portada en Menéame una entrada mi amigo cordobés Enrique F. Borja, físico responsable del blog Cuentos Cuánticos, quien ha aclarado esta cuestión en su nuevo blog “Es Extraño…” en el portal de blogs de la revista Investigación y Ciencia. Su artículo titulando “Heisenberg todavía está tranquilo,” aclara lo que significa el principio de indeterminación de Heisenberg, en qué consiste el nuevo resultado y cómo no viola dicho principio, sino todo lo contrario, lo apoya de forma irrefutable.

Dibujo201300609 error-disturbance and standard deviation formulations heisenbergs uncertainty principle

Yo ya lo dije en Twitter “La formulación original del principio de incertidumbre de Heisenberg sólo es válida para pulsos gaussianos. Verificar que [dicha formulación] es violada para pulsos generales no es [ninguna] novedad. Y no afecta a la validez general del principio. Lo que se estudia [en el nuevo artículo] es la validez de la formulación original de Heisenberg de 1927, que no es la viene en los libros de texto, y que se sabe desde pocos meses después de ser publicada que debe ser modificada ligeramente.” Permíteme aclare estos puntos, porque quizás muchos de los oyentes no me siguen en Twitter y no se enteraron de mis comentarios.

Werner Heisenberg (1901-1976) fue uno de los padres de la mecánica cuántica y formuló en 1925 lo que ahora se conoce como mecánica cuántica matricial, en la que las magnitudes físicas, como la posición y la velocidad (o el momento lineal), se describen mediante matrices que no conmutan entre sí. En 1927, Heisenberg escribe el artículo en el que enuncia su famoso principio de indeterminación que afirma que “hay parejas de magnitudes físicas que no están determinadas con total precisión de forma simultánea.” Estas parejas de magnitudes físicas son las representadas por operadores o matrices que no conmutan entre sí. Sin embargo, en la formulación matemático original, Heisenberg formuló su principio utilizando un ejemplo particular, la medida de la posición y el momento lineal de un electrón en el estado fundamental de un átomo utilizando fotones. Heisenberg presenta su famosa desigualdad para la influencia del error cuadrático medio en las medidas experimentales de la posición en la incertidumbre del momento lineal, también medida como error cuadrático medio. Dicha formulación original del principio que le llevó a recibir el Premio Nobel de Física en 1932, no corresponde a lo que todos los estudiantes de física estudian durante la carrera ya que asume que el error en las medidas experimentales está equidistribuido (es decir, sigue una distribución gaussiana o campana de Gauss). Muy pocos libros de texto de física cuántica, salvo los que presentan la historia original de esta teoría, describe la formulación del principio de Heisenberg utilizando el error cuadrático medio en las medidas de posición y momento lineal, pues dicha expresión matemática tiene una validez limitada, ya que en el caso general la función de onda no es un paquete gaussiano, es decir, no implica una distribución de probabilidad de tipo campana de Gauss.

W. Heisenberg, “Über den anschaulichen Inhalt der quantentheoretischen Kinematik und Mechanik,” Zeitschrift für Physik 43: 172-198, 1927 [traducción al inglés "The actual content of quantum theoretical kinematics and dynamics," NASA TM-77379, 1983].

La formulación del principio de incertidumbre de Heisenberg que todos los físicos estudiamos en los libros de texto es la que presentó el físico norteamericano Earl H. Kennard en 1927, pocos meses después de la publicación del artículo original de Heisenberg. Esta formulación está basada en la dispersión típica de los operadores de posición y momento lineal. De hecho, en la mayoría de los libros de texto de mecánica cuántica el principio de Heisenberg se presenta en su formulación general publicada en 1929 por el físico norteamericano Howard P. Robertson, que relaciona la dispersión típica de dos observables que no conmutan con su conmutador. Ni Kennard ni Robertson tienen su nombre asociado al de Heisenberg, aunque sus formulaciones matemáticas son más correctas que la de Heisenberg pues son válidas para una función de onda general; pero ello no quita que la formulación física del principio de incertidumbre de Heisenberg sea la correcta. Esto algo muy habitual en los trabajos pioneros de física; las ideas físicas son correctas pero la formulación matemática original tiene una validez limitada.

E. H. Kennard, “Zur Quantenmechanik einfacher Bewegungstypen,” Zeitschrift für Physik 44: 326-352, 1927; H. P. Robertson, “The Uncertainty Principle,” Phys. Rev. 34: 163-164, 1929.

Dibujo201300609 Normalized intensity of the successive measurements carried out by apparatus A1 and A2

¿Se puede corregir la formulación original de Heisenberg para paquetes gaussianos y obtener una formulación completamente general siguiendo su línea de razonamiento? Por supuesto, aunque quizás sorprenda a muchos oyentes que esta cuestión ha sido poco estudiada. Aunque desde pocos meses después de la formulación original de Heisenberg en 1927 se sabe que su formulación original basada en el error cuadrático medio no es válida en el caso general y ha de ser corregida, se considera que el valor de esta corrección tiene interés sólo para los físicos aficionados a la historia de la física. A mi pesar, la mayoría de los físicos no están interesados en la historia de la mecánica cuántica e ignoran este tipo de cuestiones de importancia menor, por no decir de importancia nula. Sólo a los físicos que somos apasionados a la historia de nuestra ciencia nos interesan este tipo de detalles históricos.

El físico japonés Masanao Ozawa, de la Universidad de Tohoku, reformuló en el año 2002 las ideas originales de Heisenberg y descubrió cómo corregir su formulación original utilizando errores cuadráticos medios para que sea aplicable a funciones de onda generales. Por supuesto, su formulación incluye dos términos adicionales que dan cuenta de la contribución de la desviación típica de los operadores involucrados. Sin entrar en detalles técnicos, la formulación de Ozawa del principio de incertidumbre de Heisenberg pasó sin pena ni gloria, hasta que ahora el propio Masanao Ozawa ha visitado Viena para solicitar a sus colegas de la Universidad Técnica de Viena que verifiquen de forma experimental su formulación del principio de incertidumbre. De hecho, el artículo técnico cuyo primer autor es Georg Sulyok incluye a Ozawa como quinto autor.

Masanao Ozawa, “Physical content of Heisenberg’s uncertainty relation: Limitation and reformulation,” Phys. Lett. A 318: 21-29, 2003 [arXiv:quant-ph/0210044].

Dibujo201300609 Experimentally determined values of error A - disturbance B - Heisenberg - Osawa relations

No quiero entrar en los detalles técnicos del experimento realizado por Sulyok y sus colegas, que utiliza dos componentes del espín de un neutrón en lugar de la posición y el momento lineal de un electrón en un átomo. Lo más importante en dicho experimento es que se han medido de forma separada los errores cuadráticos medios de ambas componentes del espín y las desviaciones típicas de los correspondientes operadores cuánticos, demostrándose que el principio de incertidumbre de Heisenberg en su formulación convencional, con desviaciones típicas se cumple, pero que también se cumple en la formulación de Ozawa. Como la contribución de los términos introducidos por Ozawa en la formulación original de Heinsenberg ha sido demostrada con precisión, el artículo técnico proclama que se ha demostrado por primera vez de forma empírica que la formulación original de Heisenberg para los errores cuadráticos medios es incorrecta. Ninguna novedad para los físicos, que ya lo sabían desde que en 1927 se publicó el artículo de Kennard.

Georg Sulyok, Stephan Sponar, Jacqueline Erhart, Gerald Badurek, Masanao Ozawa, Yuji Hasegawa, “Violation of Heisenberg’s error-disturbance uncertainty relation in neutron spin measurements,” arXiv:1305.7251, 30 May 2013. También recomiendo consultar Jacqueline Erhart, Stephan Sponar, Georg Sulyok, Gerald Badurek, Masanao Ozawa, Yuji Hasegawa, “Experimental demonstration of a universally valid error-disturbance uncertainty relation in spin-measurements,” arXiv:1201.1833, 9 Jan 2012.

El físico japonés Ozawa ya tiene su pequeño momento de gloria, que será olvidado rápidamente por todo el mundo. Pues ya se sabe que no es noticia que un perro muerda a una persona, sino que una persona muerda a un perro. Y tampoco es noticia verificar de forma experimental que está mal lo que todo el mundo sabía que está mal. Eso sí, para mí es un artículo técnico muy interesante que recomiendo a todos los profesores de física cuántica. Pues recordar la historia de nuestra ciencia es una de las grandes asignaturas pendientes de la educación en la actualidad.

Coda final. Si no lo has hecho ya, puedes disfrutar de mi nuevo Podcast sobre Física para Trending Ciencia siguiendo este enlace.

PS: Por cierto, acaba de aparecer en ArXiv una nueva reformulación de la versión original de la relación de incertidumbre de Heisenberg de 1927 en Paul Busch, Pekka Lahti, Reinhard F. Werner, “Proof of Heisenberg’s error-disturbance relation,” arXiv:1306.15656 Jun 2013. Esta nueva reformulación se diferencia de la de Osawa en que no utiliza la desviación típica de forma explícita y, por tanto, sigue de forma más fiel el espíritu de la formulación original de Heisenberg.

Dibujo201300610 new formulation of error-disturbance heisenberg relation


Archivado en: Ciencia, Física, Historia, Mecánica Cuántica, Noticias, Physics, Podcast en Trending Ciencia, Science Tagged: Ciencia, Curiosidades, Experimento, Física, Física cuántica, Mecánica Cuántica, Noticias, Personajes

La búsqueda de un bosón de Higgs cargado en los datos de LEP

$
0
0

Dibujo20130111 Type II 2HDM - upper limits on the production cross-section vs charged Higgs mass

El bosón de Higgs del Modelo Estándar podría ser un miembro de la familia de cinco bosones de Higgs (modelo 2HDM) que predice la supersimetría. Entre ellos deben existir dos bosones de Higgs cargados (con carga eléctrica positiva y negativa). El grupo de trabajo de LEP en la búsqueda del bosón de Higgs (LEPHWG) publica ahora su búsqueda en un análisis combinado de sus cuatro detectores ALEPH, DELPHI, L3, y OPAL. Tras analizar 2,6 /fb de colisiones entre 183 GeV c.m. y 209 GeV c.m. se excluye al 95% C.L. una masa menor de 80 GeV/c² para el modelo 2HDM tipo II o de 72,5 GeV/c² para el modelo 2HDM tipo I. Para este rango de masas los datos de LEP son mucho más fiables que los datos obtenidos con colisionadores de hadrones como Tevatrón y LHC. Recuerdo a los despistados que LEP (Large Electron-Positron Collider) era un colisionador electrón contra positrón que ocupaba hace doce años el túnel del CERN que ahora ocupa el LHC. Se habían publicado búsquedas por separado de Higgs cargados, pero esta es la primera vez que dichas búsquedas se combinan de forma oficial. De hecho, es posible que haya nuevos artículos, pues el modelo 2HDM contiene muchos parámetros libres y sólo se ha explorado una parte. El artículo técnico es Aleph, Delphi, L3, OPAL Collaborations, the LEP working group for Higgs boson searches, “Search for Charged Higgs bosons: Combined Results Using LEP Data,” CERN-PH-EP-2012-369, arXiv:1301.6065 [25 Jan 2013, last revised 10 Jun 2013].

Dibujo20130111 Observed lower limits on the charged Higgs mass for different values of mA and tan beta

Los modelos 2HDM se basan en un campo de Higgs formado por dos dobletes escalares (en lugar de uno como se utiliza en el Modelo Estándar); cada doblete contribuye con cuatro componentes escalares, por lo que hay ocho componentes escalares, de las cuales tres se acoplan a los bosones W y Z, permaneciendo cinco sin acoplar que corresponden a tres bosones de Higgs neutros (h, H y A) y dos cargados (H+ y H-). En el modelo 2HDM tipo II un doblete se acopla a los fermiones de tipo arriba (quarks u, c y t, y neutrinos) y el otro a los de tipo abajo (quarks d, s y b, y leptones cargados). En el modelo 2HDM tipo I todos los fermiones (arriba y abajo) se acoplan al mismo doblete del campo de Higgs. Por ejemplo, el sector de Higgs del Modelo Estándar Supersimétrico Mínimo (MSSM) corresponde a un modelo 2HDM tipo II, sin embargo, en el nuevo trabajo del grupo LEPHWG no se han tenido cuenta otras posibles partículas supersimetrías en los análisis.

Dibujo20130111 Overview of the searches for charged Higgs bosons performed by the four LEP experiments

En las energías alcanzables por LEP, las desintegraciones más importantes para un Higgs cargado del modelo 2HDM tipo II corresponden a H±→τν (desintegración en un leptón cargado tau y un neutrino tau) y H±→cs (desintegración en un mesón Ds formado por un par quark-antiquark de tipo c y s). Para el modelo 2HDM tipo I las desintegraciones más imporantes son H±→W*A (desintegración en un bosón W virtual y un Higgs neutro CP impar) y H±→W*h (con h un Higgs CP par de menor masa que el de 126 GeV/c² descubierto en el LHC). Un parámetro clave en estas búsquedas es tan β que describe el acoplamiento entre los dos dobletes de Higgs.

En resumen, el nuevo resultado de LEP es muy interesante y complementa muy bien las búsquedas de bosones de Higgs cargados en el LHC y Tevatrón que por la parte baja llegan más o menos a masas de unos 80 GeV/c², es decir, al límite superior mínimo del nuevo análisis. Todo indica que podemos descartar la existencia de bosones de Higgs cargados de baja masa lo que impone severas restricciones a la mayoría de los modelos supersimétricos “naturales”. Si la supersimetría se observa en la escala de los TeV (la que pueden explorar los colisionadores de partículas actuales y futuros para la primera década del siglo XXI), debe tener un sector de Higgs que esté muy escondido, pero que muy escondido (lo que implica que no sería “natural” y por tanto el argumento más importante a su favor se caería por su propio peso).


Archivado en: Bosón de Higgs, Ciencia, Física, LHC - CERN, Noticia CPAN, Noticias, Physics, Science Tagged: 2HDM, Bosón de Higgs, Ciencia, Experimento, Física, LEP, LHC - CERN, MSSM, Noticias, Partículas elementales

Conferencias de Maldacena y Arkani-Hamed para el Premio de Física Fundamental

$
0
0

Juan Maldacena y Nima Arkani-Hamed, con motivo de haber recibido sendos premios de 3 millones de dólares el año pasado, nos brindan dos espléndidas conferencias en el Instituto de Estudio Avanzado (IAS) de Princeton, el 3 y el 26 de octubre de 2012, resp. ¡Qué las disfrutéis! Merecen la pena.

Si os apetece ver también el resto de las conferencias de los premiados, podéis disfrutarlas en vídeo siguiendo este enlace.


Archivado en: Bosón de Higgs, Ciencia, Física, Noticia CPAN, Noticias, Personajes, Physics, Recomendación, Science Tagged: Bosón de Higgs, Ciencia, Conferencias, Física, Física teórica, Noticias, Personajes

Un andaluz, los churros y unas curiosas gotas de cristales nemáticos con forma de dónut

$
0
0

Dibujo1300613 double and triple toroids - nematic crystals

Yo no sabía que Alberto Fernández-Nieves (Instituto Técnico de Georgia, Atlanta, EEUU) fuera andaluz hasta que Luis F. Rull ‏(@LuisFRull) me lo comentó en Twitter. Alberto hizo su tesis doctoral en la Univ. de Granada en 2000 y su último artículo en PNAS merece la pena. Inspirado en el proceso de fabricación de los churros (que se fabrican inyectando una masa a base de harina de trigo en aceite muy caliente formando una espiral, que luego se corta a trozos para ser servido como desayuno o merianda), junto a varios colegas, ha fabricado gotas de cristales líquidos nemáticos con forma toroidal, es decir, con forma de dónut (por cierto, que a mí no me gustan nada de nada desde que visité y olí la fábrica de Panrico que había en Málaga). Más aún, varias gotas en forma toroidal se pueden unir entre sí formando una gota con un número de Betti mayor de uno (en topología este número mide el número de agujeros de una superficie compacta). Las gotas tienen un tamaño milimétrico y por ahora no tienen una aplicación práctica específica, pero permiten estudiar muchas propiedades de los fluidos bajo topologías no triviales. Más información en John Toon, “Liquid Doughnuts: Soft Matter Offers New Approaches to Studying How Ordered Materials Arrange Themselves Inside Non-spherical Spaces,” Georgia Tech, Research News, 21 May 2013, y en “Soft Matter Offers New Ways to Study How Materials Arrange,” ScienceDaily, May 21, 2013. El artículo técnico es Ekapop Pairam et al., “Stable nematic droplets with handles,” PNAS 110: 9295-9300, June 4, 2013 [arXiv:1212.1771]. Por cierto, en diciembre de 2012 este artículo me llamó la atención porque yo he codirigido una tesis doctoral sobre la óptica no lineal en cristales líquidos nemáticos.

Dibujo1300613 alberto fernandez-nieves at georgia tech with its droplets

Las gotas de un líquido tienen forma esférica para que su área superficial sea mínima y con ella la energía asociada a su tensión superficial. Alberto Fernández-Nieves, autor principal del artículo, cuyos primeros autores son sus estudiantes Ekapop Pairam (predoctoral) y Jayalakshmi Vallamkondu (postdoctoral), imitó el proceso de fabricación de los churros utilizando dos líquidos inmiscibles, tales como glicerina o agua y aceite. Una aguja inyecta la glicerina en un recipiente en rotación que contiene aceite. En ciertas condiciones el chorro se cierra en forma de toroide, pero la gota de glicerina es inestable y pierde muy rápido su forma de dónut conforme actúa la tensión superficial; al final, la gota se convierte en una bolita esférica. ¿Cómo se puede evitar esta inestabilidad? Para mantener la forma toroidal, Fernández-Nieves y sus colegas han utilizado un material polimérico elástico (un cristal líquido nemático) en lugar de aceite; este material proporciona esfuerzos superficiales (tensión de fluencia) en la gota que compensan la fuerza de la tensión superficial. Estamos acostumbrados a ver que un líquido adopta la forma de su recipiente, sin embargo, en las gotas de Fernández-Nieves la forma natural de las gotas es una superficie en forma de dónut o de varios dónuts unidos entre sí. Realmente, la física de fluidos aún nos reserva muchísimas sorpresas.

Dibujo1300613 Toroidal droplets - Formation - images


Archivado en: Ciencia, Física, Noticias, Physics, Science Tagged: Ciencia, Cristales líquidos nemáticos, Curiosidades, Experimento, Física (o Mecánica) de fluidos, Gotas líquidas, Noticias, Personajes

Steven Weinberg nos explica por qué Planck observa 3,39 especies de “neutrinos”

$
0
0

Dibujo20130704 higgs potential - goldstone mode - higgs mode

El número de especies de neutrinos (partículas ultrarrelativistas) según las medidas cosmológicas y del fondo cósmico de microondas es un número fraccionario entre 3 y 4. Parece obvio que o bien hay 3 tipos de neutrinos, o bien hay 4, pero no puede haber 3,39 tipos. El Premio Nobel de Física Steven Weinberg propone en Physical Review Letters que la existencia de bosones de Goldstone sin masa podría contribuir con un factor 0,39. Una bonita idea para hoy, el día que el bosón de Higgs cumple un año de edad. El campo de Higgs presenta dos tipos de partículas, los bosones de Higgs y los bosones de Goldstone, pero estos últimos no son partículas como tales, no son observables, pues se acoplan a las partículas W y Z. Para que existieran bosones de Goldstone observables como partículas tendría que existir, al menos, una simetría U(1) adicional en el modelo estándar. Weinberg nos propone esta idea tan especulativa y realiza los cálculos en su nuevo artículo. Por supuesto, no es el único en proponer este tipo de idea, pues muchos otros físicos han realizado propuestas similares (la existencia de partículas ultrarrelativistas con masa nula o casi nula que interaccionan tan débilmente con el resto del modelo estándar que su contribución cosmológica sería fraccionaria). Pero por supuesto, la idea ha aparecido en varios medios al ser ofrecida por un famoso Premio Nobel. Además, qué mejor manera de celebrar el descubrimiento del bosón de Higgs en el LHC hace un año que con un artículo de Steven Weinberg, el primero en incorporar el campo de Higgs en el modelo estándar. El artículo técnico es Steven Weinberg, “Goldstone Bosons as Fractional Cosmic Neutrinos,” Phys. Rev. Lett. 110: 241301, 10 Jun 2013 [arXiv:1305.1971]. Recomiendo leer a Lisa Grossman, “Is missing ‘partial’ neutrino a boson in disguise?,” New Scientist, 27 Jun 2013.

No quiero entrar en detalles técnicos, pero el artículo puede ser entendido por cualquier físico que haya estudiado la matemática del mecanismo de Higgs en el modelo estándar. Si es tu caso, te animo a leer el artículo como homenaje de 4 de julio. Si no es tu caso, lo único que tienes que saber es que se trata de una idea muy especulativa y que no tiene ningún viso de que sea correcta. Futuros artículos que discutan los detalles de esta idea encontrarán problemas de compatibilidad entre lo que sabemos sobre el inicio del universo y la nueva idea, con lo que pronto será olvidada. Pero no importa, la idea es bonita y hoy es día de homenajes.

El número effectivo Neff de especies ultrarrelativistas observado en medidas cosmológicas (que normalmente se denomina “número de neutrinos” pues estos son las únicas partículas de este tipo que han sido descubiertas hasta el momento) se obtiene ajustando el modelo ΛCDM al espectro de la radiación de fondo cósmico de microondas (CMB). Dicho ajuste es normal que conduzca a un valor no entero con cierta incertidumbre que se suele interpretar haciendo referencia al valor entero más cercano. Combinando los datos del CMB de la misión Planck de la ESA (publicados en marzo de 2013), la polarización del CMB de WMAP9 (publicado en diciembre de 2012, ya que la de Planck se publicará en 2014) y los datos de modos altos del CMB (highL), obtenidos por ACT y SPT, se obtiene un valor de Neff = 3,36 ± 0,34 (68% CL). Este valor crece si además se combina el resultado con los datos de BAO (SDSS y BOSS) y de la constante de Hubble (telescopio espacial Hubble).

Weinberg nos recuerda que una partícula ultrarrelativista (de masa nula o de masa muy pequeña comparada con la masa de los neutrinos) que interaccione de forma muy débil con el resto del modelo estándar (para que aún no la hayamos observado en los colisionadores) podría actuar como un “neutrino impostor” que contribuya de forma fraccionaria al valor de Neff. Los bosones de Goldstone son partículas de espín cero y masa nula (las correcciones cuánticas podrían darles una masa pero sería muy pequeña). La contribución relativa de bosones de espín cero respecto a la contribución de los neutrinos debe ser de 7/8 porque siguen la estadística de Bose en lugar de la de Fermi, por tanto, a priori, añaden una contribución al número Neff con un valor de (1/2)/(7/8) = 4/7 = 0,57 (con lo que Neff sería 3,57, un valor razonable, aunque un poco mayor del valor 3,36). Pero esto requiere que los bosones de Goldstone alcancen un equilibrio térmico en los primeros instantes del big bang con una temperatura similar a a la de los neutrinos. Si los bosones de Goldstone alcanzan el equilibrio térmico antes que los neutrinos, alcanzando una temperatura mayor, entonces su contribución a Neff será un número más pequeño que 4/7. El cálculo realizado por Weinberg da como resultado (4/7)(43/57)4/3 = 0,39, lo que le ha hecho “chirivitas” a sus ojos ya ancianos pues un valor de Neff = 3,39 casi coincide con el observado en los experimentos. Por supuesto, yo creo que se trata de una simple casualidad, pues este valor experimental de 3,36 depende muchísimo de los datos utilizados en el ajuste.

Sin enrollarme más, sirva esta entrada como homenaje al bosón de Higgs. La idea de Weinberg es muy bonita, pero tiene pocos visos de ser correcta. Aún así, su artículo ya ha sido citado seis veces y será citado muchas más (en ninguno de dichos artículos se estudian los detalles y en todos los casos se trata de citas de carácter transversal).

Lo dicho, si eres físico y has estudiado teoría cuántica de campos, no puedes dejar de leer el nuevo artículo de Weinberg y disfrutar con su nueva idea (aunque sólo sea como homenaje a su contribución a la física del bosón de Higgs).

Por cierto, ya lo sabéis, pero por si acaso: mi partícula favorita es el bosón de Higgs. Por ello, esta entrada participa en la XLIII Edición del Carnaval de Física, alojado en el blog El Mundo de la Ideas. Araceli Giménez ya me ha dicho cuál es su “partícula favorita,” supongo que pronto os lo contará a todos, ¿quieres contarnos cuál es la tuya? Puedes contribuir al carnaval hasta el 25 de julio.

PS (06 Jul 2013): Yo no lo sabía, pero gracias a Twitter me he enterado de que la tesis doctoral de Teguayco Pinto Cejas (@teguaycoresponsable de medios sociales @RSEF_ESP), “Detailed study of the decoupling process of cosmological relic neutrinos,” Universitat de Valencia, June 2008, presenta una estimación de Neff teniendo en cuenta el fenómeno de oscilación de los neutrinos en los primeros instantes del big bang. Este fenómeno implica un valor no entero para Neff entre 3 y 4. Más aún, para mi sorpresa, presenta en la página 82 de su tesis una estimación de Neff = 3,36 (que coincide con el valor de la misión Planck) cuando “la asignación de masas no nulas para los neutrinos puede asociarse a interacciones no estándar (NSI) que violen el sabor y/o rompan la universalidad.” Una asombrosa coincidencia. Obviamente, pura casualidad pues no hay evidencia experimental de la existencia de NSI.

La teoría del big bang predice la existencia de un fondo cósmico de neutrinos (CNB). Los neutrinos tienen masa y se desacoplan de las otras partículas del plasma primigenio (de los fotones, electrones y positrones, que son sus principales componentes a temperaturas por debajo de la masa del muón). Al incluir las oscilaciones de sabor de los neutrinos en los cálculos termodinámicos del desacoplamiento del CNB se obtiene un valor de Neff = 3,046. Pero también se puede incluir el efecto de interacciones no estándar (NSI), de tal forma que los neutrinos que mantienen un mayor contacto con el plasma comparten una fracción algo mayor de entropía proveniente de la aniquilación de pares electrón-positrón. En dicho caso el valor de Neff puede crecer hasta en un 20%. Por supuesto, que nadie se equivoque, las NSI no han sido observadas y, en palabras del propio Teguayco “no parece que vayan a ser fácilmente detectables a corto plazo.”


Archivado en: Bosón de Higgs, Ciencia, Física, Noticia CPAN, Noticias, Personajes, Physics, Planck, Science Tagged: Bosón de Goldstone, Bosón de Higgs, Ciencia, Escala de Planck, Experimento, Física teórica, Neutrinos, Noticias, Partículas elementales

El juego Angry Birds como laboratorio de física para alumnos

$
0
0

Dibujo20130705 angry birds - video analyser Tracker - calibration and measurement

Angry Birds es un juego muy popular desarrollado en 2009 para el Apple iOS. Los profesores de física pueden utilizarlo para ilustrar el tiro parabólico a sus alumnos. Gracias a un programa de grabación de pantallas (como Fraps, que es freeware) y un analizador de vídeo (como Tracker, también freeware) se pueden hacer experimentos con el juego en lugar de usar un laboratorio. El estudio de la cinemática y la dinámica del tiro parabólico puede ser mucho más divertido con Angry Birds. Más información para los profesores interesados en M. Rodrigues, P. Simeao Carvalho, “Teaching physics with Angry Birds: exploring the kinematics and dynamics of the game,” Physics Education 48: 431-437, July 2013. Por supuesto, no son los primeros en tener esta idea; por ejemplo, ”Angry Birds in the Physics Classroom,” Action-Reaction, June 16, 2011.

Para los despistados como yo que no sabían de qué iba este juego, recomiendo este vídeo de youtube que nos ofrece una idea del mismo y nos sugiere muchas interesantes cuestiones para estudiar con los alumnos.


Archivado en: Ciencia, Docencia, Física, Mecánica, Noticias, Physics, Recomendación, Science Tagged: Ciencia, Curiosidades, Docencia, Física, Informática, Mecánica, Noticias, videojuegos

Hacia los discos duros del futuro gracias al pigmento rojo de los Ferrari Roadster

$
0
0

Dibujo20130705 magnetoresistnace wires for hard disks

La capacidad de almacenar datos de los discos duros ha crecido en un factor de 10.000 en los últimos 30 años gracias, entre otros avances, a la magnetorresistencia gigante (GMR), Premio Nobel Física 2007. Se publica en Science un nuevo avance, la GMR a temperatura ambiente en nanohilos moleculares de DXP (cada uno con un nanómetro de diámetro) incrustados en cristales de zeolita. El DXP es el pigmento utilizado por Ferrari para lograr el color rojo de la pintura de sus Roadster y no es una molécula magnética, pero se aprovecha el espín (momento magnético intrínseco) de sus electrones. Los electrones en la molécula no pueden moverse por ella (saltar de un átomo a otro, entre los átomos azules en la figura) cuando tienen el espín orientado en la misma dirección (lo prohíbe el principio de exclusión de Pauli) por lo que aparece una gran resistencia eléctrica. Sin embargo, al aplicar un campo magnético externo algunos espines cambian su dirección y los electrones pueden moverse por la molécula, bajando la resistencia. La conductividad cambia en un factor de 2000% (todo un récord comparado con el 600% de los materiales usados en los discos duros actuales) mostrando el fenómeno de GMR con una magnitud nunca vista antes (recuerda que la magnetorresistencia colosal es otra cosa). Más aún, este fenómeno se observa a temperatura ambiente. Por supuesto, todavía es muy pronto para ver discos duros basados en esta tecnología en el mercado. Como se almacenará la información en nanohilos es necesario usar la punta de un microscopio de fuerza atómica para leer y escribir, lo que complica mucho su incorporación a la tecnología actual de los discos duros. Pero tiempo al tiempo, la imaginación de los físicos y los ingenieros parece que no tiene límites. Este nuevo descubrimiento es como un Ferrari Roadster que nos lleva a toda velocidad hacia los discos duros del futuro. Nos lo cuenta Robert F. Service, “Hypersensitive Wires Feel the (Electromagnetic) Force,” ScienceNOW, 4 Jul 2013, siendo el artículo técnico R. N. Mahato et al., “Ultrahigh Magnetoresistance at Room Temperature in Molecular Wires,” Science Express, Jul 4, 2013 [DOI].

Dibujo20130705 Magnetic field-dependence of spin blockade

Cuando el campo magnético aplicado B es muy superior a un campo crítico Bhf (asociado a la estructura hiperfina de los átomos), la interacción entre los espines de electrones en sitios vecinos hace que se alineen sus espines y los electrones no pueden saltar de un sitio a otro, quedando bloqueados (parte B de la figura) dando lugar a una resistencia eléctrica enorme. Cuando el campo magnético aplicado es inferior al campo crítico los espines de los electrones no están alineados y los electrones pueden saltar de un sitio a otro, conduciendo la electricidad a  través del nanohilo de DXP (parte A de la figura) con una resistencia eléctrica muy pequeña.

Dibujo20130705 Magnetoresistance at Room Temperature in Molecular Wires

Esta figura muestra la magnetorresistencia (MR) máxima, (R(Bmax)-R(0))/R(0), como función de la diferencia de potencial V y a temperatura ambiente. Las curvas corresponden a nanohilos de DXP de diferente longitud, entre 30 nm y 90 nm. Los valores de MR más altos se logran para nanohilos de 60 nm.

Dibujo20130705 magnetoresistnace wires for hard disks - paper version

Esta figura ilustra cómo se ha medido la conductividad de los nanohilos utilizando una punta conductora de un microscopio de fuerza atómica (CP-AFM). Las moléculas de DXP (N,N’-bis(2,6-dimetilfenil)-perileno-3,4,9,10-tetracarboxílico diimida) son representadas como elipsoides rojos. Los nanohilos están alineados en zeolitas sobre un sustrato de ITO (óxido de indio-estaño) y PEDOT:PSS (un polímero llamado poli(3,4-etilendioxitiofeno):poli(estirenosulfonato). Los cristales de zeolita están fabricados de aluminio, silicio y oxígeno y en su interior se han introducido las moléculas de DXP con un método novedoso.

Por cierto, los autores del artículo han bautizado la nueva técnica como magnetorresistencia ultraalta, porque los términos magnetorresistencia gigante y magnetorresistencia colosal ya están usados. Habrá futuros avances en la magnetorresistencia a la nanoescala y cada día será más difícil ponerles nombre.

En resumen, todos los discos duros en nuestros ordenadores se basan en la magnetorresistencia. Si los discos duros del futuro también se basan en este  fenómeno, el nuevo avance publicado en Science promete acabar en todos nuestros hogares. Por ahora, a corto plazo, el nuevo descubrimiento tiene como aplicación estrella los sensores de campos magnéticos de gran sensibilidad y muy buena resolución espacial (que podrían servir para leer la información de discos duros dañados).


Archivado en: Ciencia, Física, Nanotecnología, Noticias, Physics, Science Tagged: Almacenamiento magnético de datos, Ciencia, Curiosidades, Discos duros, Experimento, Física, Magnetismo, Magnetorresistencia gigante, nanohilos, Nanotecnología, Noticias, Zeolitas

Francis en ¡Eureka!: Imágenes “fantasmas” utilizando el entrelazamiento entre fotones

$
0
0

Dibujo20130705 Compressed ghost image of background scene and tracked object

Ya está disponible el audio de mi sección ¡Eureka! en el programa La Rosa de los Vientos de Onda Cero. Sigue este enlace para disfrutar del audio. Como siempre una transcripción libre, enlaces y algunas imágenes.

Un joven físico mexicano que realiza su tesis doctoral en Nueva York, Omar Magaña Loaiza, ha descubierto un método para ver imágenes “fantasmas” de objetos. No tiene nada que ver con los fantasmas o espíritus, ¿en qué consiste este método? La palabra “fantasma”, aunque sorprenda a muchos oyentes, es muy utilizada por los físicos para describir el cambio de las propiedades físicas de un objeto sin que haya una interacción directa con otros objetos. El joven físico mexicano Omar S. Magaña Loaiza trabaja en el grupo de óptica cuántica del famoso físico Robert W. Boyd en la Universidad de Nueva de York. Omar es el primer autor de un artículo aparecido en la revista Applied Physics Letters sobre una técnica para obtener imágenes “fantasmas” de objetos.

Para ver un objeto es necesario que la luz emitida por una fuente luminosa se refleje en dicho objeto y llegue hasta la retina de nuestros ojos. Según la física cuántica la luz está hecha de partículas llamadas fotones, que se reflejan en los objetos y nos permiten ver. La física cuántica permite que los fotones se emparejen entre sí, un fenómeno llamado entrelazamiento cuántico, de tal forma que si un fotón de la pareja se refleja en un objeto, el otro fotón de la pareja, aunque se encuentre muy lejos del objeto y no entre en contacto directo con él, también se ve afectado y cambia sus propiedades, repito, incluso sin haber tocado el objeto. Utilizando esta técnica cuántica de fotones entrelazados podemos ver un objeto con fotones que no han entrado en contacto con dicho objeto. Por ello los físicos hablan de  imágenes “fantasmas” de los objetos.

El artículo técnico es Omar S. Magaña-Loaiza, Gregory A. Howland, Mehul Malik, John C. Howell, Robert W. Boyd, “Compressive object tracking using entangled photons,” Appl. Phys. Lett. 102: 231104, 10 Jun 2013 [arXiv:1306.2270].

Dibujo20130705 experimental setup - entangled photons 650 nm from bismuth barium borate crystal

El entrelazamiento cuántico es una de las propiedades más misteriosas de la física cuántica porque está muy alejada del mundo clásico en el que vivimos. ¿Podrías explicarnos en palabras sencillas en qué consiste el entrelazamiento cuántico? El mundo cuántico es tan diferente del mundo clásico en el que vivimos todos los días que describir los conceptos cuánticos en un lenguaje fácil de entender es muy difícil. El entrelazamiento cuántico fue descubierto por Albert Einstein en su famoso artículo EPR de 1935, firmado por Einstein, Podolsky y Rosen, aunque el término “entrelazamiento cuántico” fue acuñado ese mismo año por Erwin Schrödinger. Para explicar este fenómeno conviene usar una analogía clásica descrita por el famoso físico cuántico John S. Bell.

Todos llevamos puestos una pareja de calcetines del mismo color. Si yo veo uno de tus calcetines, sé de forma automática el color del otro calcetín; incluso si alguien te quitara el calcetín y se lo llevara muy lejos yo podría saber el color del calcetín que te han quitado. En física cuántica hay ciertas propiedades de parejas de partículas que se portan de la misma forma. Conociendo el valor de la propiedad para una de las partículas entrelazadas, conozco de forma automática el valor de dicha propiedad para la otra partícula. En física clásica si yo te quito un calcetín de un pie y te pongo otro de color diferente, el calcetín del otro pie que no he tocado no cambia de color. Sin embargo, en física cuántica, si ambos calcetines estuvieran entrelazados, cuando yo cambio el color del calcetín de un pie también cambia el color del calcetín del otro pie. Esto ocurre de forma instantánea incluso si ambos están muy lejos. Esto no gustaba a Einstein y por ello afirmó su famosa frase “Dios no juega a los dados.” Sin embargo, en los últimos 40 años se ha verificado en los laboratorios infinidad de veces y podemos afirmar con rotundidad que aunque no le gustara a Einstein, el entrelazamiento cuántico es una realidad.

Esto recuerda a la percepción extrasensorial entre hermanos gemelos que afirman “sentir” los pensamientos o sentimientos del otro incluso a grandes distancias. No hay ninguna evidencia científica rigurosa sobre la supuesta conexión telepática entre hermanos gemelos. De hecho, la física cuántica es innecesaria para entender el funcionamiento del cerebro, que los neurocientíficos explican muy bien utilizando la física y la química clásicas. Einstein llamó al entrelazamiento cuántico “acción fantasmal a distancia” pero se trata de un fenómeno físico que no tiene nada de “fantasmal” y nada que ver con el mundo de lo paranormal. Las imágenes “fantasmas” de objetos utilizando fotones entrelazados reciben este curioso nombre porque a los físicos nos gusta darle nombres llamativos a los fenómenos físicos para atraer la atención de otros físicos y del público en general hacia nuestro trabajo.

Volviendo al trabajo del joven mexicano Omar Magaña Loaiza y sus colegas, ¿qué aplicaciones prácticas podrían tener las imágenes “fantasmas”? La óptica cuántica permite ver objetos usando muy pocos fotones, luego permite desarrollar cámaras capaces de ver con niveles de luz tan bajos que para una persona sería una oscuridad total. Por ahora las imágenes “fantasmas” utilizando fotones entrelazados tienen una resolución muy baja. Los oyentes no deben imaginar una cámara de fotos de varios megapíxeles para ver con la luz de un flash, sino una cámara para ver en total oscuridad que tiene muy poquitos píxeles. Con tan pocos píxeles las imágenes son muy borrosas y lo que se puede detectar son objetos en movimiento. Por ello la aplicación más prometedora de las imágenes “fantasmas” es el desarrollo de cámaras para la detección y seguimiento de objetos en movimiento que funcionen incluso en total oscuridad. Estas cámaras usarán solamente los fotones entrelazados emitidos por la propia cámara.

Por supuesto hay otras aplicaciones de la óptica cuántica con imágenes “fantasmas” pero están limitadas a los laboratorios. En concreto, al campo de la metrología, la medida de propiedades ópticas de los objetos. Las imágenes “fantasmas” permiten superar los límites del teorema del muestreo de Nyquist-Shannon y ver objetos con superresolución. Pero el interés de estas aplicaciones está limitado a los físicos experimentales. La limitación más importante de las imágenes “fantasmas” es que el número de fotones entrelazados que se pueden usar en la práctica es muy pequeño.

Coda final. Sigue este enlace para disfrutar del audio, si aún no lo has hecho.


Archivado en: Ciencia, Eureka (La Rosa de los Vientos), Física, Noticias, Physics, Science Tagged: Óptica, Ciencia, Curiosidades, Eureka (#rosavientos), Experimento, Física, Noticias, Personajes

Francis en Trending Ciencia: El problema del colapso de la función de onda

$
0
0

Dibujo20130707 wavefunction collapse - position observable

Ya puedes disfrutar de mi nuevo podcast sobre física para Trending Ciencia. Sigue este enlace y como siempre, disfruta de la transcripción del audio, algunas imágenes y enlaces a los artículos técnicos.

Este año se cumplen 100 años del modelo cuántico de Bohr para el átomo. Por ello hoy hablo de mecánica cuántica y de uno de los debates más importantes sobre la interpretación de la mecánica cuántica. El problema de la medida en mecánica cuántica y la elegante solución que han ofrecido Armen E. Allahverdyan, Roger Balian, Theo M. Nieuwenhuizen, “Understanding quantum measurement from the solution of dynamical models,” Physics Reports 525: 1-166, April 2013 [arXiv:1107.2138]. Según estos investigadores la evolución unitaria conjunta del sistema medido y del aparato de medida gracias a la ecuación de Schrödinger explica el supuesto colapso de la función de onda gracias a que el aparato de medida tiene suficientes grados de libertad como para evolucionar de forma irreversible hacia el registro del resultado de la medida. La solución más sencilla a un problema suele ser demostrar que no existe tal problema.

Dibujo20130707 Schrodingers cat

En 1926, Born introdujo la interpretación probabilística de la mecánica ondulatoria de Schrödinger. La función de onda cuántica sólo nos permite conocer las probabilidades de cada uno de los posibles resultados posibles en una medida ideal de un observable en un sistema cuántico. La regla de Born afirma que tras la medida sólo se observa una de los valores posibles y que la función de onda pasa de estar en un estado de superposición de muchos posibles estados a un único estado final consistente con dicha medida. En 1927, Heisenberg desarrolló los primeros modelos del proceso de medida cuántica, que fueron ampliados y formalizados por von Neumann en 1932. Se llama problema de la medida cuántica al hecho de que la formulación matemática de la teoría incluye dos postulados contradictorios: por un lado la evolución unitaria mediante la ecuación de Schrödinger y por otro lado el colapso o reducción de la función de onda tras una medida. En una medida cuántica el aparato de medida interacciona con el sistema medido y cambia su estado de una superposición cuántica de múltiples estados cada uno con cierta probabilidad a un único estado (el medido) con una probabilidad de la unidad. Es decir, como el aparato y el sistema están acoplados de forma biunívoca, de tal forma que para cada posible estado del sistema medido hay un posible estado del aparato de medida, tras la medida no sólo colapsa la función de onda del sistema medido sino también la función conjunta aparato-sistema, por ambos están relacionados de forma íntima. Esto son palabras mayores y como resultado han aparecido ideas muy exóticas como el multiverso de Everett y Wheeler que afirma que en cada medida todo el universo bifurca entre múltiples universos. Otros físicos han propuesto la necesidad de que el observador del aparato de medida sea un observador consciente. Discutir estas ideas y muchas otras nos llevaría lejos, pero Theo Nieuwenhuizen y sus colegas afirman que no es necesario recurrir a ideas metafísicas tan exóticas. Todo es tan sencillo como ver el problema con los ojos adecuados.

A muchos físicos no les preocupa el problema de la medida y afirman que no tiene solución dentro de la mecánica cuántica, ya que grandes físicos como Einstein, Bohr, de Broglie, von Neumann y Wigner no lograron resolverlo. Estos físicos creen que el colapso de la función de onda es un proceso dinámico y que es necesaria nueva física más allá de la física cuántica para explicarlo. Quizás los futuros avances en la teoría de cuerdas nos aclaren ¿cuándo y cómo se produce el colapso de la función de onda? Sin embargo, Theo Nieuwenhuizen y sus colegas afirman todo lo contrario: no es necesaria física más allá de la mecánica cuántica para resolver el problema del colapso de la función de onda pues no es incompatible con la evolución unitaria de la ecuación de Schrödinger, todo lo contrario, se trata de una consecuencia natural de su dinámica unitaria aplicada a un aparato de medida. La teoría cuántica no sólo predice las probabilidades de los distintos resultados posibles de un conjunto de medidas, sino que el acoplo entre el sistema medido y el aparato de medida explica la paradoja.

Dibujo20130707 wavefunction collapse - system plus apparatus

La idea de Theo Nieuwenhuizen y sus colegas es muy sencilla. Maravillosamente sencilla. ¿Cuándo decimos que la medida ha tenido lugar? Cuando el aparato de medida ha alcanzado un estado bien definido de larga duración que permite que un observador pueda anotar el resultado. Esto implica que una medida requiere que el aparato de medida evolucione de forma irreversible hacia el resultado de la medida. Si en el proceso de medida el aparato no alcanza un estado final irreversible, un observador no puede afirmar que la medida haya tenido lugar pues para él el sistema conjunto aparato+sistema se comporta como un sistema cuántico en un estado mezcla. Sólo se puede afirmar que la medida ha tenido lugar cuando el apartado de forma irreversible pasa a un estado bien definido, robusto, permanente y en correspondencia unívoca con el estado del sistema medida. Durante el proceso de medida tanto el sistema medido como el aparato de medida evolucionan según la ecuación de Schrödinger pero el sistema de medida debe ser suficientemente complejo como para que su dinámica esté dominada por la estadística cuántica y que ésta conduzca a un proceso irreversible que amplifique su acoplo con el sistema medido y permite que el resultado de la medida sea registrado para su observación posterior por un observador.

Por ejemplo, cuando una partícula es detectada en una cámara de burbujas, la formación de la burbuja es el proceso irreversible que deja la huella de la presencia de la partícula. Lo mismo pasa cuando se usan fotomultiplicadores para detectar fotones, placas fotográficas o cualquier otro detector de partículas. El aparato de medida no tiene que ser un sistema clásico. El único requisito es que sea un sistema con un número suficientemente grande de grados de libertad como para que se aplique la mecánica estadística cuántica y su dinámica se presente como un proceso irreversible de amplificación y registro de la medida. La mecánica estadística explica cómo emerge la irreversibilidad en la dinámica de un sistema regido por leyes reversibles, como los descritos por la ecuación de onda de Schrödinger. Y esta irreversibilidad resuelve el problema de la medida cuántica de una forma elegante y sin necesidad de ideas exóticas.

Por supuesto, los físicos querrán más detalles. El artículo de Theo Nieuwenhuizen y sus colegas describe el proceso con un modelo muy sencillo, el sistema magnético de Curie-Weiss, que admite solución exacta y que permite ilustrar todos los detalles técnicos con exactitud exquisita. La verdad, me ha encantado el artículo técnico publicado en Physics Reports. He disfrutado de sus 201 páginas con placer y he releído las partes menos técnicas varias veces. A mí me han convencido. Me he enamorado de la idea. El problema de la medida cuántica, el problema del colapso de la función de onda, no son paradojas que requieran una explicación más allá de la mecánica cuántica y la ecuación de Schrödinger. Todo lo contrario, su explicación es sencilla, casi obvia. Recomiendo encarecidamente a todos los físicos y sobre todo a todos los estudiantes de física cuántica que escuchen este podcast a que se lean el artículo técnico (o al menos las partes menos técnicas, omitiendo los detalles más escabrosos del modelo de Curie-Weiss). La verdad, merece la pena.

Coda final. Si aún no has escuchado el audio sigue este enlace.


Archivado en: Ciencia, Física, Mecánica Cuántica, Noticias, Physics, Podcast en Trending Ciencia, Recomendación, Science Tagged: Ciencia, Colapso de la función de onda, Ecuación de Schrödinger, Física, Física cuántica, Función de onda, Irreversibilidad, Mecánica Cuántica, medida cuántica, Noticias

M62-VLA1, un nuevo agujero negro de masa estelar similar a Cygnus X-1

$
0
0

Dibujo20130708 m62 images VLA -left- Chandra -right- with M62-VLA1

Cygnus X-1, la más famosa fuente binaria de rayos X, está formada por un objeto compacto (candidato a agujero negro de masa estelar, entre 7 y 15 veces la masa del Sol) y una estrella supergigante a la que roba materia (el agujero negro no emite los rayos X sino la materia que cae). Se ha descubierto una nueva fuente binaria de rayos X en el cúmulo globular M62 (NGC 6266). El candidato a agujero negro, M62-VLA1, tiene unas 10 masas solares y le roba materia a una estrella gigante roja. Las características más claras de un sistema binario con un agujero negro son tener una luminosidad de rayos X por encima del límite de Eddington para una estrella de neutrones y presentar grandes variaciones de luminosidad en escalas de tiempo cortas. M62-VLA1 cumple ambos requisitos, siendo su emisión óptica, en ondas de radio y en rayos X muy similar a las de Cygnus X-1. Stephen Hawking perdió su apuesta de 1974 contra Kip Thorne y tuvo que regalarle en 1990 una suscripción anual a Penthouse porque los indicios a favor de que Cygnus X-1 contenía un agujero negro eran aplastantes. Para M62-VLA1 los indicios también lo son de ahí que mi titular sea “un nuevo agujero negro” en lugar de “un nuevo candidato a agujero negro.” El artículo técnico es Laura Chomiuk et al., “A Radio-Selected Black Hole X-ray Binary Candidate in the Milky Way Globular Cluster M62,” arXiv:1306.6624, 27 Jun 2013.


Archivado en: Astrofísica, Astronomía, Ciencia, Física, Noticias, Physics, Science Tagged: Agujero negro, Astrofísica, Astronomía, Ciencia, Experimento, Física, Noticias

Nuevos datos de AMS-02 en la ISS sobre el exceso de positrones en los rayos cósmicos

$
0
0

Dibujo20130708 ams-02 data positron excess

Samuel Ting, Premio Nobel de Física 1976, presentó ayer en el ICRC 2013, Río de Janeiro, los nuevos resultados de AMS-02, instalado en la ISS, sobre los rayos cósmicos. Lo más interesante es que el exceso de positrones se mantiene constante hasta los 360 GeV (los datos ya publicados en PRL llegaban a 260 GeV) lo que apoya que su origen no es la materia oscura (el esperado corte en energía no se observa). La fuente de estos positrones es isótropa, con una anisotropía dipolar menor de 0,030 al 95% CL, lo que complica su origen astrofísico y apoya la hipótesis de la materia oscura. Esta contradicción requiere futuros estudios que aclaren el origen del exceso, pero en mi opinión, todo apunta a un origen astrofísico (como ya han apuntado muchos estudios técnicos), en contra de la materia oscura (partículas de materia oscura con una masa superior a 500 GeV son difíciles de casar con las evidencias gravitatorias). Todavía no están disponibles las transparencias de la charla, ni los correspondientes artículos técnicos, pero en la web de AMS-02 se ha publicado un breve resumen de los resultados.

Dibujo20130708 ams-02 data proton fluxNo hay sorpresas. El flujo de protones entre 1 GeV y 1,8 TeV (puntos rojos en esta figura) sigue la curva esperada según las medidas de otros experimentos, con la ventaja de que su error es muy pequeño. Lo mismo pasa con el flujo de átomos de helio entre 2 GeV y 3 TeV y con el flujo de electrones entre 1 GeV y 0,5 TeV (omito las figuras). Todos los resultados sobre rayos cósmicos son similares a los esperados. Las nuevas curvas son mucho más suaves que las obtenidas con experimentos anteriores lo que indica la gran calidad de las medidas de AMS-02 (Espectrómetro Magnético Alfa) instalado en la ISS (Estación Espacial Internacional) y, a priori, facilita entender su origen mediante modelos astrofísicos de su fuentes.

Dibujo20130708 ams-02 data electron plus positron spectrum

Me hubiera gustado que se publicara el exceso de positrones hasta energías de 500 GeV, aunque el error por encima de 350 GeV sea grande. De hecho, a partir del espectro de electrones más positrones, publicado hasta 500 GeV, y del espectro de electrones, también publicado hasta 500 GeV, se infiere “a ojo de buen cubero” que el exceso de positrones hasta 500 GeV no presenta ninguna señal de un corte en energía (repito, la predicción más clara de los modelos de materia oscura, si este fuera su origen). La versión oficial de estas curvas tendrá que esperar a principios de 2014 cuando se publiquen nuevos datos de AMS-02.

En resumen, habrá que esperar a los artículos técnicos de AMS-02 para conocer más detalles, pero todo indica que hay una fuente de positrones cuyo origen es isótropo (no son las llamaradas solares que han sido noticia esta semana, Daniel Mediavilla, “Hallada antimateria en las llamaradas solares,” Materia, 08 Jul 2013) y extragaláctico (quizás relacionada con los púlsares y magnetares que están distribuidos de forma casi esférica por todo el halo galáctico, como el que ha sido noticia esta semana, “Ráfagas de radio cósmicas despiertan la imaginación de los astrofísicos,” Agencia SINC, 04 jul 2013). Futuros estudios deberán aclarar esta cuestión tan importante en relación al problema de la materia oscura.

Más información en ”AMS-02 observa un exceso de positrones cuyo origen podría ser la materia oscura,” 3 abril 2013, y “El exceso de positrones de AMS-02 como señal de la materia oscura,” 5 abril 2013.


Archivado en: Ciencia, Física, Noticia CPAN, Noticias, Physics, Science Tagged: AMS-02, Ciencia, Experimento, Física, Noticias, Partículas elementales, Positrones, Rayos cósmicos

Factorizan un número entero de 20.000 bits utilizando el algoritmo cuántico de Shor pero con “truco”

$
0
0

Dibujo20130710 Experimental data from unbiased coins - Shor compiled algorithm

El paradigma de los algoritmos cuánticos es el algoritmo de Shor para factorizar números enteros. Para reducir el número de cubits necesarios se puede utilizar un truco llamado “precompilación” basado en conocer a priori los factores del número. Gracias a esta técnica, usando dos cubits en una implementación semiclásica, se han factorizado el número RSA-768 (de 768 bits) y el llamado N-20000 (de 20.000 bits). Sin el truco de la precompilación del algoritmo de Shor hubieran sido necesarios 1.154 cubits y 30.002 cubits, resp. Dicho truco no es aplicable cuando no se conocen los factores del número por lo que no puede utilizarse en criptoanálisis de claves públicas. Además, dicho truco puede utilizarse incluso en una implementación clásica del algoritmo de Shor utilizando números aleatorios generados tirando monedas (que salga cara H o cruz T); el nuevo récord se ha obtenido usando dicho truco. Pero lo importante a destacar es que, hasta el momento, el algoritmo de Shor nunca ha sido implementado en un ordenador cuántico de forma completa (sin “precompilación”). El artículo técnico es John A. Smolin, Graeme Smith, Alexander Vargo, “Oversimplifying quantum factoring,” Nature 499: 163–165, 11 Jul 2013. Este artículo me viene ni que pintado porque el viernes 12 de julio imparto el curso “Presente y futuro de la computación cuántica” en un curso de verano “Alan M. Turing: Enigmático, visionario y condenado,” coordinado por Ernesto Pimentel, director de la E.T.S.I. Informática de la Universidad de Málaga, que se imparte en Veléz Málaga.

Dibujo20130710 qubits required shor algorithm and experimental results

Te recuerdo. El algoritmo cuántico de Shor para factorizar el número N=pq calcula sus dos factores p y q utilizando O(log N) cubits (el algoritmo original usa 3 log N cubits, pero hay versiones posteriores con sólo 2+(3/2) log N cubits, aunque la adición de algoritmos de corrección de errores requiere muchos más) y un tiempo de cálculo de O((log N)3), donde log N es el número de dígitos de N. El mejor algoritmo clásico requiere un coste exponencial en el número de dígitos. En 2001 (Nature) se factorizó el número 15 utilizando 7 cubits en lugar de 8; en 2009 (Science) se utilizaron 5 cubits, en 2007 (PRL,PRL) fueron 4 cubits y en 2012 (Nat.Phys.) sólo 3 cubits. El récord se obtuvo en 2012 (Nat.Phot. cuyo primer autor es el español Enrique Martín-López) con la factorización del número 21 utilizando 1+log 3 cubits en lugar de 10 cubits (en realidad son dos cubits, pero uno se usa siempre y el otro sólo en ciertos pasos del algoritmo, de ahí el valor log 3). El truco que se utiliza para reducir el número de cubits es “precompilar” el algoritmo en el “cableado” de la implementación (ya que se conocen los factores), lo que permite reducir el número de cubits hasta solamente 1 cubit.

Dibujo20130710 rsa-768 factoring

Por supuesto, el nuevo récord no se puede considerar una demostración “de verdad” del algoritmo de Shor. Sin embargo, como en anteriores ilustraciones tampoco se utilizaron el número mínimo de cubits necesario, este nuevo récord (obtenido en una implementación semiclásica) se pone en el mismo lugar que las anteriores demostraciones. Y además pone en su lugar dichas demostraciones. La versión “precompilada” del algoritmo de Shor no es una demostración del algoritmo de Shor stricto sensu. Según los autores, el algoritmo de Shor aún no ha sido implementado en un ordenador cuántico. Obviamente, los expertos se pondrán a ello y pronto se publicará la primera demostración del algoritmo de Shor, pero esta vez de verdad.

Lo dicho, a mí me viene ni que pintado este artículo de Nature para mi charla de pasado mañana viernes.


Archivado en: Ciencia, Computación cuántica, Física, Informática, Noticias, Physics, Science Tagged: Algoritmo de Shor, Ciencia, Computación cuántica, Curiosidades, Experimento, Física, Nature, Noticias

Fabrican el espejo perfecto utilizando un cristal fotónico

$
0
0

Dibujo20130710 perfect mirror with photonic crystal

Se publica en Nature la fabricación del primer espejo perfecto gracias a un cristal fotónico de nitruro de silicio sobre un sustrato de dióxido de silicio, un espejo que refleja toda la luz incidente, sin absorber nada de luz; la luz debe incidir con un ángulo concreto desde un líquido con el mismo índice de refracción que el dióxido de silicio (como muestra la figura). Un cristal fotónico es un material microestructurado que presenta una serie de pequeños agujeros con un tamaño menor que la longitud de onda de la luz incidente. El cristal fotónico actúa como un sólido y presenta una serie de bandas prohibidas para la luz (como un sólido las presenta para los electrones). Los cristales fotónicos permiten nuevos modos de guiado de la luz, permitiendo que la luz se curve en una esquina sin pérdidas y otros fenómenos similares. ¿Por qué funciona el cristal fotónico como espejo perfecto? Según los autores aparece un fenómeno similar a la interferencia destructiva que se observa en algunos sistemas cuánticos; el acoplo entre los modos evanescentes a ambos lados del cristal fotónico presenta una resonancia que hace que se desvanezcan. En física cuántica a este fenómeno se le llamada degeneración accidental y fue propuesto en 1929 por John von Neumann y Eugene Wigner; la ecuación de Schrödinger permite que en un pozo de potencial haya estados de electrones atrapados con la misma energía que un electrón libre (infinitamente alejado del potencial). ¿Para qué puede servir? Quizás para atrapar luz dentro de una cavidad óptica con espejos perfectos a ambos lados. Nos lo cuenta A. Douglas Stone, “Optical physics: Trapping the light fantastic,” Nature 499: 159–160, 11 Jul 2013, quien se hace eco del artículo técnico de Chia Wei Hsu et al., “Observation of trapped light within the radiation continuum,” Nature 499: 188–191, 11 Jul 2013. Por cierto, uno de los autores, John D. Joannopoulos (MIT) es firme candidato al Premio Nobel de Física por los cristales fotónicos desde hace más de una década.

Dibujo20130710 Fabricated PhC slab and the measurement setup

El cristal fotónico de nitruro de silicio Si3N4 tiene un espesor de 180  nm (nanómetros) con una matriz cuadrada de orificios cilíndricos con una periodicidad de 336  nm y un diámetro de agujero de 160 nm. El índice de refracción del nitruro de silicio es n = 2,02, siendo el índice de refracción de la capa de sílice n = 1,46 (el mismo que el del líquido en el que se ha sumergido el cristal fotónico).

Dibujo20130710 Predictions of the theory

Las simulaciones numéricas por ordenador muestran la presencia de un ángulo para el que se obtiene un espejo perfecto (factor de calidad Q = ∞ en esta figura). En estas simulaciones se calculan los modos ópticos resolviendo un problema de valores propios obtenido aplicando la técnica FDTD (diferencias finitas en el dominio del tiempo) a las ecuaciones de Maxwell.

Dibujo20130710 Quantitative evidence on the disappearance of leakage

Los resultados experimentales medidos en laboratorio (cruces rojas y azules) muestran un buen acuerdo con las predicciones numéricas (línea continua). En los experimentos para un ángulo de 35º se obtiene un valor de Q mayor de 1.000.000 (no se obtiene el valor teórico de infinito por problemas en la resolución y relación señal-ruido del instrumento de medida).

La óptica ondulatoria y la mecánica cuántica ondulatoria comparten muchos fenómenos  porque se puede construir una analogía física entre sus respectivas ecuaciones de onda. Gracias a esta analogía se pueden experimentar mediante óptica muchos de los fenómenos que se predicen en la teoría cuántica. De hecho, muchos físicos teóricos cuánticos están trabajando en la actualidad en óptica (yo conozco a varios). Los cristales fotónicos y su parecido con los sólidos cristalinos son un campo muy fértil para este tipo de analogías.


Archivado en: Ciencia, Física, Noticias, Physics, Science Tagged: Óptica, Ciencia, Cristal fotónico, Experimento, Física, Física cuántica, Nature, Noticias

Trazan la historia evolutiva de la iridiscencia en los gorgojos

$
0
0

Dibujo20130712 Weevils have a variety of photonic crystals in their scales for generating bright colors

Un estudio de los cristales fotónicos responsables de la iridiscencia de los gorgojos y picudos, la familia de coleópteros llamados curculiónidos (Curculionidae), indica que estas nanoestructuras cristalinas (ópalos) comparten un origen evolutivo común. La quitina, componente principal del exoesqueleto de los insectos, adopta estructuras cristalinas que han sido caracterizadas con un sincrotrón de rayos X de alta energía y mediante el microscopio electrónico de barrido. El análisis genético ha mostrado una buena  correlación entre estas estructuras cristalinas y el ADN de los gorgojos, lo que ha permitido inferir que “evolucionaron a partir de un “ancestro” común.” Se especula que durante el desarrollo, las membranas internas en las escamas se auto-ensamblan de diferentes formas actuando como andamios temporales para la deposición de la quitina. Este tipo de auto-organización espontánea reviste mucho interés aplicado en ciencia de materiales para el desarrollo de nuevos materiales fotónicos que sean biodegradables y que eviten los problemas de toxicidad de los polímeros (plásticos) usados en la actualidad. Nos lo cuenta Elizabeth Pennisi, “Diverse Crystals Account for Beetle Sheen,” Science 341: 120, 12 Jul 2013, que se hace eco de una ponencia en el último congreso Evolution 2013.

La iridiscencia es el resultado de la microestructura del caparazón de los gorgojos que refleja la luz con diferentes colores en función del ángulo de visión. Se llama cristal fotónico a los cristales con microestructura en la escala de la longitud de onda de la luz visible. ¿Cómo es posible que la evolución (que afecta al ADN) haya dado lugar a la microestructura de estos cristales en diferentes gorgojos? Se cree que la clave está en el autoensamblado durante el desarrollo del exoesqueleto. Se desarrollan ciertas membranas que dejan un cierto número de huecos; más tarde se rellenan estos huecos y las membranas con quitina, formándose la microestructura responsable de los colores reflejados. Esta hipótesis deberá ser verificada con estudios embrionarios específicos.


Archivado en: Biología, Ciencia, Noticias, Physics, Science Tagged: Óptica, Biología, Ciencia, Curiosidades, Genética, Noticias

Francis en ¡Eureka!: Las planarias recuerdan tras regenerar su cabeza

$
0
0

Dibujo20130713 Decapitated worms regenerate head with old memories

El audio de mi sección ¡Eureka! en La Rosa de los Vientos, Onda Cero, lo puedes escuchar siguiente este enlace. Como siempre, una transcripción del audio, enlaces e imágenes relacionadas.

Hay gusanos que son capaces de regenerar partes de su cuerpo que le han sido cortadas, como su cabeza y su cerebro. ¿Qué pasa con sus recuerdos cuando regeneran su cerebro? Por sorprendente que parezca, esta semana se ha publicado que unos gusanos planos llamados planarias (Schmidtea mediterranea) pueden recuperar algunos de sus recuerdos tras ser decapitados y regenerar su cerebro. Las planarias son unos pequeños gusanos de 1 cm de longitud que viven en agua dulce y que tienen la habilidad de regenerar cualquier parte de su cuerpo que le sea cortada, desde la cabeza a la cola, gracias a que el 20% de las células de su cuerpo son células madre o totipotentes. Animales de hábitos nocturnos, las planarias rehuyen de los lugares con mucha luz. Biólogos de la Universidad de Tufts, cerca de Bostón, en EEUU, entrenaron a las planarias para que superaran su miedo a la luz y se acercaran a un trozo de comida que era iluminado por una foco luminoso. Los gusanos entrenados durante 10 días son capaces de recordar la asociación entre comida y luz durante varias semanas. El sistema nervioso central de las planarias, el equivalente a su cerebro, se encuentra en su cabeza; tras cortarle la cabeza en dos semanas les crece una nueva con un nuevo cerebro. Para sorpresa de los biólogos la planaria con su nuevo cerebro recordaba la asociación entre luz y comida (tras un breve entrenamiento de sólo 1 día para “refrescar” estos recuerdos). Parece que las planarias no perdieron todos sus recuerdos cuando les cortaran la cabeza y el cerebro.

El artículo técnico es Tal Shomrat, Michael Levin, “An automated training paradigm reveals long-term memory in planaria and its persistence through head regeneration,” The Journal of Experimental Biology, First posted online July 2, 2013 [DOI]. En español también puedes leer ”Un gusano, capaz de regenerar los recuerdos tras ser decapitado,” Europa Press, 11 Jul, 2013. Sobre la regeneración del cuerpo de las planarias recomiendo leer Daniel Lobo, Wendy S. Beane, Michael Levin, “Modeling Planarian Regeneration: A Primer for Reverse-Engineering the Worm,” PLoS Comput. Biol. 8: e1002481, Apr 26, 2012.

Dibujo20130713 planaries - brain - eyes - regeneration by adult stem cells - neoblasts

Esto significa que las planarias almacenan parte de sus recuerdos fuera de su cerebro, ¿se sabe dónde pueden almacenar esta memoria? El autor principal del estudio, Michael Levin, de la Universidad de Tufts (EEUU), dice que el descubrimiento les ha pillado por sorpresa y que nadie había estudiado nunca la posibilidad de que las planarias almacenaran sus recuerdos fuera de su sistema nervioso central, lejos del cerebro, en el sistema nervioso periférico, con lo que al perder la cabeza no pierden todos sus recuerdos. Michael Levin cree que parte del sistema nervioso periférico responde a la decapitación tratando de suplir las funciones del cerebro que se ha perdido, como si se formara un pequeño cerebro alternativo en otra parte del cuerpo que se llevara parte de los recuerdos. Sin embargo, serán necesarios estudios posteriores para aclarar cómo ocurre este proceso si es que de verdad ocurre, porque me gustaría aclarar que hay algunos biólogos que han puesto en duda la metodología científica de este trabajo y habrá que esperar a que sea repetido de forma independiente para confirmar de forma definitiva un resultado tan sorprendente y llamativo. La ciencia básica es así. Muchas veces ocurre un descubrimiento inesperado que abre una nueva vía de investigación que hasta entonces a nadie se le había ocurrido explorar. Y que podría tener importantes aplicaciones en medicina regenerativa y en posibles tratamientos en la enfermedad de Alzheimer.

Dibujo20130713 Planaria restore their AP polarity similarly to bar magnets

Hablando de investigación básica hay que recordar la catastrófica situación del CSIC, la mayor institución científica de España. Está pasando gravísimos problemas de financiación, ¿cómo puede afectar esta situación a las investigaciones de los científicos? El CSIC, el Consejo Superior de Investigaciones Científicas, está compuesto por más de 100 institutos de investigación y tiene más de 13.000 empleados. Los investigadores de cada instituto obtienen financiación para sus proyectos de las comunidades autonómicas, el gobierno central y fondos europeos. La sede central del CSIC actúa como intermediario, como una especie de banco, que gestiona los fondos de todos y los va repartiendo a sus legítimos dueños mediante un sistema concertado de plazos. Pero el CSIC inició el año 2013 con un agujero presupuestario de 100 millones de euros. El Gobierno le concedió un crédito de 25 millones de euros y ahora ha prometido otro crédito de 50 millones. Pero aún faltan 25 millones para cubrir todos los gastos. Por ello, Emilio Lora-Tamayo , el presidente del CSIC, anunció el 2 de julio que todos los remanentes de los proyectos, los ahorros de todos los científicos, serán “socializados” y se repartirán entre todos sin distinción de quién los ha logrado. Su objetivo es garantizar la viabilidad de la institución hasta otoño. Los “remanentes” eran el “colchón” de dinero con el que contaban muchos investigadores para su cronograma en 2013. Por ello este “corralito” puede tener consecuencias muy negativas en muchos proyectos estrella de nuestra ciencia, lo que más fondos reciben y más posibilidades tienen de ahorrar y planificar investigaciones a largo plazo. Se va a castigar a los mejores científicos y sus proyectos estrella tendrán que cambiar sobre la marcha muchas de las cosas que tenían planificadas.

Dibujo20130713 CSIC - difficult funding situation - forges

Lo que quieres decir es que los investigadores recibirán sus nóminas pero no tendrán suficiente dinero para que funcionen sus laboratorios y sus proyectos. Una situación que parece “kafkiana”: los científicos irán al trabajo, pero no podrán trabajar. ¿Qué solución tiene esta grave crisis del CSIC? En países como EEUU este tipo de problemas se solucionan despidiendo a gente o reduciendo sus jornadas. Pero España es un país con menos científicos por cada 100.000 habitantes que otros países europeos. En 2012 el CSIC tuvo que paralizar pagos a proveedores para garantizar las nóminas de sus empleados, cancelar programas de becas para jóvenes, y aún así se perdieron unos 1.000 empleados. Medidas muy duras para evitar el cierre. La situación del CSIC es realmente catastrófica, mucho más de lo que parece.  Según Lora-Tamayo, a corto plazo, el CSIC puede sobrevivir y todos los institutos que dependen del consejo pueden seguir funcionando “hasta septiembre o principios de octubre”. Más allá de esa fecha no se puede garantizar nada. Para muchos científicos trabajar en la antesala de un “cataclismo” es terrible y afectará de forma muy negativa a sus proyectos. Por ello, decenas de investigadores quieren tomar medidas legales contra el CSIC para recuperar sus ahorros. Hace falta un compromiso firme del Gobierno con la investigación científica en España. No se puede cerrar una de las grandes instituciones científicas de Europa por una ridícula cantidad de 25 millones de euros. El Gobierno puede solucionar este problema fácilmente. Lo único importante ahora es que quiera hacerlo.

Más información en Nuño Domínguez, “El CSIC mete la mano en la hucha de los científicos para poder sobrevivir,” Materia, 03 Julio 2013; Nuño Domínguez, “Investigadores del CSIC estudian llevar a los tribunales la cancelación de sus fondos,” Materia, 05 Julio 2013; Nuño Domínguez, “El CSIC asegura que devolverá el dinero a los científicos “de forma controlada”,” Materia, 09 Julio 2013; Nuño Domínguez, ““Vamos a cerrar una de las mejores instituciones científicas de Europa por 25 millones de euros”,” Materia, 12 Julio 2013.

Coda final. Siguiendo este enlace puedes escuchar el audio.


Archivado en: Cerebro, Ciencia, Eureka (La Rosa de los Vientos), Noticias, Política, Science Tagged: Biología, Cerebro, Ciencia, CSIC, Curiosidades, Experimento, Noticias, Sin ciencia no hay futuro

Francis en Trending Ciencia: La materia oscura en el Sistema Solar

$
0
0

Dibujo20130715 Trending Ciencia - materia oscura

Ya puedes escuchar mi nuevo podcast sobre Física para Trending Ciencia siguiente este enlace.

Me encuentro en la trigésimocuarta Reunión Bienal de la Real Sociedad Española de Física que se celebra en Valencia, del 15 al 19 de julio de 2013. He elegido como tema para mi podcast el artículo de N. P. Pitjev, E. V. Pitjeva, “Constraints on Dark Matter in the Solar System,” Astronomy Letters 39: 141-149, March 2013 [arXiv:1306.5534]. Los autores han utilizado el movimiento de los planetas (unas 677.000 observaciones) para estimar la densidad de materia oscura y masa total a varias distancias del Sol. El resultado es que la densidad es menor de 1,1 ×10^{-20} g/cm³ en una esfera de radio similar a la órbita de Saturno, menor de 1,4 ×10^{-20} g/cm³ en una esfera de radio similar a la órbita de Marte y menor de 1,4 ×10^{-19} g/cm³ en una esfera de radio similar a la órbita de la Tierra. Estas cotas superiores para la densidad de materia oscura en el sistema solar son enormes comparadas con las estimaciones basadas en el halo galáctico (al menos tres órdenes de magnitud por encima) por lo que nos dan muy poca información práctica sobre la materia oscura en el Sistema Solar.

Dibujo20130715 dark matter solar system estimation - planetary measurements

En el Sistema Solar hay dos tipos de materia oscura. Por un lado, la materia oscura capturada por el campo gravitatorio del Sol y de los planetas, que puede encontrarse en sus núcleos o dando vueltas a su alrededor. Y por otro lado, la materia oscura del halo galáctico que atraviesa el Sistema Solar mientras rota alrededor del centro galáctico. En ambos casos, la materia oscura podría afectar al movimiento de los planetas. La hipótesis más sencilla es que la materia oscura tiene una densidad constante a la escala del sistema solar. En dicho caso supondría una corrección a la ley de Newton que implicaría una precesión del perihelio de los planetas. Un cálculo del efecto indica que sería unos 7 órdenes de magnitud más pequeño que la precisión actual con la que podemos medir su efecto. Es decir, sería imposible detectar este efecto en el movimiento de los planetas.

Por ejemplo, en 1995 se utilizó el movimiento del perihelio del asteroide Icarus, que se encuentra a 1 unidad astronómica del Sol, que se conoce con un error de un 8%, para estimar la densidad de materia oscura en el sistema solar. El valor obtenido para la densidad de materia oscura en el sistema solar era un valor menor de 1,8 por 10^-16 g/cm^3, que es unas siete órdenes de magnitud más grande que la densidad predicha de materia oscura en nuestra galaxia. Más información en Øyvind Grøn, Harald H. Soleng, “Experimental limits to the density of dark matter in the solar system,” Astrophys.J. 456 (1996) 445-448 [arXiv:astro-ph/9507051].

Las estimaciones de la densidad de materia oscura en el halo galáctico de la Vía Láctea son difíciles de realizar con precisión, pues requieren una hipótesis sobre su distribución; una estimación grosera nos lleva a un valor cercano a 1,3 × 10^−23 g/cm³. Un valor entre tres y cuatro órdenes de magnitud mayor que el obtenido por los rusos N. P. Pitjev y E. V. Pitjeva. Su trabajo es muy interesante pero su resultado nos ayuda poco en la búsqueda directa de las partículas de materia oscura.

En resumen, un podcast breve pero que espero que te haya gustado. Sigue este enlace si aún no lo has escuchado.


Archivado en: Astronomía, Ciencia, Física, Materia oscura, Noticias, Physics, Podcast en Trending Ciencia, Science Tagged: Astrofísica, Astronomía, Ciencia, Física, Materia oscura, Noticias

La física microscópica de los diodos superconductores de tipo Josephson

$
0
0

Dibujo20130719 Micrograph SQUID Josephson junction with spectrometer and suspended bridge

Un diodo Josephson está formado por dos superconductores separados por un aislante muy estrecho, tanto que las funciones de onda de los pares de Cooper a ambos lados se solapan produciendo una (super)corriente entre ambos por efecto túnel. El mecanismo microscópico responsable es la aparición de estados dobletes de Andreev cuyos niveles de energía están relacionados con la diferencia de fase entre los pares de Cooper a ambos lados del aislante. Se publica en Nature la primera observación experimental por espectroscopia de los estados dobletes de Andreev, que se comportan como fermiones (tienen espín 1/2) localizados a modo de “puentes” entre ambos superconductores. Bretheau et al. han detectado por primera vez estos estados usando la técnica de espectroscopia por absorción de fotones. Nos lo cuentan Simon Gustavsson y William D. Oliver, “Quantum physics: Andreev states taken to the next level,” Nature 499: 286–287, 18 Jul 2013, haciéndose eco del artículo técnico de L. Bretheau et al., “Exciting Andreev pairs in a superconducting atomic contact,” Nature 499: 312–315, 18 Jul 2013.

Dibujo20130719 Photon-absorption spectroscopy of an Andreev bound-state doublet

En un diodo Josephson macroscópico (por ejemplo en un dispositivo SQUID) se producen muchos “puentes” de Andreev microscópicos. Para poder observar los estados de Andreev es necesario diseñar un sistema experimental con un único “puente,” para ello Bretheau et al. han utilizado un puente físico suspendido entre ambos superconductores con sólo unos pocos átomos. Además de este alarde técnico, se ha usado otro diodo Josephson que actúa como espectrómetro para medir las transiciones entre el estado fundamental y los estados excitados de Andreev. Al aplicar un voltaje al diodo que actúa como espectrómetro se emite radiación electromagnética de hasta 80 GHz (cuya frecuencia es ajustable variando el voltaje aplicado). El principio de conservación de la energía provoca la aparición de una corriente continua en el diodo cuya medida permite determinar las transiciones entre los estados de Andreev. 

Dibujo20130719 Interpretation of the absorption spectrat

Ya existían indicios previos de la existencia de los estados de Andreev, pero eran indirectos. La nueva evidencia es concluyente, como muestra el buen acuerdo entre las predicciones teóricas y los espectros de absorción observados. ¿Para qué puede servir la manipulación de los estados de Andreev? Bretheau y sus colegas afirman que estos estados pueden usarse en computación cuántica (para el desarrollo de nuevas puertas lógicas cuánticas) y además podrían servir como sistema físico análogo a partículas de Majorana (gracias a sus interacciones con el espín y el momento angular de los electrones). Pero quizás lo más interesante de la “física de los estados de Andreev” es que permitirá conocer mejor algunas propiedades microscópicas de la superconductividad.


Archivado en: Ciencia, Física, Noticias, Science Tagged: Ciencia, Diodos Josephson, Experimento, Nature, Noticias, Superconductividad

Inesperado comportamiento de los solitones oscuros en un superfluido fermiónico

$
0
0

Dibujo20130719 dark solitons in a fermionic superfluid

Los solitones son ondas que aparecen en medios no lineales y se comportan como “partículas” al mantener su forma y velocidad al propagarse, incluso tras interaccionar con otros. Los solitones brillantes (oscuros) son resultado de un exceso (defecto) en la densidad del medio; son muy robustos porque resultan del tira y afloja de dos efectos opuestos, la dispersión y la no linealidad. Se publica en Nature la observación de solitones oscuros en un gas cuántico ultrafrío de átomos de litio-6 (fermiones) con interacción fuerte. Lo sorprendente del nuevo trabajo de físicos del MIT (Cambridge, Massachusetts, EEUU) es que la velocidad de propagación de estos solitones oscuros difiere de las predicciones teóricas para superfluidos con interacción débil en un factor de hasta 20, lo que indica que aún no entendemos bien el régimen de interacción fuerte. Quizás herramientas de la teoría de cuerdas aplicada a gases de Fermi permitan aclarar esta cuestión. Nos lo cuenta Christoph Becker, “Condensed-matter physics: Dark and heavy,” Nature, published online 17 Jul 2013, que se hace eco del artículo técnico de Tarik Yefsah et al., “Heavy solitons in a fermionic superfluid,” Nature, published online 17 July 2013.

Dibujo20130719 Creation and observation of solitons in a fermionic superfluid

Los solitones oscuros son “huecos” en la densidad del superfluido. A diferencia de una onda dispersiva (como la onda que se forma al caer una piedra en un estanque), que se diluye hasta desaparecer debido a la dispersión, los solitones retienen su forma y velocidad incluso tras interacciones con otros solitones o con el contorno del medio. Lo más interesante de los solitones en gases y líquidos cuánticos es que las propiedades cuánticas perturban los solitones, lo que permite utilizarlos para explorar éstas. Ya se han observado los solitones oscuros en condensados de Bose-Einstein (BEC), formados por un gas cuántico ultrafrío de átomos que actúan como bosones y muestran propiedades de superfluidos, permitiendo utilizarlos para explorar sus propiedades cuánticas; por supuesto, para los que trabajamos en la teoría de solitones lo más interesante de estos estudios ha sido confirmar que las colisiones entre solitones son elásticas y estos recuperan sus propiedades como predice la teoría tras las interacción.

En un gas cuántico ultrafrío de fermiones, a diferencia de los bosones, el principio de exclusión de Pauli impide que dos átomos fermiónicos ocupen el mismo estado cuántico. Para que se comporten como un superfluido es necesario que los átomos de espín semientero (1/2) se apareen dando lugar a bosones efectivos de espín entero (1). Hay dos regímenes posibles. Cuando la interacción entre los átomos fermiónicos es fuerte, la distancia entre los miembros de cada par es pequeña (comparable a la distancia entre los átomos del gas cuántico) y se forma un estado condensado de Bose-Einstein (BEC). Cuando la interacción es débil, la distancia entre los miembros de cada par es muy grande comparada con la distancia interatómica, comportándose como pares de Cooper (pero de átomos en lugar de electrones) en un superconductor y formándose un estado de Bardeen–Cooper–Schrieffer (BCS). La teoría describe bien ambos estados extremos. El nuevo artículo se centra en los solitones oscuros que se observan en el régimen intermedio entre el estado BEC y BCS (llamado a veces gas de Fermi unitario), cuando la distancia entre los miembros del par es comparable a la distancia interatómica. No hay una descripción teórica satisfactoria de la física en este régimen, en el que también se observa la superfluidez según las observaciones experimentales utilizando vórtices. Siendo una física más complicada y poco conocida hay un gran interés en poder explorarla utilizando solitones oscuros.

Dibujo20130719 Soliton oscillations in the BEC–BCS crossover

Yefsah et al. han estudiado mediante solitones oscuros la transición BEC–BCS en un gas de Fermi ultrafrío de átomos de litio-6, que se comportan como fermiones. Gracias a un fenómeno llamado resonancia magnética de Feshbach han logrado atrapar los solitones oscuros y ponerlos a oscilar. En el régimen de tipo BEC, estas oscilaciones tienen la velocidad predicha por la teoría, pero en los regímenes BEC–BCS y BCS su velocidad se reduce en un factor de hasta 20. Estos físicos del MIT creen que el defecto en la densidad que forma el solitón oscuro se rellena de más átomos no apareados (que no están en el estado condensado) de lo que predice la teoría y los cálculos numéricos; este rellenado hace que el solitón oscuro tenga mayor “masa” y reduzca su velocidad de oscilación (los autores los han bautizado como “solitones pesados”).

La causa de la aparición de los “solitones pesados” no está clara, pero Yefsah et al. han analizado la dependencia con la temperatura del incremento observado en la masa efectiva de los solitones y afirman que es debida a fluctuaciones cuánticas (descartando fluctuaciones térmicas). Todo un reto para los físicos computacionales y teóricos que tendrán que estudiar cómo replicar este resultado en simulaciones cuánticas de gases de Fermi con interacción fuerte. Quizás los resultados experimentales ocultan algún mecanismo desconocido que pueda ser desvelado utilizando ideas teóricas basadas la aplicación a los gases de Fermi de las herramientas de la teoría de cuerdas. Sería todo un éxito para esta rama de la física.


Archivado en: Ciencia, Dinámica no lineal, Física, Noticias, Physics, Science Tagged: Ciencia, Condensado de Bose-Einstein, Experimento, Física, Gases cuánticos, Interacción fuerte, Nature, Noticias, Teoría de cuerdas (String Theory)

Francis en Trending Ciencia: El efecto Josephson

$
0
0

Dibujo20130721 Trending Ciencia - josephson junction

Ya puedes escuchar mi nuevo podcast sobre Física para Trending Ciencia siguiendo este enlace. Como siempre, una transcripción del audio.

He elegido, sin que sirva de precedente, una noticia que ya ha aparecido en mi blog, la observación directa del fenómeno responsable del efecto Josephson en uniones de superconductores, la aparición de pares de estados de Andreev, los llamados “puentes” de Adreev. Me basaré en el News & Views en Nature de Simon Gustavsson y William Oliver (ambos del MIT, Instituto Técnico de Massachusetts, EEUU), titulado “Andreev states taken to the next level,” (“estados de Andreev llevados al límite”) publicado en Nature el pasado 18 de julio. Ellos se hacen eco del artículo técnico de Landry Bretheau, miembro del grupo de Quantrónica de Cristian Urbina, en el Centro Multidisciplinar CEA de Saclay, Francia, Instituto miembro del CNRS, el equivalente francés del CSIC español. El artículo de Bretheau y sus colegas se titula “Exciting Andreev pairs in a superconducting atomic contact,” (“pares de Andreev excitados en un contacto atómico superconductor), publicado en Nature también el pasado 18 julio de 2013. No es la primera vez que se observan los estados de Andreev en una unión Josephson, pero se trata de la primera observación directa utilizando espectroscopía por absorción de fotones. Como afirman Gustavsson y Oliver, el nuevo artículo del grupo de Urbina da el pistoletazo de salida a la física de los estados de Andreev, que promete interesantes aplicaciones en computación cuántica y en metrología basada en superconductores.

Dibujo20130721 atomic contact - spectrometer - josephson junction

Te confieso que le tengo un cariño especial al efecto Josephson porque hace unos veinte años estudié líneas de transmisión no lineales con uniones o diodos Josephson. Como bien sabrás un diodo semiconductor, también llamado unión pn, está formado por un cristal semiconductor con dos regiones dopadas con átomos aceptores y aceptores de electrones. Un diodo polarizado en inversa se comporta como un condensador controlado por voltaje, cuya capacidad depende de forma no lineal del voltaje aplicado entre sus bornes. Igualmente, un diodo Josephson, también llamado unión Josephson, está formado por dos superconductores unidos entre sí por una delgada capa de un material no superconductor. Lo más curioso de los diodos Josephson es que actúan como un inductor controlado por corriente, cuya inductancia depende de forma no lineal de la corriente eléctrica aplicada entre sus bornes. De hecho, el efecto Josephson predice que al aplicar una diferencia de potencial entre sus bornes, el diodo Josephson se comporta como un emisor de fotones (radiación electromagnética) cuya frecuencia depende linealmente del voltaje aplicado, lo que permite desarrollar una fuente de fotones de frecuencia variable controlada por voltaje. Por ambas propiedades los diodos Josephson son dispositivos superconductores con muchas aplicaciones prácticas. Hace 20 años yo estudié unas líneas de transmisión no lineales de parámetros concentrados muy especiales que combinan una capacitancia no lineal y una inductancia no lineal ajustadas de tal manera que permiten la propagación de un tipo muy especial de solitones (ondas no lineales en forma de pulsos). Desde el punto de vista matemático eran muy interesantes, aunque desde el punto de vista práctico eran poco realistas, ya que combinar diodos semiconductores y uniones superconductoras en la misma línea de transmisión, ajustados de forma adecuada, además de muy difícil, estaba fuera de los intereses de la mayoría de los expertos en el campo. Pero volvamos al nuevo trabajo técnico de estos físicos franceses que es objeto de este podcast.

El físico británico, galés por más señas, Brian Josephson recibió el Premio Nobel de Fïsica en 1973 por descubrir en 1962 el efecto que lleva su nombre y que explica el funcionamiento de la unión Josephson. Los pares de Cooper en ambos superconductores pueden pasar de uno a otro a través del material no superconductor por efecto túnel cuántico creando un supercorriente eléctrica. Para ello es necesario que la anchura de las funciones de onda cuánticas de los pares de Cooper sea mayor que el grosor del material no superconductor que une ambos superconductores, lo que permite que el efecto túnel tenga una probabilidad no despreciable. Por supuesto, esta explicación del efecto Josephson es efectiva o fenomenológica. Una explicación microscópica basada en teoría cuántica de campos requiere detallar la interacción entre los electrones del par de Cooper en el superconductor y los electrones del material no superconductor (así como la correspondiente a los huecos). Dicha explicación fue obtenida por el físico ruso Alexander Andreev en 1964, que introdujo la llamada dispersión (scattering) de Andreev entre electrones y huecos, que dan lugar a la aparición de dos niveles energéticos, uno fundamental y otro excitado, que permiten la transferencia de dos unidades de carga entre los dos superconductores de la unión Josephson. La teoría de Andreev ofrece una explicación microscópica a la transferencia por efecto túnel de los pares de Cooper gracias a los estados de Andreev, que siempre se observan a pares. El nivel fundamental permite la transferencia de dos unidades de carga en una dirección y el estado excitado en la dirección opuesta. La dispersión de Andreev depende fuertemente del espín y de hecho los estados de Andreev se pueden interpretar de forma efectiva como los estados de interacción entre dos partículas de Majorana. Recuerda que los fermiones de Majorana son fermiones idénticos a sus antipartículas, a diferencia de los fermiones de Dirac como el electrón; muchos físicos creen que los neutrinos podrían ser partículas de Majorana. Por ello, la posibilidad de manipular los estados de Andreev permite análogos de estado sólido a fermiones de Majorana, lo que implica su posible aplicación en el desarrollo de computadores cuánticos topológicos (a priori, muy robustos ante la decoherencia cuántica). Pero discutir este asunto ahora nos llevaría lejos del trabajo técnico de Landry Bretheau, Cristian Urbina y sus colegas.

Dibujo20130721 experimental setup - spectrometric measurement - josephson junction

En una unión Josephson se producen múltiples pares de estados de Andreev, llamados “puentes” de Andreev. La existencia de estos estados ha sido observada de forma indirecta en múltiples experimentos, pero su observación directa ha requerido un gran alarde técnico pues hay que estudiar un único “puente” de Andreev. Bretheau y sus colegas han utilizado espectroscopía de absorción de fotones en una unión Josephson muy especial formada por un puente físico de material no superconductor con pocos átomos de grosor suspendido de forma mecánica entre ambos superconductores. Además, para poder ajustar la energía de la pareja de estados de Andreev han acoplado esta unión Josephson tan especial a un SQUID (dispositivo superconductor de interferencia cuántica) que aplica un campo magnético que permite sintonizar los estados de Andreev. Este dispositivo SQUID está formado por otro diodo Josephson, aunque en este caso de tipo convencional, como los usados en los magnetómetros de alta sensibilidad. Pero esto no es suficiente, como espectrómetro, Bretheau y sus colegas han utilizado un tercer diodo Josepshon controlado por voltaje, que permite emitir fotones con frecuencia ajustable en el régimen de microondas hasta 80 GHz y posibilita la medida de las transiciones entre los dos estados de Andreev, el fundamental y el excitado. Y no acaba aquí el alarde técnico de estos físicos del CNRS francés, además han medido la tasa de absorción de fotones en la unión Josephson de prueba midiendo el flujo de corriente continua a través de la unión que actúa como espectrómetro; este flujo de corriente continua es un resultado del principio de conservación de la energía. Una idea feliz que permite utilizar la unión Josephson del espectrómetro como generador de microondas y como detector. Gracias a esta configuración, Bretheau y sus colegas han realizado una medida directa por espectroscopía de absorción de fotones del par de estados de Andreev en un único puente de Andreev.

En resumen, se ha observado de forma directa la existencia de los estados de Andreev mediante espectroscopía de absorsión con una técnica que permite el control preciso y detallado de estos estados. La manipulación de los estados de Andreev permitirá múltiples aplicaciones, destacando la computación cuántica topológica gracias a que este sistema físico es análogo a partículas de Majorana en interacción. Sin embargo, en mi opinión, lo más interesante de la “física de los estados de Andreev” es que permitirá conocer mejor las propiedades microscópicas de los diodos Josephson y los dispositivos SQUID, los dispositivos superconductores más utilizados, con múltiples aplicaciones prácticas en metrología para la medida ultrasensible de campos magnéticos, sus cambios espaciales, susceptibilidades magnéticas, voltajes muy pequeños y desplazamientos microscópicos. Estos sensores ultrasensibles tienen gran número de aplicaciones en campos tan diversos como la medicina o los satélites que miden el campo geomagnético. La investigación básica en los estados de Andreev da pie a mucha investigación aplicada y a gran número de innovaciones futuras.

Espero que te haya gustado mi penúltimo podcast sobre Física para Trending Ciencia de esta temporada. Sigue este enlace si aún no lo has escuchado


Archivado en: Ciencia, Física, Noticias, Physics, Podcast en Trending Ciencia, Science Tagged: Ciencia, Diodos Josephson, Experimento, Física, Nature, Noticias, SQUID, Superconductividad
Viewing all 1793 articles
Browse latest View live