Quantcast
Channel: Francis (th)E mule Science's News
Viewing all 1793 articles
Browse latest View live

Microscopia de fotoionización para observar orbitales átomicos

$
0
0

Dibujo20130524 Experimental observation of the transverse nodal structure of four atomic hydrogen Stark states

La microscopia de fotoionización permite observar de forma directa la estructura orbital de un átomo de hidrógeno excitado. La técnica, propuesta hace 30 años, permite visualizar la distribución de carga electrónica en el átomo, incluyendo la estructura nodal de los orbitales excitados (los microscopios de efecto túnel y similares no permiten ver la estructura nodal, sólo la distribución de carga exterior). Aneta S. Stodolna (Instituto de Física Atómica y Molecular, Países Bajos), Marc Vrakking (Max-Born-Institute, Berlín, Alemania) y sus colegas han demostrado la microscopía de fotoionización en un átomo de hidrógeno colocado en un campo electrostático. El átomo es excitado por pulsos láser y los electrones que escapan del átomo producen patrones de interferencia que son amplificados por un factor de más de 20.000 usando una lente electrostática. El patrón de interferencia refleja la estructura nodal del orbital electrónico (que refleja la forma de la función de onda cuántica). Nos lo cuentan en “‘Quantum microscope’ peers into the hydrogen atom,” PhysicsWorld.com, May 23, 2013, en Christopher T. L. Smeenk, “Viewpoint: A New Look at the Hydrogen Wave Function,” Physics 6: 58, 20 May 2013, donde se hacen eco del artículo técnico A. S. Stodolna et al., “Hydrogen Atoms under Magnification: Direct Observation of the Nodal Structure of Stark States,” Phys. Rev. Lett. 110: 213001, 20 May 2013.

Dibujo20130524 Schematic overview of the experiment - An atomic hydrogen beam formed by photodissociating

La observación directa de la función de onda cuántica es imposible. El uso de medidas cuánticas débiles y otras técnicas indirectas permiten tener una cierta idea, que confirma las predicciones teóricas. Se pueden realizar múltiples medidas en sistemas preparados de forma idéntica y aplicar una técnica de tomografía inversa para reconstruir la distribución de carga tridimensional en un orbital. El problema de estas técnicas es que se pierde la estructura nodal del orbital atómico, ya que se obtiene una imagen proyectada que la oculta. Recuerda que los nodos en la función de onda son resultado de la superposición de ondas estacionarias y corresponden a regiones del espacio donde la probabilidad de encontrar un electrón es exactamente cero.

Dibujo20130524 Evidence for on-resonance ionization by tunneling through the Coulomb plus static field potential

La nueva técnica de Stodolna y sus colegas resuelve este problema. La estructura nodal de los orbitales queda reflejada en los patrones de interferencia que se observan en el detector (bidimensional). Más aún, la reconstrucción de la densidad de carga del orbital a partir de la imagen en el detector 2D es directa (no requiere métodos inversos), como se muestra en la imagen que abre esta entrada. Por ahora  sólo se han podido observar transiciones entre orbitales 2s y 2p. La aplicación de la microscopia de fotoionización a otros orbitales no es fácil, pues el patrón de interferencia se oscurece debido a la interacción entre electrones. Se espera que futuros avances teóricos y experimentales permitirán corregir este inconveniente.

El siguiente paso, ya en curso, es el estudio del átomo de helio mediante microscopía de fotoionización, que tiene dos electrones. Se espera que durante este año se publiquen los primeros resultados que mostrarán cómo afecta la indistinguibilidad entre los dos electrones a los patrones de interferencia. La microscopia de fotoionización promete muchas sorpresas.


Archivado en: Ciencia, Física, Mecánica Cuántica, Noticias, Physics, Science Tagged: Átomo de hidrógeno, Ciencia, Curiosidades, Experimento, Física, Física cuántica, Microscopia de fotoionización, Noticias, Orbitales atómicos

Francis en ¡Eureka!: Demostrada la conjetura débil de Goldbach

$
0
0

Dibujo20130525 Goldbach partitions even integers from 4 to 28

Ya está disponible el audio de mi sección ¡Eureka! en el programa La Rosa de los Vientos de Onda Cero. Sigue este enlace para disfrutarlo. Como siempre una transcripción libre.

Esta semana las matemáticas han sido noticia porque se ha resuelto un problema propuesto hace más de 270 años. Un problema sencillo de enunciar, pero muy difícil de demostrar. ¿Qué problema se ha resuelto? En 1742, el matemático Christian Goldbach le preguntó por carta a su amigo y famoso matemático Leonhard Euler si podía demostrar dos resultados muy sencillos sobre números. Por un lado, lo que hoy en día llamamos la conjetura de Goldbach, o conjetura fuerte de Goldbach, que dice que todo número par mayor que 2 se puede escribir como suma de dos números primos. Por ejemplo, 6 = 3 + 3, 8 = 3 + 5, 10 = 3 + 7, 16 = 3 + 13, etc. Y por otro lado, una variante de este problema que hoy en día llamamos la conjetura débil de Goldbach, que afirma que  todo todo número impar mayor que 5 puede escribir como suma de tres números primos. Por ejemplo, 7 = 2 + 2 + 3, 9 = 3 + 3 + 3, 11 = 3 + 3 + 5, 35 = 19 + 13 + 3, o 77 = 53 + 13 + 11, etc. El matemático peruano Harald Andrés Helfgott ha publicado un trabajo en el que afirma haber demostrado la conjetura débil de Goldbach (o conjetura ternaria de Goldbach). Por supuesto, en estas noticias de matemáticas tenemos que ser cautos. La demostración ocupa 133 páginas y se basa en un trabajo previo de más de 100 páginas. La confirmación “oficial” todavía podría tardar un tiempo, pero varios expertos, como el famoso Terence Tao, que recibió la medalla Fields en el año 2006 en Madrid, afirman que la nueva demostración tiene muy buena pinta y casi seguro que es correcta.

Recomiendo leer a “(Parece ser que) Demostrada la conjetura débil de Goldbach,” Gaussianos.com, 14 mayo 2013. El artículo técnico para los matemáticos que deseen profundizar es H. A. Helfgott, “Major arcs for Goldbach’s theorem,” arXiv:1305.2897, 13 May 2013; creo que es recomendable leer antes H. A. Helfgott, “Minor arcs for Goldbach’s problem,” arXiv:1205.5252, 23 May 2013.

Este resultado matemático es muy fácil de enunciar. ¿Por qué ha costado 271 años demostrar esta conjetura? Muchos problemas matemáticos quedan sin resolver durante siglos. Incluso los griegos se plantearon preguntas que no fueron resueltas hasta el siglo XIX. Esto pasa con muchos resultados en la rama de las matemáticas llamada teoría de números. Son tan fáciles de enunciar que hasta un niño puede entenderlos, pero son extremadamente duros de demostrar. Los números primos son los números mayores que la unidad que no se pueden dividir por ningún otro número, salvo por ellos mismos y por el uno. Por ejemplo, el 2, 3, 5, 7, 11, 13, 17, 19, 23, etc. Lo importante de los números primos es que todos los demás números, llamados compuestos, se pueden descomponer en un producto de números primos. Por ejemplo, 12 es 3 por 2 por 2, o 33 es 3 por 11. Por ello, el estudio de los números primos es muy importante en la teoría de números, la rama de las matemáticas que comprende el estudio de los números enteros. Estudiar las propiedades de los números primos en multiplicaciones y divisiones es fácil, sin embargo, las propiedades de las sumas y restas de números primos son muy difíciles de estudiar. Las conjeturas de Goldbach nos hablan de la suma de números primos y por eso están entre los problemas más difíciles de la matemática actual. La demostración de la conjetura débil de Goldbach ha costado 271 años, pero para la conjetura fuerte no ha habido ningún progreso en el último siglo y es posible que no sea demostrada en el siglo XXI.

¿Nos podrías contar de forma sencilla cómo se ha demostrado este resultado? A finales del siglo XIX se desarrolló una rama de las matemáticas llamada teoría analítica de los números, que utiliza herramientas de análisis matemático para resolver problemas de teoría de números, en apariencia dos ramas matemáticas muy alejadas entre sí. El primer progreso hacia la demostración de la conjetura débil de Goldbach fue obtenido por los matemáticos británicos Hardy y Littlewood, en 1923, y por el matemático ruso Vinogradov, en 1937. Utilizaron el llamado “método del círculo” (basado en análisis de Fourier). Estas técnicas son parecidas a las que utiliza nuestro oído para descomponer el sonido de la música por ello el matemático británico y divulgador Marcus du Sautoy habla de “La música de los números primos.” El análisis de Fourier permite entender los números primos como notas musicales de una sinfonía matemática. La técnica matemática utilizada se llama teoría de cribas. En estas técnicas se “suavizan” las llamadas funciones L antes de usar el análisis de Fourier, algo así como cuando se usan filtros en una mesa de mezclas para mejorar el sonido de una canción en un estudio de grabación. El matemático peruano Helfgott ha utilizado una variante del método del círculo y la técnica llamada de “gran criba” desarrollada por el ruso Linnik en 1941 (una versión discreta de la identidad de Plancherel). Su trabajo técnico es muy complicado y ha utilizado un concepto técnico llamado arcos de cribas. En 2012 obtuvo resultado para los llamados arcos menores y ahora en 2013 lo ha extendido a arcos mayores, logrando finalmente la demostración de la conjetura de Goldbach. En la etapa final de la demostración también se ha requerido el uso de ordenadores.

¿Para qué ha utilizado ordenadores en su demostración matemática? El trabajo de Hardy, Littlewood y Vinográdov demostró que la conjetura débil de Goldbach era cierta para todos los números impares suficientemente grandes. La cuestión clave es entender qué significa ”suficientemente grande.” El ruso Borodzin demostró en 1939 que bastaba tomar números más grandes que 3 elevado a 3 elevado a 15, es decir, 3 elevado a 14.348.907, un número que tiene más de seis millones de dígitos. Verificar la conjetura para números más pequeños es imposible porque es un número muy grande. Este número se ha ido reduciendo poco a poco y en 1989, dos chinos llamados Wang y Chen redujeron esta cota a 3,33 por 10 elevado a 43.000, y otros dos chinos llamados Liu y Wang a sólo 2 por 10 elevado a 1346 (el número e elevado a 3100). Aún así, un número con 1346 cifras es demasiado grande. Lo que ha logrado el matemático peruano afincado en Francia, Harald Helfgott, ha sido reducir esta cota mínima a sólo 10 elevado a 30. Esto ha permitido comprobar por ordenador la conjetura para todos los números más pequeños, trabajo en el que ha colaborado con David Platt.

La medalla Fields es el equivalente al premio Nobel de matemáticas. ¿Podría recibir este matemático peruano este prestigioso premio? En mi opinión, no sólo este nuevo trabajo, sino también sus contribuciones anteriores, hacen que El matemático peruano Harald Andrés Helfgott sea un firme candidato a recibir la medalla Fields el año que viene (2014) en Corea del Sur. Nunca ningún matemático latinoamericano, ni ningún español, ha obtenido la medalla Fields, aunque hay varios que han hecho méritos para recibirla. La Medalla Fields es concedida por la Unión Matemática Internacional y se instauró tras la Segunda Guerra Mundial porque no había Premio Nobel de matemáticas. Hay varias  diferencias con el Premio Nobel, siendo la más importante que se concede cada 4 años y solamente a matemáticos jóvenes, cuya edad sea inferior a 40 años.  Helfgott tiene 35 años por tanto, si no recibe la medalla Fields en 2014 ya no la podrá recibir nunca. Helfgott hizo su tesis doctoral en EEUU (en la Universidad Princeton) y en la actualidad es investigador Helfgott ha recibido muchos premios y vive en París trabajando como investigador en el CNRS (el Centro Nacional para la Investigación Científica) en París, Francia, el equivalente francés al CSIC español.

Una curiosidad, ¿algún matemático español es candidato a la medalla Fields? Ningún español ha recibido la medalla Fields.  Pero la verdad es que la matemática española es de primer nivel mundial y hay matemáticos jóvenes que pueden darnos grandes sorpresas en los próximos años. El peruano Helfgott agradece en su artículo la ayuda de un matemático español, Antonio Córdoba Barba, de la Universidad Autónoma de Madrid. En el año 2010, Francisco Santos refutó la Conjetura de Hirsch.

¿Se revolverá pronto la conjetura fuerte de Goldbach?  Se trata de un resultado mucho más difícil. Se necesitará un cambio completo de enfoque. No ha habido progresos importantes en esta conjetura en el último siglo, por lo que se puede decir sin miedo a erro que quizás no sea resuelto en el siglo XXI.

Como siempre, si aún no has escuchado el audio, sigue este enlace para disfrutarlo.


Archivado en: Ciencia, Eureka (La Rosa de los Vientos), Matemáticas, Mathematics, Noticias, Science Tagged: Ciencia, Conjetura de Goldbach, Matemáticas, Noticias, Personajes

Francis en Trending Ciencia: Solitones en estados condensados de Bose-Einstein

$
0
0

Dibujo20130526 solitary wave reflecting from the barrier

Ya puedes disfrutar mi nuevo podcast para Trending Ciencia siguiendo este enlace. Como siempre, una transcripción del audio.

Como tema he elegido un artículo aparecido en la revista Nature Communications el pasado 14 de mayo titulado “Controlled formation and reflection of a bright solitary matter-wave,” o “Formación controlada y reflexión de ondas de materia.” Su primera autora, Anna Marchant, es doctoranda en la Universidad de Durham, Reino Unido, en el grupo de investigación de Simon Cornish. En este artículo se ha logrado propagar un solitón en un condensado Bose-Einstein de átomos de rubidio 85 a lo largo de una distancia de ~1,1  mm durante unos 150  ms. El solitón se ha propagado sin cambiar de forma (sin dispersión apreciable). Además se ha estudiado la reflexión de dicho solitón contra una barrera de potencial repulsiva con forma de gaussiana. Aunque aún no se ha observado el efecto túnel (la transmisión del solitón a través de la barrera) ni tampoco las colisiones mutuas entre varios solitones, este nuevo trabajo me ha resultado muy interesante, pues combina dos de mis pasiones, la teoría de solitones y los estados de Bose-Einstein como análogos de medios ópticos no lineales. Como siempre, permíteme que te cuente qué es un solitón, qué es un condensado de Bose-Einstein y que resuma los resultados que se han logrado.

El artículo técnico es A. L. Marchant, T. P. Billam, T. P. Wiles, M. M. H. Yu, S. A. Gardiner & S. L. Cornish, “Controlled formation and reflection of a bright solitary matter-wave,” Nature Communications 4: 1865, 14 May 2013.

Uno de los avances más importantes en la física-matemática de la segunda mitad del siglo XX ha sido el desarrollo de la teoría de solitones. Los solitones son ondas viajeras que se propagan sin cambiar de forma en un medio no lineal. La teoría clásica de ondas estudia las ondas lineales, como las ondas de luz con las que vemos o las ondas de sonido con las que oímos. Las ondas lineales obedecen el llamado principio de superposición. En el caso de ondas de sonido, si tocas varias notas a la vez en un piano, escucharás la suma de todas esas notas a la vez, lo que produce la armonía, pero por muy complicado que sea el sonido resultante siempre se puede descomponer en los armónicos (las notas) que lo forman.

Además de las ondas lineales de la teoría clásica de ondas, la teoría moderna de ondas incluye las ondas no lineales, que se clasifican en diferentes tipos. Por ejemplo, las olas del mar que rompen en la orilla de la playa son ondas no lineales. La amplitud de la onda y su velocidad varían conforme la onda avanza (recuerda que para ondas lineales la amplitud y la velocidad son constantes). La ola del mar rompe en la playa porque la velocidad de la onda depende de la amplitud y la parte superior de la ola se mueve más rápido que la parte inferior de la ola, con lo que la parte superior de la ola se adelanta a la inferior, curvando la ola y haciendo que rompa en la playa. Hay muchos fenómenos físicos ondulatorios en los que no se cumple el principio de superposición y están regidos por la matemática de los sistemas no lineales.

Recomiendo leer en español a “Juan E. Nápoles Valdes, Arturo González Thomas, “Solitones, una no-linealidad no tan solitaria,” Revista digital Matemática, Educación e Internet, Enero 2006.

Los solitones son uno de los tipos de ondas no lineales más famosos. La historia de su descubrimiento es tan curiosa que merece ser recordada. En 1834, durante un paseo a caballo por los alrededores de Edimburgo, en el Union Canal en Hermiston, muy cerca del campus Riccarton de la Universidad Heriot-Watt, el físico escocés John Scott-Russell observó cómo una barcaza era remolcada a lo largo de un canal estrecho tirado desde tierra por dos caballos. Mientras Russell, contemplaba el espectáculo, la barcaza se detuvo de repente, provocando un movimiento violento del agua. Ante el asombro de Russell, se levantó una ola en la proa de la barcaza que se desplazó a gran velocidad hacia delante, formando una única ondulación de gran altura, como una montaña de agua redondeada. Esta onda solitaria continuó su recorrido por el canal, sin variar su forma o reducir la velocidad. Russell persiguió a la enigmática ola montado a caballo durante más de dos kilómetros, hasta que la perdió de vista entre las curvas del canal.

La onda solitaria observada por Russell era muy enigmática porque no tenía explicación matemática en su época. Cuando se lanza una piedra a un estanque se forman pequeñas ondulaciones que se extienden en círculos concéntricos, cada vez de menor amplitud, hasta que se difuminan en la orilla. Pero la onda solitaria que observó Russell en el canal era un ola única sobre la superficie en calma del agua que mantenía su forma intacta mientras avanzaba. Russell decidió estudiar en detalle estas ondas, para lo que estudió cómo reproducirlas en su laboratorio. En sus estudios descubrió que la amplitud de la onda es proporcional a la velocidad de la onda y calculó la relación que hay entre la velocidad de la onda y la profundidad del canal. En 1844 publicó sus resultados, aunque con cierta polémica, pues varios expertos en ondas, como Airy y Stokes afirmaron que dichas ondas permanentes no podían existir. En el año 1870 Boussinesq desarrolló la teoría matemática que explica estas ondas, resolviendo el enigma de su formación. Las ondas solitarias son soluciones matemáticas de las ecuaciones de la física de fluidos con la forma de una función matemática llamada secante hiperbólica.

Dibujo20130526 attractive interactions present in a bright solitary matter-wave

En su artículo, Boussinesq presentó varias ecuaciones, por ello, hoy en día, la ecuación más sencilla que descubrió Boussinesq para describir el fenómeno se conoce con el nombre de sus dos redescubridores, que además la estudiaron en detalle en 1895, Korteweg y su estudiante De Vries. La ecuación de Korteweg-de Vries es una ecuación en derivadas parciales no lineal que presenta dos términos cuyo efecto es opuesto. Por un lado un término dispersivo que trata de ensanchar las ondas solitarias y un término no lineal que trata de comprimir dichas ondas. El resultado de este tira y afloja es una solución de equilibrio, el solitón, que mantiene su amplitud y su anchura constantes.

La ecuación de Korteweg-de Vries y sus soluciones fueron consideradas una rareza científica con poca importancia práctica y teórica, hasta el trabajo numérico de Zabusky y Kruskal en 1965. El genial Enrico Fermi propuso estudiar por ordenador cómo se distribuía la energía en un sistema acoplado de osciladores no lineales. En 1953, Fermi, Pasta y Ulam, junto a la informática Mary Tsingou realizaron experimentos numéricos por ordenador. Para su sorpresa aparecía una fenómeno de recurrencia inesperado que parecía violar las leyes de la termodinámica. Los resultados se publicaron en 1955, un año despúes de la muerte de Fermi. Zabusky y Kruskal en 1965 pretendían entender la razón del fenómeno de recurrencia observado en el experimento de Fermi-Pasta-Ulam-Tsingou. Para ello construyeron un modelo continua del sistema de osciladores acoplados que resultó ser la ecuación de Korteweg-de Vries. Las ondas solitarias de esta ecuación se comportaban como partículas y en colisiones mutuas, dos a dos, recuperaban su forma, velocidad e identidad. Por ello, llamaron a estas ondas que parecían partículas con el neologismo “solitones.” La robustez de los solitones en sus interacciones mutuas era la explicación del fenómeno de recurrencia observado por Fermi-Pasta-Ulam-Tsingou.

Kruskal decidió estudiar en detalle las razones matemáticas que explicaban la gran robustez de los solitones ante interacciones. Junto a tres colegas, Gardner, Greene, y Miura observaron que la ecuación de Korteweg-de Vries estaba relacionada con las soluciones de la ecuación de Schrödinger de la mecánica cuántica. La expresión matemática del solitión se podía interpretar como un potencial para un partícula cuántica y utilizando las técnicas matemáticas desarrolladas en física cuántica para estudiar las partículas en potenciales, la teoría de la dispersión de Gelfand-Levitan-Marchenko, se podía obtener la solución general de la ecuación de Korteweg-de Vries. Esta ecuación era integrable. La nueva técnica se denominó transformada espectral inversa y corresponde a una versión no lineal de la técnica de transformada de Fourier que se utiliza en la teoría de ondas lineales.

Se encendió la mecha de una bomba que explotó en 1970. Se buscaron solitones en medios líquidos, sólidos, gaseosos, en circuitos electrónicos, en óptica, en superconductores, en biología, etc. Hay solitones por doquier. Por ejemplo, la gran mancha roja de Júpiter es una onda de tipo solitón. También es un soiltón la solución de tipo agujero negro de las ecuaciones de la gravedad de Einstein.

No sólo buscaron solitones los físicos, también los matemáticos buscaron otras ecuaciones integrables y desarrollaron nuevas técnicas matemáticas para estudiarlas. Quizás el resultado más importante fue el descubrimiento en 1971 de los rusos Zakharov y Shabat de una ecuación no lineal de Schrödinger que era integrable y que aparecía en la física de plasmas. En 1973 el japonés Hasegawa y el estadounidense Tappert (ambos investigadores de los Laboratorios Bell en EEUU) descubrieron que había solitones descritos por la ecuación de Zakharov y Shabat en fibra óptica no lineal. Como la fibra óptica es el medio unidimensional por excelencia, la tecnología de las fibras ópticas era el nicho natural para la teoría de los solitones. Pero observar estas ondas era muy difícil, porque las fibras ópticas tenían pérdidas muy grandes.

En 1979, se redujeron las pérdidas de las fibras ópticas hasta sólo 0,2 dB/km, lo que permite propagar un pulso de luz a lo largo de 50 km de fibra con una atenuación de la intensidad luminosa de sólo un 10% de su valor inicial. En 1980, Mollenauer, Stolen y Gordon (también de los Laboratorios Bell) lograron transmitir solitones ópticos de 7 ps de duración a lo largo de una fibra. Desde entonces el campo de los solitones ópticos es uno de los más activos de la investigación en la actualidad.

Dibujo20130526 bose-einstein condensate

Un condensado de Bose-Einstein es un estado de la materia que se da en ciertos materiales a muy baja temperatura. En este estado de la materia, todos los átomos que lo constituyen se encuentran en el nivel de mínima energía, denominado estado fundamental. Descubierto en 1924 para los fotones por el indio Bose y por Einstein, no fue  obtenido en laboratorio hasta 1995 por Cornell y Wieman al enfriar átomos a pocos nanokelvin por encima del cero absoluto. El condensado de Bose-Einstein fue la “molécula del año” según la revista Science en 1995 ya que se trata de un sistema cuántico macroscópico similar a una molécula pero con millones de átomos. Un átomo en un gas se mueve a una velocidad de unos unos 1000 km/h (unos 300 m/s) pero un condensado de Bose-Einstein se mueve a sólo 1 cm/s. Un condensado de Bose-Einstein es respecto a la materia ordinaria, como la luz de un láser es respecto a la de una bombilla. Gracias a ello se puede fabricar un láser de átomos, que en lugar de producir un haz de luz como un láser óptico, produce un haz (coherente) de átomos. En 1997 Ketterle fabricó el primer láser de átomos que producía un haz de átomos de sodio.

Recomiendo leer a Raúl Toral, “Nobel de Física. Condensado de Bose-Einstein,” Investigación y Ciencia, 2001.

El espín de un átomo depende del número de sus electrones de valencia. Cada electrón aporta un espín 1/2, por lo que si hay un número par de electrones de valencia el átomo es un bosón y si hay un número impar se trata de un fermión. El comportamiento colectivo de los bosones y de los fermiones es muy diferente. Recuerdo ahora una analogía que proponía el profesor Raul Toral en 1995 en la revista Investigación y Ciencia con motivo de la concesión del premio Nobel de Física de 2001 a Cornell, Ketterle y Wieman, “por haber conseguido la condensación de Boe-Einstein en gases diluidos de átomos alcalinos”. “Como todas las comparaciones es incompleta e inexacta, pero puede ayudar a entender lo que ocurre. Imagina un grupo de personas que asisten a un concierto de música en un auditorio. El solista interpreta una partitura para violín y todos quieren estar lo más cerca posible del intérprete. Antes de empezar el concierto, todo el mundo tiene muchas ganas de hablar, moverse por el bar y pocas personas están sentadas. A medida que se aproxima el momento del concierto, la gente va perdiendo su energía, bajan el nivel de la voz y se acomodan en los asientos. Como todos se quieren sentar tan cerca como sea posible del solista (y las entradas no están numeradas), el primero en llegar se sienta en la silla más cercana, el segundo en la siguiente silla más cercana, y así sucesivamente. Este comportamiento humano es típico de los fermiones.”

“Los bosones, por otra parte, se comportan de una manera más peculiar. Cuando el segundo ve que la silla favorita ya está ocupada, no se conforma y en vez de irse a la siguiente silla, se acomda en la silla favorita, encima de la persona que ya la ocupa. Una situación que a los bosones parece no importarles. De hecho, el tercero también se sienta en la misma silla, y así hasta que llega un momento en que una fracción muy elevada de los bosones se encuentran en esa silla favorita. En mecánica cuántica, las sillas son los estados cuánticos y la más cercana al intérprete, el estado fundamental. Cuando los bosones ocupan el estado fundamental, se comportan todos de la misma manera, como si todo el auditorio que se ha sentado en la misma silla, la más cercana al intérprete, abriera y cerrara los ojos al mismo tiempo, tosieran todos al unísono y aplaudieran con una simultaneidad perfecta.”

La descripción colectiva del comportamiento del estado condensado de Bose-Einstein se puede modelar como una ecuación de campo medio llamada ecuación de Gross-Pitaevskii. En este ecuación tridimensional las interacciones entre los átomos son descritas por un término no lineal. La versión unidimensional de la ecuación de Gross-Pitaevskii corresponde a una ecuación de Schrödinger no lineal similar a la estudiada por Zakharov y Shabat, que presenta ondas de tipo solitón. Estas soluciones de tipo solitón, en sentido estricto, sólo aparecen en la versión unidimensional de esta ecuación, es decir, cuando las interacciones entre los átomos del condensado son atractivas y el condensado se puede aproximar por un medio unidimensional (similar a una fibra óptica). Reproducir estos solitones exactos en los experimentos con átomos ultrafríos es muy difícil porque requiere atrapar el condensado en un trampa muy alargada y es muy difícil lograr que el solitón se propague un tiempo suficiente para poder estudiar sus propiedades.

Por fortuna, en el caso tridimensional también aparecen ondas solitarias en la ecuación de  Gross-Pitaevskii, ondas que son análogas a los solitones, pero que son menos robustas en interacciones mutuas porque dicha ecuación no es integrable. Estas ondas solitarias tienen muchas semejanzas con las soluciones de solitón y son más fáciles de observar en los experimentos.

Las ondas solitarias fueron observadas por primera vez en condensados de Bose-Einstein de átomos de litio 7 en el año 2002 y en átomos de rubidio 85 en el año 2006. En ambos casos se utilizó la llamada resonancia de Feshbach para cambiar las interacciones de repulsión entre los átomos en interacciones atractivas, ya que en el primer caso aparece una inestabilidad que provoca el colapso de estas ondas. En estos estudios pioneros se lograron trenes de ondas solitarias que se asemejaban a las soluciones matemáticas teóricas, pero como estas ondas contenían unos ≲ 1000 átomos, la descripción de campo medio no es aplicable en sentido estricto y la forma de estos ondas solitarias difería de las predicciones de la ecuación de Gross-Pitaevskii.

Dibujo20130526 Experimental setup showing the glass science cell the crossed dipole trap used to create the BEC

Volvamos al nuevo trabajo aparecido en la revista Nature Communications el pasado 14 de mayo. Anna Marchant, de la Universidad de Durham, y sus colegas han logrado propagar una onda solitaria tridimensional, similar a un solitón, en un condensado Bose-Einstein de átomos de rubidio 85 a lo largo de una distancia de ~1,1  mm durante unos 150  ms. El solitón se ha propagado sin cambiar de forma (sin dispersión apreciable).
En el nuevo trabajo se presenta la formación controlada de ondas solitarias en un estado condensado de Bose-Einstein de átomos de rubidio 85. Gracias a la geometría experimental del condensado se ha logrado controlar con precisión la velocidad de los paquetes de ondas, lo que permite comparar de forma fiable los resultados experimentales con los obtenidos mediante simulaciones numéricas por ordenador de la  ecuación de Gross-Pitaevskii tridimensional.

Para verificar la naturaleza corpuscular de estas ondas solitarias y verificar que su robustez es similar a la de las predicciones teóricas se ha estudiado su reflexión con una barrera de potencial repulsiva con forma gaussiana. Los resultados experimentales confirman las predicciones teóricas para la solución tridimensional de la ecuación de . Gross-Pitaevskii, aunque que destacar que difieren de la aproximación unidimensional, lo es decir, del comportamiento esperado para un solitón en sentido estricto.

El futuro de esta  técnica es prometedor. No parece difícil cambiar la anchura de la barrera de potencial repulsiva con forma de gaussiana para lograr que sea más estrecha y permita observar el efecto túnel (la transmisión del solitón a través de la barrera), lo que podría permitir diseñar conmutadores, dispositivos que dejan pasar al solitón o lo reflejan controlando la anchura de la barrera. Tampoco se han estudiado las colisiones mutuas entre varios solitones, que también tiene importantes aplicaciones en el control de este tipo de ondas. En resumen, sin entrar en detalles técnicos, el nuevo artículo de  Anna Marchant y sus colegas en Nature Communications combina dos de mis pasiones, la teoría de solitones y los estados de Bose-Einstein (que me interesan como análogos de medios ópticos no lineales exóticos). Los nuevos resultados abren el camino para nuevos estudios experimentales sobre la dinámica de ondas solitarias de materia que permitirán mejorar los llamados láseres de átomos, que producen pulsos coherentes de átomos en lugar de pulsos coherentes de luz. El campo de los solitones es sin lugar a dudas apasionante y será objeto de nuevos podcast.

Coda final. Sigue este enlace para oír el audio, si aún no lo has oído.


Archivado en: Ciencia, Física, Noticias, Physics, Podcast en Trending Ciencia, Recomendación, Science Tagged: Ciencia, Condensado de Bose-Einstein, Experimento, Física, Noticias, solitones

Apoya la iniciativa “Raras pero no invisibles…”

$
0
0

Dibujo20130524 raras pero no invisibles - sombradoble - crowdfunding initiative

Carlos (@CarlosMGuevara), emprendedor malagueño y cofundador de Sombradoble (@SDciencia), está recaudando fondos vía crowdfunding para realizar un documental sobre enfermedades raras. Una iniciativa muy interesante que merece todo nuestro apoyo. El documental pretende aumentar el conocimiento que tiene el público general sobre los afectados de estas enfermedades y sobre la investigación que se está realizando en España en esta línea. Será distribuido de forma libre con licencias tipo Creative Commons para que cualquiera pueda verlo de forma gratuita. Apoyan la iniciativa la Universidad de Málaga, el Centro de Investigaciones en Red de Enfermedades Raras (CIBERER), la Fundación Andalucía Emprende (Junta de Andalucía) y varias asociaciones de pacientes. Se quiere grabar el documental en Málaga, Sevilla, Madrid y Valencia (aunque esto podría modificarse).

Los que deseen apoyar la propuesta con una módica contribución pueden seguir este enlace. Allí pueden encontrar toda la información sobre el proyecto, incluyen dos vídeos de presentación.


Archivado en: Ciencia, Medicina, Noticias, Recomendación, Science Tagged: Ciencia, Crowdfunding, documental, Medicina, Noticias

#FísicaCuántica: El momento magnético anómalo del muón

$
0
0

Dibujo20130528 KLOE measurement of muon anomaly

Hay señales de la existencia de física no descrita por el modelo estándar que son muy obvias (como la energía oscura y la materia oscura) y otras que son muy sutiles, como la anomalía en el momento magnético anómalo del muón (g-2)μ. Las medidas experimentales muestran una desviación a 3,6 σ respecto a la predicción del modelo estándar, aunque el error experimental de 0,5 ppm (partes por millón) es similar al error teórico (que para las correcciones hadrónicas es de 0,45 ppm). Hay varios experimentos que pretenden reducir el error experimental y varios grupos de teóricos que pretenden reducir el error en el cálculo de las contribuciones hadrónicas. Yo destacaría el nuevo experimento E989 en el Fermilab para la medida de g-2 (ya hablé de su posible transporte en helicóptero en 2013, que al final ha sido cancelado), que empezará a tomar datos en 2016 y alcanzará un error de 0,14 ppm (lo que verificará la anomalía entre teoría y experimento con entre 5 y 9 σ, caso de que persista). Nos lo ha contado Mark Lancaster (University College London, On Behalf of E989 Collaboration), “The New Muon g-2 Experiment,” Photon-2013, Paris 20-24 May 2013 [slides].

La figura que abre esta entrada es la nueva medida experimental de (g-2) obtenida por el detector KLOE en el colisionador electrón contra positrón DAFNE, que nos ha contado A. Passeri (on behalf KLOE collaboration), “Measurement of the hadronic cross sections at KLOE with ISR and their impact to the muon anomaly and U-boson search,” Photon-2013, Paris 20-24 May 2013 [slides].

Dibujo20130528 muon magnetic moment anomaly - hadronic calculation

Los cálculos hadrónicos son difíciles, como nos cuentan Zhiqing Zhang (LAL, Orsay), “Review of Recent Leading-Order Hadronic Vacuum Polarization Calculation,” Photon 2013, 22 May [slides]; Vladyslav Pauk, “Gamma-gamma sum rules and their implication on the hadronic LbL contribution to (g-2)μ,” Photon 2013, 22 May [slides]; Arkady Vainshtein, “Hadronic Light-by-Light Scattering in the Muon Anomalous Magnetic Moment,” Photon 2013, 22 May [slides].

Dibujo20130528 anomalous magnetic moment of the muon - exp vs SM

¿Podría ocurrir que la anomalía entre el valor experimental y el valor teórico sea debida al cálculo de las contribuciones hadrónicas? Mucha gente así lo cree. De hecho, un nuevo cálculo teórico, aún en curso, apunta a su reducción a sólo 2,4 σ, como nos cuenta H. Spiesberger, “Muon g-2 and QCD Sum Rules,” Photon 2013, 22 May [slides]. Habrá que estar al tanto de estos progresos teóricos. ¿Cuándo seremos capaces de obtener una precisión en QCD a baja energía similar a la que se obtiene en QED? Quizás sea una utopía pensar que algún día podremos calcular el momento magnético anómalo del muón con precisión similar al del electrón (g-2) = 0,002 319 304 361 46 ± 0.000 000 000 000 56, valor obtenido con la QED a quinto orden (NNNNLO) por T. Kinoshita y sus colegas.

Dibujo20130528 fermilab transport - muon-g-2-model

Por cierto, quizás te preguntes qué es el momento magnético anómalo del muón. Permíteme una discusión breve. Una carga eléctrica en un campo magnético siente una fuerza que es proporcional a una magnitud llamada momento magnético. Los niveles atómicos de los electrones en un átomo inmerso en un campo magnético se desdoblan por efecto Zeeman. Este desdoblamiento depende del momento magnético del electrón, que  tiene dos componentes, una proporcional el momento angular orbital (con constante de proporcionalidad g=1) y otra proporcional al momento de espín (con constante de proporcionalidad g=2). El vacío en electrodinámica cuántica (QED) introduce correcciones radiativas en el momento magnético de espín del electrón, resultando un valor de (g-2) diferente de cero, lo que se denomina momento magnético anómalo (normalmente se calcula el valor de la constante a = (g-2)/2). La constante adimensional (g-2) determina el valor del momento magnético para cualquier leptón (electrón, muón y leptón tau). La predicción teórica en QED es una función de la constante de estructura fina <α y de los cocientes entre las masas de los tres leptones.

Para el electrón la predicción de la QED da un resultado con un error de 0,3 ppb (partes por mil millones) más preciso que el medido en los experimentos (unos 0,7 ppb). Sin embargo, para el muón el cálculo teórico es más complicado porque es necesario incluir en los loops de las correcciones radiativas los efectos electrodébiles (EW) debidos a los bosones W, Z y Higgs, y los efectos hadrónicos (QCD) debidos a los quarks u (arriba), d (abajo) y s (extraño), los que tienen una masa menor que el muón. El error teórico para las correcciones QED es de 0,3 ppb, enorme comparado con el error experimental de unos 0,5 ppm (partes por millón). Para las correcciones EW el error teórico es de 0,01 ppm, también muy inferior al experimental. Pero las correcciones hadrónicas son muy difíciles de calcular (de hecho ni siquiera conocemos el valor exacto de la masa de los quarks) y el error teórico es de 0,42 ppm, un error comparable el del resultado experimental (unos 0,5 ppm).

Coda final. Este post participa en la iniciativa #FísicaCuántica a TT (Trending Topic) de Enrique F. Borja (@Cuent_Cuanticos), “#FísicaCuántica Trending Topic: 28 de Mayo,” Cuentos Cuánticos, 14 Mayo 2013. Por cierto, te recomiendo su nuevo blog en SciLogs de Investigación y Ciencia.


Archivado en: Ciencia, Física, Noticia CPAN, Noticias, Physics, Science Tagged: Ciencia, Experimento, Física, Física cuántica, Momento magnético anómalo, muón, Noticias, Partículas elementales

#FísicaCuántica: El “todólogo” Eric R. Weinstein y quien alto sube, duro cae

$
0
0

Dibujo20130528 quantum cat enjoys weinstein theoy

El famoso matemático Marcus P. F. du Sautoy, divulgador y presentador de TV, ha encumbrado a su amigo matemático Eric R. Weinstein al limbo de los “todólogos” (expertos en desarrollar teorías de todo sin saber nada de #FísicaCuántica). En su columna en The Guardian, Du Sautoy afirma que W(Einstein) ha resuelto “todos los grandes problemas de la física” y ha logrado “el mayor avance en #FísicaCuántica desde Einstein.”

W(Einstein) le enseñó “su respuesta a todo” a Du Sautoy en un bar de New York. La simetría de la “verdad” de W(Einstein) es tan “bella” que no puede ser mentira. Du Sautoy, asombrado, decidió organizar una conferencia en la Universidad de Oxford (la suya) para que el nuevo “todólogo” pudiera exponer en público las ideas que había desarrollado en los últimos 21 años. Invitó a los profesores del  Departamento de Física de Oxford, Pero ninguno se dignó a asistir a la charla del pasado jueves 24 de mayo. Quizás porque ninguno conoce a W(Einstein), que no ha publicado ningún artículo científico en ninguna revista de física en toda su vida.

Nadie sabe lo que contó W(Einstein), ni ningún detalle de su nueva “teoría de todo.” Du Sautoy en The Guardin nos dice que la teoría utiliza un grupo de simetría “grande” y de gran belleza que contiene todas las partículas fundamentales conocidas, así como nuevas partículas que pueden ser candidatos a materia oscura. También implica de forma natural la existencia de una constante cosmológica no nula, permitiendo entender el origen de la energía oscura. Finalmente, la teoría no requiere de mecanismo de Higgs ya que introduce términos de masa para las partículas que no violan las simetrías de la teoría; por tanto, podemos deducir que predice que el bosón de Higgs no existe (“the Higgs boson we are seeing in the LHC might not be quite what we think it is. Weinstein’s perspective might help us articulate what it is we are actually seeing“).

Dibujo20130528 liberal-arts majors may be annoying sometimes

Alok Jha, corresponsal científico de The Guardian, nos cuenta que también ha hablado con W(Einstein) sobre su teoría de Unidad Geométrica (Geometric Unity) basada en un “observerso” (“observerse“) de 14 dimensiones en el que está inmerso el espaciotiempo de 4 dimensiones de nuestro universo. Las 10 dimensiones extra afectan a las otras 4 de manera análoga “a como afectan los espectadores de un partido de fútbol a los 22 jugadores que están en el campo.” La nueva teoría no es quiral, como el modelo estándar, que presenta una asimetría entre componentes izquierdas (levógiras) y derechas (dextrógiras) de los campos; en concreto, sólo se han observado neutrinos levógiros. Según dice Jha, W(Einstein) afirma que la materia oscura tiene explicación en su teoría no quiral gracias a los campos dextrógiros que faltan, lo que podemos interpretar como que propone que los neutrinos dextrógiros (que deben ser muy masivos) son los responsables de la materia oscura fría del universo.

La nueva teoría de W(Einstein), según Jha, explica la energía oscura como una nueva fuerza, en pie de igualdad a la gravedad, el electromagnetismo, la interacción débil y la interacción fuerte. Además de esta nueva fuerza, que me recuerda a la hipótesis de la quintaesencia, también se predice la existencia de más de 150 nuevas partículas, la mayoría con cargas eléctricas mayores que la unidad (el límite máximo observado en la Naturaleza).

La expectación generada por Du Sautoy, quizás gracias a su gran fama como divulgador, ha llevado a que muchos soliciten a W(Einstein) que publique un manuscrito en ArXiv con su propuesta. Habrá que esperar, pero me temo que esperará un tiempo a que las aguas se calmen para que no le lluevan demasiadas tortas. La opinión expresada al respecto en varios blogs va en dicha línea: Jennifer Ouellette, “Dear Guardian: You’ve Been Played,” Cocktail Party Physics, May 24, 2013; Lubos Motl, “Eric Weinstein’s invisible theory of nothing,” The Reference Frame, May 25, 2013; Peter Woit, “Eric Weinstein on Geometric Unity,” Not Even Wrong, May 23, 2013; Dave Gamble, “Eric Weinstein’s theory may explain why the universe works the way it does,” Skeptical Science, May 25, 2013; Ted Bunn, “Maybe Eric Weinstein is the next Einstein, but I doubt it,” Ted Bunn’s Blog, 27 May, 2013; entre otros.

Dibujo20130528 then a miracle occurs

Eric R. Weinstein defendió su tesis doctoral, inédita (sin publicar ningún artículo), en 1992, en el Departamento de Matemáticas de la Universidad de Harvard, bajo la dirección de Raoul Bott (1923-2005). La tesis se titula “Extension of Self-Dual Yang-Mills Equations across the 8th Dimension,” Univ. Harvard, 1992. En mi opinión, esta tesis parece ser el germen de su nueva teoría de todo. El abstract de la tesis es el siguiente.

The author introduce a class of elliptic generalized Einstein equations adapting the Self-Dual and Anti-Self-Dual Yang-Mills equations to oriented Riemannian 8-manifolds (X8, gij) with the virtual dimension of the Moduli space of solutions. The authors construct on S8 a 9-dimensional moduli space M(S8) ≈ B9 of soliton-like solutions given as the translates of the Levi-Civita connection by arbitrary conformal transformations. Existence is shown on any Einstein manifold. Proposed extension to all even dimensions is sketched.

He encontrado poca información en la web sobre el contenido de esta tesis doctoral, que no he podido leer. Yo destacaría el artículo de Laurent Baulieu, Hiroaki Kanno, I. M. Singer, “Special Quantum Field Theories in Eight and Other Dimensions,” Commun. Math. Phys. 194: 149–175, 1998, donde se afirma que I. M. Singer estudió la teoría de Yang-Mills autodual en el contexto de las variedades de Einstein en ocho dimensiones con la ayuda de Eric R. W(Einstein). En dicho artículo se sugiere que W(Einstein) ha desarrollado en su tesis una teoría basada en variedades de Joyce de dimensión 8 cuyo grupo de holonomía es Spin(7). Sin embargo, esta idea no se generaliza a dimensión 14.

Lubos Motl cree que la “teoría” de W(Einstein) es una teoría de tipo graviGUT, similar a la de Garrett Lisi (basada en el grupo E8). Sin embargo, en dimensión 14 es muy difícil construir una teoría de este tipo. Yo creo que sus ideas van en otra línea, pero puedo equivocarme.

En resumen, me molesta escribir una entrada sobre la Unidad Geométrica de W(Einstein) en la que no tengo nada que decir. Pero así están las cosas a día de hoy… su “secreto” aún sigue siendo un secreto.

Coda final. La idea de esta entrada es aportar mi granito de arena a la iniciativa #FísicaCuántica por Trending Topic ideada por @Cuent_cuanticos.


Archivado en: Ciencia, Física, Noticias, Personajes, Physics, Prensa rosa, Science Tagged: Ciencia, Física, Noticias, Partículas elementales, Personajes

GRB 130427A, el mayor estallido de rayos gamma observado por Fermi LAT

$
0
0

Dibujo130529 GRB 130427A Fermi LAT before and after labels

El telescopio espacial de rayos gamma Fermi observó gracias a su mayor instrumento, el telescopio de gran área LAT, un estallido de rayos gamma cerca del polo note galáctico con una energía total de 94 GeV (el de mayor energía hasta el momento) y cuya emisión duró casi un día (la mayor duración hasta el momento). Se estima que su fuente está muy cerca, z=0,34 (sólo el 5% de los GRB está tan cerca). Un fotón con una energía de ∼72 GeV llegó a los 18,6 segundos tras el inicio del estallido GRB 130427A, lo que permite acotar las variaciones de la velocidad de la luz con la energía; pero el límite que se obtiene es peor que el logrado en 2009 gracias a un fotón de 31 GeV que llegó 0,73 segundos tras el inicio del estallido GRB 090510 [más información en este blog]. Ello no quita que el famoso Giovanni Amelino-Camelia y varios colegas hayan tratado de hacerlo utilizando un “truco” curioso. Más info sobre el estallido en “NASA’s Fermi, Swift See ‘Shockingly Bright’ Gamma-ray Burst,” NASA, 3 May 2013, y en múltiples fuentes.

Dibujo130529 another view of GRB 130427A Fermi LATAmelino-Camelia et al., “Quantum-spacetime scenarios and soft spectral lags of the remarkable GRB130427A,” arXiv:1305.2626, 12 May 2013, han estudiado el momento de llegada de todos los fotones del estallido GRB130427A, con énfasis en los que tienen energía mayor de 5 GeV. Su idea es estudiar las posibles variaciones de la velocidad de la luz con la energía (en última instancia debida a la naturaleza cuántica del espaciotiempo). Si todos los fotones se emitieron al mismo tiempo, todos deberían llegar al mismo tiempo (la velocidad de la luz es constante). Muchos modelos de gravedad cuántica predicen que la velocidad de los fotones depende de su energía. Los de mayor energía se mueven más rápido y los de menor energía algo más lentos, pero la diferencia es tan pequeña que sólo se nota a muy grandes distancias y a muy altas energías. Por supuesto, la hipótesis de que todos los fotones emergen en el mismo instante en un fenómeno tan complejo como un estallido de rayos gamma es sólo eso, una hipótesis.

Dibujo20130529 Fermi-LAT light curves for GRB130427A

Una figura que muestre los resultados para GRB130427A junto a otros estallidos de larga duración como GRB080916C, GRB090902B y GRB090926A, así como algunos neutrinos observados por IceCube, muestra una dependencia casi lineal entre el tiempo de llegada y la energía; eso sí, se han seleccionado ciertos fotones de los estallidos, omitiendo el resto, para que quede más clara la dependencia casi lineal.

Dibujo20130529 loglog plot a straight line of energy vs delay

Un resultado similar obtienen Xiang-Yu Wang et al., “On the origin of >10 GeV photons in gamma-ray burst afterglows,” arXiv:1305.1494, 7 May, 2013,

Dibujo20130529 Fit of the broadband afterglow data of GRB090926A

Por supuesto, estos resultados han de ser tomados con alfileres (las hipótesis en las que se basan son bastante discutibles). Ello no quita que GRB 130427A sea un suceso excepcional que ha sido detectado por seis telescopios espaciales de rayos gamma (Swift, Fermi-GBM/LAT, Konus-Wind, SPI-ACS/INTEGRAL, AGILE y RHESSI). En los próximos meses muchos artículos nos revelarán muchas más cosas sobre este estallido de rayos gamma.


Archivado en: Astrofísica, Astronomía, Ciencia, Física, Noticias, Physics, Science Tagged: Astronomía, Ciencia, Curiosidades, Experimento, Física, Fermi LAT, Noticias, Rayos gamma

La teoría del caos y los disparos con efecto de un balón de fútbol

$
0
0

Dibujo20130530 Two examples 3D flight using shooting machine display stroboscopic images

Mucha gente cree que el efecto Magnus explica el comportamiento errático del balón de fútbol en los disparos a puerta. Sin embargo, el efecto Magnus no explica por qué Jabulani, el balón oficial en la Copa Mundial de Fútbol de 2010, se movía a veces de forma impredecible, o por qué balones con diferentes costuras se comportan de forma diferente. Taketo Mizota (Instituto Técnico de Fukuoka, Japón) y sus colegas han usado un túnel de viento y una máquina de disparo de balones con rotación para descubrir que el efecto Magnus explica el comportamiento del balón sólo para flujo con número de Reynolds (Re) subcrítico, pero el comportamiento errático del balón aparece para Re supercrítico. En dicho caso, los vórtices que aparecen en la estela del balón interaccionan de forma no lineal entre sí, haciendo que el comportamiento del balón sea caótico e impredecible, para disfrute de algunos espectadores y desazón de los porteros. El efecto mariposa, que pequeños cambios producen grandes consecuencias, es en última instancia el responsable del comportamiento errático del esférico. El artículo técnico es Taketo Mizota et al., “The strange flight behaviour of slowly spinning soccer balls,” Scientific Reports 3: 1871, 22 May 2013. doi:

Dibujo20130530 stroboscopic image 65 m free-fall experiment

Esta figura muestra una imagen estroboscópica de un experimento de caída libre desde 65 metros de altura de un balón con una velocidad de giro de unos 1/16 rps (revoluciones por segundo) y con viento en calma. Se observa un extraño desplazamiento del balón durante la caída libre, con un desplazamiento máximo respecto a la vertical de 75 cm y una torsión de la trayectoria con un periodo de 4,3 segundos; la velocidad máxima del balón fue de 22,5 m/s. El uso del efecto Magnus con coeficientes aerodinámicos (medidos en túneles de viento) cuyo valor varía con el número de Reynolds no es suficiente para explicar este comportamiento.

Dibujo20130530 adidas vs mizuno soccer balls

Además, los experimentos del experimento varían en función del tipo de balón utilizado (se han comparado uno de Adidas y otro de Mizuno), aunque sus coeficientes aerodinámicos medidos en el túnel de viento son muy similares.

Dibujo20130530 drag coefficients of soccer balls and spheres with smooth surfaces

Para tratar de clarificar la cuestión, se midieron con dinamómetros las fuerzas aerodinámicas sobre el balón (en reposo dentro de un túnel de viento) para flujo con número de Reynolds subcrítico y supercrítico. En este último caso los experimentos muestran un comportamiento errático, casi azaroso.

Dibujo20130530 Unsteady aerodynamic forces CL  red line and Cs blue line on the Adidas ball during a 10 s period

Las costuras del balón de fútbol juegan un papel fundamental en la transición entre flujo laminar (Re subcrítico) y flujo turbulento (Re supercrítico). En este último caso, la visualización del flujo mediante humo muestra un complejo sistema de vórtices en interacción mutua. La teoría del Dr. Taneda (1976) indica que para flujo supercrítico, en la parte trasera del balón se forma un flujo en forma de letra Ω que se alarga en forma de letra U, como muestra la siguiente figura.

Dibujo20130530 Omega shaped and two longitudinal vortices of a smooth sphere and unsteady forces

Según Mizota y sus colegas el movimiento errático e impredecible del balón en rotación lenta es causado por la inestabilidad de los vórtices que interaccionan unas con otros alterando de forma casi aleatoria las fuerzas aerodinámicas sobre el balón. Los espectadores que observen disparos del balón con trayectorias extrañas no deben echarle la culpa ni al jugador ni al balón, sino a la teoría del caos (los vórtices de la estela que interaccionan entre sí de forma no lineal e impredicible son un claro ejemplo de dinámica caótica). Si los periodistas deportivos quieren buscar un culpable, deberán recurrir al efecto mariposa.


Archivado en: Aerodinámica, Ciencia, Dinámica no lineal, Física, Noticias, Physics, Science Tagged: caos determinista, Ciencia, Curiosidades, Efecto de Magnus, Efecto mariposa, Experimento, Física, fútbol, Noticias, vórtices

La sombra de la Luna observada por IceCube en el Polo Sur

$
0
0

Dibujo20130530 Contour plot for the position of the minimum of the Moon shadow in the IC40 and IC59 data

Mucha gente dirá que observar la Luna a simple vista es mucho mejor que observar su sombra utilizando rayos cósmicos de TeV en IceCube, el gigantesco detector de neutrinos y rayos cósmicos situado en el Polo Sur. IceCube ha observado la sombra de la Luna con más de 6σ entre abril de 2008 y mayo de 2009 utilizando 40 cuerdas de detectores (configuración IC40) y entre mayo de 2009 y mayo de 2010 utilizando 59 cuerdas (configuración IC59), logrando un error menor de 0,2 grados de resolución angular; para que tengas una idea de lo que significa esto, en la figura se ha dibujado la Luna con un círculo blanco. La sombra de la Luna se ha observado gracias a un déficit de 5320 ± 501 rayos cósmicos en IC40 (de un total de 18,8 millones) y de 8700 ± 550 en IC59 (de un total de 22,2 millones), lo que implica una significación de 10,2 σ y 13,9 σ, resp. Este estudio muestra la buena direccionalidad del detector, un factor importante a la hora de interpretar sus resultados sobre neutrinos de muy alta energía. El artículo técnico es IceCube Collaboration, “Observation of the cosmic-ray shadow of the Moon with IceCube,” arXiv:1305.6811, 29 May 2013.

Dibujo20130530 Contour plot value ns for on-source regions of the IC40 and IC59


Archivado en: Ciencia, Física, Noticia CPAN, Noticias, Physics, Science Tagged: Ciencia, Curiosidades, Experimento, IceCube, Luna, Neutrinos, Noticias

Francis en ¡Eureka!: El bosón de Higgs gana el premio Príncipe de Asturias

$
0
0

Dibujo20130602 peter higgs and francois englert

Ya puedes disfrutar del audio de mi sección ¡Eureka! en el programa La Rosa de los Vientos de Onda Cero, basta que sigas este enlace. Como siempre una transcripción del audio.

El físico escocés Peter Higgs y el belga François Englert han recibido el premio Príncipe de Asturias como pioneros de la física del bosón de Higgs [también lo ha recibido el CERN pero el objetivo es discutir el papel de Englert, un físico desconocido para el gran público]. Hay un tercer físico que también merece este premio que ya ha fallecido. Junto a Peter Higgs y François Englert, también merece el premio el físico belga Robert Brout, que falleció en el año 2011. Muchos físicos creemos que la partícula de Higgs debería llamarse partícula de Brout-Englert-Higgs, en este orden. La partícula de Higgs es un claro ejemplo de la ley de los epónimos de Stigler, que afirma que las leyes y los descubrimientos científicos nunca reciben el nombre de sus auténticos descubridores.

Dibujo20130602 robert Brout

Podemos recordar la historia del descubrimiento de la teoría de la partícula de Higgs. ¿Qué fue lo que hicieron estos físicos hace 50 años? La teoría actual que describe la física de partículas, llamada el modelo estándar, surgió en su forma actual en 1973, pero sus orígenes se remontan a 1954 cuando dos físicos llamados Yang y Mills introdujeron la formulación matemática correcta. El problema de la teoría de Yang-Mills es que predice que ninguna partícula tiene masa, como los fotones, pero sabemos que casi todas las partículas tienen masa. En 1960 se propuso una manera de arreglar este problema, usando una idea de la teoría de la superconductividad, romper la simetría de la teoría de Yang-Mills. Dos físicos Yoichiro Nambu y Jeffrey Goldstone demostraron en 1961 que en física de partículas esta idea no funcionaba porque predecía la existencia de nuevas partículas que no habían sido observadas. El físico Philip Anderson, experto en superconductividad, que es una teoría no relativista, sugirió en 1963 que podría funcionar una variante llamada rotura local de la simetría. Pocos físicos de partículas prestaron atención a esta solución hasta que en junio de 1964, el físico Walter Gilbert publicó que el método de Anderson no podía funcionar porque violaba la relatividad. Pero su artículo tenía un error matemático que descubrieron Peter Higgs y otros físicos. Si no hubiera cometido ese error quizás hoy en día hablaríamos de partícula de Gilbert en lugar de partícula de Higgs.

Entonces Peter Higgs no fue el único físico que descubrió el error, el otro ganador del Premio Príncipe de Asturias también lo descubrió. ¿Fue Higgs el primero en darse cuenta del error de Gilbert? Peter Higgs tras leer el artículo de Gilbert el 16 de julio de 1964, descubrió su error y escribió un artículo que decía cómo se podía corregir el error de Gilbert, pero sin dar detalles, que envío el 24 de julio a la revista de física europea Physics Letters. El artículo fue aceptado de inmediato. Higgs decidió escribir un segundo artículo con todos los detalles y lo envío el 31 de julio a la misma revista, donde fue rechazado porque ”el artículo no aportaba nada realmente nuevo al anterior.” Higgs quedó muy sorprendido. Habían aceptado un artículo que decía lo que había que hacer, sin hacerlo, y rechazado el artículo que lo hacía. En agosto añadió un par de párrafos, entre ellos uno que proponía la existencia de una nueva partícula y lo envió a la revista estadounidense de física Physical Review Letters, que lo recibió el 31 de agosto. Ese mismo día, en dicha revista se publicaba otro artículo muy parecido escrito por los físicos belgas François Englert y Robert Brout, que fue enviado el 26 de junio, casi un mes antes que Higgs leyó el artículo de Gilbert. El artículo de Higgs podría haber sido rechazado, pero el editor le pidió a Higgs que citara el artículo de Englert y Brout y que aceptaría su artículo porque las técnicas matemáticas usadas en ambos artículos eran diferentes, aunque su conclusión era la misma. El artículo de Higgs apareció el 19 de octubre de 1964.

Más información en “Higgs y el vino, de mayordomo hasta bibliotecario, directo hacia el Nobel,” y en “La teoría electrodébil, el bosón de Higgs y su historia.”

Esto quiere decir que los físicos belgas Brout y Englert publicaron el trabajo antes que el escocés Higgs. ¿Por qué se usa el nombre “partícula de Higgs” en lugar de un nombre históricamente más correcto, como partícula de Englert-Brout? La razón es muy curiosa. En 1967, el famoso físico coreano Benjamin Lee habló con Peter Higgs en una conferencia sobre el descubrimiento de su teoría. Acompañado por una copa de vino, Higgs le contó sus propias contribuciones, olvidando hablar de los belgas Brout y Englert, y de los demás físicos que trabajaron en este tema. Quizás Higgs quería abreviar su historia o quizás quería ponerse algunas flores delante de Lee, que era muy famoso. Casi nadie conocía la teoría de Higgs hasta que varios experimentos pusieron de moda en 1972. Entonces, en una conferencia de física de partículas en el Femilab, en EEUU, invitaron a Lee para que contara esta teoría. Lee tuvo poco tiempo para preparar la charla y recordó su conversación con Peter Higgs. Por ello, en su discurso habló de “mecanismo de Higgs,” de “bosón de Higgs.” y de “teoría de Higgs.” Desde entonces, se habla de la “partícula de Higgs” en lugar de la partícula de “Brout-Englert-Higgs.”

Más información en “Por qué el bosón de Higgs no se llama bosón de Brout-Englert-Higgs-Hagen-Guralnik-Kibble.”

Quisiera recordar que en el año 2010 recibieron el Premio Sakurai de la Sociedad de Física Americana para contribuciones a la Física de Partículas Teórica 6 físicos: además de Peter Higgs, Robert Brout y François Englert, también lo recibieron Carl Hagen, Gerald  Guralnik y Tom Kibble. Los seis pueden ser considerados padres de la partícula de Higgs.

Más información en “El sexteto de Higgs, Premio de la APS en honor a J.J. Sakurai, y la historia del mecanismo de Higgs” y en “Atención, pregunta: ¿Quién debe recibir el Premio Nobel de Física por el descubrimiento del Higgs?

El famoso físico británico Stephen Hawking tenía dudas sobre la existencia del bosón de Higgs, aunque al final admitió el descubrimiento del 4 de julio y declaró por perdida su apuesta con Lawrence Krauss, famoso autor del libro “La física de Star Trek.” ¿Por qué tenía dudas Hawking sobre el Higgs? Las apuestas de Hawking contra otros físicos son muy famosas y en mi opinión tienen mucho de marketing. Hawking es un gran defensor de la llamada teoría de cuerdas que predice la existencia de una simetría, aún no observada en la Naturaleza, llamada supersimetría. En la supersimetría en lugar de una sola partícula de Higgs tiene que haber una familia de cinco partículas. Uno de los expertos en teoría de cuerdas, Gordon Kane, Universidad de Michigan, EEUU, apostó 100$ contra Hawking a favor de que el bosón de Higgs existe. El 4 de julio de 2012, tras el descubrimiento del Higgs, Hawking dio por perdida la apuesta. ¿Por qué Hawking no creía en la existencia del Higgs? Bueno en realidad no es que lo creyera, ya que Hawking ha apostado muchas veces contra sus propias creencias. Por ejemplo, apostó en 1974 contra Kip Thorne que no existían los agujeros negros y en 1990 dio por perdida la apuesta. En mi opinión, no hay que hacerle mucho caso a las apuestas de Hawking.

España como país de la Comunidad Europea es miembro del CERN. Sin embargo, se ha publicado que aún debe dinero. ¿Cómo está este asunto? España aún debe 36 millones de euros de su contribución de 2012 y ha reservado sólo 51 millones de los 76,5 millones que debería pagar en 2013, con lo que se espera que adeude otros 25,5 millones adicionales. El Gobierno de España quiere saldar la deuda de 2012 antes de de finales de este año. Muchos físicos españoles están muy preocupados por este escabroso asunto y la participación española podría sufrir algún tipo de infracción.

Como siempre, si aún no has escuchado el audio, sigue este enlace.


Archivado en: Bosón de Higgs, Ciencia, Eureka (La Rosa de los Vientos), Física, Historia, Noticia CPAN, Noticias, Personajes, Physics, Prensa rosa, Science Tagged: Bosón de Higgs, Ciencia, Curiosidades, Eureka (#rosavientos), Física, Historia, Noticias, Partículas elementales, Personajes

Conferencia de Antonio Alfonso Faus: “Efecto de la expansión del universo sobre la velocidad de la luz”

$
0
0

Dibujo20130530 Conferencia Antonio Alfonso Faus

Antonio Alfonso Faus, profesor emérito de la UPM (Escuela de Ingeniería Aeronáutica y del Espacio), hablará sobre el “Efecto de la expansión del universo sobre la velocidad de la luz” el jueves 6 de junio de 2013, a las 19:00, en la Escuela Técnica Superior de Ingenieros Agrónomos, Salón de Actos, Plaza del Cardenal Cisneros, Ciudad Universitaria, Madrid. La conferencia forma parte del programa de las Jornadas de Historia y Filosofía de la Ingeniería, la Ciencia y la Tecnología.

Resumen: “Desde hace casi un siglo se sabe que el universo se está expandiendo, y desde hace una década se ha anunciado que se expande aceleradamente. Estos hallazgos proceden de las mediciones de las frecuencias de la luz de galaxias lejanas, bajo el supuesto de que la velocidad c de la luz es constante. Este parece ser el caso dentro de nuestra galaxia, pero puede que no sea el caso en el espacio intergaláctico, por lo que es prudente y muy interesante analizar el efecto real de la expansión intergaláctica sobre esta velocidad. El efecto hace disminuir a la velocidad c a un ritmo determinado. Con ello la expansión misma que se calcula por las frecuencias resulta significativamente afectada y puede cambiar el panorama cosmológico actual.”

PS: El programa de las XVI Jornadas de Historia y Filosofía de la Ingeniería, la Ciencia y la Tecnología se inició el lunes 27 de de mayo y a partir de esta semana puedes disfrutar de las siguientes en la Escuela Técnica Superior de Ingenieros Agrónomos. Avda. Complutense s/n. Ciudad Universitaria:

Martes 4 de junio. 19:00 horas. Mesa Redonda sobre: “Ecoemprendimiento: una oportunidad para la nueva ingeniería.” 

El ecodiseño en la ingeniería agronómica.” D. Domingo Gómez Orea (Dr. Ingeniero Agrónomo. Catedrático de la U.P.M. Vocal del Comité de Ingeniería y Desarrollo Sostenible (CIDES) del I.I.E.)

El empleo verde.” D. Enrique Rodríguez Fagúndez (Ingeniero Agrónomo. Licenciado en Derecho. Vocal del Comité de Ingeniería y Desarrollo Sostenible (CIDES) del I.I.E. Presidente del Comité de Tecnologías para la Defensa del I.I.E.)

Metodología para el cálculo de indicadores de diagnóstico y seguimiento del cambio climático.” D. Juan José Prieto Viñuela (Licenciado en Ciencias Físicas. Dr. Ingeniero de Armamento. Dr. en Ciencias Económicas)

Ecoworking, una iniciativa de trabajo en red.” D. Alejandro Gómez Villarino (Ingeniero Agrónomo)

EMPRENDAE, ayudando a crear emprendedores.” D. Luis Morales Carballo (Experto en Eco-emprendimiento)

Miércoles 5 de junio. 19:00 horas. “En torno a la fuerza nuclear fuerte y su posible y trascendente relación con el electromagnetismo.” D. José Molina Rodríguez (Dr. Ingeniero del CIAC. Licenciado en Ciencias Físicas. Dos medallas de oro (una con mención especial) en la exposición de inventores de Bruselas, 1968. Vocal del Comité de Inventiva y Creatividad del I.I.E.)

Jueves 6 de junio. 19:00 horas. “El efecto de la expansión del Universo sobre la velocidad de la luz.” D. Antonio Alfonso Faus (Dr. Ingeniero Aeronáutico y Dr. en Ciencias Físicas y Matemáticas por la Universidad de Minnesota (USA). Profesor Emérito de la U.P.M.)

Lunes 10 de junio. 19:00 horas. La ‘partícula de Dios’: el Bosón de Higgs.” D. Francisco González de Posada (Dr. Ingeniero de Caminos, Canales y Puertos. Exrector de la Universidad de Cantabria. Académico de la Real Academia Nacional de Medicina).

Miércoles 12 de junio. 19:00 horas. “Ingeniería para la búsqueda de vida en los cuerpos celestes.” D. Antonio Martín-Carrillo Domínguez (Ingeniero Aeronáutico. Dr. en Ciencias Económicas y Empresariales. Máster MBA (USA). Presidente de Foro Aeronáutico). “¿Por qué existe el día con su noche velada de estrellas?” D. Juan Gerardo Muros Anguita (Ingeniero Aeronáutico y Vocal del Comité de Ingeniería y Sociedad de la Información del I.I.E.).

Jueves 13 de junio. 19:00 horas. “La riqueza de un lenguaje para un pase de modelos.” D. José Manuel Amaya García de la Escosura (Dr. Ingeniero Agrónomo. Profesor Emérito de la U.P.M. Vocal del Comité de Enseñanza del I.I.E.).

A partir del día 17 de junio puedes disfrutar de las siguientes charlas en el Instituto de la Ingeniería de España. C/ General Arrando, 38:

Lunes 17 de junio. 19:00 horas. “Mis relaciones con las matemáticas, la ingeniería y la agricultura.” D. Darío Maravall Casesnoves (Dr. Ingeniero Agrónomo y Dr. en Ciencias Matemáticas. Académico de las Reales Academias de Ciencias y de Doctores. Doctor Honoris Causa de la Universidad Politécnica de Valencia).

Lunes 24 de junio. 19:00 horas. “Aportación española a la ciencia y tecnología mundial.” D. Domingo Escudero López (Dr. Ingeniero Aeronáutico e Ingeniero Geógrafo. Académico Numerario de la Real Academia de la Mar. Presidente del Comité de Terminología del I.I.E.).

Martes 25 de junio. 19:00 horas. ACTO DE CLAUSURA en el Instituto de la Ingeniería de España. C/ General Arrando, 38. CONFERENCIA DE CLAUSURA “Ciencia, Ingeniería y Sociedad.” D. Edelmiro Rúa Álvarez (Dr. Ingeniero de Caminos, Canales y Puertos. Profesor Emérito de la U.P.M. Exdirector de la E.T.S.I. de Caminos, Canales y Puertos de Madrid. Expresidente del Colegio Nacional de Ingenieros de Caminos, Canales y Puertos).


Archivado en: Ciencia, Física, Noticias, Physics, Recomendación, Relatividad, Science Tagged: Conferencias, Cosmología, Física, Física teórica, Noticias

Francis en Trending Ciencia: Visualizan el entrelazamiento cuántico entre dos fotones

$
0
0

Ya puedes disfrutar de mi nuevo podcast para Trending Ciencia siguiendo este enlace. Como siempre, una transcripción del audio.

Anton Zeilinger, el famoso físico austriaco que es eterno candidato al Premio Nobel de Física, y sus colegas en la Universidad de Viena, ha preparado un vídeo de youtube en el que visualiza el entrelazamiento cuántico en polarización entre dos fotones. El vídeo es espectacular y no te lo deberías perder. En mi blog tienes el enlace. Dicho vídeo se ha preparado como información suplementaria a su artículo de acceso gratuito “Real-Time Imaging of Quantum Entanglement” (“imagen en tiempo real del entrelazamiento cuántico”), cuyos autores son Robert Fickler, Mario Krenn, Radek Lapkiewicz, Sven Ramelow y Anton Zeilinger, publicado en la revista del grupo Nature Scientific Reports el pasado 29 de Mayo de 2013. 

Robert Fickler, Mario Krenn, Radek Lapkiewicz, Sven Ramelow & Anton Zeilinger, “Real-Time Imaging of Quantum Entanglement,” Scientific Reports 3: 1914, 29 May 2013. Más información en “Sean Carroll, “The Universe on a StratocasterNew Video Project,” S = k log W, May 29, 2013.

Dibujo201300602 entanglement

La polarización es una propiedad de la luz cuyo origen cuántico es el hecho de que el campo electromagnético es un campo con dos campos componentes independientes. Un sólo fotón tiene una polarización bien definida que está definida por un ángulo. En un laboratorio de óptica cuántica podemos generar un fotón con una polarización dada; por ejemplo, a cero grados o polarización horizontal |H>, a 90 grados o polarización vertical |V>, o incluso a cualquier ángulo intermedio; en este último caso, si escribimos el estado del fotón como coseno de alfa por el estado horizontal más seno de alfa por el estado vertical (cos(α) |H> + sin(α) |V>) encontramos que al medir la polarización del fotón será horizontal |H> con una probabilidad de cos²(α) y será vertical |V> con una probabilidad de sin²(α). En un laboratorio de óptica cuántica disponemos de detectores de polarización que podemos ajustar para medir polarización horizontal, vertical o en cualquier otro ángulo. Si un fotón en polarización horizontal incide en un detector ajustado a polarización vertical, la probabilida de de detectarlo será cero, si incide uno con polarización vertical será del 100% y si incide uno a 45 grados será del 50%.

Dibujo20130602 Sketch of the experimental setup

En los laboratorios de óptica cuántica se dispone de generadores de pares fotones entrelazados en polarización, dispositivos capaces de generar dos fotones indistinguibles entre sí en los que uno está polarizado en horizontal y el otro en vertical. Como no sabemos cuál es el cuál es estado cuántico de los dos fotones es un estado de superposición de las dos posibilidades, que el primer fotón esté en horizontal y el segundo en vertical, y que el primer fotón esté en vertical y el segundo en horizontal, sea un estado entrelzadado |HV> + |VH>. No sabemos cuál es la polarización de cada uno de los fotones, lo único que sabemos es que ambas polarizaciones son complementarias entre sí. Al detectar uno de los fotones y obtener como resultado una polarización horizontal sabemos de inmediato que la polarización del otro fotón será vertical, incluso si dicho fotón se encuentra muy lejos.

Para visualizar el entrelazamiento cuántico, el físico austríaco Zeilinger y sus colegas en la Universidad de Viena han decidido grabar en vídeo los dos detectores de fotones, un detector de polarización diagonal, cuyo ángulo α se puede variar, sobre el que incide el primer fotón y un detector en polarización vertical sobre el que incide el segundo fotón. Estos detectores son pantallas CCD ultrarrápidas de alta sensibilidad. Cada vez que un fotón es detectado en una de estas pantallas CCD se observa un destello de luz. Cuando se graban en vídeo de forma continua los destellos de luz en ambos detectores lo que se observa es que los fotones inciden de forma aleatoria en cada detector y no hay ningún patrón visible. A veces hay un destello en un detector, a veces en el otro, y a veces en ambos. El resultado parece completamente aleatorio. Nada indica que la fuente de los fotones los hubiera entrelazado entre sí.

Dibujo201300602 Detected photon number per angular region for different polarizations of the trigger photon

Para visualizar el entrelazamiento cuántico hay que hacer el siguiente truco. Grabar la imagen de vídeo con ambos detectores sólo cuando uno de ellos detecta un fotón. Zeilinger y sus colegas han elegido el detector diagonal a un cierto ángulo en la parte izquierda de la imagen  del vídeo y un detector horizontal en la parte derecha de la imagen. Cuando un fotón incide sobre el detector diagonal colocado a 45 grados, si dicho fotón es horizontal o vertical puede producirse un destello con un 50% de probabilidades. Si de la grabación del vídeo anterior quitamos los fotogramas en los que sólo uno de los detectores produce destello y dejamos sólo los fotogramas en los que ambos detectores producen destellos, en lugar de una imagen aleatoria se observa un patrón muy curioso en ambos lados de la imagen. En el detector diagonal se observan dos franjas verticales separadas por una región vacía y en el detector horizontal un aro circular con el centro vacío. Más aún, variando el ángulo del detector diagonal (o el ángulo de polarización de los fotones entrelazados) se observa como el patrón de dos franjas verticales se pone a rotar   acompañado del otro patrón. El vídeo es realmente espectacular.

El entrelazamiento cuántico es una de las consecuencias más importantes de la física cuántica y tiene múltiples aplicaciones. Yo destacaría su aplicación en la computación cuántica: el paralelismo cuántico consiste en aplicar un operador cuántico a un registro de bits cuánticos entrelazados; cada cubit puede tener dos estados posibles y el registro de n cubits puede tener 2 elevado a n estados posibles. Aplicar una operación cuántica a dicho registro de n cubits es equivalente a aplicar dicha operación a cada uno de los 2 elevado a n estados posibles, por lo que si se quisiera simular dicha operación con un ordenador clásico habría que utilizar 2 elevado a n operaciones clásicas. El entrelazamiento cuántico es el secreto del paralelismo cuántico y de la eficiencia de los ordenadores cuánticos a la hora de resolver ciertos problemas.

El nuevo vídeo de Zeilinger y sus colegas seguro que acabará formando parte de las ilustraciones multimedia de todos los cursos de física  cuántica, como ya forma parte de ella el vídeo Akira Tonomura y sus colaboradores de Hitachi en 1989 sobre el experimento de doble rendija.

Más información en “El experimento de la doble rendija de Hitachi o el experimento más bello de toda la física.”

Si no has escuchado aún el audio de mi podcast, sigue este enlace.


Archivado en: Física, Mecánica Cuántica, Noticias, Physics, Podcast en Trending Ciencia, Recomendación, Science Tagged: Ciencia, Entrelazamiento cuántico, Experimento, Física cuántica, Noticias

La discrepancia WW como señal de la supersimetría

$
0
0

Dibujo20130530 ww discrepancy lhc - atlas7 ww - cms8 ww

Por ahora es sólo pura especulación, pero el LHC del CERN ha observado una discrepancia en el número de sucesos WW que apunta a la existencia de una nueva partícula supersimétrica, un chargino o un sleptón. La discrepancia ha sido observada por ATLAS a 7 TeV c.m. (los datos de ATLAS a 8 TeV c.m. aún no están publicados) y por CMS a 8 TeV c.m. Por supuesto, la solución puede ser tan sencilla como que no sabemos calcular bien la cantidad de sucesos WW que predice el modelo estándar (el cálculo actual es NLO) y un cálculo más preciso (p.ej. NNLO o NNLL) puede eliminar la discrepancia entre teoría y observación. Aún así, esta anomalía es muy sugerente y les recuerda a los que ya han matado a la supersimetría en el LHC que todavía es pronto para recurrir al forense. Nos lo cuenta David Curtin, “Sniffing out new physics with Standard Model Standard Candles,” Pheno 2013, May 6, 2013 [slides]. También conviene consultar David Curtin, Prerit Jaiswal, Patrick Meade, “Charginos Hiding In Plain Sight,” Phys. Rev. D 87: 031701, 2013 [arXiv:1206.6888]; y David Curtin, Prerit Jaiswal, Patrick Meade, Pin-Ju Tien, “Casting Light on BSM Physics with SM Standard Candles,” arXiv:1304.701125 Apr 2013.


Archivado en: Ciencia, Física, LHC - CERN, Noticia CPAN, Noticias, Physics, Science Tagged: Ciencia, Curiosidades, Experimento, Física teórica, LHC - CERN, Noticias, Partículas elementales

Nanopartículas de insulina autorreguladas por glucosa para diabéticos

$
0
0

Dibujo201300603 Schematic of the glucose-responsive nano-network

Diabetes mellitus es un trastorno de la regulación de la glucosa que afecta a unas 366 millones de personas en todo el mundo. El tratamiento ideal para los pacientes sería un sistema artificial con un control en “bucle cerrado” capaz de imitar la actividad del páncreas y liberar insulina en respuesta a los cambios en el nivel de glucosa en sangre. Zhen Gu (MIT, EEUU) y sus colegas han desarrollado un sistema de liberación de insulina auto-regulado por el nivel de glucosa basado en una red polimérica inyectable y biodegradable. El sistema está basado en nanopartículas cargadas que encapsulan insulina y enzimas que detectan el nivel de glucosa (en concreto, glucosa oxidasa GOx). Las nanopartículas se unen electrostáticamente entre sí formando un material poroso nanocompuesto (nanocomposite) capaz de liberar insulina en respuesta a las concentraciones de glucosa. El sistema se puede administrar por vía subcutánea y ha sido probado in vivo en ratones con diabetes mellitus tipo 1. Una sola inyección estabilizó los niveles de glucosa en sangre de los ratones durante 10 días. Todavía es muy pronto para hablar de pruebas en humanos, pero esta tecnología me parece muy prometedora. El artículo técnico es Zhen Gu et al., “Injectable Nano-Network for Glucose-Mediated Insulin Delivery,” ACS Nano 7: 4194–4201, May 2, 2013.

Dibujo201300603 Characterization of the glucose-responsive nano-network

Lo más interesante de esta nueva tecnología es que la red de nanopartículas se integra en un hidrogel siendo biocompatible y biodegradable. Las pruebas en ratones han sido muy prometedoras y quizás en un futuro no muy lejano se decida pasar a ensayos en humanos (aunque el artículo técnico no menciona nada al respecto). 

Dibujo201300603 In vivobiocompatibility analysis

Coda final: Esta entrada participa en el XXV Carnaval de la Química alojado en el blog “ISQCH – Moléculas a reacción” del Instituto de Síntesis Química y Catálisis Homogénea (ISQCH) del Consejo Superior de Investigaciones Científicas (CSIC) y la Universidad de Zaragoza (UZ).

Esta entrada también participa en el Carnaval de Biología edición especial micro-BioCarnaval, que hospeda @microBIOblog en su blog microBIO.


Archivado en: Biología, Bioquímica, Ciencia, Medicina, Nanotecnología, Noticias, Química Tagged: Ciencia, Curiosidades, diabetes, glucosa, Insulina, Nanotecnología, Noticias, Química

Consecuencias astrofísicas de la materia oscura ligera

$
0
0

Dibujo20130508 Marcin Ryczek photograph -  hombre alimentando cisnes y patos - rio de Cracovia

La mayoría de los físicos piensan que la materia oscura está formada por partículas que aún no han sido detectadas. En los últimos años varios experimentos apuntan a partículas ligeras, con una masa menor de 10 GeV/c² (p.ej. CDMS II apunta a 8,6 GeV/c²). Tal tipo de materia oscura tendría dos consecuencias astrofísicas que podrían ser detectadas por los astrónomos. Primero, estas partículas serían atrapadas por las estrellas y se acumularían en su interior; esto afectaría poco a estrellas como el Sol, pero afectaría mucho a estrellas de baja masa (menor de 0,2 masas solares) pues cambiaría la temperatura de su núcleo; el cambio se notaría en la evolución de su curva de luminosidad con el tiempo. Y segundo, también afectaría a la corriente de estrellas de Sagitario que cruza el plano de nuestra galaxia, cambiando el número de partículas de materia oscura que esperamos detectar en los experimentos de búsqueda directa. Por ahora, ambos efectos no han sido observados, aunque la incertidumbre experimental es alta; quizás en los próximos años se puedan observar estos fenómenos. Nos lo cuenta Andrew R. Zentner, “Stuff that happens in astrophysics if the dark matter is light,” slides, que resume sus resultados de sus tres artículos: Andrew R. Zentner, Andrew P. Hearin, “Asymmetric Dark Matter May Alter the Evolution of Low-mass Stars and Brown Dwarfs,” Phys. Rev. D 84: 101302, 2011 [arXiv:1110.5919]; Chris W. Purcell, Andrew R. Zentner, Mei-Yu Wang, “Dark Matter Direct Search Rates in Simulations of the Milky Way and Sagittarius Stream,” JCAP 08(2012)027 [arXiv:1203.6617]; y Chris W. Purcell, Andrew R. Zentner, “Bailing Out the Milky Way: Variation in the Properties of Massive Dwarfs Among Galaxy-Sized Systems,” accepted by JCAP, 2013 [arXiv:1208.4602].

Dibujo20130530 distributions of stars and dark matter from the disrupting Sagittarius dwarf galaxy

La corriente de estrellas de Sagitario es el resultado de las fuerzas de marea galácticas sobre una pequeña galaxia satélite de la Vía Láctea. Se han observado este tipo de chorros en otras galaxias y las simulaciones numéricas por ordenador indican que la materia oscura del halo galáctico es fundamental para predecir su forma y evolución. Los autores han considerado dos modelos posibles, “light Sgr” asume que la masa de la galaxia satélite progenitora era de 1010.5 M⊙ (masas solares) y “heavy Sgr” que era de 1011 M⊙ (hay que recordar que simulaciones previas requieren una masa mínima de ∼1010 M⊙ para que las fuerzas de marea galácticas permitan la formación de este chorro de materia). En ambos casos, la modulación anual de la señal de materia oscura obtenida por DAMA/LIBRA se verá afectada. En el caso de que las partículas de materia sean de baja masa (unos 10 GeV/c²), se espera un incremento entre el 20% y el 40% (respecto a lo esperado para partículas de alta masa, pongamos unos 100 GeV/c²). Por ahora, los datos de DAMA/LIBRA tienen mucha incertidumbre y no es posible observar con precisión el incremento esperado para partículas de baja masa. Experimentos futuros podrán aclarar este asunto. 


Archivado en: Astrofísica, Ciencia, Física, Materia oscura, Noticia CPAN, Noticias, Physics, Science Tagged: Astrofísica, Ciencia, Curiosidades, estrellas, Física, Física teórica, Materia oscura, Noticias, Partículas elementales

El ARN no codificante largo y la estructura 3D de los cromosomas

$
0
0

Dibujo20130523 Long Noncoding RNAs May Alter Chromosome 3D StructureLa función biológica de las secuencias largas de ARN no codificante (lncRNA) no está clara. Jesse Engreitz, doctorando de Mitchell Guttman y Eric Lander en el Instituto Broad en Cambridge, Massachusetts, ha estudiado la función de uno de ellos, XIST, conocido desde hace 20 años y que cierra uno de los cromosomas X en las mujeres. XIST ayuda a modelar la estructura 3D del cromosoma. Los lncRNA podrían influir en la forma de la cromatina, regulando así la actividad del cromosoma. El genoma humano tiene casi 21.000 genes que codifican proteínas, pero también incluye otros “genes” no codificantes. Se estima que tiene unos 13.000 “genes” que especifican secuencias largas de ARN no codificante (lncRNA). Aún es pronto para generalizar el nuevo hallazgo, pero lo que parece claro que parte de los lncRNA podría tener una función (contradeciendo la hipótesis de que representan “ruido” evolutivo (ADN que se transcribe al azar en ARN sin una función biológica concreta). Nos lo cuenta Elizabeth Pennisi, “Long Noncoding RNAs May Alter Chromosome’s 3D Structure,” Science 340: 910, 24 May 2013.

El experimento realizado por Engreitz y sus colegas consiste en mover la posición del gen XIST en el ADN del cromosoma X. Gracias a ello comprobaron cómo interacciona con la cromatina. Lo más curiosa es que esta interacción no depende de las secuencias  de ADN que tenga alrededor. Por ello, el nuevo estudio sugiere que los lncRNAs representen un nuevo tipo de gen regulador de la expresión génica. Resultados preliminares con otros lncRNAs sugieren que su función biológica es similar a la de XIST, según ha indicado Engreitz.

Por cierto, ya hay otras funciones de los lncRNAs que han sido documentadas, como su función en la regulación de la producción de eritrocitos o glóbulos rojos (eritropoiesis) en ratones. Los lncARNs parece que pueden regular la expresión genética mediante una diversidad de mecanismos, como la modificación de la cromatina, la potenciación de la transcripción y la promoción de la degradación del ARNm. Más información en Wenqian Hu et al., “Long noncoding RNA-mediated anti-apoptotic activity in murine erythroid terminal differentiation,” Genes and Development, 2011.


Archivado en: Biología, Ciencia, Noticias, Science Tagged: Biología, Ciencia, Experimento, Genética, Noticias

El juego de la vida de Conway implementado con filosilicatos

$
0
0

Dibujo20130604 game of life - Phyllosilicates sheets

El juego de la vida es un ejemplo de un autómata celular, diseñado por el matemático británico John Horton Conway en 1970. Un filosilicato es un mineral formado por capas de tetraedros de (SiO4)4- unidos entre sí por los tres oxígenos de la base del tetraedro formando una red hexagonal y con el cuarto oxígeno de cada tetraedro apuntando hacia afuera de la capa. Los átomos de silicio y oxígeno pueden estar en su estado fundamental (0) o en un estado excitado (1). En la figura de arriba los átomos de silicio y oxígeno excitados se  representan por un punto negro y un círculo, resp. Los oxígenos pueden cambiar su estado en función del estado de sus 6 oxígenos vecinos y los silicios en función de sus 3 silicios vecinos. Las reglas son similares a las del juego de la vida de Conway. El estado de los átomos de oxígeno y silicio puede cambiar con las siguientes reglas: un nodo de silicio en estado 0 pasa a estado 1 sólo si tiene 1 o 3 vecinos en estado 1, y uno en estado 1 permanece en dicho estado sólo si tiene 2 vecinos en estado 1; un nodo de oxígeno en estado 0 pasa a estado 1 sólo si tiene dos vecinos en estado 1, y uno en estado 1 permanece en dicho estado sólo si no tiene vecinos en estado 1, o si tiene 6 (regla R65), 4 (regla R68) o 3 (regla R72) vecinos en estado 1. Los patrones robustos en este juego de la vida con filosilicatos corresponden a defectos estables. Más información y ejemplos en Andrew Adamatzky, “Game of Life on Phyllosilicates: Gliders, Oscillators and Still Life,” Physics Letters A 377: 1597-1605, 2013 [arXiv:1306.0253].

Dibujo20130604 Phillosilicate automata


Archivado en: Ciencia, Física, Informática, Noticias, Physics, Science Tagged: Ciencia, Curiosidades, Experimento, Física, Física computacional, Informática, Noticias

El coste enzimático de la eficiencia en el metabolismo energético

$
0
0

Dibujo20130605 structural differences between ED and EMP glycolytic pathways

Todo el mundo sabe que el coste de una obra de teatro además del trabajo de los actores incluye a mucho personal entre bambalinas. El coste termodinámico de una ruta metabólica también incluye un coste entre bambalinas, el coste proteómico de la síntesis de sus enzimas. Nos lo recuerda un nuevo artículo en PNAS que estudia en procariotas la ruta metabólica de la glucólisis, la síntesis de energía (moléculas de ATP) oxidando glucosa. La ruta metabólica estándar para la glucólisis es la de Embden-Meyerhoff-Parnass (EMP), que contiene 10 reacciones enzimáticas y cuyo producto son dos moléculas de ATP. Sin embargo, hay otras rutas para la glucólisis en procariotas, siendo la más común la ruta de Entner-Doudoroff (ED), que produce una sola molécula de ATP, pero sólo tiene 6 reacciones enzimáticas. Avi Flamholz (Instituto Weizmann de Ciencia, Rehovot, Israel) y sus colegas afirman que la prevalencia de la ruta ED en procariotas es debido a que requiere menos enzimas (6 en lugar de 10); este resultado lo han obtenido tras un análisis termodinámico de la cinética química de estas rutas metabólicas que incluye el coste termodinámico de la producción de las enzimas (normalmente despreciado en este tipo de análisis). El nuevo estudio nos recuerda que las bambalinas también existen en el metabolismo celular. Nos lo cuentan Arion I. Stettner, Daniel Segrè, “The cost of efficiency in energy metabolism,” PNAS, AOP May 31, 2013, quienes se hacen eco del artículo técnico de Avi Flamholz et al., “Glycolytic strategy as a tradeoff between energy yield and protein cost,”PNAS, AOP Apr 29, 2013.

Dibujo20130605 Phylogenetic analysis of the ED and EMP pathways

La estequiometría química de las rutas metabólicas de Embden-Meyerhof-Parnas (EMP) y Entner-Doudoroff (ED) parece indicar que la ruta EMP es más óptima que la ruta ED ya que produce dos veces más ATP para la misma cantidad de glucosa. En la primera etapa de la ruta EMP, la glucosa es fosforilada dos veces, consumiendo dos ATP, mientras que en ruta ED sólo es fosforilada una vez. Se cree por ello que la ruta ED es filogenéticamente más antigua que la ruta EMP (de hecho, es la dominante entre los eucariotas). Además, se cree que la ruta EMP es un refinamiento evolutivo de la ruta ED para optimizar su rendimiento (o eficiencia). Sin embargo, esta optimización tiene un costo enzimático mucho mayor.

Flamholz et al. miden el coste enzimático en cada ruta metabólica utilizando la relación de Haldane aplicada a la cinética enzimática de Michaelis-Menten; esta relación muestra de forma explícita la cantidad de enzima necesaria para la reacción química. Han aplicado un algoritmo de optimización con restricciones (cuyo código está diponible en la web y aparece en la información suplementaria de acceso gratuito) para demostrar que la ruta de EMP tiene un coste en proteínas 3,5 veces mayor que la ruta ED. Este mayor coste enzimático conlleva un alto consumo de proteoma (algo ya reconocido por autores anteriores en Escherichia coli y Saccharomyces cerevisiae). Como la ruta EMP tiene una alta producción de ATP a costa de una costosa maquinaria enzimática, nos podemos preguntar ¿por qué los procariotas prefieren la ruta ED y los eucariotas la EMP? Como siempre, la dinámica evolutiva conlleva ciertos compromisos y el coste enzimático es más relevante en seres vivos más simples (como los procariotas), en los que el efecto de la epistasis es menor.

En mi opinión, el nuevo trabajo de Flamholz et al. nos recuerda que no siempre lo que está más a la vista es lo más relevante y que los enfoques holísticos en biología de sistemas nos van a ofrecer gran número de sorpresas a la hora de entender la complejidad del metabolismo de los seres vivos.


Archivado en: Biología, Bioquímica, Ciencia, Noticias, Química, Termodinámica Tagged: Biología, Biología de sistemas, Bioquímica, Ciencia, enzimología, Glucólisis, Metabolismo, Noticias, PNAS, Red metabólica

Nueva fase exótica en los superconductores de alta temperatura

$
0
0

Dibujo201300606 electronic order - cuprates

En 1986 se descubrió la superconductividad de alta temperatura en cupratos (óxidos de cobre). En 1988 se predijo que en ellos, de forma espontánea, ciertos electrones se organizan en vórtices de corriente que actúan como un atasco de tráfico para el resto. En 1997 se calculó su efecto en los fonones (vibraciones de los iones que forman la estructura cristalina) esta nueva fase exótica de la materia. Gracias a ultrasonidos se ha medido dicho efecto confirmando esta predicción. ¿Podría estar relacionada con el origen de la superconductividad de alta temperatura? Gracias a la espectroscopía de resonancia por ultrasonidos, que realiza una ecografía del material, se observa que la nueva fase depende de la temperatura y del dopaje con “huecos” del material, afectando a la temperatura crítica del superconductor; se cree que los “atascos de tráfico” electrónico de la nueva fase exótica actúan como una especie de “pegamento” para los pares de Cooper responsables de la superconductividad. Aunque el origen de la nueva fase exótica de la materia no está claro y tampoco su acción detallada sobre los pares de Cooper, este nuevo descubrimiento experimental podría abrir una línea de ataque muy prometedora para resolver uno de los grandes misterios de la física actual, el origen de la superconductividad de alta temperatura. Por supuesto, serán necesarios nuevos estudios mediante ultrasonidos de la nueva fase en otros cupratos ya que este estudio se ha limitado a YBa2Cu3O6+δ. Nos lo cuenta Jan Zaanen, “High-temperature superconductivity: The sound of a hidden order,” Nature 498: 41–42, 06 Jun 2013, que se hace eco del artículo técnico de Arkady Shekhter et al., “Bounding the pseudogap with a line of phase transitions in YBa2Cu3O6+δ,” Nature 498: 75–77, 06 Jun 2013.

Dibujo1300605 The phase diagram of YBa2Cu3O6plusDelta

La nueva fase exótica depende del dopado P del cuprato (es decir, de la introducción de átomos con un electrón menos en la capa más externa que introducen “huecos”). Para un dopaje con “huecos” bajo, la nueva fase exótica presenta “atasco de tráfico” electrónico muy fuertes y la temperatura crítica de la superconductividad es “baja” (unos 61,6 K para el YBa2Cu3O6,60); conforme el dopaje con “huecos” crece, la nueva fase se debilita de forma gradual y la temperatura crítica para el superconductor crece (hasta unos 88 K para el YBa2Cu3O6,98). La nueva fase exótica se transforma en una fase ya conocida llamada “metal extraño” (un líquido de Fermi de electrones cuya conductividad depende de la temperatura como una ley de potencias en lugar de como una función lineal). El origen físico de la nueva fase exótica no se conoce, pero se cree que podría ser desvelado gracias a las técnicas de teoría de cuerdas (AdS/CFT) que se utilizan para entender los “metales extraños.”

Dibujo201300606 Frequency scan across the resonances - Geometry of the crystal-transducer assembly

La espectroscopía de resonancia por ultrasonidos (RUS) utiliza un sistema piezoeléctrico que excita el cristal y mide su respuesta mecánica. Las resonancias asociadas a la nueva fase aparecen alrededor de 2 MHz y lo que se oberva en el experimento es cómo varían con la temperatura las frecuencias de resonancia, variación debida a los cambios en el estado termodinámico del cristal (que debe ser de muy alta calidad).Los cristales de YBCO ultrapuros utilizados en los experimentos tienen unas dimensiones de 1x1x0,2 mm y una masa inferior a un miligramo. Los experimentos realizados no son sencillos, pero se cree que en un futuro también podrán ser realizados con otros cupratos. Observar la nueva fase exótica en otros superconductores de alta temperatura será fundamental para confirmar la hipótesis de que tiene un importante papel en su origen.


Archivado en: Ciencia, Física, Noticias, Physics, Science Tagged: Ciencia, cupratos, Experimento, Física, Nature, Noticias, Superconductividad, Superconductores

Sábado, reseña: “Biotecnología en el menú” de José María Seguí Simarro

$
0
0

Dibujo20130608 cover book - biotecnologia-en-el-menu-9788437090030

En 2011, ante un auditorio formado por profesores de enseñanza secundaria de la rama de ciencias, José María Seguí Simarro impartió una conferencia titulada “Panorama actual de la Biotecnología vegetal.” Expuso argumentos a favor y en contra de los transgénicos de un modo y con un peso parecido al reflejado en su libro “Biotecnología en el menú,” Cátedra de Divulgació de la Ciència, Universitat de València, 2013. “Tras la charla, una de las asistentes formuló en voz alta con un tono serio, contundente y seguro: “¿Podría Vd. decirme qué hacía y quién financiaba sus investigaciones en EE.UU.?” ¿Por qué haría la asistente esta pregunta tan personal y tan fuera de contexto? Quizás pensara que “si alguien viene aquí a defender los transgénicos, que todos los bienpensantes sabemos son malos, es que tiene algún inconfesable interés para hacerlo. El ponente debía estar vendido al “lado oscuro” y quería arrastrar al auditorio con él” [página 173].

La respuesta de Seguí Simarro fue que “estuvo trabajando en una universidad pública, que se nutre de fondos del Estado y de las matrículas que abonan los alumnos, y de ahí se pagaba su investigación. Además, el salario venía abonado íntegro por el NIH, el equivalente al Ministerio de Sanidad español. Se dedicó a estudiar cómo y por qué se dividen las células vegetales, lo que, hasta donde se sabe hoy en día, nada tiene que ver con la transgénesis. En ese momento a la asistente le cambió el rostro. No le satisfizo la respuesta. Se le notó que no era lo que esperaba. Siguió preguntando sobre otros temas pero con mucha menos seguridad en la voz” [páginas 172 y 173].

También nos cuenta que le ocurrió algo parecido al “conocido divulgador científico Félix Ares en otra charla. Al tocar el tema de las plantas transgénicas, preguntó a la audiencia si había alguien que no estuviera dispuesto a consumir transgénicos. Levantó la mano un muchacho, a quien el Prof. Ares preguntó por las razones de su negativa. El muchacho respondió: “¡Porque llevan genes!” No es de extrañar que si a alguien le bombardean con alegatos en contra del uso de genes en organismos transgénicos acabe desarrollando fobia génica. ¿Alguien le explicó a este muchacho que en cada una de sus millones de células tiene miles de genes?” [pág. 174].

Dibujo20130608 cover book - los-productos-naturales

Jose Miguel Mulet, autor de “Los productos naturales, ¡vaya timo!,” Colección ¡Vaya timo!, Laetoli, 2011, aparece citado en el libro de su colega Seguí Simarro: ”¿Qué intereses mueven a algunos científicos que crean infundadas alarmas sociales con este tema? Podría ser que en algún caso fuera simplemente un interés crematístico o ansia de notoriedad de científicos que pretenden conseguir una relevancia que por su trabajo en el laboratorio no conseguirían. Así lo afirma al menos el científico valenciano José Miguel Mulet en una reciente entrevista” [pág 157].

“El analfabetismo científico de gran parte de los estratos sociales es un hecho a nivel mundial que puede tener, y de hecho ya está teniendo, graves consecuencias en la percepción del mundo tecnológico que nos rodea. Carl Sagan decía que “la mezcla de poder por el lado de la ciencia e ignorancia por parte de la sociedad que le da sustento es una mezcla explosiva altamente peligrosa e inconveniente” [páginas 116 y 117].

“Las emociones y los sentimientos, irracionales en la esencia, son uno de los principales motores de las personas. Resulta curioso ver que muchos de los que tienen esta visión idílica de los campos de cultivo, más parecida a un inmenso jardín del Edén que a lo que realmente son, no tienen muchos reparos en que se modifiquen genéticamente otros organismos para producir medicinas, o en que se construyan pantanos que alteran el curso de los ríos, o diques que impiden en movimiento natural del mar, o carreteras que cruzan y desforestan bosques y parques naturales, o túneles que atraviesan montañas, o incluso coches que todos los días contribuyen a alterar la composición natural de la atmósfera. Es decir, para algunos se puede alterar y manipular la naturaleza, siempre que no sea mediante transgénesis, porque la trasngénesis tiene algo especial. Algo que con datos objetivos no se sostiene, pero que al parecer sí tiene sentido desde un discurso emocional” [páginas 122 y 123].

“Es esencial hacer ver a la sociedad que cuando sale al campo y ve un precioso maizal, no está viendo “naturaleza salvaje en estado puro.” Es tan artificial como lo sería un maizal transgénico. Y lo mismo sucede con el resto de los cultivos que utilizan semilla híbrida. Lo importante no es que el cultivo sea transgénico, sino que tenga genes mejores la flora autóctona. De hecho, los cultivos comerciales están causando pérdida de la biodiversidad y erosión genética desde hace ya muchos años” [página 100].

“Todas las alertas alimentarias vegetales registradas por la EFSA han sido debidas a alimentos convencionales o ecológicos (que se supone son más sanos y seguros), nunca transgénicos [fuente]. El riguroso sistema de control y seguridad que exige la legislación a los transgénicos, pero no a los convencionales ni a los ecológicos, hace que los transgénicos sean los alimentos más seguros que jamás ha habido” [página 89].

Por supuesto, “no existe ningún ámbito de riesgo cero. Jamás. Toda actividad humana conlleva un cierto riesgo que ha de ser evaluado en función de los beneficios que tal actividad reporta. Hay numerosos productos naturales que incluyen peligrosas sustancias muragénicas o cancerígenas, como la pimienta negra, las setas comestibles, el apio o los frutos secos, y sin embargo, no los comemos sin miedo y sin percibir en absoluto el riesgo que su ingesta conlleva. ¿Por qué? Porque son naturales. Ningún conservante alimentario autorizado llega ni de lejos a ser tan peligroso como las bacterias u hongos que el conservante evita” [página 124].

“Biotecnología en el menú” es un complemento ideal a “Los productos naturales, ¡vaya timo!,” escrito con seriedad, repleto de referencias bibliográficas (muchas de ellas a artículos técnicos) nos presenta argumentos con rigor científico a favor y en contra de los transgénicos. Obviamente el equilibrio se decanta hacia los argumentos a favor, pues desde un punto de vista científico se trata de la única opción razonable.


Archivado en: Ciencia, Libros, Recomendación, Science Tagged: Alimentos transgénicos, Ciencia, Genética, Noticias, nutrición, Personajes, Reseña
Viewing all 1793 articles
Browse latest View live