Quantcast
Channel: Francis (th)E mule Science's News
Viewing all 1793 articles
Browse latest View live

Por qué brilla la nieve con chiribitas

$
0
0

Dibujo20130429 Brilliant colours from a white snow cover

A veces, cuando caminas por la nieve observas destellos de colores brillantes que aparecen y desaparecen por doquier, que incluso puedes fotografiar o grabar en vídeo. Estas chiribitas en la nieve son debidas a la reflexión y refracción de la luz del Sol en los pequeños copos de nieve de la superficie. Al caminar estos destellos cambian de color por la refracción de la luz que atraviesa la estructura hexagonal de los cristales de hielo; al cambiar un poco el ángulo entre tus ojos, el copo de nieve y el Sol, cambia el color de la luz (recuerda el fenómeno del arcoiris que emerge de un prisma). Nos lo recuerdan Michael Vollmer, Joseph A Shaw, “Brilliant colours from a white snow cover,” Physics Education 48: 322-331, 2013.

Dibujo20130430 snow surface - close-up - schematic view hexagonal symmetry ice crystal

Por cierto, el color blanco de la nieve se debe a que el coeficiente de absorción de luz del hielo es bastante pequeño; este coeficiente es menor para el color azul que para el rojo, por lo que los grandes bloques de hielo (como en los glaciares) se ven con un espectacular color azul (como la foto del Perito Moreno, Argentina, de más abajo). Pero para un copo de nieve (o unos pocos), la atenuación es despreciable, y el fenómeno óptico dominante son la reflexión y la refracción. 

Dibujo20130430 pepito moreno - blue ice - argentina


Archivado en: Ciencia, Física, Noticias, Physics, Science Tagged: Óptica, Ciencia, Curiosidades, Física, nieve, Noticias

La correlación entre el índice h y el número de citas

$
0
0

Dibujo20130407 relation between h-index and number of citations and publications

La bibliometría está repleta de conjeturas verificadas sólo con pequeños conjuntos de datos. Tras analizar las publicaciones de 35.136 investigadores se confirma la fuerte correlación entre el índice h y el número total de citas recibidas C, siguiendo la ley de potencias h ~ C0,42, predicha por el propio Hirsch, inventor del índice h, que la verificó con un pequeño conjunto de datos. También se correlaciona con el número de publicaciones N, aunque con menor significación. La correlación entre estos tres índices bibliométricos es h ~ C0,41 N0,18. Los autores del nuevo estudio han partido de las citas de los artículos de 89.786 científicos con “profile” en Google Scholar (datos recogidos entre el 29 de junio al 4 de julio de 2012), asociados a 67.648 palabras clave diferentes; entre todos ellos han seleccionado los autores que tienen al menos 20 artículos y una carrera con más de 5 años de duración (reduciendo el número a 35.136 científicos). Esta validación a gran escala ha sido desarrollada por Filippo Radicchi, Claudio Castellano, “Analysis of bibliometric indicators for individual scholars in a large data set,” arXiv:1304.1267, 04 Apr 2013. Los aficionados a la bibliometría dispuestos a realizar otros análisis sobre los mismos datos pueden descargar dichos datos en esta página web de los autores. 

Dibujo20130407 word cloud most common keywords - academic profiles data set

Los artículos y científicos considerados en este estudio han sido multidisciplinares, como muestra esta nube de palabras clave; el sesgo hacia la informática y la biología es debido a que en estos campos el número de investigadores con profile en Google Scholar es mayor.

Dibujo20130407 h-index and number of citations and publicationsPor supuesto, las conjeturas validadas de forma experimental en este amplio estudio no sorprenderán a nadie, pues muchos expertos las asumen como “obvias” (o al menos como “razonables”).


Archivado en: Índice-h de Hirsch, Bibliometría, Ciencia, Noticias, Science Tagged: Bibliometría, Ciencia, Curiosidades, Estadística, Número de citas, Noticias, publicaciones

La teoría de cuerdas, ¿ciencia o pseudociencia?

$
0
0

Dibujo20130501 introduccion teoria cuerdas - revista amazings - numero 1

Permíteme sacar unas frases fuera de contexto de un artículo sobre la falsabilidad como criterio para diferenciar entre ciencia y pseudociencia escrito por mi amigo César Tomé (@EDocet), “Las teorías científicas no son falsables,” Cuaderno de Cultura Científica, 30 Abr 2013: “la llamada teoría de cuerdas, por ejemplo, es una pseudociencia. Lo que implica que debe haber algo más que la capacidad de predicción empírica comprobable si hemos de considerar una hipótesis como la teoría de cuerdas como perteneciente al ámbito de la ciencia, algo que pocos dudan. Por consiguiente, si la falsabilidad debe ser un criterio para considerar una hipótesis como científica, y lo es, pero no así su capacidad de predicción empírica, entonces no es una característica de las hipótesis.” Y concluye su interesante artículo de opinión con: “Por tanto, las teorías científicas no son falsables, son tratadas como tales. La falsabilidad, quede claro, es una actitud.

Como yo decía en mi artículo “Introducción a la teoría de cuerdas” en el número 1 de la revista Amazings, por cierto, muy criticado tanto por legos como por expertos: “La teoría de cuerdas es un marco teórico [la palabra correcta es modelo], como puede serlo la mecánica clásica. Verificar la segunda ley de Newton (fuerza es igual a masa por aceleración) es imposible de forma general, no se puede demostrar que no haya alguna fuerza clásica que no la cumpla. Sólo se puede verificar esta ley para fuerzas concretas (la gravedad de Newton o la fuerza de Coulomb). Lo mismo pasa con la teoría de cuerdas. Sus predicciones dependen de la compactificación concreta para las dimensiones extra del espaciotiempo utilizada. El desacuerdo con los experimentos de una compactificación concreta no invalida la teoría, pues podría haber otra que sí estuviera de acuerdo con ellos. Por ejemplo, hay compactificaciones que predicen cuatro generaciones de partículas elementales, cuando solo se conocen tres, o que predicen que los neutrinos no tienen masa en reposo, cuando se sabe que la tienen, o que predicen que la constante cosmológica es negativa, de hecho en las teorías con supersimetría es difícil incorporar una constante cosmológica positiva como la implicada por la existencia de la energía oscura. Sin embargo, estas predicciones erróneas no invalidan el marco teórico de las cuerdas. La teoría de cuerdas también realiza predicciones genéricas que son independientes de la compactificación, como la existencia de la gravedad y de la supersimetría, pero hasta que no se conozca la versión definitiva de la teoría será difícil diseñar experimentos para verificar fuera de toda duda este tipo de predicciones generales.

Permíteme darle más vueltas al argumento, pues muchos lectores no se dieron cuenta en su momento de lo que yo quería decir y me criticaron por ello (supongo que no sin razón). Las dos cuestiones “¿es falsable la mecánica clásica?” y “¿es falsable la segunda ley de Newton?” son muy diferentes en grado y forma. Los experimentos a gran velocidad (momento) y/o energía falsaron los principios de la mecánica clásica (como el principio de relatividad de Galileo) y llevaron a la mecánica relativista (basada en el principio de relatividad de Einstein). Ahora bien, ¿falsan la segunda ley de Newton? Recuerda que en teoría de la relatividad la fuerza se define como la derivada del momento lineal, es decir, igual que en la segunda ley de Newton. Quizás sea una cuestión lingüística, pues la segunda ley de Newton se llama “ley” en la mecánica clásica y se llama “definición” en el mecánica relativista. Pero estarás de acuerdo conmigo con que las evidencias empíricas que llevaron a la mecánica relativista no contradicen la segunda ley de Newton (o si prefieres, la nueva formulación relativista de la segunda ley de Newton).

Permíteme darle todavía más vueltas al argumento, pues si muchos lectores no se dieron cuenta en su momento de lo que yo quería decir estoy seguro que todavía no se dan cuenta de lo que estoy diciendo. Estarás de acuerdo conmigo en que la evidencia empírica a favor de la física cuántica falsea la física clásica. Pero, ¿falsea también la segunda ley de Newton? Como en el párrafo anterior, el concepto de fuerza en mecánica cuántica se define como la derivada temporal del momento lineal, es decir, según la segunda ley de Newton. Seguro que me dirás que en física cuántica el concepto de fuerza no tiene sentido, siendo una rémora del pasado introducida sólo para aplicar el principio de complementaridad (vía el teorema de Ehrenfest y similares). Pero, stricto sensu, si utilizas el concepto de fuerza en mecánica cuántica lo haces vía la segunda ley de Newton, que actúa como “definición” (no como “ley”), de nuevo llevándonos a una mera cuestión lingüística.

¿Ha sido falsada la segunda ley de Newton gracias a la evidencia experimental de los últimos 150 años? ¿Es falsable la segunda ley de Newton? ¿Es una hipótesis la segunda ley de Newton? ¿Es una teoría? ¿Qué es? Quizás no deberíamos llamarla “ley” pero discutir sobre si la filosofía de la ciencia es sólo lingüística de la ciencia nos llevaría lejos…

Dibujo20130501 jenna marbles

Los más avisados de mis lectores dirán que la segunda ley de Newton es matemáticas. Una definición matemática de un concepto que se puede extrapolar (o extender, diría un matemático) fuera del contexto inicial donde fue formulada. Por ello es aplicable a cualquier teoría dinámica (incluso en teoría cuántica de campos o en teoría de cuerdas se habla de fuerzas como variaciones temporales del momento lineal).

La teoría de cuerdas tiene hipótesis, leyes, afirmaciones, o como quieras llamarlas, similares al principio de relatividad de Galileo en mecánica clásica y otras similares a la segunda ley de Newton. Las primeras son falsables mediante experimentos (aunque dichos experimentos estén más allá de lo realizable con la tecnología actual), pero las segundas no son falsables, pues se pueden interpretar como definiciones, como “verdades” matemáticas que dependen de un contexto, pero que se pueden adaptar a cualquier otro contexto, como la segunda ley de Newton.

Como he comentado en el blog Cuaderno de Cultura Científica: “Los “modelos” (yo a veces los llamo “marcos conceptuales”) conllevan cierto número de “hipótesis,” algunas que pueden ser falsadas sin que el “modelo” se resienta y otras que falsan todo el “modelo.” La teoría de cuerdas es un “modelo” muy general y muy continuista con el anterior (la teoría cuántica de campos), que incluye “hipótesis” de ambos tipos, las que no pueden falsar el modelo, sólo requieren adaptarlo, y las que lo pueden falsar de forma definitiva. El gran problema respecto a estas últimas es que no tenemos una formulación matemática rigurosa de dichas hipótesis falsadoras del modelo completo [que a día de hoy son más intuiciones que hipótesis, stricto sensu] y por tanto no podemos diseñar experimentos para falsar el modelo completo.”

“A día de hoy, la teoría de cuerdas sigue en pañales y sólo tenemos hipótesis del primer tipo (cuya falsación no falsa el modelo). De hecho, muchas de las predicciones “genéricas” de la teoría de cuerdas ya han sido falsadas, pero la teoría de cuerdas sigue tan viva y coleando como siempre, pues se ha aceptado que no se entendía bien el modelo y éste se ha sido adaptado para que sus “nuevas” predicciones “genéricas” sobre dichos asuntos estén de acuerdo con los nuevos resultados y por tanto, en lugar de haber sido falsadas, se hayan transformado en “confirmaciones” (predicciones a posteriori).”

Volviendo a mi línea argumental. La segunda ley de Newton, ¿es ciencia o pseudociencia? En mi modesta opinión, la pregunta si la teoría de cuerdas en su formulación actual es ciencia o pseudociencia es una pregunta del mismo tipo. Las leyes de Newton eran los axiomas de la mecánica clásica, hasta que Einstein descubrió un axioma más fundamental, el principio de Galileo, que era falsable (de hecho, ya había sido falsado por los experimentos de Michelson-Morley, Fizeau y otros). Lo poco que sabemos de la formulación definitiva de la teoría de cuerdas puede hacer pensar a algunos en que la mal llamada “teoría” no es falsable, pero aún desconocemos el equivalente al principio de Galileo en la teoría de cuerdas (también lo desconocemos en la teoría cuántica de campos a partir de la cual nació la teoría de cuerdas como extensión “más natural” del concepto de campo cuántico a objetos extendidos).

Dibujo20130501 Scarlett Johansson

Algunos lectores seguirán perdidos (espero que pocos). Pongamos algunos ejemplos concretos. La teoría de cuerdas predice la existencia de dimensiones extra del espaciotiempo. ¿Descubrir dimensiones extra del espaciotiempo confirma la teoría de cuerdas? No, pues hay otras teorías que también las predicen y son diferentes de la teoría de cuerdas. ¿Demostrar que no existen dimensiones extra del espaciotiempo falsea la teoría de cuerdas? No, porque hay versiones de la teoría de cuerdas en 4D en las que las dimensiones extra del espaciotiempo son sólo un artificio matemático para simplificar ciertos cálculos. Por tanto, ¿son las dimensiones extra del espaciotiempo un axioma (hipótesis que puede falsear el modelo) de la teoría de cuerdas? No, ningún teórico de cuerdas lo piensa así; se trata de un resultado obtenido tras una serie de cálculos bajo la hipótesis de un espaciotiempo continuo, cuando la mayoría de los expertos creen que el concepto de espaciotiempo es emergente en la teoría (siendo el concepto “número de dimensiones” un mero artefacto).

Otro ejemplo concreto. La teoría de cuerdas predice la supersimetría. ¿Descubrir la supersimetría confirma la teoría de cuerdas? No, pues la supersimetría puede ser incorporada a cualquier teoría cuántica de campos sin necesidad de incorporar la teoría de cuerdas. ¿Demostrar que no se da la supersimetría en la Naturaleza falsea la teoría de cuerdas? No, porque la supersimetría es imprescindible en la teoría de supercuerdas (límite en 10 dimensiones de la teoría) y en la teoría de la supergravedad (límite en 11 dimensiones de la teoría), pero se cree que la teoría de cuerdas trasciende a estos límites asintóticos y hay propuestas en las que supersimetría es también un concepto emergente. Por tanto, ¿es la supersimetría un axioma (hipótesis que puede falsear el modelo) de la teoría de cuerdas? No, aunque la mayoría de los teóricos de cuerdas puede que lo piense así, hay una amplia minoría que disiente. La supersimetría facilita muchísimo los cálculos en cualquier teoría cuántica de campos (como los límites asintóticos de la teoría de cuerdas antes comentados), por ello suele ser considerada parte intrínseca de la teoría de cuerdas por el mainstream, pero no es imprescindible (hay modelos cuerdísticos que la rompen a todas las energías).

Y otro ejemplo más. La teoría de cuerdas se diferencia de la teoría cuántica de bucles en la predicción de un espaciotiempo continuo. ¿Descubrir que el espaciotiempo es continuo a todas las energías posibles confirma la teoría de cuerdas? Obviamente no.¿Demostrar que el espaciotiempo no es continuo falsea la teoría de cuerdas? Tampoco, de hecho, ya nos lo decía el propio Ed Witten en 1996 en Physics Today, el destino del espaciotiempo continuo no está escrito en la teoría de cuerdas. Para la mayoría de los expertos más reputados en teoría de cuerdas el espaciotiempo es un concepto emergente. Por tanto, ¿es el espaciotiempo continuo un axioma (hipótesis que puede falsear el modelo) de la teoría de cuerdas? Aún nadie sabe cómo emerge y cuál es la naturaleza discreta del espaciotiempo en teoría de cuerdas, pero la mayoría de los expertos cree que lo que existe en la Naturaleza son “cuerdas” (en realidad campos cuerdísticos) sin un espaciotiempo subyacente a la escala de Planck, que emerge a baja energía a partir de los campos cuerdísticos.

Un último ejemplo, pues no quiero aburrir más. La teoría de cuerdas es una teoría cuántica que asume los principios y axiomas de la mecánica cuántica. ¿Descubrir la existencia de una teoría precuántica (de la que emerge la cuántica) falsea la teoría de cuerdas? De nuevo debemos contestar que no. Incluso nos lo decía el propio Ed Witten en 1997 en Physics Today, uno de los objetivos de la teoría de cuerdas es explicar por qué la mecánica cuántica es como es. La formulación actual de la teoría es cuántica, pero algunos axiomas de la mecánica cuántica parece que podrían ser derivadas de la teoría de cuerdas. ¿Demostrar que no existe una teoría precuántica y que la teoría de cuerdas no puede explicar todos los axiomas de la mecánica cuántica falsea esta teoría? No, como es obvio. Aún desconocemos cuáles son los axiomas de la física cuántica imprescindibles en teoría de cuerdas, pero la intuición de la mayoría de los expertos apunta a que no son necesarios todos, pero podrían serlo.

Y así sucesivamente… Podríamos poner muchos más ejemplos, pero lo que debe quedar claro al lector es que me ratifico en la opinión que expresé en mi artículo ”Introducción a la teoría de cuerdas” en el número 1 de la revista Amazings: “Predecir el futuro es imposible. La teoría de cuerdas ha recorrido un largo camino apoyada en la evidencia del modelo estándar de las partículas elementales y la gravedad de Einstein. (…) Pero todo lo que se sabe sobre la teoría de cuerdas se conoce bajo una aproximación matemática llamada teoría perturbativa. Se cree que la versión no perturbativa de la teoría dará respuesta a todos los grandes interrogantes clave de la física de altas energías: por qué la mecánica cuántica es como es, qué es el tiempo, por qué surgió nuestro universo en la gran explosión, [cómo emerge el concepto de espaciotiempo], etc. (…) Sin embargo, mientras no conozcamos la versión definitiva de la teoría de cuerdas, no podremos saber qué incógnitas sobre el universo es realmente capaz de explicar con éxito.”

Mientras no conozcamos la versión definitiva de la teoría de cuerdas, no podremos saber si será falsable o no falsable mediante experimentos. Pero mientras tanto nos tenemos que quedar con el argumento expuesto por Juan Ignacio Pérez (@Uhandrea) en Twitter:

Aunque los filósofos de la ciencia opinen todo lo contrario. Por cierto, recomiendo la charla en youtube del genial Mario Bunge, “Pseudociencias Naturales,” Universidad de La Punta, San Luis, Argentina.


Archivado en: Ciencia, Física, Physics, Recomendación, Science Tagged: Ciencia, Falsabilidad, Física, Física teórica, Filosofía de la ciencia, Hipótesis, Modelo, Opinión, teoría, Teoría de cuerdas (String Theory)

Nature luchará contra la irreproducibilidad de los resultados de investigación

$
0
0

Dibujo20130501 research reproducibility

Una práctica habitual, que cualquier estudiante que ha tratado de reproducir los resultados de un artículo técnico ha vivido en sus propias carnes, es la omisión de algún detalle importante, clave para la reproducción de los resultados. Los “jefes” tenemos que aplicar grandes dosis de ingenio para rellenar estas omisiones y convencer a nuestros estudiantes de que no son intencionadas (nunca se debe fomentar la “mala ciencia” entre nuestros pupilos). ¿Por qué muchos artículos científicos son irreproducibles? Quizás porque en la revisión por pares no hay tiempo para reproducir los resultados del artículo. Muchos revisores leen el artículo de forma diagonal y aceptan o rechazan el artículo en función de “detalles” (tanto técnicos como de forma), sin entrar en el meollo de la cuestión. ¿Deben los editores de las revistas de prestigio exigir a los revisores que garanticen la reproducibilidad de los resultados? La revista Nature ha decidido que a partir del próximo mes así lo exigirá. En mi opinión, otras revistas deberían seguir la misma filosofía. Nos lo cuentan en “Announcement: Reducing our irreproducibility,” Editorial, Nature, 24 Apr 2013. En el número de hoy dedican un especial a este asunto “Challenges in irreproducible research,” Special, Nature, 1 May 2013.

Dibujo20130501 research irreproducibility - for the sake of marketing

¿Una nueva carga para los revisores? No, según el anuncio oficial de Nature. Se supone que el comité editorial de Nature será el responsable de asegurar que las secciones de material y métodos de los artículos publicados presenten de forma sistemática toda la información necesaria. Se prestará especial atención al análisis estadístico de los resultados, alentando a los autores a ser rigurosos y transparentes. Sin embargo, nadie pondrá en duda que los revisores tendrán un papel muy importante en esta iniciativa de Nature. Todavía no se ha publicado el nuevo formulario a rellenar, pero con toda seguridad incluirá nuevos ítems relacionados con la reproducibilidad, metodología y robustez de los análisis presentados.

Dibujo20130501 research reproducibility - paper plane

El problema para los revisores no sólo es el tiempo (requerido para la revisión), sino también los medios. Muchos artículos en Nature utilizan equipos de laboratorio únicos, sólo disponibles en el momento de publicación por los autores del propio artículo. El conocimiento íntimo de estos equipos (con el objeto de descubrir algún detalle técnico imprescindible para la reproducibilidad de los resultados) está reservado de forma exclusiva a los propios autores (al menos hasta dentro de unos meses o años cuando otros laboratorios dispongan de equipos similares). Lograr que laboratorios independientes validen (o verifiquen) los resultados sobre el papel es muy fácil, pero en la práctica roza lo imposible. ¿Quién cubrirá dichos costes?

Dibujo20130501 research irreproducibility - a must

En mi opinión, el gran problema que se pretende resolver desde Nature está centrado en la literatura biomédica (pues en otros campos, como la nanotecnología, su solución es casi imposible). Los libros “Mala Ciencia” y “Mala Pharma” de Ben Goldacre discuten en detalle este problema y sus graves consecuencias en la práctica clínica. Todos nos ponemos en guardia cuando hablamos de vidas humanas y de la salud en general. Si un artículo (o una serie de artículos) son modificados o refutados por pruebas posteriores (que se podrían haber realizado en su momento), muchos enfermos pueden sufrir las consecuencias (a veces tan graves como para causarles una muerte más temprana). Pero realizar estas pruebas en el momento oportuno requiere dosis de transparencia por parte de laboratorios y empresas farmacéuticas, lo que está en tensión con sus intereses económicos. En mi opinión, las revistas científicas no pueden ser los únicos garantes de esta transparencia, en la que tienen que implicarse todas las partes interesadas. Algo que roza la utopía (aunque me pese mucho afirmarlo). Ya nos lo contaron en “Further confirmation needed,” Editorial, Nature Biotechnology 30: 806, 10 Sep 2012.

Dibujo20130501 Statistical power of a replication study - nature neuroscience

El gran problema de la reproducibilidad es el coste. No basta con reproducir el experimento con una muestra de tamaño similar, un análisis estadístico riguroso requiere utilizar tamaños muestrales mayores que reduzcan la dispersión del resultado. Esto es muy importante sobre todo cuando en el estudio original se han extraído conclusiones en el borde lo estadísticamente significativo (p ~ 0,05). Nos lo cuentan en más detalle en Katherine S. Button et al., “Power failure: why small sample size undermines the reliability of neuroscience,” Nature Reviews Neuroscience 14: 365-376, May 2013.

Dibujo20130501 accentuate the positive in scientific literature

Otro de los grandes problemas de la literatura científica es que se acentúan los resultados positivos. Nos pasa a todos. Recordamos cuando nos tocó la lotería una vez, pero olvidamos todas las veces que no nos tocó, aunque la cantidad de dinero que perdimos suele ser mayor que la que ganamos; esa vez que nos tocó alimenta nuestra esperanza de que nos vuelva a tocar y en mayor monto. La mayoría de las revistas publican resultados positivos porque son mucho más interesantes que los negativos para sus lectores. Por ello los resultados negativos tienen menor impacto y acaban desapareciendo de la literatura científica (salvo honrosas excepciones). La competición por el número de citas y por el índice de impacto tiene esta consecuencia, como nos contó Daniele Fanelli, “Negative results are disappearing from most disciplines and countries,” Scientometrics 90: 891-904, Mar 2012. Recomiendo la lectura de Ed Yong, “Replication studies: Bad copy. In the wake of high-profile controversies, psychologists are facing up to problems with replication,” Nature 485: 298–300, 17 May 2012.

En resumen, la iniciativa de Nature parece adecuada y necesaria, pero llevarla a la práctica requiere más que buenas intenciones. Deseo que sea un éxito, pero no auguro que acabe logrando lo que pretende. Espero errar.


Archivado en: Bibliometría, Ciencia, Noticias, Peer Review (Revisión por pares), Science Tagged: Bibliometría, Ciencia, Nature, Noticias, Reproducibilidad, revisión por pares, Revistas científicas

Simulan la interacción entre genotipo y desarrollo embrionario en la evolución del fenotipo de un diente

$
0
0

Dibujo20130501 Conceptual interpretation of the decomposition of the genotype-fitness map

Las simulaciones por ordenador de la evolución se suelen centrar en el genotipo y en el fenotipo, obviando el papel del desarrollo embrionario. Dos españoles publican en Nature una simulación de la evolución del diente de los mamíferos que lo tiene en cuenta. Isaac Salazar-Ciudad, ahora en la Universidad de Helsinki, Finandia, que fue Contratado Ramón y Cajal en la Universidad Autónoma de Barcelona, España (no quiero entrar en una discusión de la “fuga de cerebros,” pero estamos en un caso claro), y su estudiante de doctorado Miquel Marín-Riera (UAB), han estudiado la  evolución de la morfología de la forma tridimensional del diente con énfasis en los mecanismos de regulación genética durante el desarrollo embrionario. Este tipo de simulación permite determinar qué aspectos de la morfología 3D evolucionan de forma más fácil. Más información en español en UAB, “Simulan en 3D la evolución por selección natural de la forma de órganos complejos,” SINC, 1 mayo 2013. Para información divulgativa más técnica recomiendo P. David Polly, “Evolution: Stuck between the teeth,” Nature AOP 01 May 2013; el artículo técnico es Isaac Salazar-Ciudad, Miquel Marín-Riera, “Adaptive dynamics under development-based genotype–phenotype maps,” Nature AOP 01 May 2013.

Dibujo20130501 schematic algorithm for evolutionary model

La selección natural selecciona los individuos más aptos (con mayor fitness) en función de la adaptación de su fenotipo al contexto ecológico. Las mutaciones actúan sobre el ADN y los genes, pero la regulación de la expresión génica juega también un gran papel, ya que el fenotipo no es una estructura estática a partir de los genes, sino una estructura dinámica que se desarrolla de forma secuencial desde la fecundación hasta la edad adulta. El nuevo artículo de Salazar-Ciudad y Marín-Riera nos muestra que el efecto del desarrollo del fenotipo es muy importante. El genotipo que a priori da lugar al mejor fenotipo adulto, puede que no dé lugar al mejor fenotipo durante la fase de desarrollo que lleva al adulto. Por ello, la selección natural puede elegir otros genotipos cuyos fenotipos en fase adulta están peor adaptados (fenotipos subóptimos), pero que están mucho mejor adaptados durante la fase de desarrollo (en especial en mamíferos, donde el desarrollo desde el embrión hasta la madurez es bastante lento).

Dibujo20130501 Mammalian tooth development

Los dientes de los mamíferos se desarrollan a partir de dos tipos de tejidos, el mesénquima y el epitelio. El crecimiento de estos tejidos da forma al germen del diente (las células que formarán el diente). La biología molecular del desarrollo del diente es bien conocida. La tasa de proliferación celular, diferenciación celular y apoptosis de los tejidos está contrado por un conjunto de moléculas de inhibición y activación de la expresión génica. Los cambios tridimensionales en las concentraciones de estas sustancias en el tejido en desarrollo determinan la formación de centros de señalización (llamados nudos del esmalte) que determinan la forma de los pliegues germinales de los dientes y con ellos la topografía de la corona del diente maduro (así como sus propiedades funcionales).

Dibujo20130501 teeth - molecule concentration

La técnica de simulación de Salazar-Ciudad y Marín-Riera es muy similar a la utilizada en el diseño en ingeniería mediante algoritmos genéticos (que ha sido aplicado a cuestiones tan diversas como el diseño de la forma de un teléfono o el trazado de una carretera). Los autores del artículo han creado poblaciones artificiales de dientes en desarrollo sometidas a mutación y selección. Cada población se inicia con un fenotipo elegido al azar. Las mutaciones se aplican a la alteración de los parámetros moleculares de la señalización. Los individuos más aptos son seleccionados como los padres de la siguiente generación y la simulación se repite. Lo que informática se llama un algoritmo genético para el diseño de una forma tridimensional.

Dibujo20130501 Examples of simulation dynamics - population average and maximum fitness

En mi opinión, lo más interesante del trabajo de Salazar-Ciudad y Marín-Riera es que demuestra que la mutación de parámetros genéticos no es capaz de producir cualquier fenotipo, y entre ellos el fenotipo óptimo, ya que las interacciones moleculares durante el desarrollo limitan el espacio alcanzable de trayectorias de búsqueda, resultando en un fenotipo subóptimo. La evolución en la práctica se revela más complicada de lo esperado. Aún hay muchas cosas sobre la interacción entre la genética, el desarrollo y la macroevolución que nos pueden ofrecer sorpresas.


Archivado en: Biología, Ciencia, Noticias, Science Tagged: algoritmos genéticos, Biología, Ciencia, Desarrollo embrionario, evolución, Física computacional, fenotipo, genotipo, Informática, Noticias, Simulación por ordenador

Francis en ¡Eureka!: Tres posibles fragmentos del bólido de Tunguska

$
0
0

Dibujo20130504 Tunguska rocks - fragments meteorite or comet

El audio de mi sección ¡Eureka! en La Rosa de los Vientos, de Onda Cero Radio, ya está disponible. Sigue este enlace para escucharlo. Como siempre, una transcripción escrita con imágenes y enlaces a los artículos técnicos.

El evento de Tunguska ocurrió a las 7:17 de la mañana (hora local) del 30 de junio de 1908 en una región apartada de Siberia cerca del río ruso Tunguska. Hay muchas teorías que tratan de explicar lo que ocurrió, pero ¿cuál es la teoría más aceptada por la ciencia actual? Se cree que el evento de Tunguska fue causado por un meteoro que se quemó en la atmósfera terrestre de entre 50 y 80 metros de diámetro, que entró en la atmósfera a unos 20 km/s y con una inclinación entre 30 y 45 grados respecto a la horizontal. Lo más probable es que fuera un trozo de un cometa con una densidad similar a la del cometa Halley (unos 0,6 g/cm³), que quizás contuviera un núcleo rocoso más pequeño. La explosión ocurrió a entre 8 y 10 km de altura liberando una onda de choque que provocó grandes daños en un área de unos 2.000 kilómetros cuadrados (como la provincia más pequeña de España, Guipúzcoa). La explosión fue detectada por numerosas estaciones sismológicas de la época y por una estación barométrica (que mide la presión atmosférica) en el Reino Unido. Incendió y derribó cientos de miles árboles. La Primera Guerra Mundial y la Revolución Rusa de 1917 retrasaron la primera expedición científica de la Academia Soviética de Ciencias hasta 1921 (durante el gobierno de Lenin) dirigida por Vernadsky y Kulik que pretendía encontrar nuevos meteoritos para la colección de la Academia de Ciencias de Rusia. La expedición no alcanzó el epicentro y se repitió en 1927. Allí observaron árboles que estaban de pie, pero sin ramas ni hojas, a modo de postes de teléfono. Se cree que les podó la onda de choque expansiva de la explosión en la atmósfera. Sin embargo, nunca se encontraron meteoritos o fragmentos del supuesto meteoro, ni tampoco un cráter de impacto provocado por el mismo.

Esta semana ha sido noticia la publicación de tres meteoritos encontrados en la zona de Tunguska que podrían ser fragmentos del bólido. ¿Qué se sabe sobre estos nuevos meteoritos?Andrei E. Zlobin (del Museo Geológico del Estado de Vernadsky, de la Academia Rusa de Ciencias, en Moscú) publica en un famoso servidor por internet de artículos científicos llamado ArXiv que encontró en 1988 tres rocas similares a meteoritos que presentan rastros de fusión térmica y que podrían ser fragmentos del meteoro de Tunguska. La misión de Zlobin en la expedición a Tunguska de 1988 era estudiar el efecto del calor generado en la explosión del bólido en la corteza del tronco y de las ramas de los árboles de la región. Su estudio estimó que el pulso de calor en en los árboles fue entre 13 y 30 J/cm², capaz de quemar la corteza, pero no de fundir las piedras en el suelo. En la expedición se hicieron decenas de agujeros en la turba del suelo para buscar rocas fundidas. Entre el 24 y el 26 de julio de 1988, acamparon cerca de la orilla del río Khushmo y Zlobin, a título personal, buscó meteoritos en la zona de aguas poco profundas cerca de la orilla del río. Recogió más de 100 rocas con un peso total de 1,5 kg que fueron llevadas a Moscú. Entre esas rocas se han encontrado los nuevos tres meteoritos.

El nuevo artículo técnico es Andrei E. Zlobin, “Discovery of probably Tunguska meteorites at the bottom of Khushmo river’s shoal,” arXiv:1304.8070, 29 Apr 2013. Yo destacaría un artículo anterior que estudió las propiedades térmicas del impacto es Andrei E. Zlobin, “Quasi Three-dimensional Modeling of Tunguska Comet Impact (1908),” Planetary Defense Conference held on March 5-8, George Washington University, 2007 [pdf gratis].

Dibujo20130504 tunguska rocks - dental crown - whale

Si los fragmentos se encontraron en 1988, ¿por qué se ha tardado tanto tiempo en publicar su descubrimiento? Tras la expedición, Zlobin se centró en su trabajo, el estudio teórico y experimental de los procesos térmicos en los árboles, así como en el modelado matemáticos del impacto de la onda de choque. Publicó sus resultados en revistas científicas hasta 2007. Sus modelos del impacto indicaban que pequeños fragmentos del bólido de Tunguska se pudieron dispersar muy lejos del epicentro. Por ello, en 2008, Zlobin decidió estudiar su colección de rocas con signos de fusión por calor recogidas de río Khushmo. Gracias a ello ha determinado que tres de ellas, bautizadas como “corona dental”, “ballena” y “barco”, de 25, 29 y 21 mm de diámetro, con pesos de 1,6, 10,4 y 2,3 gramos, respectivamente, muestras señales que apuntan a un origen común y por ello en su opinión podrían ser fragmentos del bólido de Tunguska. Estos rocas presentan regmagliptos (depresiones que parecen hechas con un dedo). La roca “corona dental” presenta señales de una solidificación diferencial, es decir, el calor por un lado convexo parece que fue mayor que por el lado cóncavo, lo que apunta a su fusión y deformación plástica durante la fuerte onda expansiva de la explosión. En concreto, Zlobin estima un pulso de calor de 280 y 420 J/cm², compatible con la hipótesis de la explosión de un bólido hipersónico en la atmósfera.

¿Se puede afirmar con seguridad que se trata de fragmentos del bólido o aún quedan dudas? El trabajo de Zlobin se ha publicado esta semana y ha generado muchas dudas entre los expertos. Se requiere un análisis geoquímico de las piedras. Zlobin no es un experto en meteoritos, sino en fenómenos térmicos relacionados con la solidificación, por lo que su análisis ha de ser cogido con alfileres. Como no se han encontrado más fragmentos, Zlobin cree que el bólido de Tunguska podría ser un cometa o trozo de cometa de unos 80 metros de diámetro con una densidad de unos 0,6 g/cm³, similar a la densidad del cometa Halley, con un núcleo rocoso del que salieron las rocas fundidas que encontró en 1988. Pero por ahora hay más dudas que certezas en relación al nuevo hallazgo.

Dibujo20130504 Lake Cheko bathymetric map and location of sediment-core TG-22 collected during the Tunguska 1999 expedition

La existencia o no de un cráter de impacto es clave para resolver el enigma de Tunguska. En diciembre de 2007, unos científicos italianos afirmaron que el lago Cheko, a 5 km del epicentro de la explosión, podría ser el crácter de impacto de un fragmento de 10 metros del bólido de Tunguska, ¿Hay nuevas noticias al respecto? La expedición italiana de Luca Gasperini (de la Universidad de Bolonia, Italia) y sus colegas viajó a la zona en 1999 y anunció en 2007 que el lago Cheko, de unos 50 metros de profundidad, unos 700 metros de largo y unos 360 metros de ancho, podría ser el cráter de impacto de un fragmento de unos 10 metros de diámetro del bólido de Tunguska. Se observaron anomalías sismológicas en el fondo del lago y no había testimonios ni mapas que avalen la existencia de este lago con anterioridad a 1908. Se conocen más de 170 cráteres de impacto en la Tierra y contradicen esta hipótesis. Si el lago Cheko fuera un cráter de impacto sería muy anómalo. Estos cráteres suelen estar acompañados por otros cráteres más pequeños (que no se observan en el lago Cheko); tampoco se han encontrado meteoritos en los alrededores del lago, como cabría esperar;  debería ser circular y no elíptico (tiene un factor de aspecto 4/3). Además,  hay fotografías aéreas del lago Cheko de 1938 que muestran árboles en la orilla, algo imposible si hubiera sido resultado de un impacto tan violento. Además, estudios de los sedimentos del lago apuntan a una edad entre 5.000 y 10.000 años. Por todo ello podemos descartar que el lago Cheko sea un cráter de impacto.

El artículo técnico es L. Gasperini et al., “A possible impact crater for the 1908 Tunguska Event,” Terra Nova 19: 245–251, Aug 2007 [pdf gratis]. Más información en Luca Gasperini et al., “Sediments from Lake Cheko (Siberia), a possible impact crater for the 1908 Tunguska Event,” Terra Nova 21: 489–494, Dec 2009 [pdf gratis]. Las dudas sobre que sea un cráter de impacto partieron del trabajo de G. S. Collins et al., “Evidence that Lake Cheko is not an impact crater,” Comment article, Terra Nova 20, 165–168, 2008 [pdf gratis].

Dibujo20130504 3-D model of the lake bottom and surrounding - location of core TG-22 with chirp-sonar seismic profile

En resumen, ¿cuál es la hipótesis más razonable desde el punto de vista científico? A día de hoy, lo más razonable es que el bólido era un trozo de un cometa similar al cometa Halley en composición y propiedades. La ablación a entre 5 y 8 km de altura no dejó rastros en forma de meteoritos y/o cráteres de impacto, y todos los daños fueron debidos la onda de choque de la explosión.

Más información sobre el evento de Tunguska en Christopher F. Chyba et al., “The 1908 Tunguska explosion: atmospheric disruption of a stony asteroid,” Nature 361: 40-44, Jan 1993 [copia gratis]; M. C. Kelley, C. E. Seyler, M. F. Larsen, “Two-dimensional turbulence, space shuttle plume transport in the thermosphere, and a possible relation to the Great Siberian Impact Event,” Geophysical Research Letters 36: L14103, Jul 2009; Adrian L. Melott et al., “Cometary airbursts and atmospheric chemistry: Tunguska and a candidate Younger Dryas event,” Geology 38: 355-358, 2009; R.P. Turco et al., “An analysis of the physical, chemical, optical, and historical impacts of the 1908 Tunguska meteor fall,” Icarus 50: 1–52, Apr 1982.

Lo dicho, sigue este enlace para escuchar el audio, si aún no lo has disfrutado.


Archivado en: Ciencia, Eureka (La Rosa de los Vientos), Física, Noticias, Physics, Science Tagged: Ciencia, Curiosidades, Eureka (#rosavientos), Física, Geología, Historia, Meteorito, Noticias, Tunguska

Francis en Trending Ciencia: Mitos sobre el bosón de Higgs

$
0
0

Dibujo20130314 peter higgs

Ya puedes escuchar mi nuevo podcast sobre Física para Trending Ciencia. Permíteme una transcripción escrita del audio.

El año 2012 pasará a los anales de la historia de la física por el descubrimiento del bosón de Higgs en el Gran Colisionador de Hadrones del CERN, cerca de Ginebra (el famoso LHC por sus siglas en inglés Large Hadron Collider). La única partícula predicha por la teoría del modelo estándar de las partículas elementales que aún faltaba por encontrar permitirá estudiar el campo de Higgs, responsable de que haya partículas con masa, y las propiedades del universo cuando solo tenía una billonésima de segundo tras la gran explosión (el big bang). Además, muchos físicos creemos que la física del campo de Higgs podría ser una puerta hacia el descubrimiento de nuevas leyes físicas más allá del modelo estándar. Alrededor de la partícula de Higgs se han generado un gran número de mitos y malentendidos. Muchos físicos evitan ideas matemáticas y conceptos abstractos cayendo en analogías inadecuadas que en lugar de ayudar al profano solo le confunden más. En este podcast trataré de aclarar algunos de los mitos sobre el bosón de Higgs; no están todos, pero espero haber incluido los más comunes.

Dibujo20130115 higgs boson - hugs bison

El campo de Higgs no explica la gravedad. Mucha gente cree que si el campo de Higgs permite explicar el origen de la masa de las partículas, entonces debe ayudar a entender el origen de la gravedad. Sin embargo, esto no es así, la masa es la fuente de la gravedad solo en la física newtoniana, donde los objetos sin masa, como la luz, ni producen, ni perciben la gravedad. Por el contrario, en la teoría de Einstein los rayos de luz se curvan en un campo gravitatorio, ya que la fuente de la gravedad en la teoría de la relatividad es la energía, a través del llamado tensor de energía-momento.

En la física newtoniana la masa es una propiedad intrínseca de todos los cuerpos que se conserva; de hecho, Newton se refiere a ella como “cantidad de materia”. Hay dos tipos de masa en la física newtoniana, la inercial y la gravitatoria. La segunda ley de Newton afirma que la fuerza es igual al producto de la masa (inercial) por la aceleración, en símbolos F=m a. La ley de la gravitación universal de Newton dice que la fuerza de la gravedad es igual al producto de la masa (gravitatoria) por la aceleración de la gravedad, en símbolos F=m g, donde g=G M/R2 (M es la masa que genera el campo gravitatorio, R la distancia entre ambos cuerpos y G es una constante universal). El principio de equivalencia (newtoniano) afirma que la masa inercial y la masa gravitatoria son idénticas. Los cuerpos en movimiento tienen momento (“cantidad de movimiento”), el producto entre la masa y la velocidad, en símbolos p=m v, y energía (cinética), la mitad del producto de la masa por la velocidad al cuadrado, en símbolos E=m v2/2. Tanto el momento como la energía son propiedades conservadas en la física newtoniana, igual que la masa.

En la física relativista los conceptos fundamentales son la energía y el momento. De hecho, la masa es la energía de un cuerpo en reposo y no se conserva (por ejemplo, en las desintegraciones radiactivas, o en la aniquilación de materia y antimateria). La famosa fórmula de Einstein E=m c², es válida solo para p=0. Para un cuerpo en movimiento la energía es igual a E²=(m c²)² + (p c)², de tal forma que la energía de un cuerpo con masa nula, como la luz, es E=p c. La energía (el tensor de energía-momento) es la fuente de la gravedad en la teoría de Einstein y actúa curvando el espaciotiempo. El principio de equivalencia (relativista) afirma que la gravedad y la aceleración de un cuerpo en un espaciotiempo curvo son equivalentes entre sí (a nivel local). En la teoría de la relatividad la distinción entre masa inercial y gravitatoria no tiene sentido físico. Las partículas tienen masa gracias a su interacción con el campo de Higgs, pero incluso si no existiera el campo de Higgs y las partículas no tuvieran masa también serían sensibles a la gravedad. El campo de Higgs, como cualquier otro campo, tiene asociado un tensor de energía-momento, siendo capaz de producir y percibir la gravedad. El Higgs gravita, pero más allás de eso no hay nada de especial en la conexión entre el Higgs y la gravedad.

Dibujo20130106 Higgs - decay - two Z - four leptons - ATLAS event

El campo de Higgs no le da masa a los cuerpos. Otro mito muy extendido es que la física del bosón de Higgs permite explicar la masa de todos los objetos que nos rodean en la vida cotidiana. En realidad menos del 5% de la masa de un cuerpo es debida a la masa de las partículas (elementales) que lo forman (quarks y electrones), el resto es energía (tanto cinética como potencial de enlace).

La masa de un cuerpo compuesto de partes es igual a la suma de las masas de cada una de éstas menos la energía de enlace que las une entre sí. La energía de los enlaces químicos que unen los átomos es despreciable, unas mil millones de veces menor que la masa de un átomo. Los átomos están formados por un núcleo orbitado por electrones ligados a él por un campo electromagnético. La energía de inonización, necesaria para extraer un electrón de un átomo es del orden de los 10 eV. El defecto de masa total para un humano se puede calcular fácilmente (en mi blog lo comento) dando como resultado unos 7,6 gramos por cada kilogramo, más o menos 12 explosiones de Hiroshima por cada kilogramo. Para todos los cuerpos, la masa de los núcleos corresponde a más del 99,9% de la masa total de sus átomos.

Un núcleo está formado por protones y neutrones (es decir, nucleones) unidos entre sí por una fuerza nuclear fuerte (efectiva). La masa de un núcleo siempre es menor que la suma de las masas de sus nucleones (aislados), porque la energía de enlace (llamada defecto de masa) es negativa. Esta energía por nucleón es menor del 1% de su masa, luego más del 99% de la masa de un cuerpo es debida a la masa de sus protones y neutrones. Los nucleones están compuestos de quarks ligados por la fuerza fuerte, es decir, por un campo de gluones (descritos por la teoría llamada cromodinámica cuántica, QCD). Lejos, el nucleón se comporta como si estuviera formado por tres quarks (de valencia); la masa estimada de estos quarks da cuenta de menos del 1% de su masa total.

Sin embargo, el interior del protón es muy complicado. El campo de gluones es tan fuerte que produce multitud de pares quark-antiquark virtuales, incluyendo quarks extraños (s), por lo que es difícil saber cuánta masa de un nucleón es debida a la masa de sus quarks, es decir, al campo de Higgs. Los modelos numéricos (QCD en redes o lattice QCD en inglés) indican que aproximadamente el 95% de la masa de un nucleón es debida al campo de gluones (suma de energía potencial y cinética). Luego menos del 5% es debido al campo de Higgs.

A escala cósmica, la cuestón es aún peor. Según los datos del telescopio espacial Planck de la NASA sobre el fondo cósmico de microondas, El 31% del universo es materia y el 69% restante es energía oscura, pero solo el 5% del universo es materia bariónica, siendo el 26% restante materia oscura. No sabemos lo que es la materia oscura, pero la mayoría de los físicos creemos que son partículas aún por descubrir. Tampoco sabemos si el campo de Higgs dota de masa a dichas partículas (podría ser otro bosón de Higgs diferente (dentro de una familia de Higgs) u otro mecanismo diferente). Por tanto, con seguridad, el Higgs explica la masa de menos del 5% de la masa de la materia bariónica que constituye un 5% de todo el universo. Decir que el Higgs explica la masa en general es un poco exagerado, creo.

Dibujo20121229 higgs cake - 80 years old

El vacío del campo de Higgs no es el éter. Un mito que desagrada mucho a los físicos es la interpretación del campo de Higgs como el nuevo éter del siglo XXI. Para explicar el campo de Higgs, que permea todo el espaciotiempo, como cualquier otro campo fundamenal, mucha gente imagina el universo como una piscina inmensa llena de agua en reposo. Todo lo que avanza a través del agua encuentra una resistencia que se interpreta como la masa. Como el agua está en reposo, define un sistema de referencia absoluto, violando los principios de la teoría de la relatividad. Obviamente, esta imagen no tiene ningún sentido físico y ni siquiera permite explicar cómo una partícula puede tener masa cuando está parada. El campo de Higgs es un campo relativista y su valor para el vacío no tiene nada que ver con el éter.

En el siglo XIX el éter era necesario para entender la naturaleza de la luz, ya que se pensaba que si estaba formada por ondas (electromagnéticas) tenía que haber un medio que oscilara, como ocurre con el sonido que son ondas de presión en el aire. Sin embargo, la teoría de la relatividad desterró el concepto de éter porque permite definir un sistema de referencia absoluto, algo incompatible con los resultados de los experimentos.

Los campos (relativistas) pueden propagar energía e información de un lugar a otro en forma de ondas y pueden afectar a otros campos sin que exista un medio que oscile. El campo de Higgs es un campo relativista, como puede serlo el campo electromagnético, y en ambos casos el éter es un concepto innecesario.

La idea de asociar el campo de Higgs al éter se justifica porque su vacío tiene un valor positivo de la energía. Los campos permiten la propagación de ondas, que en los campos cuánticos se observan como partículas. El estado del campo sin partículas se denomina vacío y el valor de la energía asignado al vacío es arbitrario. Lo único que se puede medir en los experimentos es la diferencia entre la energía de las partículas del campo y la energía del vacío. Por convenio, cuando el valor del vacío de un campo no cambia se le asigna un valor igual a cero. Sin embargo, el valor de la energía del vacío para un campo puede cambiar de valor en una transición de fase, como le ocurre al campo de Higgs. Por encima de cierta energía crítica el vacío toma un valor cero y las partículas de Higgs son ondas del campo respecto a dicho valor nulo; por debajo de esta energía crítica el vacío adquiere un valor positivo y las partículas del campo corresponden a ondas respecto a dicho valor no nulo. En ambos casos el valor asignado a la energía del vacío es constante en todos los puntos del espaciotiempo y no permite definir ningún sistema de referencia absoluto. Por ello no tiene sentido físico considerar que se asemeja a la noción clásica de éter.

Espero que te haya gustado mi nuevo podcast para Trending Ciencia que puedes oír siguiendo este enlace.


Archivado en: Bosón de Higgs, Ciencia, Física, Noticia CPAN, Noticias, Physics, Podcast en Trending Ciencia, Relatividad, Science Tagged: Bosón de Higgs, Ciencia, Física, LHC - CERN, Noticias, Partículas elementales, trending

Una cámara que imita al ojo de los insectos

$
0
0

Dibujo20130506 insect-inspired visual sensor

Ver el mundo a través de los ojos de un insecto puede parecer poco útil, pues nuestros ojos son mucho más sofisticados. Sin embargo, una cámara digital que imite el ojo compuesto de un insecto, su visión panorámica del mundo y su gran profundidad de campo podría tener aplicaciones interesantes en robótica y medicina. Nuestros ojos se basan en una lente que en enfoca la luz en una matriz de fotorreceptores colocada en el plano focal de la lente, lo que permite una sensibilidad óptima a los fotones y una alta resolución espacial. Los ojos facetados o compuestos se componen de cientos o miles de unidades ópticas (facetas), cada una con su propia lente y conjunto de fotorreceptores. Su sensibilidad a la luz es baja (sólo aceptan fotones en ciertas direcciones) y su resolución también (está limitada por el número de facetas). John A. Rogers (Universidad de Illinois en Urbana-Champaign, EEUU) y sus colegas han fabricado una cámara digital elástica capaz de pasar de una geometría plana a una forma casi hemisférica (160 grados), gracias a un diseño que combina una matriz de 180 microlentes elásticas con una matriz de fotodetectores deformable. La clave es un diseño basado en dos capas alineadas de forma perfecta (para evitar aberraciones ópticas). Estos nuevos “ojos” son ideales para pequeños robots voladores, en los que las lentes de tipo ojo de pez son caras y pesadas. Nos lo cuentan Alexander Borst, Johannes Plett, “Optical devices: Seeing the world through an insect’s eyes,” Nature 497: 47-48, 02 May 2013. El artículo técnico es Young Min Song et al., “Digital cameras with designs inspired by the arthropod eye,” Nature 497: 95–99, 02 May 2013.

Dibujo20130506 schematic illustrations and images of components and integration schemes for new digital camera

La gran diferencie entre el nuevo diseño y los que ya se habían publicado en el pasado es la posibilidad de pasar de una geometría plana inicial a una geometría hemisférica por un procedimiento de hinchado (similar a inflar un globo) gracias al uso de electrónica estirable basada en elastómeros de poli(dimetilsiloxano), PDMS, que tiene un índice de refracción n≈1,43. Se ha construido una matriz de 16×16 = 256 microlentes convexas (cada microlente tiene un radio de curvatura de r≈400 μm) sobre un área cuadrada de 14,72 mm × 14,72 mm. Sólo se utilizan 180 microlentes de entre las 256 para evitar aberraciones ópticas, cada una con un soporte cilíndrico de altura h≈400 μm, conectada a una membrana elástica de espesor t≈550 μm. Ver la figura para los detalles geométricos. Bajo cada microlente se encuentra un fotodiodo de silicio con un área activa d² ≈ 160 μm × 160 μm. Todos los fotodiodos están interconectados por cables metálicos (Cr/Au) en forma de serpentina y configurados para un direccionamiento de tipo matricial.

Dibujo20130506 computational and experimental studies of the mechanics associated with assembly of hemispherical eye camera

La clave del nuevo diseño es que la cámara, una vez inflada, garantice que los sensores se encuentren en el centro de las microlentes para evitar aberraciones ópticas. La cámara hinchada en forma de hemisferio tiene un radio de curvatura de R ≈ 6,96 mm. El conjunto microlente más fotodiodos actúa como un omatidio de un insecto. El resultado es un ojo compuesto artificial similar a de las hormigas de fuego (Solenopsis fugaz) o al de los escarabajos de la corteza (Hylastes Nigrinus), insectos que poseen ojos con unos 180 omatidios.

Dibujo20130506 operating principles of hemispherical apposition compound eye camera and representative pictures

La nueva cámara tiene un campo de visión total de alrededor de 160° (recuerda que un hemisferio completo serían 180º). Para la reconstrucción de la imagen se utiliza un algoritmo de trazado de rayos. Cada microlente produce una pequeña imagen del objeto y el fotodiodo muestrea dicha imagen. En la naturaleza, los insectos mueven los ojos de forma rápida para mejorar la resolución efectiva. El mismo proceso se puede utilizar con la nueva cámara (si se monta en un sistema móvil). La superposición de las contribuciones de los omatidios vecinos permite mejorar el contraste de bordes y la resolución espacial de la imagen. Además, los algoritmos del software de adquisición de datos permiten que la cámara se adapte a diferentes niveles de luz. 

Lo más destacable de la nueva cámara es que su profundidad de campo es casi infinita, lo que permite el seguimiento de objetos lejanos en movimiento (u objetos fijos cuando la cámara es la que se mueve) y no sólo uno, sino varios objetos al mismo tiempo en el campo de visión colocados en diferentes posiciones angulares y a diferentes distancias. La cámara mantiene el enfoque de forma automática. En aplicaciones como la búsqueda de personas en catástrofes mediante pequeños robots voladores, estas propiedades ópticas las hacen ideales.

Por supuesto, el mayor inconveniente ahora mismo es que el número de omatidios es pequeño. En un futuro no muy lejano el número de fotodiodos por microlente podría incrementarse, así como el número de microlentes.


Archivado en: Biología, Ciencia, Física, Noticias, Science Tagged: Óptica, Biología, Biomimética, Cámara digital, Ciencia, Curiosidades, Experimento, Física, Nature, Noticias

Fabrican un cañón de anillos de plasma

$
0
0

Dibujo20130502 Open-air plasma device for US Navy weaponry

Imagina que fabricas un cañón que lanza anillos de plasma a través del aire. ¿Para qué piensas que puede servir? Como es obvio, no dirás que estás trabajando en un arma y que te financian los militares para desarrollar un incinerador de misiles en ataque. Piensa un poco, ¿para qué puede servir? ¡Has acertado! Como fuente de generación y almacenamiento de energía, la aplicación civil por excelencia de los plasmas (gracias a los futuros reactores de fusión). ¿Te has perdido? Lo siento. Has sido noticia que investigadores de la Universidad de Missouri han ideado un método de creación y lanzamiento de anillos de plasma a través del aire que afirman que tendrá  grandes repercusiones en la generación y almacenamiento de energía para la industria. Así nos lo cuentan en “Plasma device could revolutionize energy generation and storage (w/ video),” Phys.Org, Apr 16, 2013, y en “New Plasma Device Considered the ‘Holy Grail’ of Energy Generation and Storage,” Pure Energy Blog, April 26, 2013.

Confieso que me da envidia cómo alguna gente vende lo que hace. Gastar una inmensa cantidad de energía en producir un anillo de plasma de 15 centímetros de diámetro que recorre una distancia en el aire de unos 60 centímetros durante unos 10 milisegundos, alcanzando temperaturas entre 6600 y 7700 K, ¿cómo puede revolucionar la generación y el almacenamiento de energía? Algunos me dirán que se puede desarrollar una nueva tecnología de fusión nuclear basada en este tipo de anillos de plasma, pero quizás olvidan que se necesitan plasmas con millones de grados y que no hay ninguna propuesta firme sobre cómo alcanzar la ignición de la fusión utilizando estos bellos anillos de plasma.

Por supuesto, Randy Curry, ingeniero y físico de la Universidad de Missouri en Columbia, EEUU, afirma que si alguien pudiera producir sus anillos de plasma con un bajo coste energético, su trabajo sería la bomba, digo más, la rebomba; quizás por eso cierta prensa científica califica su invento como el Santo Grial de la Física (“Holy Grail of Physics”). Sin embargo, por ahora, sólo estamos ante una curiosidad en la física de plasmas (los fumadores que saben hacer anillos de humo con la boca dirán que no parece tan difícil hacer anillos de plasma, al fin y al cabo es más o menos lo mismo). Recuerda mi entrada “El cañón de vórtices, un experimento fácil de ejecutar y siempre espectacular.”

¡Ah, por cierto, lo olvidaba! En Phys.Org afirman que no saben cómo funciona la nueva técnica, ¡qué desmemoriados! Curry ya publicó su funcionamiento en detalle, así como las primeras pruebas, hace varios años: Adam Lodes et al., “Spectroscopic measurements of a toroidal air plasma,” 2011 IEEE Pulsed Power Conference (PPC), 1277-1281, 2011; Adam Lodes et al., “The interaction of shock waves with high density air plasma,” 2011 IEEE Pulsed Power Conference (PPC), 1077-1080, 2011.


Archivado en: Ciencia, Física, Noticias, Physics, Science Tagged: Ciencia, Curiosidades, energía, Experimento, Física, Noticias, Plasmas

¿Estás preparado para un mundo con más de 400 ppm de CO2 en la atmósfera?

$
0
0

Dibujo20130504 measurements atmospheric co2 levels at mauna loa - hawaii

Pronto la concentración global de dióxido de carbono (el gas de efecto invernadero más importante) superará durante un mes completo las 400 partes por millón, pero volverá a bajar (pues su dinámica es oscilatoria); de hecho, el 29 de abril de 2013 se alcazaron los 399,50 ppm. En un par de años, la concentración superará los 400 ppm durante todo un año (algo que no pasaba en nuestro planeta desde el Plioceno, hace más de tres millones de años). Quizás es el momento de hacer balance, de dónde venimos y hacia dónde vamos. En 1958, cuando se empezó a medir con precisión la concentración de CO2 estaba en unos 316 ppm (antes de la revolución industrial se estima que estaba en unas 280 ppm). Las mediciones del Global Carbon Project suelen tomar como referencia las medidas desde la estación del volcán Mauna Loa, en Hawaii, a 3.400 metros de altura, que muestran un crecimiento sostenido sin ninguna señal de estabilización. Si el nivel de CO2 se mantiene por encima de los 400 ppm durante el resto del siglo XXI, a finales de este siglo la temperatura media de la Tierra podría aumentar entre 2 y 2,4 grados. Las consecuencias pueden ser terribles. Nos lo cuenta Richard Monastersky, “Concentrations of greenhouse gas will soon surpass 400 parts per million at sentinel spot,” Nature 497: 13-14, 02 May 2013. Los valores actualizados día a día en CO2now.org.


Archivado en: Ciencia, Física, Noticias, Physics, Química, Science Tagged: Cambio climático, Ciencia, Concentración de CO2, Experimento, Gases de efecto invernadero, Noticias

Picorrobots inspirados en el vuelo de las moscas

$
0
0

Por cierto, ¿cómo vuela una mosca? Parece una tontería pero fabricar un robot capaz de volar como una mosca no es fácil. El sistema nervioso de la mosca es muy sencillo, pero suficiente para que este insecto volador realice complejas hazañas aerodinámicas más allá de lo que la técnica actual permite. Los (pico)robots aéreos que imiten a las moscas tendrán infinidad de aplicaciones (si son baratos de fabricar y a nadie le moleste que la mayoría acaben en el cubo de la basura). Se publica en Science esta semana un artículo que propone un nuevo diseño de “mosca robótica” capaz de batir sus alas a una frecuencia de 120 Hz gracias a un sistema MEMS (microelectromecánico) basados ​​en silicio. Los autores le llaman a la nueva técnica ”microestructuras compuestas inteligentes” (SCM). Gracias a esta técnica se pueden fabricar insectos mecánicos con tamaños micrométricos que se pueden fabricar en masa y cuyo montaje es sencillo. Aún no se ha resuelto el problema de la alimentación energética y del “cerebro” artificial de estos insectos robóticos, por lo que tienen que volar conectados a un cable de alimentación y control, pero se espera que en menos de una década se hayan resuelto estos problemas. Realmente es sorprendente imaginar un mundo con millones de insectos mecánicos fabricados por el hombre. El artículo técnico es Kevin Y. Ma, Pakpong Chirarattananon, Sawyer B. Fuller, Robert J. Wood, “Controlled Flight of a Biologically Inspired, Insect-Scale Robot,” Science 340: 603-607, 3 May 2013 [sciencemag.org].

Dibujo20130505 A robotic fly design with a pair of independently actuated wings

Las “moscas robóticas” son más grandes que una mosca, su tamaño es similar a un centavo de dólar (o a un céntimo de euro). Lo más curioso es el diseño de sus alas, que les permite imitar el movimiento de las alas de una mosca. Imitar el movimiento de las alas de la mosca tiene un gran problema, el consumo energético. Para resolver este problema los autores han utilizado un sistema de accionamiento piezoeléctrico de las alas que imita los músculos de la mosca (ingeniería biomimética). Imitar la biomecánica de las alas de las moscas tiene el problema adicional del peso. La “musculatura artificial” de las moscas robóticas tiene un peso de sólo 80 mg, con una envergadura alar de 3 cm, lo que le permite generar una fuerza de sustentación mayor de 1,3 mN (milinewton). El consumo energético no es muy grande (19 mW), pero es el factor que más limita el nuevo diseño, sobre todo en relación a la autonomía de la “mosca robótica.”

Dibujo20130505 3D robotic fly recording

El vuelo de la mosca robótica ha sido grabado en tiempo real por ocho cámaras en un volumen virtual que han permitido capturar el movimiento y reconstruir la posición y orientación gracias a unos marcadores retrorreflectantes montados en el propio robot. Se han utilizada cámaras de alta velocidad para registar el movimiento con una frecuencia de 500 Hz. Un punto clave es que cada “mosca robótica” es diferente de las demás. Las diferencias en el proceso de fabricación son imperceptibles, pero producen asimetrías en el vuelo que han requerido diseñar un algoritmo de control de vuelo específico que lidie con ellas.

Sin entrar en más detalles técnicos, me ha sorprendido que la publicación del nuevo artículo en Science haya coincidido con el artículo de Robetrt Wood, Radhika Nagpal y Gu-Yeon Wei, “Abejas robóticas,” Investigación y Ciencia, mayo 2013, 38-43, que nos describe el proyecto RoboBee (“abeja robótica”). Recomiendo encarecidamente, a los interesados, la lectura de dicho artículo en español.


Archivado en: Ciencia, Física, Noticias, Physics, Science Tagged: Aerodinámica, Biología, Biomimética, Ciencia, Curiosidades, Física, Mecánica, mosca, Noticias, robótica

España y sus artículos en las revistas Physical Review

$
0
0

Dibujo20130508 Spain - Countries that contribute to research that is published in the Physical Review

En la actualidad, España es el noveno productor de artículos de física publicados en revistas de la serie Physical Review de la APS (Sociedad de Física Americana), tras EEUU, Alemania, Francia, Reino Unido, Japón, Italia, China y Rusia, y por delante de Canadá. Pero no siempre fue así. Llevamos poco tiempo en el top 10. Así lo concluye un análisis bibliométrico de todos los artículos publicados en revistas de la APS en sus 119 años de vida. El artículo técnico es Matjaz Perc, “Self-organization of progress across the century of physics,” Sci. Rep. 3: 1720, 2013 [arXiv:1305.0552]. El siguiente vídeo youtube muestra los resultados por años

http://www.youtube.com/watch?v=0Xeysi-EfZs

Dibujo20130508 Countries that contribute to research that is published in the Physical ReviewLa siguiente figura muestra el crecimiento lineal en el número total de artículos publicados. Revistas como Phys. Rev. B y Phys. Rev. Lett. han tenido un crecimiento enorme.

Dibujo20130508 publishing timeline of physical review journals - colors encode number of papers each month


Archivado en: Bibliometría, Ciencia, Física, Noticias, Physics, Science Tagged: APS (American Physical Society), Bibliometría, Ciencia, Curiosidades, Física, Noticias, physical review letters

Por qué Robert Trivers quiere que retracten uno de sus artículos que fue portada en Nature

$
0
0

Dibujo20130509 nature cover - paper authored by Robert Trivers

Parece imposible que el autor de un artículo publicado en Nature, que fue portada de dicha revista el 22 de diciembre de 2005, haya tratado por todos los medios que su propio artículo fuera retractado. Robert Trivers, biólogo evolutivo de la Universidad de Rutgers en New Brunswick, Nueva Jersey, publicó en Nature con varios colegas que los adolescentes jamaicanos con un cuerpo más simétrico eran más propensos a ser calificados como “buenos bailarines” por sus compañeros; esto sugería la existencia de una señal de selección sexual en el ser humano. Pero Trivers comenzó a tener dudas en 2007, cuando otro estudiante de doctorado no fue capaz de replicar las conclusiones del artículo. En su investigación descubrió inconsistencias en las mediciones de simetría realizadas por el primer autor William M. Brown, que en aquel momento era postdoc en su grupo.

En 2008, Trivers solicitó a Nature que el artículo fuera retractado pero el editor de la revista no quiso hacerlo. En 2009, Trivers publicó un libro sobre su caso y la Univ. de Rutgers decidió investigar el caso. El año pasado, la investigación concluyó que no había pruebas “claras y convincentes” de la fabricación de datos por parte de Brown, que salió indemne. Trivers no dice que no haya efecto, sino que hay un efecto débil, poco significativo, lo que contradice los resultados publicados. Sin embargo, no tiene planes de replicar este trabajo concreto, aunque sigue estudiando la simetría del cuerpo en Jamaica y ha producido al menos diez artículos adicionales sobre el tema. Ahora mismo el artículo sigue sin ser retractado.

Nos lo cuenta Eugenie Samuel Reich, “Symmetry study deemed a fraud. University finds evidence of fakery in Jamaican dance data,” Nature 497: 170–171, 09 May 2013; el artículo técnico en entredicho es William M. Brown et al., “Dance reveals symmetry especially in young men,” Nature 438: 1148-1150, 22 Dec 2005.

¿Por qué insiste tanto Trivers en que retracten este artículo? Porque muchos expertos, como Steven Pinker, psicólogo de la Universidad de Harvard en Cambridge, Massachusetts, consideran que este artículo carece de una base sólida, siendo como “una broma de mal gusto” que ha llegado a ser publicado por su tirón para los medios (puro “cebo para periodistas”). Pinker dice que el trabajo de Trivers está fuera de toda duda y que su coautoría sólo sirve para empañar su currículum vitae.

El editor de Nature dice que va a abrir una nueva investigación sobre el tema. Pero parece que será muy difícil que Trivers logre que retracten su propio artículo.


Archivado en: Bibliometría, Ciencia, Noticias, Personajes, Prensa rosa, Science Tagged: Bibliometría, Ciencia, Curiosidades, Noticias, Personajes

La velocidad y aceleración de Felix Baumgartner durante su salto

$
0
0

Dibujo20130509 Speed Baumgartner function leap time measured -open symbols- speed of sound - acceleration

El 14 de octubre de 2012, el austriaco Felix Baumgartner ascendió a 39.000 metros en un globo estratosférico y saltó en caída libre alcanzando una velocidad supersónica. Durante su salto, su posición fue medida por un GPS situado en su pecho. Los resultados están publicados y pueden ser utilizados por los docentes interesados en mostrar este ejemplo a sus alumnos. La velocidad máxima de Baumgartner fue de 1357,6 km/h (Mach 1,25) y su caída libre duró 4 minutos y 20 segundos. Los profesores interesados en un poco de ayuda a la hora de incorporar este ejercicio en sus clases disfrutarán con el artículo de los españoles José M. Colino y Antonio J. Barbero, ambos de la Univ. de Castilla-La Mancha, “Quantitative model of record stratospheric freefall,” Eur. J. Phys. 34: 841–848, 22 Apr 2013.

La figura que abre esta entrada muestra la velocidad de Baumgartner como función del tiempo de caída a partir de un modelo teórico sencillo (curva negra) y los resultados del GPS (circulitos verdes); la velocidad del sonido se muestra en la curva roja, indicando dónde la caída de Baumgartner fue supersónica. También se muestra la aceleración en función del tiempo calculada a partir de la velocidad. Y finalmente, la velocidad en función de la altura del modelo elemental de los autores (curva negra) comparada con las medidas del GPS (puntos rojos).


Archivado en: Aerodinámica, Ciencia, Física, Noticias, Personajes, Physics, Science Tagged: Ciencia, Curiosidades, Física, Noticias, Personajes

Simulación numérica multiescala de las burbujas de la espuma

$
0
0

Dibujo20130510 simulation of the evolution of a cluster of bubbles

La belleza de la espuma bajo luz diurna es indudable, pero el estudio mediante ordenador de la evolución (reología) de cada una de las membranas líquidas (películas de jabón)  que la forman no es nada fácil pues involucra escalas en espacio y tiempo que varían en seis órdenes de magnitud. Se publica en Science un nuevo modelo matemático que permite una simulación multiescala de gran precisión basada en tres etapas: en la primera se calcula la solución de equilibrio estático, en la segunda se estudia el drenaje del líquido a través de las membranas y las fronteras entre ellas, y en la última se calcula la posible rotura en las zonas más delgadas de las películas de fluido. Este proceso se repite de forma iterativa. El resultado es una simulación sin precedentes de la evolución de la espuma lejos del equilibrio. Las espumas tienen una gran variedad de aplicaciones en la industria y en el diseño de materiales. Por ello, la simulación multiescala de su física promete importantes repercusiones prácticas. Nos lo cuenta Denis Weaire, “A Fresh Start for Foam Physics,” Science 340, 693-694, 10 May 2013, que se hace eco del artículo técnico de Robert I. Saye, James A. Sethian, “Multiscale Modeling of Membrane Rearrangement, Drainage, and Rupture in Evolving Foams,” Science 340: 720-724, 10 May 2013.

En el nuevo artículo se estudia la espuma de burbujas de jabón como prototipo de lo que sería la simulación de otro tipo de espumas de mayor interés aplicado. Una burbuja está formada por una película (lámina) de líquido que separa el gas del interior y del exterior. Cuando varias burbujas comparten frontera, adoptan una geometría óptima que minimiza la energía superficial (debida a la tensión superficial), como predice la teoría de Plateau-Kelvin. La dinámica de un grupo de burbujas que forman un conglomerado es muy complicada, pues las burbujas se rompen cuando el grosor de la lámina de líquido se hace muy delgada, lo que implica una rápida reconfiguración de la geometría del resto de las burbujas. El grosor de la lámina de líquido se suele visualizar mediante los patrones de interferencia que se forman cuando se la ilumina con luz blanca. 

Dibujo20130510 simulation cluster of bubbles

Las láminas de líquido que forman las burbujas tienen un grosor de sólo unos micrómetros pero permiten que el fluido se mueva y redistribuya por ellas dando lugar a estrechamientos que acaban con su rotura. El estallido ocurre a alta velocidad, unos cientos de centímetros por segundo, lo que causa un rápido reordenamiento macroscópico de la topología de las burbujas. Un análisis matemático-físico de este proceso sin utilizar simulaciones por ordenador parece casi imposible. Pero las simulaciones por ordenador tampoco son un asunto trivial.

Dibujo20130510 triangular mesh generated automatically from the network of connected surfaces

Esta figura muestra la triangulación de la superficie, para la que se utiliza el método de Voronoi implícito. No quiero entrar en detalles técnicos, pero permíteme destacar algunos detalles. El nuevo modelo separa la dinámica del gas y del fluido del líquido en las membranas, ambos considerados incompresibles. En la interfase líquido-gas se asume que la tensión superficial es uniforme y constante. Las membranas son permeables y se modelan los cambios en su grosor debidos a la difusión del gas en el líquido. Clave en el estudio son las fuerzas de Marangoni debidas a cómo la concentración de tensioactivo afecta a la tensión superficial del líquido. Esta reología en una superficie que se calcula como parte de la solución del problema complica mucho el análisis numérico de las ecuaciones en derivadas parciales que han de ser resueltas. Quizás por ello estas nuevas simulaciones se han publicado en la prestigiosa revista Science.

Lo dicho, no quiero entrar en los detalles técnicos (como que la rotura se supone instantánea), que sólo los expertos disfrutarán, pues dan pie a incorporar gran número de nuevos efectos, pero el resultado, al menos en mi opinión, es espectacular.


Archivado en: Ciencia, Física, Informática, Matemáticas, Mathematics, Noticias, Physics, Science Tagged: burbujas, Ciencia, Curiosidades, Espuma, Física, Física (o Mecánica) de fluidos, Física computacional, Noticias, Science, Tensión superficial, Voronoi

La neurogénesis en adultos moldea la personalidad

$
0
0

Dibujo20130510 New cells in old brains - healthy human brain -left- new neurons are added in the hippocampus

La neurogénesis es la aparición de nuevas neuronas y células gliales en el encéfalo. Durante mucho tiempo se pensó que la plasticidad del sistema nervioso central se limitaba a la modulación de las sinapsis entre neuronas. Se publica en Science un artículo que afirma que la neurogénesis en los adultos ayuda a la plasticidad y moldea la conectividad neuronal de acuerdo a las necesidades del individuo durante su vida, es decir, moldea la personalidad (al menos en ratones). Igual que dos gemelos se diferencian conforme crecen, adquiriendo rasgos individuales, un estudio en ratones modificados genéticamente para ser idénticos ha mostrado que se comportan de forma diferente gracias a la neurogénesis. La vida que vivimos nos hace ser quienes somos y la neurogénesis podría jugar un papel importante (al menos en el hipocampo de ratones). Como nos cuentan, no sin cierta poesía, Olaf Bergmann, Jonas Frisén, “Why Adults Need New Brain Cells,” Science 340: 695-696, 10 May 2013, que se hacen eco del artículo técnico de Julia Freund et al., “Emergence of Individuality in Genetically Identical Mice,” Science 340: 756-759, 10 May 2013.

Por cierto, en el encéfalo adulto de los mamíferos sólo se generan nuevas neuronas en el bulbo olfativo y en el hipocampo; en los humanos, la excepción, sólo se producen en el hipocampo. Entender la neurogénesis permitirá el desarrollo de fármacos que activen la producción de nuevas células nerviosas en el hipocampo como vía terapéutica para el tratamiento de enfermedades neurodegenerativas como el Alzheimer.

Dibujo20130510 Experimental setup and effects on body and brain weight

Julia Freund y sus colegas han estudiado ratones genéticamente idénticos en un entorno complejo durante 3 meses, tras los cuales cada individuo mostró una conducta exploratoria de su entorno diferente que se correlaciona con la neurogénesis de su hipocampo adulto. Cada individuo muestra  un “espacio vital” personalizado y una cierta “individualidad”, caracteres similares a los que en humanos calificamos como rasgos de la personalidad. En cierto sentido, la interacción con el medio ambiente esculpe el cerebro gracias al hipocampo. El artículo técnico acaba afirmando que este trabajo podría aportar información sobre cómo al vivir nuestra nos convertimos en quienes realmente somos (“the ways in which living our lives makes us who we are”).

Dibujo20130510 adult hippocamapl neurogenesis vs control

En el cerebro adulto la generación de nuevas células gliales es mucho más común que la neurogénesis y hay pruebas de que también influye en la plasticidad neural. Los oligodendrocitos (un tipo de célula glial) forman la vaina de mielina que envuelve los axones de las neuronas, cuya misión es aumentar la velocidad del impulso nervioso (potencial de acción) y con ella la velocidad de procesado del encéfalo. Se cree que los oligodendrocitos adultos no pueden controlar a cantidad de mielinización, por lo que la mielina nueva requiere la generación de nuevos oligodendrocitos y por ello la mayor parte de la proliferación celular en el sistema nervioso es la producción de estas células gliales.

Todavía estamos lejos de entender como la neurogénesis y la generación de células gliales influye en la plasticidad del sistema nervioso central en un encéfalo adulto, pero lo que parece claro es que su influencia es capital. Por ello puede parecer exagerado desarrollar fármacos que activen la producción de nuevas células nerviosas, pero se cree que algunos de los medicamentos prescritos en la actualidad, como los antidepresivos, tiene este efecto. Ninguno ha sido desarrollado con este objetivo, favorecer la neurogénesis, pero todos los estudios que ayuden a entender el papel  de ésta ayudará a prescripción más racional de los medicamentos para enfermedades psiquiátricas.


Archivado en: Cerebro, Ciencia, Medicina, Noticias, Science Tagged: Cerebro, Ciencia, Experimento, Hipocampo, Medicina, Neurogénesis, Noticias, Personalidad

El capitalismo bacteriano

$
0
0

Dibujo20130510 A positive feed-forward circuit steers biofilm formation

Me ha sorprendido que en Nature se hable de “capitalismo bacteriano” en alusión a la semejanza entre el principio “los ricos se hacen más ricos” (que dicen que es propio del capitalismo) y la dinámica de ciertas poblaciones de bacterias. En realidad se trata de un ejemplo de realimentación positiva en la formación de biopelículas bacterianas. Como las hormigas que dejan feromonas a su paso para marcar el rastro del camino que recorren, la bacteria Pseudomonas aeruginosa excreta un polisacárido adhesivo (llamado Psl); los lugares con mayor cantidad de Psl son los lugares donde la biopelícula bacteriana es más gruesa. La razón es un proceso bioquímico de realimentación positiva: las bacterias pasan más tiempo en las áreas más visitadas porque en ellas hay depositada mayor cantidad de Psl y depositan allí una mayor cantidad de Psl por ello. Gracias a este proceso se forman biopelículas bacterianas multicelulares que muestran autoorganización social. La descripción matemática se rige por una ley de potencias (no entraré en más detalles). ¿Para qué puede servir todo esto? Entender el comportamiento de las colonias bacterianas permitirá desarrollar fármacos para evitar infecciones e inhibir la colonización bacteriana. El curioso titular que asocia estos comportamientos bacterianos con el capitalismo es de Ute Römling, “Microbiology: Bacterial communities as capitalist economies,” Nature, News & Views, 08 May 2013, quien se hace eco del artículo técnico de Kun Zhao et al., “Psl trails guide exploration and microcolony formation in Pseudomonas aeruginosa biofilms,” Nature, AOP 08 May 2013.

Dibujo20130510 Local Psl levels determine post-division cell fates

El titular es un elemento clave de toda noticia y elegir el titular más adecuado no es fácil. El titular debería condensar la esencia de la información, pero muchas veces busca despertar el interés del posible lector. Pero el titular también oculta muchas trampas (interpretaciones sesgadas de la noticia). ¿Crees que hay que calificar de sensacionalista el titular de mi entrada?


Archivado en: Biología, Ciencia, Noticias, Science Tagged: bacterias, Biología, Ciencia, Curiosidades, Experimento, Nature, Noticias

El “arte” de la filogenética molecular

$
0
0

Dibujo20130510 yeast species phylogeny inferred from extended majority rule consensus eMRC analysis

Cuando se habla de artes y ciencias (Arts & Sciences) la ingeniería se encuentra justo en la mitad, siendo en muchos casos arte y ciencia a partes iguales. Los algoritmos bioinformáticos utilizados en biología molecular para obtener un árbol filogenético son muy sencillos, pero la práctica del “arte de la filogenética molecular” sólo se aprende con la experiencia. Un buen arbol filogenético depende de qué genes (o secuencias dentro de ellos) se seleccionen y alineen, y de cómo se estime el efecto del entorno y de la evolución por selección natural en los organismos estudiados. Para el experto no hay ningún problema, por eso es un experto, pero la situación para el profesor que tiene que enseñar este arte no es fácil, pues incluso un gran “artista” puede que no sepa explicar de forma adecuada cómo decide cuando su obra es “perfecta” y está acabada. Un análisis filogénetico de 1070 ortólogos de 23 genomas de levadura ha permitido obtener 1070 árboles filogenéticos diferentes. ¿Cuál es el mejor entre todos ellos? ¿Existe el árbol filogenético óptimo? ¿Cómo debe lidiar el filogenetista molecular con este problema? Supongo que pensarás que me como mucho el coco, pero al menos no soy el único: Leonidas Salichos, Antonis Rokas, “Inferring ancient divergences requires genes with strong phylogenetic signals,” Nature, AOP 08 May 2013. Por cierto, los algoritmos bioinformáticos de filogenética molecular son parte del contenido que imparto a mis alumnos. ¡Cosas bolonias!


Archivado en: Biología, Ciencia, Informática, Noticias, Prensa rosa, Science Tagged: Biología, Ciencia, Filogenética molecular, Informática, Noticias

Sábado, reseña: “Hasta el infinito, y más allá” de Clara Grima y Raquel García Ulldemolins

$
0
0

Dibujo20130511 Hasta el infinito y mas alla - book cover - clara grima y raquel garcia

—¡Toma, toma, toma! ¡Cómo mola! —como diría el pequeño Ven. Hay muchos libros titulados “Hasta el infinito, y más allá” pero el de Clara Grima y Raquel García Ulldemolins, editado por Espasa, es único por muchas cosas. Gracias a las (mate)aventuras de Ven(tura), Sal(vador) y su fiel compañero canino Gauss, niños y adultos disfrutarán acercándose a las matemáticas desde un punto de vista muy diferente al habitual. “Un libro para todos aquellos que temen a las Matemáticas,” complemento ideal a “El Diablo de los Números” de Hans Magnus Enzensberger. Este estupendo libro de Clara y Raquel, que recomiendo a todos los lectores, es un regalo ideal para ocasiones especiales y, por qué no, para todas las ocasiones. ¿Aún no lo has leído? ¡A qué estás esperando!

El libro empieza por el más difícil todavía: “Perdona, Buzz, pero después del infinito no hay nada.” Qué padre no ha tenido que contestar a las preguntas ¿qué es el infinito? y ¿qué hay más allá del infinito? que se realizan todos los niños tras oír a Buzz Lightyear en la saga Toy Story de Disney Pixar. Un concepto difícil que se ilustra en el libro gracias al hotel de Hilbert en “¡Mi infinito es más grande que el tuyo!” Muchos padres disfrutarán con este capítulo, aunque creo que para muchos niños será un inicio muy duro. Yo hubiera empezado el libro con algo más ligero, más gráfico, quizás con “¿Qué es eso que dibujas Mati? ¡Ese caramelo es mío!” sobre los diagramas de Voronoi, famosos en España gracias a “¿Está Voronoi? Que se ponga,” “Cada uno en su región y Voronoi en la de todos” y por supuesto a ”Mati y sus mateaventuras.”

Sigue el libro por un camino difícil para los niños, con “Mati, ¿estás segura de que π no es racional?,” y con “Voy a leerte la mente, abuela.” Los matemáticos disfrutan explicando la evolución del concepto de número, pero conceptos tan abstractos como el de número real o el de números binarios, propios del siglo XIX, me parece que deberían formar parte del final del libro y no del principio, pues pueden desanimar a muchos lectores potenciales.

Muchos de los tópicos presentados en el libro son muy conocidos, pero se presentan con tal frescura que se disfrutan como si fuera la primera vez. En “Flores, palacios y números” se discuten el número aúreo, “No te creo Mati, ¿cómo va ser un número de oro?,” y la sucesión de números de Fibonacci, “Una flor, otra, dos flores.”

Clara Grima investiga en geometría computacional en la Universidad de Sevilla, por lo que tiende a poner ejemplos de teoría de grafos con los que disfrutarán grandes y pequeños. “Cómo voy a salir del laberinto sin el hilo?,” “¡Ese caramelo es mío!” y “¿Por qué no hay un poli en cada sala?” son claros ejemplos. Tópicos modernos e interesantes con los que disfrutarán incluso los estudiantes de ciencias matemáticas y los profesores de matemáticas podrán incorporar con facilidad a sus clases. Todo ello sin olvidar temas muy populares en la divulgación matemática como los tratados en ”Pues vaya lío de puentes, ¿no?” y “¿Sólo con 4 colores?” En este último caso yo hubiera retado a los lectores más jóvenes a resolver un problema más sencillo que el famoso mapa de 1 de abril de Martin Gardner, como por ejemplo el siguiente.

Dibujo20131011 four color map

En casa todos hemos disfrutado del libro, pero no todo pueden ser piropos. “Antes de empezar…” nos dice Mati que “a mucha gente no le gustan las palabras esdrújulas” como matemáticas. Sin embargo, el libro abusa de ellas y sobre todo del sufijo “-mente.” Estas palabras dificultan el ritmo de la lectura y deben ser evitadas para lograr una lectura más ágil, sobre todo, en mi opinión, para libros dirigidos a niños y jóvenes. Cuando yo leí por primera vez “respondió vehementemente” me quedé sorprendido. Muchos lectores tendrán que recurrir al diccionario para saber qué es la “vehemencia” o algo “vehemente” (términos aplicados muchas veces al estado emocional del pequeño Ven). Yo hubiera escrito “respondió vehemente” o incluso hubiera evitado este término adulto. Hay muchos más ejemplos como “Gauss miraba atentamente,” que yo hubiera cambiado por “Gauss miraba atento,” o “números correspondientes entre 64 y 127″ que yo hubiera acortado a “números entre 64 y 127″ sin pérdida de significado.

Yo hubiera hecho una buena revisión del lenguaje utilizado, tratando que fuera menos adulto y más ágil. Hay muchos pequeños cambios que en una segunda edición se podrían corregir con facilidad. Por cierto, el libro presenta pocas erratas, aunque destaca el “2 + x 0,08″ en la fórmula de la página 42.

En resumen, me ha gustado mucho este pequeño libro de popularización de las matemáticas. Su módico precio hará las delicias de quienes quieran regalar el mejor regalo posible: un poco de cultura matemática.


Archivado en: Ciencia, Libros, Matemáticas, Mathematics, Noticias, Recomendación, Science Tagged: Ciencia, Libros, Matemáticas, Noticias, Popularización, Reseña

Francis en ¡Eureka!: El grafeno magnético que puede revolucionar la espintrónica

$
0
0

Dibujo20131011 Magnetic moment and Kondo resonance for individual TCNQ molecules

Ya está disponible el audio de mi sección ¡Eureka! en el programa La Rosa de los Vientos de Onda Cero. Sigue este enlace para disfrutarlo. Como siempre una transcripción libre.

El grafeno es el material de moda que recibió el Premio Nobel de Física en 2010. Sus numerosas propiedades hacen que sus aplicaciones parezcan casi infinitas. Pero empecemos por el principio, ¿qué es el grafeno? La mina de una lápiz está hecha de grafito, un material que se puede exfoliar fácilmente. El grafito está compuesto por láminas de átomos de carbono fuertemente enlazados entre sí, pero estas láminas están débilmente enlazadas unas con otras, de tal forma que al arrastrar la punta del lápiz sobre una hoja de papel se desprenden bloques de láminas de grafito que quedan adheridas al papel. El grafeno es una lámina de grafito de un solo átomo de grosor. El grafeno está formado por carbono puro, como el diamante, colocado en una estructura hexagonal similar a la del un panal de abejas. Konstantin Novoselov y André Geim, ambos de la Universidad de Manchester, recibieron el Premio Nobel de Física en el año 2010 por desarrollar un nuevo procedimiento para fabricar grafeno de forma industrial mediante una técnica de exfoliación del grafito. El grafeno es el material de moda en nanociencia y nanotecnología por sus sorprendentes propiedades físicas y químicas. Es el material con la mayor conductividad térmica y eléctrica conocido, es el más delgado, el más ligero, el más duro, el más flexible… Muchas de las propiedades del grafeno son dignas del libro de los récords Guinnes.

Dibujo20131011 Spatial distribution of the molecular frontier orbitals for TCNQ adsorbed on graphene-Ru

El Premio Nobel André Geim ha dicho que las aplicaciones potenciales del grafeno son tantas que no se pueden enumerar. ¿Nos puedes contar algunas aplicaciones que ya están demostradas? El carbono es un metal, pero es un mal conductor de la electricidad. Sin embargo, el grafeno se comporta como un semiconductor (igual que el silicio utilizado en electrónica). Los electrones interaccionan con la estructura de panal de abeja de los carbonos y se comportan como cuasipartículas sin masa, llamadas fermiones de Dirac, que se mueven al equivalente de la velocidad de luz en el material, unos mil kilómetros por segundo. Gracias a ello se pueden fabricar transistores ultradelgados de alto rendimiento. La gran ventaja del grafeno es la compatibilidad con las tecnologías de fabricación actuales. Se pueden fabricar baterías de litio en las que el ánodo de grafito se sustituye por grafeno, lo que permite un tiempo de carga diez más rápido que con las baterías actuales. Se pueden fabricar diodos emisores de luz orgánicos (OLED), como los utilizado en los semáforos, pero ultradelgados y con un bajo consumo de energía, ideales para televisores ultradelgados, cámaras digitales y teléfonos móviles, con la ventaja de que pueden ser pantallas flexibles y táctiles. Incorporando nanoesferas (puntos cuánticos) en la superficie del grafeno se logra multiplicar por mil millones su sensibilidad a la luz, lo que permite desarrollar cámaras de vídeo para visión nocturna que pueden funcionar incluso casi sin luz. También se puede dopar el grafeno con silicio amorfo para obtener células solares. La introducción de poros (agujeros) en el grafeno permite desarrollar láminas desalinizadoras para obtener agua potable a partir de agua salada o filtros para gases. El grafeno es un material piezoeléctrico que genera electricidad cuando se flexiona o cuando se le presiona  lo que permitirá fabricar músculos artificiales para robots y sensores mecánicos de muy alta precisión. La verdad es que las aplicaciones del grafeno, como bien decía André Geim, parecen casi infinitas.

Dibujo20131011 Adsorption geometry and charge transfer for individual TCNQ molecules on graphene on Ru

Pero los físicos siguen buscando nuevas propiedades del grafeno para lograr nuevas aplicaciones.  Esta semana ha sido noticia que el grafeno también se puede comportar como un imán. ¿Qué nos puedes contar sobre esta noticia? Físicos españoles del Instituto Madrileño de Estudios Avanzados en Nanociencia (Imdea-Nanociencia) y las universidades Autónoma y Complutense de Madrid acaban de publicar en la revista Nature Physics un nuevo material híbrido basado en grafeno que se comporta como un imán. Parecía imposible dotar al grafeno de las propiedades magnéticas necesarias para utilizarlo en espintrónica, la tecnología que en lugar de usar la carga eléctrica del electrón, como hace la electrónica tradicional, utiliza otra propiedad del electrón llamada espín, que determina su momento magnético intrínseco. En los materiales magnéticos la mayoría de sus electrones tienen el espín alineado en la misma dirección, como pequeños imanes cuyo campo magnético se acumula dando lugar a un material imantado. El nuevo material híbrido de grafeno permite hacer lo mismo, algo que parecía imposible.

El artículo técnico es Manuela Garnica, Daniele Stradi, Sara Barja, Fabian Calleja, Cristina Díaz, Manuel Alcamí, Nazario Martín, Amadeo L. Vázquez de Parga, Fernando Martín, Rodolfo Miranda, “Long-range magnetic order in a purely organic 2D layer adsorbed on epitaxial grapheme,” Nature Physics, AOP 28 abril 2013.

Dibujo20131011 Spatially extended intermolecular bands in a TCNQ monolayer adsorbed on graphene-Ru

¿Cómo han logrado estos investigadores madrileños dotar de propiedades magnéticas al grafeno? La primera autora del artículo técnico, Manuela Garnica, y sus colegas han desarrollado un material híbrido formado por una capa de grafeno que crece encima de una capa de un cristal metálico de rutenio. Han depositado encima del grafeno moléculas orgánicas de tetraciano-p-quinodimetano (TCNQ), una sustancia gaseosa que actúa como un semiconductor a bajas temperaturas. Estas moléculas orgánicas se redistribuyen solas de forma periódica encima del sustrato de grafeno-rutenio hasta alcanzar lo que físicos llamamos un estado de orden magnético de largo alcance en el que sus electrones se sitúan en diferentes bandas electrónicas en función de su espín. Este estado magnético periódico de las moléculas de TCNQ se debe a la presencia del grafeno sobre el sustrato metálico de rutenio. El nuevo material tiene propiedades magnéticas similares a la de una red de pequeños imanes a escala nanométrica.

Dibujo20130511 Primeros pasos hacia la espintronica basada en grafeno - SINC

¿Qué aplicaciones puede tener el nuevo material magnético basado en grafeno? Dotar al grafeno de magnetismo supone un gran avance en electrónica y sobre todo en espintrónica. Se podrán desarrollar nuevos dispositivos nanométricos que prometen aumentar la velocidad de procesamiento de la información de los ordenadores actuales, así como la cantidad de datos que se pueden almacenar en el equivalente a las memorias flash que se utilizan en los lápices de memoria que todo el mundo usa hoy en día. Pero hay muchas otras aplicaciones en campos como las telecomunicaciones, la informática, la energía y la biomedicina. El nuevo material tiene un futuro muy prometedor y para mí es una gran noticia que hayan sido físicos españoles sus descubridores.

Como siempre, si aún no has escuchado el audio de mi sección ¡Eureka! sigue este enlace para disfrutarlo.


Archivado en: Ciencia, Eureka (La Rosa de los Vientos), Física, Nanotecnología, Noticias, Physics, Science Tagged: Ciencia, ciencia de materiales, espintrónica, Experimento, Física, Física de materiales, grafeno, Magnetismo, Nanotecnología, Nature Physics, Noticias
Viewing all 1793 articles
Browse latest View live