miércoles, 27 de octubre de 2010

El robot que lee la mente para aprender


Rajesh Rao es un hombre que cree que el mejor tipo de ayuda robótica es la que puede leer la mente. De hecho, es más que un defensor de los robots de control mental. Cree en entrenarlos a través del poder del pensamiento.
Su equipo en el Laboratorio de Sistemas Neuronales, en la Universidad de Washington, espera llevar la tecnología de interfaz cerebro-computadora (BCI, por sus siglas en inglés) a un nuevo nivel al intentar enseñarle a los robots nuevas habilidades a través de señales cerebrales.
Sustitutos robóticos que ofrezcan a personas paralizadas la libertad para explorar su ambiente, manipular objetos, o simplemente buscar cosas ha sido el santo grial de la investigación sobre la BCI durante mucho tiempo.
El equipo de Rao comenzó con la programación de un robot humanoide de comportamientos simples que los usuarios podían seleccionar con un electroencefalograma (EEG) que recogía su actividad cerebral.
El cerebro genera lo que se conoce como P300, o P3, una señal involuntaria cada vez que se reconoce un objeto. Esta señal es causada por millones de neuronas que trabajan juntas de una manera sincronizada.
Esto ha sido utilizado por muchos investigadores en todo el mundo para crear aplicaciones basadas en la BCI que permiten al usuario escribir una palabra, identificar imágenes, seleccionar botones en un entorno virtual y, más recientemente, incluso tocar en una orquesta o enviar un mensaje de Twitter.
La meta inicial del equipo de científicos era que el usuario enviara una orden al robot para que la procesara en un movimiento, explica Lakshmi Sandhana, periodista especializado en tecnología.
Sin embargo, esto requiere que el robot esté programado con un conjunto predefinido de comportamientos muy básicos, un enfoque que el Dr. Rao encontró que era muy limitante.
El equipo pensó luego que darle al robot la capacidad de aprender podía ser el truco para permitir un mayor rango de movimientos y respuestas.
"¿Qué pasa si el usuario quiere que el robot haga algo nuevo?", se pregunta Rao.
La respuesta, dice, es aprovechar el sistema "jerárquico" del cerebro, utilizado para controlar el cuerpo.
"Un comportamiento inicialmente enseñado por el usuario es transferido en un comando de más alto nivel. Cuando se lo invoca más tarde, los detalles del comportamiento son manejados por el robot", explica Rao.
"Mitra", un amigo
El último prototipo de Rao es "Mitra", que significa "amigo". Es un humanoide de 60cm de altura que puede caminar y buscar, recoger y dejar objetos familiares.
El equipo está construyendo un BCI que se puede utilizar en entrenar a "Mitra" para caminar hacia diferentes ubicaciones dentro de una habitación.
Una vez que una persona se coloca el EEG puede elegir entre enseñar al robot una nueva habilidad o ejecutar un comando ya conocido a través de un menú.
Si el robot aprende el nuevo comportamiento, el usuario puede pedir al sistema que almacene el nuevo comando de alto nivel que aparecerá en la lista de opciones disponibles la próxima vez.
"El sistema resultante es a la vez de adaptación y jerárquico. De adaptación, ya que aprende del usuario y jerárquico porque los nuevos comandos se pueden componer como secuencias de comandos que ha aprendido", dice Rao.
El principal desafío en este momento es conseguir que el sistema sea exacto.
"El EEG se puede utilizar para enseñar habilidades sencillas a un robot como dirigirse a una nueva ubicación, pero no esperamos ser capaces de enseñarle a los robots habilidades complejas que implican manipulación fina, como abrir un frasco de medicina o atarse los cordones", agrega el doctor.
Podría ser posible alcanzar un mayor grado de control mediante la utilización de una BCI invasiva o permitiéndole al usuario seleccionar videos de acciones humanas que el robot puede intentar aprender.
Un esfuerzo paralelo en el mismo laboratorio está centrado en algoritmos de aprendizaje basados en la imitación, que permitirían al robot imitar acciones complejas, tales como patear una pelota o levantar objetos viendo un ser humano hacer la tarea.

Una serie de grupos intentan crear robots controlados a través de la mente para varias aplicaciones:
Este año Honda demostró cómo su robot Asimo era capaz de levantar un brazo o mover una pierna a través de señales enviadas desde un electroencefalograma operado por un usuario.
Científicos de la Universidad de Zaragoza (España) trabajan en crear sillas de ruedas robóticas que puedan ser manejadas con el pensamiento.

jueves, 7 de octubre de 2010

El gran inventario del océano


El fondo de los océanos ha estado siempre lleno de secretos. Allí viven miles de especies extraordinarias, muchas de ellas desconocidas para el hombre. Conocer mejor a sus habitantes ha sido durante décadas uno de los grandes retos de los científicos, un objetivo que hoy está más cerca gracias a un ambicioso proyecto internacional de investigación que este lunes ha sido presentado en Londres en forma de libro.
El Gran Censo de la Vida Marina recoge la información recopilada durante diez años en todos los océanos del mundo y pone de manifiesto el gran impacto de la actividad humana en los mares y en sus habitantes. Para llevar a cabo este gran inventario han sido necesarias 540 expediciones (9.000 días surcando los mares) y miles de horas de trabajo catalogando los datos en laboratorios y archivos. El resultado es un retrato sin precedentes sobre la biodiversidad de los océanos.
Las nuevas tecnologías y la colaboración entre países han sido decisivos para elaborar esta base de datos, para la que se ha contado con un presupuesto de 650 millones de dólares (unos 475 millones de euros). Se trata de uno de los mayores proyectos de colaboración científica llevados a cabo (han participado alrededor de 2.700 científicos procedentes de 80 países). El libro recoge los entresijos de esta investigación y desvela nueva información sobre las especies y sus hábitats, sus rutas migratorias, cómo se distribuyen y los cambios que se están produciendo en los océanos.
La base de datos contiene alrededor de 120.000 especies marinas, muchas de ellas desconocidas o fotografiadas por primera vez.
Contabilizando las catalogadas durante estos diez años de trabajo, el número de especies formalmente descritas en la literatura científica se sitúa en algo menos de 250.000, aún muy lejos del más del millón de especies que, según estiman los oceanógrafos, pueblan los océanos.
Y es que, a pesar de los avances, quedan mucho trabajo por hacer ya que esta gigantesca tarea está sólo en sus primeras fases, como subrayó el presidente del Comité de Coordinación del Censo, Ian Poiner, durante la rueda de prensa celebrada en Londres, informa Efe.
El 10% de especies marinas que viven en Europa (sin contar los microbios) aún está por describir, un porcentaje que aumenta al 38% en África del Sur, a casi el 60% en la Antártida, al 70% en Japón, y al 80% en Australia, según los autores de este proyecto.

De cara al futuro, los científicos proponen una serie de medidas para preservar la diversidad de especies y de sus hábitats, manejar los recursos del mar de una manera más eficaz y responder a las amenazas del cambio climático.
Según indicó Ian Poiner, "la vida de la superficie depende de la vida que hay en los océanos. La vida marina genera la mitad de nuestro oxígeno, gran parte de nuestra comida y sirve para regular el clima".
"Todos somos ciudadanos del mar. Y aunque queda mucho por saber, incluidas al menos 750.000 especies, ahora tenemos un mejor conocimiento de nuestros compañeros de viaje y del enorme hábitat que ocupan en este planeta", subrayó el científico australiano.
El estudio ha puesto también de manifiesto la conexión que hay entre océanos gracias al seguimiento exhaustivo que se ha hecho de las migraciones de numerosas especies. Asimismo, ha mostrado que hay "un declive generalizado de la abundancia marina". Los océanos están más alterados de lo que los científicos esperaban como consecuencia de la contaminación provocada por los humanos.

miércoles, 4 de agosto de 2010

El robot humanoide R2 contará su misión espacial a través de Twitter

El robot R2 de la Nasa, que no tiene voz, pero sí puede emplear sus manos, ha comenzado a comunicarse a través de Twitter mediante mensajes en los que habla sobre su próxima misión 'STS-133' en el espacio y que seguirá enviando desde la Estación Espacial Internacional.

Así, R2 ya está mandando actualizaciones desde la cuenta de Twitter @AstroRobonaut y, con la ayuda de su equipo, informará sobre su preparación para el despegue y finalmente, sobre su trabajo a bordo de la Estación Espacial, según indica la Nasa.

"¡Hola mundo! Mi nombre es Robonaut 2 -R2 de forma abreviada-", cuenta en Twitter. "¡Sigue mis aventuras aquí mientras me preparo para viajar al espacio!", añade.

El próximo mes de septiembre, el robot será trasladado desde el centro espacial Johnson, donde ha sido creado, al Centro Espacial Kennedy de la Nasa en Florida para las pruebas finales. El despegue a bordo de la lanzadera espacial Discovery, como parte de la misión STS-133, está previsto para noviembre.

R2 fue creado como resultado de un proyecto conjunto entre la Nasa y General Motors que comenzó en 2007. En un principio, estaba pensado para ser un prototipo de enlace con la Tierra, pero los ingenieros querían ver cómo funcionaba en microgravedad.

Este robot es el humanoide más avanzado que existe y, cuando se encuentre en el espacio, será el primer robot humanoide que alcance la órbita y el primer robot construido en América que llegue hasta la Estación Espacial.

A largo plazo, cuando sus creadores aprendan más sobre su manejo en el espacio y cuando se puedan hacer mejoras, podría conseguirse que el robot ayude a los astronautas dentro y fuera de la Estación Espacial con las tareas rutinarias o con aquellas demasiado peligrosas para los humanos.

viernes, 18 de junio de 2010

Logran Medir la Masa de los Quarks Up, Down y Strange


Los quarks, las partículas elementales de las que están hechos los protones y neutrones, hasta ahora habían sido notablemente difíciles de detectar, y aún más de pesar. Un grupo de investigación ha calculado, con un pequeño margen de error, la masa (expresada en su valor energético) de los tres quarks más ligeros, y por tanto más escurridizos: Up, Down y Strange.
El trabajo ha sido efectuado por el profesor de física G. Peter Lepage, de la Universidad Cornell, y sus colaboradores de varias instituciones.Los resultados de la investigación reducen la incertidumbre sobre las masas de los quarks hasta un pequeño porcentaje. Los científicos conocen la masa del protón desde hace casi un siglo, pero determinar la masa de cada uno de esos tres quarks ha sido un reto permanente.
Los quarks se mantienen juntos gracias a la, así llamada, Fuerza Fuerte, tan poderosa que hace imposible separarlos y estudiarlos.Para determinar las masas de los quarks fue necesario hacer un análisis detallado de la Fuerza Fuerte. Los científicos hicieron frente al problema recurriendo a grandes supercomputadoras que les permitieron simular el comportamiento de los quarks y los gluones dentro de partículas tales como protones.Los quarks tienen una gama de masas sorprendentemente amplia. El más ligero pesa 470 veces menos que un protón. El menos ligero pesa 180 veces más que un protón, o es casi tan pesado como todo un átomo de plomo.El motivo por el que existen estas enormes disparidades entre las masas de los quarks es uno de los grandes misterios actuales de la física teórica.Los resultados del nuevo estudio indican que el quark Up pesa aproximadamente 2 megaelectronvoltios (MeV), el quark Down pesa alrededor de 4,8 MeV, y el quark Strange pesa cerca de 92 MeV.

viernes, 21 de mayo de 2010

Científicos crean "célula artificial"


Científicos en Estados Unidos crearon lo que dicen es la primera célula controlada por un genoma sintético.
Según los investigadores, éste es el primer paso hacia la creación de vida artificial y algún día se podrían crear bacterias para, por ejemplo, producir combustibles o ayudar a absorber gases contaminantes y resolver otros problemas ambientales.
Los científicos del Instituto J. Craig Venter, que ya habían creado el genoma sintético de una bacteria, ahora lograron trasplantarlo a otra y producir lo que dicen es una célula artificial.
Esta célula "programada" por su cromosoma sintético comenzó a replicarse y a producir una nueva serie de proteínas, expresan los investigadores en la revista Science.
"Hito"
Aunque algunos expertos describen el avance como un "hito en la historia de la biología y biotecnología", todavía, dicen, no se puede hablar de una forma de vida "verdaderamente artificial" porque el genoma sintético fue colocado en una célula natural.
"Ésta es la primera célula sintética que ha sido creada", afirma el profesor Craig Venter, quien dirigió la investigación.
"Y la llamamos sintética porque la célula se deriva totalmente de un cromosoma artificial, creado con cuatro botellas de compuestos químicos, un sintetizador químico y con información inicial de una computadora".
"Esto puede ser una herramienta poderosa para tratar de diseñar lo que queremos en biología. Tenemos una amplia variedad de aplicaciones en mente" señala el científico.
Hace más de una década el profesor Venter y su equipo comenzaron su proyecto para la creación de vida en el laboratorio determinando cuál era la información mínima necesaria para que un microbio pudiera existir.
La teoría era que a esa información se le podrían agregar genes capaces de convertir a ese microbio en una "fábrica" productora de compuestos útiles, como combustibles, fármacos y otras sustancias.
En 2007 los científicos informaron que habían logrado transferir el genoma natural de una bacteria, Mycoplasma mycoides, a otra bacteria, Mycoplasma capricolum, tomando el control de su funcionamiento celular.
Un año después, el equipo informó que había logrado crear un cromosoma sintético de la Mycoplasma mycoides utilizando bloques de material genético.
Ahora, los científicos combinaron ambos avances tomando el genoma sintético de la M. mycoides añadiéndole secuencias de ADN que sirvieran como "marcas" para distinguirlo del genoma natural.
Compuestos útiles
Los científicos insertaron secuencias cortas de ADN en levadura para modificar el genoma de la bacteria, posteriormente transfirieron cadenas medianas de ADN a una bacteria E. coli que nuevamente fueron insertadas en la levadura.
Eventualmente lograron producir un genoma con más de un millón de pares de bases de ADN.
El paso siguiente de los investigadores fue trasplantar el genoma sintético de la M. mycoides a la M. capricolum.
El nuevo genoma, dicen los científicos, "puso en marcha" a las células recipientes. Y aunque 14 genes fueron eliminados o interrumpidos en la M. mycoides, ésta siguió siendo una bacteria normal y produciendo solo proteínas de M. mycoides.
En el laboratorio los científicos pudieron comprobarlo cuando apareció una colonia azul de bacterias que comenzó a reproducirse en la placa.
Cuando secuenciaron el ADN de la colonia confirmaron que la bacteria tenía el genoma sintético y que estaba produciendo proteínas de la M. mycoides y no de la M. capricolum.
"Fue claro que habíamos logrado transformar una célula en otra" expresa el profesor Venter.
"Pensamos que es un paso importante, tanto científica como filosóficamente. Ciertamente ha cambiado mi visión de la definición de lo que es vida y de cómo funciona la vida", agrega.
Otros expertos afirman sin embargo que aunque el avance es muy importante todavía es muy pronto para hablar de "vida artificial".
"Es un logro ciertamente asombroso" dice el doctor Anthony Forster, biólogo molecular de la Universidad de Vanderbilt, en Tennessee, Estados Unidos.
Pero subraya que "esta investigación ciertamente no creó una forma de vida verdaderamente sintética, porque el genoma sintético fue colocado en una célula que ya existía".
De cualquier forma, Craig Venter está ahora un poco más cerca de su objetivo final: la creación de microorganismos diseñados específicamente para producir compuestos útiles para la humanidad, como combustibles limpios como hidrógeno, sustancias absorbentes de gases de efecto invernadero, compuestos para purificar el agua y hasta limpiar derrames de petróleo.

jueves, 20 de mayo de 2010

Los primeros animales de la Tierra no se extinguieron


Uno de los agujeros más profundos en el complejo puzle de la evolución es el que sigue a la explosión del Cámbrico, hace unos 550 millones de años, cuando se desarrollan los primeros animales después de miles de millones de años de vida unicelular. Sin embargo, después de ese florecimiento que dio lugar a una gran diversidad de formas anatómicas nuevas, estos animales desaparecen del registro fósil. Los paleontólogos han debatido durante décadas si esa ausencia de fósiles se debe simplemente a una mala preservación, o si es que aquella primera fauna de la Tierra fue diezmada durante un gran episodio de extinción en masa.
En los últimos años, nuevos descubrimientos de fauna post-cámbrica están inclinando la balanza hacia la primera teoría: si no quedan fósiles cámbricos en los periodos siguientes es sencillamente porque se conservan muy pocos. Así lo constata el último hallazgo de fósiles de tejido blando excepcionalmente preservados que ha tenido lugar en Marruecos.
Los animales encontrados (unos 1.500 especímenes) cerca de la localidad de Zagora, datados en unos 480 millones de años -en el periodo Ordovícico-, son formas primitivas de esponjas, gusanos, trilobites y moluscos, muy similares en su forma a aquéllos extraídos del yacimiento cámbrico más conocido, el de Burgess Shale, en las Montañas Rocosas canadienses. Esto implica que la fauna del Cámbrico posiblemente no se extinguió, sino que continuó evolucionando y, de hecho, creen los autores del descubrimiento, pudo desempeñar un papel importante en la posterior diversificación de formas de vida, conocida como el Gran Evento de Biodiversificación del Ordovícico.
El hallazgo aparece descrito con minuciosidad en el 'Nature' de esta semana y tiene la participación, cómo no, de Derek Briggs, el mayor experto, o al menos el más célebre, en la fauna del Cámbrico desde que describió en los años 70 muchos de los especímenes encontrados hace un siglo en la cantera de Burgess Shale. Un todavía joven Briggs hizo una aparición estelar en el libro 'La vida maravillosa' del difunto paleontólogo Stephen Jay Gould, pese a lo cual mantuvo posteriormente una amarga disputa con este último.

Una extinción de peces primitivos propició el origen de los vertebrados modernos



Una extinción masiva de peces primitivos hace 360 millones de años está detrás del origen de todos los vertebrados modernos, incluidos los seres humanos. Así lo aseguran dos investigadores de la Universidad de Chicago -Lauren Sallan y Michel I. Coates-, que han buceado en las bases de datos de todos las especies fosilizadas de aquel momento.
Esta catástrofe, cuya causa podría haber sido una glaciación, se conoce como evento Hangenberg y podría haber sido mucho más importante de lo que se pensaba hasta ahora porque provocó un cuello de botella de las especies que existían en ese momento, justo después de la masiva extinción del Devónico, que tuvo lugar 15 millones de años antes.
Los científicos apuntan que en ese momento desaparecieron los peces placodermos acorazados, como el 'Dunkleosteus' gigante, uno de los depredadores marinos más fieros que han existido, y los peces con aletas pedunculadas, que eran mayoría. Por contra, los tiburones y las rayas, del grupo de peces gelatinosos, eran escasos, así como los tetrápodos o peces con patas.
"Sin embargo, al final del Devónico, todo esas especies dominantes fueron reemplazadas. Los jugadores cambiaron y los pocos que sobrevivieron fueron los que luego se extendieron de forma espectacular", explica Michael Coates.
De hecho, antes de ese evento Hangenberg, los tetrápodos, de donde proceden todos los vertebrados terrestres, incluido el ser humanao, habían hecho ya alguna tentativa de salir del agua a la tierra, como es el caso de Ichthyostega, uno de los primeros en tener patas y dedos.
Tras la extinción, hubo un periodo en el que casi no se resgistran fósiles, un agujero paleontológico conocido como Romer's Gap que traía de cabeza a los expertos.
Ahora, Sallan y Coates defienden que ese boquete de 15 millones de años fue la resaca después del traumático cataclismo de Hangenberg, debido a la disminución de la biodiversidad general. Poco a poco, los tetrápodos se recuperaron y se convirtieron en los abuelos ancestrales de los los animales terrestres vertebrados, desde los mamíferos a los pájaros, según explican esta semana en la revista 'Proceedings of National Academy of Science' (PNAS).
Para el paleontólogo José Luis Sanz, catedrático en la Universidad Autónoma de Madrid, se trata de una investigación interesante: "Perfila mejor los cuellos de botella por los que pasaron los vertebrados, lo que es importante porque podría considerarse una sexta extinción del pasado y ahora estaríamos en la séptima", argumenta.
Las estimaciones anteriores se habían realizado siempre con fósiles de invertebrados, como moluscos y almejas) que son mucho más comunes, pero gracias a nuevas técnicas de procesamiento de datos, los biólogos de Chicago han podido observar los cambios antes y después dde Hangenberg.
Esta gran extinción, que había pasado bastante inadvertida y que tuvo lugar en un momento crítico para los vertebrados, según otros estudios coincide con la formación de un glaciar que hizo bajar el nivel del mar drásticamente.
Sanz recuerda que en esos momentos se produjeron aumento de nutrientes en el agua y falta de oxígeno en algunos niveles, lo que provocó muchos cambios en la fauna. Algunos inesperados, como el hecho de que las especies más abundantes no se recuperaran y si lo hicieran otros grupos que estaban separados y dispersos.

jueves, 13 de mayo de 2010

La tela de araña ya no tiene secretos para la ciencia



Un grupo de investigadores de las universidades Complutense de Madrid (UCM), de Oslo (Noruega), y de Uppsala (Suecia) presentan esta semana en la revista Nature la estructura tridimensional de una de las regiones -denominada 'dominio N-Terminal'- de las proteínas que componen la seda, las espidroínas.
"El dominio N-Terminal regula el ensamblaje de las fibras de seda en el extremo de la glándula Ampulácea", explica Cristina Casals, catedrática de Bioquímica y Biología Molecular de la UCM y coautora del estudio.
La glándula Ampulácea mayor está situada en el extremo del abdomen del cuerpo de la araña, y en ella se acumulan en altas concentraciones las proteínas de la seda. Según avanzan a lo largo de la glándula, las largas moléculas de espidroína se organizan hasta formar un verdadero cristal líquido.
Un poco antes de llegar al extremo de la glándula, a poca distancia de la salida al exterior, se convierte bruscamente en una fibra sólida e insoluble. Hasta ahora era un misterio cómo se produce la rápida transición desde proteína soluble (mientras está dentro de la glándula secretora) a insoluble (justo antes de salir al exterior). La regulación que ejercen los cambios de pH sobre el dominio N-terminal ofrece una respuesta.
Para realizar esta investigación los científicos han trabajado con la tela de la araña africana Euprosthenops australis. En el mismo número de Nature aparece otro trabajo basado en la seda de otra especie muy común en Europa, la araña de jardín Araneus diadematus, realizado por investigadores de la Universidad Técnica de Múnich, Universidad Bayreuth y el Instituto Max-Planck, en Alemania.
Más resistente que el acero
Las fibras de seda de araña son mucho más resistente que un cable de acero de similar grosor y muchísimo más elásticas, ya que puede estirarse hasta el 135% de su longitud original sin romperse. Esta seda también es tres veces más resistente que las fibras sintéticas más avanzadas que hoy se conocen, y hasta ahora no se ha logrado producir nada parecido.
"La elevada elasticidad y la altísima resistencia a la tracción de la seda de araña natural no tienen parangón, ni siquiera con las fibras producidas a partir de proteínas de seda de araña pura", expone el profesor Horst Kessler, de la Universidad Técnica de Múnich.
La seda de araña está compuesta por moléculas proteicas, largas cadenas formadas por miles de aminoácidos. Los análisis estructurales realizados mediante rayos X muestran que la fibra finalizada presenta zonas en las que varias cadenas de proteínas se entrelazan mediante conexiones físicas estables. Estas conexiones son responsables del alto nivel de estabilidad. Entre las conexiones se observan zonas no entrelazadas, que proporcionan a las fibras la gran elasticidad que las caracteriza.
El almacenamiento previo
Sin embargo, la situación dentro de las glándulas sericígenas es muy distinta: las proteínas de seda se hallan almacenadas en altas concentraciones, dentro de un entorno acuoso, listas para ser empleadas. Las zonas responsables de entrelazarlas no pueden aproximarse demasiado, porque si no las proteínas se agruparían de forma instantánea. Por tanto, estas moléculas deben disponer de algún tipo de configuración de almacenamiento especial.
Hasta el mismo instante en que se forma la fibra de seda sólida, todos los procesos se desarrollan en la solución acuosa. En estas condicones el método utilizado para analizarla ha sido la espectroscopia mediante resonancia magnética nuclear, con el que el equipo alemán ha conseguido desentrañar la estructura de un 'elemento de control', cuyo papel es la formación de las fibras sólidas.
Las cadenas de proteínas se almacenan con las áreas polares orientadas hacia el exterior y las partes hidrófobas de la cadena apuntando hacia el interior, con lo que se garantiza una buena solubilidad en el entorno acuoso.
El flujo en el estrecho conducto de salida de las hileras ejerce una fuerza importante. Las largas cadenas de proteínas se alinean en paralelo, lo que hace que las zonas responsables del entrelazado se pongan juntas. Así se forman las fibras estables de la seda de araña.
Aplicaciones en la industria y en la medicina
Las aplicaciones potenciales de un compuesto que imite la seda de las arañas son incontables, desde su empleo como material de sutura quirúrgica reabsorbible, hasta su aprovechamiento como fibras técnicas en la industria de la automoción.
La producción biotecnológica de las fibras, que son más fuertes que el acero y más elásticas que el nylon, tiene múltiples aplicaciones no solo a nivel industrial, sino también biomédicas. Fibras similares a la seda formadas por espidroína recombinante, generan un material biocompatible de gran utilidad en cultivos celulares y medicina regenerativa.

Más cerca de un "elixir" de la juventud


Durante décadas el "Santo Grial" de los científicos ha sido encontrar la forma de retrasar el envejecimiento humano y se han llevado a cabo numerosas investigaciones en todo el mundo con ese objetivo.
Esta semana, la Sociedad Real (la academia de ciencias del Reino Unido) reunió a esos investigadores en una conferencia en Londres para presentar los avances logrados en el campo de la lucha contra el envejecimiento.
Los científicos informaron que se han identificado al menos diez mutaciones genéticas capaces de prolongar la vida de ratones en hasta 50% y que varias de ellas también están vinculadas a la longevidad en el ser humano.
Algunas compañías farmacéuticas ya están explotando estos hallazgos tratando de encontrar blancos potenciales para nuevos "fármacos de la juventud".
Según dijo uno de los ponentes en la conferencia, el profesor Nir Barzilai, del Colegio de Medicina Albert Eistein de Nueva York, estos medicamentos estarán disponibles mucho más pronto de lo que pensamos.
"He visto a personas que no sólo tienen 100 años sino que también se encuentran en excelente estado de salud", afirmó el científico en la reunión.
"Conducen autos y pintan, y dicen que la vida es bella. Por eso, tengo la firme creencia de que los seres humanos somos capaces, como especie, de vivir 100 años o más si logramos prevenir algunas de las enfermedades relacionadas con la vejez".
Vejez, una "enfermedad"
La visión del profesor Barzilai es que un día podamos disponer de una píldora que tomaremos diariamente para postergar los efectos del envejecimiento y que quizás se podrá empezar a usar cuando la persona cumpla 40 o 50 años.
Pero la clave para lograr este objetivo, como le explicó Barzilai a la BBC, es clasificar ahora a la vejez como una enfermedad que puede prevenirse.
"El punto básico de esta investigación es establecer que el envejecimiento es un importante factor de riesgo de todos los trastornos relacionados a la vejez, como el mal de Alzheimer, la diabetes y la enfermedad coronaria".
"Y si no comenzamos a combatir este proceso de envejecimiento como un todo, no lograremos avances combatiendo sólo una de estas afecciones".
Porque de nada sirve -según él- poder curar a un paciente con enfermedad coronaria si en un año ese mismo paciente va a desarrollar Alzheimer, cáncer u otro trastorno relacionado con la edad.
La meta, entonces, es lograr que una persona llegue a los 100 años sin sufrir ninguno de estos males.
"Todos envejecemos en distinto grado. Una persona puede tener 50 años y verse como de 40 años y viceversa. Por eso, mi investigación se centra en aquellos que han llegado a los 100 años pero con una buena salud", aclaró Barzilai.
¿Juventud eterna?
Los científicos saben que no se puede dar marcha atrás al envejecimiento, pero sí se lo puede retrasar.
Y esto ha quedado demostrado en los últimos 40 años con el surgimiento de una población extremadamente vieja en muchos países del mundo, gracias a la mejora en los cuidados de salud, el estilo de vida, la dieta y el medio ambiente.
Sin embargo, todavía hay una gran preocupación tanto de individuos como de gobiernos y sus sistemas de salud de que cada vez haya más personas ancianas pero que han perdido sus facultades y que tienen que depender de otros para sobrevivir.
Por eso, tal como señala el profesor Barzilai, se están intentando crear medicamentos capaces de explotar los factores genéticos vinculados a la longevidad que se han descubierto hasta el momento.
"Hemos hallado varios factores comunes y cada uno de ellos es un medicamento potencial en el futuro", dijo el investigador.
"Mi investigación, que presenté en la Sociedad Real, muestra datos de uno de los genes que identificamos y que está vinculado al metabolismo del colesterol".
"Creemos que este gen aumenta los niveles de colesterol bueno, algo que hasta ahora no hemos logrado de forma natural y que sabemos que retrasa la vejez, porque lo hemos visto en las personas centenarias que hemos estudiado".
"Estamos ya trabajando en un fármaco que imite la función del gen y creemos que pronto podría estar disponible para pruebas".
Estos ensayos, dijo el experto, deberán confirmar si realmente el aumento del colesterol bueno previene o retrasa las enfermedades relacionadas con la vejez.
¿Y cuándo podríamos contar con este "elixir" de la juventud? Según Barzilai, podría ser pronto.
"Esta pregunta me la han hecho durante toda mi carrera profesional y siempre he respondido lo mismo: en unos cinco o diez años".
"Pero ahora estoy seguro de que estoy en lo correcto y será mucho más pronto de lo que creemos".

La NASA le invita a convertirse en un astronauta virtual



La agencia espacial norteamericana (NASA) invita a los navegantes del ciberespacio a que se conviertan durante un rato en 'astronautas virtuales' y aprovechen para dar un breve paseo por la Luna, con el objetivo de ayudarles a comprender muchas cuestiones científicas.
Para ello no son necesarios ni traje espacial ni nave en la que despegar hacia el espacio. Simplemente hay que pinchar en http://www.moonzoo.org/, donde con el máximo detalle se recogen las últimas imágenes de alta resolución capturadas por la sonda Lunar Reconnaissance Orbiter Camera (LROC) de la NASA, que ofrece múltiples pistas para conocer un poco mejor la historia de la Luna y del Sistema Solar.
El proyecto 'Moon Zoo Web' es una iniciativa ciudadana de 'Citizen Science Alliance', un grupo que engloba a diferentes organizaciones de investigación y museos.
Una contribución a la ciencia
"Necesitamos que los ciudadanos naveguen por esta web para poder interpretar estas sorprendentes nuevas imágenes. Si tan sólo pasa cinco minutos en la web contando cráteres hará una contribución muy importante a la ciencia", ha indicado el jefe de Citizen Science Alliance y profesor de la Universidad de Oxford, Chris Lintott.
Los científicos están particularmente interesados en conocer cuántos cráteres hay en determinadas áreas del satélite terrestre para poder conocer y determinar la edad y la profundidad de la superficie lunar. Además, los cráteres más recientes surgidos de impactos sobre la superficie de la Luna hace muy poco tiempo aportan pistas sobre los riesgos potenciales de los meteoros, tanto en la Luna como en la Tierra.
El Instituto de Ciencia Lunar de la NASA (NLSI, por sus siglas en inglés) está contribuyendo en esta iniciativa, entre otras cosas, aportando contenidos y apoyando los principales objetivos del proyecto.

Los laboratorios de la NASA están anticuados, según el Consejo de Investigación



Muchos de los laboratorios de investigación de la NASA son viejos y la reducción de presupuesto ha puesto seriamente en peligro la investigación científica en la agencia espacial, según un informe del Consejo Nacional de Investigación, un órgano de asesoramiento independiente de la administración estadounidense.
Ciertos cambios burocráticos supondrán que el personal que trabaja en los laboratorios deberá emplear mucho tiempo en solicitar dinero mientras sus instalaciones se deterioran, según afirma el panel de expertos designado por el consejo.
"La comunidad de investigación en la NASA ha sufrido un fuerte impacto por las reducciones presupuestarias que son responsables de esta disminución en las capacidades de laboratorios, y como resultado, la capacidad de la NASA para lograr sus futuras metas está en serio peligro, concluyen.
Mejorar las instalaciones
El informe no dice que la NASA debería gastar un monto particular de dinero para arreglar los problemas, pero recomienda que la agencia se esfuerce en mejorar las instalaciones. Este documento llega mientras el presidente de Estados Unidos, Barack Obama, intenta promover una nueva visión de exploración del espacio que incluye sociedades público-privadas para reemplazar el modelo gubernamental que envió astronautas a la Luna hace 40 años.
Obama pidió un aumento de 6.000 millones de dólares en el presupuesto de la NASA para ayudar a aumentar la exploración del sistema solar y los estudios sobre cambio climático realizados desde la Tierra.
La NASA le encargó al Consejo, una de las Academias Nacionales Independientes de Ciencias que asesora al Gobierno federal sobre políticas médicas y científicas, que investigara sus laboratorios científicos antes de que los cambios de Obama entren en funcionamiento..
Seis centros muy descuidados
El panel encontró que la NASA ha descuidado sistemáticamente laboratorios en seis de sus centros: el Centro de Investigación Ames y el Laboratorio de Propulsión Jet en California, el Centro de Investigación Glenn en Ohio, el Centro de Vuelo Espacial Goddard en Maryland, el Centro de Investigación Langley en Virginia, y el Centro de Vuelo Espacial Marshall en Alabama.
"Estas capacidades de investigación han tardado años en desarrollarse y dependen de infraestructura y personal altamente competente y experimentada", comentó Joseph Reagan, un vicepresidente retirado de Lockheed Martin Corp., que presidió el panel.
"Sin los recursos adecuados, los laboratorios se pueden deteriorar muy rápidamente y no serán rápidamente reconstituidos", declaró.
En cambio, el informe encontró que la cantidad que la NASA necesita gastar para mantenimiento creció de 1.770 millones de dólares en el 2004 a 2.460 millones de dólares en el 2009.
"Más del 80% de las instalaciones de la NASA tienen más de 40 años de antigüedad y necesitan importantes mejoras para preservar la seguridad y continuidad de las operaciones para misiones cruciales", sostiene el informe.

Un sistema para calcular con precisión la edad de las estrellas



Un equipo de científicos, algunos de ellos de varios centros de investigación españoles, ha encontrado la clave para datar la edad de las estrellas enanas blancas del cúmulo galáctico NGC 6791, que ahora podrán ser usadas como "cronómetros fiables" para determinar el nacimiento de otros sistemas.
La investigación ha demostrado que la edad de las estrellas blancas estudiadas -situadas a una distancia de 13.300 millones de años/luz- es de 8.000 millones de años y no de 6.000 millones, como se creía, una diferencia hallada por medio del análisis de la sedimentación de los elementos químicos más pesados y la cristalización de materiales del interior de la estrella.
Estos procesos han permitido calcular con precisión la edad, gracias a la comparación entre los cálculos hechos por los investigadores, con las medidas del cúmulo realizadas con imágenes del telescopio espacial Hubble, y que han comprobado que coinciden, según explicó Enrique García-Berro, investigador del Departamento de Física aplicada de la UPC y director de esta investigación que se publica el jueves en 'Nature'.
Aplicable a la Vía Láctea
La tesis doctoral de García-Berro de 1987 ya apuntaba una hipótesis, en la que ha profundizado este trabajo internacional, de que las enanas blancas pueden servir para fijar la edad de la Vía Láctea, o de agrupaciones de estrellas que hubieran nacido más o menos al mismo tiempo, una especulación que ahora se ha confirmado con unos modelos detallados de estos procesos.
"Este sistema es como una regla, permite calibrar mejor la edad, y esto se puede aplicar, por ejemplo, a la edad de nuestra galaxia -a la que ahora se otorga una antigüedad del orden de unos 10.000 millones de años- y calcular las edades de otros cúmulos", explica García-Berro, que apunta que el resto de galaxias están tan lejos que no se pueden ver las enanas blancas con los medios actuales.
La mayoría de las enanas blancas, formadas por un núcleo de carbono y oxígeno y que son consideradas como residuos -restos compactos de estrellas, fruto de la evolución estelar-, tienen en el momento de su formación niveles de temperatura y brillo muy alto, pero al no tener otra fuente de energía que la reserva térmica se enfrían gradualmente y disminuyen su luminosidad hasta que dejan de irradiar.
Simulación de su evolución
La enanas blancas han servido a la ciencia para estimar, desde el punto de vista teórico, la edad de la galaxia y otros sistemas de estrellas, aunque la poca concreción de las hipótesis que se barajaban era muy grande, ya que no se podía probar los fenómenos de densidad y temperatura producidos en el interior de las estrellas, imposibles de reproducir en laboratorio.
Esta investigación ha demostrado mediante la simulación toda la evolución de las enanas blancas. Se han incluido los dos procesos físicos que tienen lugar en el núcleo de estas estrellas y que nunca se había tenido en cuenta, en concreto la sedimentación del neón y la separación de fases del carbono y el oxígeno durante la cristalización, que sucede a temperaturas más bajas.
En estas dos etapas de la evolución, la estrella libera energía gravitacional y el enfriamiento se ralentiza. Como las enanas blancas más débiles del cúmulo son también las más rojas y frías, si se dispone de buenos modelos de medición del enfriamiento se puede calcular la edad del cúmulo.
Profundizar en el conocimiento del Universo
Los expertos han calculado los colores y el brillo de las enanas blancas del cúmulo y han podido comprobar que en las más débiles, los efectos de estos procesos físicos retardan el enfriamiento de forma que la edad del cúmulo y de las enanas blancas coinciden.
Los resultados de esta investigación abren el camino "para profundizar en el conocimiento del universo", explican sus autores, entre los que hay también científicos del Instituto de Estudios Espaciales de Cataluña, del Instituto de Ciencias del Espacio del CSIC, la Universidad Nacional de la Plata (Argentina) y la Liverpool John Moores University.
"Ahora hay que aplicar esta investigación a otros sistemas estelares y ver que efectivamente sirve para predecir las edades de forma correcta, o para ver si hay fuentes adicionales de energía en el interior de estrellas, o utilizarla para conocer si la constante de la gravitación varía con el tiempo, un abanico de posibilidades", concluye García-Barro.

miércoles, 12 de mayo de 2010

El telescopio Herschel halla un agujero en el espacio



El telescopio espacial de infrarrojos de la ESA Herschel ha realizado un descubrimiento insólito: un agujero en el Espacio. Los astrónomos podrían ser capaces de vislumbrar el final del proceso de creación de una nueva estrella.
Las estrellas se forman en el interior de densas nubes de polvo y gas que, gracias a la tecnología de Herschel, pueden ser estudiadas por primera vez con gran nivel de detalle. Si bien se han detectado chorros y nubes de gas eyectados por estrellas en formación, continúa siendo un misterio cómo son capaces de dispersar por completo la nube que las rodea para emerger como un nuevo astro independiente. Ahora, por primera vez, Herschel puede estar observando un inesperado paso de este proceso.
La brillante nebulosa de reflexión conocida por los astrónomos como NGC 1999 se encuentra situada junto a una región oscura del firmamento. Durante la mayor parte del siglo XX, se pensaba que estas regiones oscuras se correspondían con densas nubes de polvo y gas que no permitían el paso de la luz.
Un inesperado proceso de formación estelar
Cuando Herschel miró en su dirección para observar las estrellas en formación de la zona, la región continuaba siendo oscura, pero Herschel está diseñado para poder ver a través de este tipo de nubes. O bien la nube era extraordinariamente densa o algo raro estaba pasando.
Al investigar esta región con telescopios desde la Tierra, los astrónomos confirmaron lo que parecía evidente: esta región no está oscura por ser una densa nube de gas, sino porque está realmente vacía. Algo había perforado un agujero a través de la nube. Es tan sorprendente como descubrir una mañana que las lombrices de tu jardín han excavado un hoyo enorme.
Los astrónomos creen que el agujero se formó cuando los chorros de gas eyectados por las estrellas en formación de la región atravesaron la nube de gas y polvo que forma la nebulosa NGC 1999. La intensa radiación de alguna estrella cercana podría haber contribuido a agrandar el agujero. Independientemente de cómo se haya formado, este agujero puede ayudar a comprender cómo se dispersan las nubes de formación en el último paso del proceso de formación de las estrellas.

¿Y si el 'Big Bang' no fue el comienzo de todo?


¿Qué vino antes, el huevo o la gallina? La ciencia todavía no está segura de tener la respuesta, pero una nueva corriente de físicos cree que, en todo caso, el 'Big Bang' sólo fue un huevo… que nació de una gallina universal, que a su vez fue un huevo que nació de otra gallina, y así indefinidamente.
Sean Carroll es uno de esos físicos. Sus argumentos a favor de una nueva teoría del tiempo y su excelente capacidad divulgadora le han catapultado a la fama, al menos en Estados Unidos. Esta semana, antes de firmar su último libro ante una horda de fans, este cosmólogo del Caltech (California Institute of Techonology) dedicó una hora a explicar, ante el atónito público del Museo de Historia Natural de Nueva York, la flecha del tiempo, o lo que es lo mismo, la dirección que sigue el tiempo, el transcurso, lo que hace que sea distinto el ayer del mañana.
En nuestro mundo, explicó, el tiempo sólo sigue una dirección: de pasado a futuro, y se caracteriza por la irreversibilidad. En su ejemplo más famoso, siguiendo con las aves de granja, podemos hacer que un huevo se convierta en tortilla, pero no que una tortilla se convierta en huevo. ¿Por qué? Por la entropía, el desorden al que tiende el Universo.
Una habitación se desordenará sola si no hacemos nada por evitarlo. En cambio, muy a nuestro pesar, requerirá un esfuerzo devolverle el orden inicial. Este simple ejemplo es atribuible a todo el Universo: cada vez es más desordenado, hoy más que ayer y ayer más que el día anterior, así hasta remontarnos hasta sus "inicios", hace 13.500 millones de años, cuando surgió a través del 'Big Bang' en un estado de muy baja entropía, o mucho orden.
Hacia el vacío total
¿Y por qué el Universo tenía muy baja entropía en su nacimiento? No hay una respuesta clara, pero posiblemente fue porque es la forma más fácil que tiene un Universo de nacer, dice Carroll: un sistema muy caliente y altamente denso, capaz de albergar 100.000 millones de galaxias con 100.000 millones de estrellas cada una (como hay ahora), necesita mucho orden para mantenerse en un "espacio compacto". Desde entonces, el Universo no para de expandirse. ¿Hacia dónde? Hacia el infinito. ¿Hasta cuándo? Hasta el infinito. No hay fin.
Los físicos creen que en un gúgol de años (10 elevado a 100), el Universo se vaciará por completo: todos sus elementos habrán caído en los agujeros negros, e incluso los agujeros negros se habrán disuelto. Y aun así, continuará expandiéndose. Sin embargo, los físicos también saben que incluso el vacío guarda cierta cantidad de energía, la energía oscura, y la física cuántica nos dice que siempre quedarán partículas pululando. Suficiente como para que, después de muchísimo tiempo, un pequeño espacio del Universo vacío se desprenda como una gota: puede ser independiente, o puede estar contenido dentro del Universo materno, pero será el nacimiento de un nuevo Universo. Un Big Bang, que por leyes naturales tendrá muy baja entropía y empezará a enfriarse y a expandirse hasta vaciarse, para dar lugar, mucho tiempo después, a un nuevo Universo, y así sucesivamente, hasta el infinito.
Flechas simétricas del tiempo
Para Carroll el vacío es, en realidad, el estado natural de las cosas, y nosotros somos una excepción nacida de las fluctuaciones aleatorias de la energía. Si de algo dispone el Universo, o los universos o multiversos, es de tiempo. Con suficiente tiempo se pueden obtener todo tipo de combinaciones posibles. Incluso que una tortilla pueda volver a ser huevo. Pero se necesitaría mucho más tiempo del que lleva existiendo nuestro Universo.
¿Y cómo es el tiempo en un Universo vacío? El tiempo existe aunque no haya nadie ni nada para experimentarlo. Es una coordenada, como lo es el espacio. Y a este respecto, las leyes físicas no hacen distinción entre pasado y futuro; no hay flecha del tiempo en las leyes fundamentales de la naturaleza. Las cosas podrían ocurrir simultáneamente en otro Universo distinto al nuestro, o fuera del nuestro. Los físicos hablan de equilibrio térmico cuando no hay flecha del tiempo, cuando la entropía es siempre la misma. Entonces es todo estático, nada cambia.
Según explica Sean Carroll, del 'Big Bang' para acá el tiempo ha seguido una dirección: de pasado a futuro. Pero no hay nada que impida pensar que, del Big Bang para atrás, la flecha del tiempo siguió la dirección opuesta, o más bien simétrica. Y del mismo modo en que, para nosotros, todo lo que pudo haber antes del Big Bang es un pasado muy remoto, nosotros somos un pasado muy remoto para los Universos que nacieron en dirección opuesta.
'Einstein se equivocó'
"¡No es posible!", le dice mucha gente a Carroll. "¡Einstein dijo que antes del 'Big Bang' no podía haber nada!". La respuesta de este popular cosmólogo es muy sencilla: Einstein se equivocó. "La teoría de la relatividad ha resultado no ser del todo correcta. Por ejemplo, no es compatible con la física cuántica. Lo que Einstein quiso decir es que más allá del Big Bang, se acaba nuestra capacidad de comprensión", explicó durante su brillante charla, aun asumiendo que no hay certidumbres, sino "aproximaciones honestas" a la realidad del mundo físico. (Como diría el divulgador británico Simon Singh, sólo las matemáticas son capaces de asentar teoremas absolutos).
Después de su conferencia, resulta inevitable una sensación de vértigo ante el abismo que nos espera: un Universo vacío, sin fin, que se repite constantemente. (Nada indica, sin embargo, que las leyes físicas tengan que manifestarse de la misma forma en cada uno de los Universos; para nuestra tranquilidad, no parece que estemos condenados a vivir la misma vida una y otra vez, eternamente).
Cuando se exponen sus teorías en los medios de comunicación, Carroll dice recibir muchas cartas de lectores indignados. "Yo no sé si tú existes, pero yo sí, y no voy a dejar que destruyas el mundo. Creo que tienes demasiado tiempo libre", le increpó un niño de 10 años en una misiva que el científico muestra con orgullo.

lunes, 3 de mayo de 2010

Verifican a Escala Cósmica la Validez de la Teoría de la Relatividad de Einstein


Un equipo liderado por científicos de la Universidad de Princeton ha puesto a prueba la teoría de la relatividad general de Albert Einstein para ver si se cumple a escala cósmica. Y, después de dos años de análisis de datos astronómicos, los científicos han dictaminado que la teoría de Einstein, que describe la interacción entre la gravedad, el espacio y el tiempo, opera a grandes distancias tal como lo hace en las regiones locales del espacio.
El análisis de estos científicos sobre más de 70.000 galaxias demuestra que el universo, al menos hasta una distancia de 3.500 millones de años-luz de la Tierra, sigue las normas establecidas por Einstein en su famosa teoría.Desde que el físico Arthur Eddington midió la curvatura de la luz de las estrellas alrededor del Sol durante un eclipse en 1919 y demostró la validez de la teoría de la relatividad general de Einstein, el mundo científico ha aceptado sus principios. Pero hasta ahora, nadie había puesto a prueba la teoría tan a fondo ni tan robustamente, a distancias y escalas que van mucho más allá del sistema solar.En este trabajo, han intervenido Reinabelle Reyes, Rachel Mandelbaum y James Gunn de la Universidad de Princeton, Tobias Baldauf, Lucas Lombriser y Robert Smith de la Universidad de Zúrich, y Uros Seljak de la Universidad de California en Berkeley.
Los resultados del análisis son importantes porque respaldan las teorías actuales que explican la forma y dirección del universo, incluyendo las ideas más aceptadas sobre la Energía Oscura, y permiten descartar las sospechas que se despertaron a raíz de otros experimentos recientes que sugerían que la relatividad general podía estar equivocada.Publicada por primera vez en 1915, la teoría de la relatividad general de Einstein sigue siendo un avance fundamental en la física moderna. Redefinió la comprensión humana del tejido de la existencia: La gravedad, el espacio y el tiempo.La innovadora teoría mostró que la gravedad puede afectar al espacio y al tiempo, una cuestión crucial para comprender las fuerzas fundamentales de la física y los fenómenos naturales, incluyendo los agujeros negros.

miércoles, 21 de abril de 2010

La NASA homenajea a la Tierra



La Agencia Espacial estadounidense (NASA) ha reunido una selección de sus mejores fotografías para celebrar el 40 aniversario del Día de la Tierra, que se celebra este jueves en todo el mundo.
A lo largo de 50 imágenes, la NASA muestra preciosas vistas de la Tierra desde la Espación Espacial Internacional (ISS), lagos, ríos, desiertos, amaneceres y atardeceres en la Tierra o lugares como la Gran Muralla china.
Asimismo, recoge algunas de las instantáneas tomadas desde el espacio de zonas de la Tierra que han sufrido desastres naturales: huracanes como el Katrina, Haití tras el terremoto del pasado mes de enero, ciclones o volcanes en erupción.

lunes, 12 de abril de 2010

¿La Molécula Más Primigenia de la Maquinaria de la Vida?

Una molécula de ARN muy pequeña creada por un equipo de científicos puede catalizar una reacción clave necesaria para sintetizar proteínas, los "ladrillos" fundamentales de la vida.
Este logro podría constituir un avance sustancial hacia el conocimiento definitivo de los orígenes de la vida en la Tierra.Esta enzima, la enzima de ARN más pequeña conocida que realiza una reacción química celular, ha sido creada en la Universidad de Colorado en Boulder.Rebecca Turk, Nataliya Chumachenko y Michael Yarus han intervenido en este trabajo.El ARN celular puede tener cientos o miles de sus unidades estructurales básicas, llamadas nucleótidos. El equipo de Yarus se concentró en una ribozima (una forma de ARN que puede catalizar reacciones químicas) que tiene sólo cinco nucleótidos.
Como las proteínas son complejas, una pregunta muy difícil de responder es de dónde surgieron las primeras proteínas.Ahora parece que las primeras macromoléculas catalíticas podrían haber sido moléculas de ARN. Dado que son un tanto simples, probablemente existieron en el amanecer de la vida en la Tierra, y son capaces de catalizar reacciones químicas sin la presencia de proteínas.El nuevo hallazgo ha sido toda una sorpresa. Nadie esperaba que una molécula de ARN así de pequeña y simple fuera capaz de hacer una cosa tan complicada.El descubrimiento brinda una mayor credibilidad a la hipótesis del "mundo de ARN", que propone que la vida en la Tierra evolucionó a partir de formas antiguas de ARN.

Señales Cerebrales Más Potentes al Usar una Interface Cerebro-Máquina


Utilizar las señales cerebrales para controlar teclados, robots o dispositivos protésicos es un área activa de la investigación médica. Ahora, un equipo de investigadores en la Universidad de Washington ha completado un análisis de señales en la superficie cerebral de varias personas mientras éstas ejecutaban movimientos imaginarios para controlar un cursor. Los resultados muestran que ver a un cursor responder a nuestros pensamientos induce señales cerebrales más fuertes que las generadas en la vida cotidiana.
Los culturistas adquieren músculos mayores de lo normal levantando pesas. A la luz de lo descubierto en el nuevo estudio, parece ser que algo similar sucede con la mente: Las personas que interactúan durante un tiempo suficiente con un ordenador, usando para ello una interface mente-máquina, acaban siendo capaces de generar señales cerebrales más potentes que las de las personas normales. Y los primeros resultados llegan muchísimo antes que con el culturismo."Usando estas interfaces, los pacientes crean poblaciones superactivas de células cerebrales", señala Kai Miller, del equipo de investigación.El hallazgo promete ayudar a la rehabilitación de pacientes que han sufrido derrames cerebrales u otros daños neurológicos. También sugiere que un cerebro humano podría volverse rápidamente experto en manipular un dispositivo externo como la interfaz de un ordenador o un dispositivo protésico.
El equipo de expertos en computación, físicos, fisiólogos y neurocirujanos estudió a ocho pacientes que esperaban ser sometidos a una cirugía inminente para tratarles sus problemas de epilepsia en dos hospitales de Seattle. Los pacientes tuvieron electrodos pegados a la superficie de sus cerebros durante la semana de la cirugía y consintieron en participar en la investigación que analizaría la conexión de cerebros a ordenadores.Los investigadores primero registraron los patrones cerebrales cuando los sujetos realizaban varias acciones físicas.Luego, los científicos registraron los patrones cerebrales cuando los sujetos se imaginaban realizando las mismas acciones. Estos patrones eran similares a los patrones de las acciones reales pero mucho más débiles, como se esperaba por lo descubierto en estudios anteriores.Finalmente, los investigadores analizaron las señales cuando los sujetos se imaginaban realizando la acción y esas señales cerebrales eran usadas para mover un cursor hacia un objetivo en la pantalla de un ordenador.Después de menos de diez minutos de práctica, las señales cerebrales de los movimientos imaginarios se volvieron significativamente más fuertes que las emitidas cuando los sujetos estaban realizando los movimientos físicos.Rajesh Rao también ha intervenido en el estudio.

Preparativos Para Mapear el "Cableado" del Cerebro Humano


El C. elegans, un diminuto gusano de aproximadamente un milímetro de largo, no tiene mucho de cerebro, pero sí posee un sistema nervioso, formado por 302 neuronas. En la década de 1970, un grupo de investigadores en la Universidad de Cambridge decidió crear un "diagrama de cableado" completo de cómo están conectadas entre sí cada una de esas neuronas. Tales diagramas de cableado han sido bautizados recientemente como "conectomas". El conectoma del C. elegans, publicado en 1986, tardó más de una docena de años de intenso trabajo en ser conseguido. Ahora un puñado de investigadores de diversas partes del mundo está afrontando un proyecto mucho más ambicioso.
El proyecto en cuestión es conseguir los conectomas de cerebros más similares al humano, y, por tanto, con una cantidad muy superior a 302 neuronas. Los científicos, incluyendo varios del MIT, están trabajando en las tecnologías necesarias para acelerar el lento y laborioso proceso que los investigadores que se ocuparon del C. elegans usaron originalmente para obtener el conectoma de ese gusano. Con estas tecnologías, piensan lograr los conectomas de nuestros primos animales, y quizás al final incluso intenten conseguir el de los seres humanos. Los resultados de esta línea de investigación podrían modificar de un modo sustancial los conocimientos actuales sobre el cerebro.
Trazar un mapa de los millones de kilómetros de "cables" neuronales en el cerebro puede ayudar a los investigadores a averiguar cómo esas neuronas dan lugar a la inteligencia, la personalidad y la memoria. Así lo cree Sebastian Seung, profesor de neurociencia computacional en el MIT. Durante los tres últimos años, Seung y sus colaboradores han estado creando herramientas que, según esperan, permitirán que los investigadores desentrañen algunas de esas conexiones. Para conseguir los conectomas, los científicos necesitarán emplear una vasta potencia de computación en el procesamiento de imágenes que muestran secciones internas del cerebro. Pero primero, tienen que enseñar a los ordenadores qué buscar.Para ensamblar las piezas de esos rompecabezas que en algunos aspectos son los conectomas, se requiere analizar inmensas cantidades de imágenes de capas finas del cerebro, tomadas mediante microscopios electrónicos, y rastrear las enredadas conexiones entre neuronas, una labor laberíntica si se tiene en cuenta que cada neurona puede poseer conexiones directas con otras células a varios centímetros de distancia.Algunos neurocientíficos creen que la cartografía de los conectomas podría tener repercusiones tan importantes para la humanidad como las que ha tenido y tendrá la secuenciación del genoma humano.De un modo muy parecido a cómo los investigadores genéticos pueden ahora comparar genes de personas para buscar las variaciones que puedan explicar ciertas enfermedades, los investigadores del cerebro podrían descubrir qué diferencias en los diagramas de cableado son importantes en enfermedades como el mal de Alzheimer y la esquizofrenia, tal como señala Srinivas Turaga, del equipo de investigación.

Logran Inducir en Células de la Piel Su Transformación Directa en Neuronas


Se ha conseguido que células de la piel de ratones se transformen directamente en neuronas funcionales. Para ello, sólo se ha requerido utilizar tres genes. Con este procedimiento, las células realizan la transformación sin convertirse primeramente en células madre pluripotentes, un paso que durante mucho tiempo se pensó que era necesario para que las células adquirieran nuevas identidades.
Las nuevas neuronas obtenidas por científicos de la Escuela de Medicina en la Universidad de Stanford son del todo funcionales. Pueden hacer todas las cosas importantes que hacen las neuronas "normales" en el cerebro. Esto incluye crear conexiones con otras neuronas y enviar señales a éstas, funciones que resultan críticas si las células se utilizan finalmente como terapia para la enfermedad de Parkinson u otras. El logro podría revolucionar el futuro de la terapia de células madre humanas y ampliar lo que se sabe sobre cómo las células seleccionan y mantienen sus especialidades en el cuerpo.
Aunque investigaciones previas habían sugerido que es posible hacer que células especializadas exhiban algunas propiedades de otros tipos de célula, ésta es la primera vez que se logra convertir células de la piel en neuronas completamente funcionales en una placa de laboratorio. La transformación aconteció en no más de una semana, con una eficiencia de hasta casi un 20 por ciento. Los investigadores ahora trabajan en reproducir la hazaña con células humanas.Este estudio es un gran salto adelante. La reprogramación directa de estas células de la piel adultas para dar lugar a células cerebrales que pueden mostrar comportamientos complejos y apropiados, como generar corrientes eléctricas y formar sinapsis, establece un nuevo método para estudiar el funcionamiento de células cerebrales normales o enfermas. También podría servir para lograr por primera vez capturar y estudiar en una placa de laboratorio enfermedades como la de Parkinson o de Alzheimer, o enfermedades mentales hereditarias.La investigación sugiere que la etapa pluripotente, en vez de ser imprescindible para las células que cambian de identidad, puede ser simplemente otro estado celular posible.Marius Wernig y Thomas Vierbuchen han intervenido en la investigación.

Reconstrucción de la Evolución de las Galaxias Desde el Big Bang


Por primera vez, dos astrónomos han explicado la diversidad de formas de las galaxias detectables en el universo. Los científicos, Andrew Benson del Instituto Tecnológico de California (Caltech) y Nick Devereux de la Universidad Embry-Riddle de Arizona, han rastreado trece mil millones de años de la evolución de las galaxias, desde el universo temprano hasta la época presente.
Las galaxias son conjuntos de estrellas, planetas, gas y polvo que constituyen la mayor parte de la materia visible del cosmos. Las más pequeñas tienen unos pocos millones de estrellas y las más grandes tienen hasta un billón.En la década de 1930, el astrónomo estadounidense Edwin Hubble fue el primero en desarrollar una clasificación de las galaxias, que desde entonces se conoce como la "Secuencia de Hubble". Hay tres formas básicas: las Espirales, donde los brazos de materia aparecen "desenrollados" en un disco desde un pequeño bulbo central; las Espirales Barradas, donde los brazos de materia también aparecen "desenrollados" en un disco desde una gran barra de materia; y las Elípticas, donde las estrellas de la galaxia se distribuyen más uniformemente en un bulbo sin brazos ni disco. Como referencia, la galaxia en que vivimos, la Vía Láctea, tiene como mucho cuatrocientos mil millones de estrellas y está clasificada como una espiral barrada.
Explicar la secuencia de Hubble es complejo. Los diferentes tipos claramente resultan de diferentes caminos evolutivos, pero hasta ahora los científicos no han conseguido dar con una explicación detallada.Benson y Devereux combinaron datos procedentes del proyecto 2MASS con su sofisticado modelo informático GALFORM para reproducir la historia de la evolución del universo a lo largo de trece mil millones de años. Para su sorpresa, sus cálculos no sólo reproducen las diferentes formas de las galaxias, sino también sus cantidades relativas.Se piensa que las galaxias están inmersas en grandes halos de materia oscura, y Benson y Devereux creen que tales halos son cruciales para la evolución de las galaxias. Su modelo sugiere que la cantidad de fusiones entre estos halos y sus galaxias determina el resultado final: Las galaxias elípticas resultan de fusiones múltiples mientras que las galaxias con disco no han experimentado ese fenómeno. La forma de espiral barrada de nuestra Vía Láctea sugiere que ha registrado una historia con sólo unas pocas colisiones menores y al menos un episodio en el que el disco interno se colapsó para formar la gran barra central.

viernes, 2 de abril de 2010

¿Para qué sirve el LHC?

Un artículo de Miguel Ángel Sanchis Lozano, catedrático de Física Teórica de la Universitat de València y miembro del Instituto de Física Corpuscular e investigador del CSIC.


En cierta ocasión a mediados del siglo XIX, sir William Gladstone, entonces primer ministro británico, preguntó intrigado al científico Michael Faraday sobre la utilidad de aquellos extraños fenómenos sobre los que estaba investigando. La respuesta de Faraday fue que lo desconocía en ese momento, pero que al cabo de unos años su gobierno probablemente ya los habría gravado con un impuesto. No iba muy descaminado: Faraday estudiaba la corriente eléctrica y el magnetismo. Es ese un tipo de pregunta que se plantea con frecuencia de modo crítico a los investigadores en ciencias básicas, generalmente con una insuficiente perspectiva de futuro.

¿Para qué ha servido que Copérnico, Galileo, Brahe, Kepler y otros muchos astrónomos pasaran horas y horas observando los astros en el firmamento, o estableciendo con paciencia infinita las leyes que rigen su movimiento? Baste con decir que las predicciones meteorológicas modernas se basan en las imágenes por satélite, en el radar…

¿Acaso puede alguien pensar en poner un satélite en órbita sin conocer las leyes de Newton, o diseñar una estación de radar sin entender las leyes del electromagnetismo?

El LHC (siglas en inglés de 'Large Hadron Collider') es un gran proyecto de ciencia básica en el que intervienen miles de científicos e ingenieros de cientos de laboratorios y universidades de todo el mundo, como un ejemplo de cooperación pacífica internacional. Su finalidad es explorar y extender la frontera del conocimiento de la física (que deriva del griego physis, naturaleza) haciendo colisionar protones que circulan a velocidades cercanas a la luz en sentidos opuestos a lo largo de un anillo de unos 27 kilómetros de circunferencia, ubicado a 100 metros de profundidad cerca de la ciudad suiza de Ginebra. El conjunto del acelerador por el que circulan los haces de protones está enfriado a 271 grados Celsius bajo cero para conseguir que una intensa corriente eléctrica circule sin apenas resistencia por los imanes superconductores, creando un campo magnético que curva las trayectorias de los protones a lo largo del anillo.

Cuatro grandes experimentos
Investigadores del CERN. AFP
Son cuatro los grandes experimentos que se llevarán a cabo en el LHC, cubriendo diversos aspectos de la física de altas energías, complementándose y al mismo tiempo asegurando una adecuada comprobación cruzada de los resultados (cross check), fundamental en la ciencia. Además, experimentos programados en otros aceleradores más pequeños (como en las denominadas B factories) y, por supuesto, el extraordinario flujo de información procedente de la física de astropartículas, más los severos condicionantes impuestos por la astrofísica y la cosmología, implican que los resultados del LHC no deben contemplarse aisladamente, sino dentro de una amplia perspectiva de progreso científico y tecnológico.

Sin embargo y pese al importante impacto mediático que ha tenido y tiene el LHC, en parte propiciado por la película 'Ángeles y Demonios' y un desgraciado accidente que tuvo lugar a finales de 2008 como consecuencia de una fuga de helio líquido, existe un gran desconocimiento sobre los objetivos de la investigación por parte del público en general e, incluso, por científicos de otras áreas de conocimiento; y no es de extrañar.

Ciertamente no resulta fácil, por ejemplo, explicar porqué el LHC permitirá conocer los instantes posteriores al 'Big Bang', la gran explosión que se supone creó el universo hace unos 13.700 millones de años, pese a que la energía de cada protón acelerado no supera la energía cinética en vuelo de un mosquito. ¿Podrían dos mosquitos chocando entre sí producir semejante explosión? Sin duda no, pero si concentramos la energía en una pequeñísima región del espacio al colisionar dos protones de frente, entonces la densidad de energía liberada puede en efecto recrear las condiciones del universo primitivo, una minúscula fracción de segundo tras el Big Bang.

Futuras aplicaciones en diversos campos
Así, podrían emerger nuevas 'especies' de partículas muy pesadas hasta ahora desconocidas a partir de una colisión violenta entre protones, desintegrándose rápidamente pero dejando una 'lluvia de partículas ordinarias' que atravesarán los detectores, creando una huella electrónica para un detenido estudio posterior mediante el GRID, un revolucionario sistema de computación que involucra decenas de miles de ordenadores situados en todo el planeta conectados por Internet. El GRID podrá aplicarse en el futuro a campos muy diversos de la ciencia, como meteorología, biomedicina y farmacología, ciencias de la Tierra…

Es posible, sin embargo, que no todas esas nuevas partículas sean inestables, y alguna podría ser el constituyente básico de la materia oscura, descubierta mediante el estudio de la dinámica de galaxias.

Lo pequeño y lo grande se presentan como facetas complementarias de un conocimiento común de la naturaleza.

Precisamente conocer la razón por la que las masas de las partículas en la naturaleza son tan diversas es uno de los objetivos básicos del LHC: el descubrimiento del 'bosón de Higgs', último eslabón que falta del paradigma actual de la física de partículas y nuclear. El bosón de Higgs no es partícula de materia (como podría ser el electrón), ni de interacción (como podría ser el fotón); a veces se la ha denominado como la partícula de Dios. Se argumenta que el 'bosón de Higgs' podría ser, de hecho, un portal hacia la llamada Nueva Física, una nueva revolución científica como pudo ser la teoría de la relatividad de Einstein en su momento.

En tal sentido, en el LHC se podrían crear miniagujeros negros en las colisiones entre protones sólo si la gravedad se hace mucho más fuerte que lo esperado a distancias muy cortas, lo cual implica la existencia de dimensiones espaciales extra (más allá de las tres habituales), una fantástica posibilidad de ciertas teorías físicas (como la teoría de cuerdas) que supera cualquier ficción.

¡Para nada es aburrido el LHC!

Pero tranquilos, tales miniagujeros negros, si se produjeran, han de evaporarse emitiendo partículas ordinarias casi al instante de formarse, como predijo Stephen Hawking. No hay peligro alguno.

Si acelerador, detectores y sistemas de computación del LHC funcionan correctamente en el futuro, como es de esperar, no sabemos con certeza hoy por hoy qué fascinantes descubrimientos y nuevas ideas nos aguardan en esta aventura del saber, aunque lo sospechamos: materia y energía oscuras, miniagujeros negros y dimensiones 'extra' curvadas, supercuerdas...

Tras unos años de funcionamiento del LHC, sin duda sabremos bastante más sobre la naturaleza, y eso nos hará más sabios, es decir más 'personas'. Al fin y al cabo, nuestra especie se denomina Homo Sapiens.

martes, 30 de marzo de 2010

Colisionador de Hadrones inicia experimento en busca del Big Bang


Los científicos que trabajan en el Gran Colisionador de Hadrones (LHC, por sus siglas en inglés), el experimento físico más ambicioso del mundo, comenzaron este martes una prueba que busca recrear las condiciones del origen del Universo -luego del llamado Big Bang- y descubrir nuevos aspectos de su naturaleza intrínseca.
Los investigadores confirmaron el choque de dos haces de partículas subatómicas a una velocidad levemente inferior a la de la luz. La colisión generó una energía récord de siete trillones de voltios.
El experimento intenta encontrar pistas sobre algunas de las grandes preguntas que aún no tienen respuesta en la física de partículas.
El LHC, cuyo costo de construcción fue de US$9.000 millones, finalmente empezó a producir resultados 18 meses después de su puesta en funcionamiento luego, de haber sufrido algunas roturas.
El experimento de la Organización Europea para la Investigación Nuclear (CERN, por sus siglas en inglés) se retrasó varias horas debido a un problema con los haces.
En busca del bosón de Higgs
Durante el experimento, los científicos buscarán señales del bosón de Higgs, una partícula subatómica también llamada la "partícula de Dios" que es crucial para la comprensión actual de la física. La teoría indica que provee de masa a todo en el Universo.
Aunque se prevé su existencia, los científicos nunca la han encontrado, comenta Matt McGrath, especialista en ciencia de la BBC, desde Ginebra.
En esa ciudad suiza, en un túnel circular de 27 kilómetros de longitud, a 100 metros de profundidad bajo la frontera franco-suiza, se encuentra el LHC.
McGrath explica que los investigadores han estado trabajando en incrementar la energía contenida en los pequeños haces que recorren el túnel 11.000 veces por segundo.
El plan es cruzar los haces en diversos puntos del circuito para crear colisiones con cantidades récord de energía.
Años de análisis
Guido Tonelli, portavoz de los científicos que trabajan en uno de los detectores que seguirá los resultados de las partículas subatómicas, dijo que "el negocio de colisionar pequeños haces de partículas a altas energías no es fácil".
"Lograr que coincidan ha sido comparado con lanzar agujas a través del Océano Atlántico y hacer que choquen a mitad de camino. Los investigadores confían en que va a suceder. Y podría arrojar luz sobre algunas cuestiones muy profundas y difíciles de la física", agrega.
El LHC, dice Tonelli, "finalmente puede empezar a arrojar luz sobre estos temas, pero no esperen respuestas inmediatas. Las enormes cantidades de datos generados por la colisión de haces necesitan años de análisis antes de extraer conclusiones definitivas".
Conocido como "La máquina de Dios", el mayor acelerador de partículas del mundo ya había triplicado en marzo la energía más intensa jamás alcanzada. Ello ocurrió durante los preparativos para el actual experimento en busca de los secretos del Universo.

martes, 23 de marzo de 2010

El Colisionador de Hadrones rompió récord


El Gran Colisionador de Hadrones (LHC, por sus siglas en inglés), el experimento físico más grande del mundo, ha roto su propio récord de colisión de partículas de energía.

El mayor acelerador de partículas del mundo triplicó la energía más intensa jamás alcanzada en sus preparativos para escudriñar los secretos del universo.
La Organización Europea para la Investigación Nuclear (CERN por sus siglas en inglés), dijo que un haz de protones circuló este viernes por la mañana a 3,5 billones de teraelectronvoltios (TeV) en ambas direcciones en el túnel de 27 kilómetros del LHC, construido bajo la frontera franco-suiza, en Ginebra.
Conocido como "La máquina de Dios", el mayor acelerador de partículas del mundo triplicó la energía más intensa jamás alcanzada en sus preparativos para escudriñar los secretos del universo.
El acelerador superó su récord de diciembre, cuando alcanzó los 2,36 TeV, el nivel de energía más alto logrado por cualquier acelerador en el mundo.
El LHC tiene ahora un nuevo objetivo: hacer colisionar dos haces de protones para crear nuevas partículas, que serán examinadas a fin de obtener más información sobre la composición de la materia.
Los científicos esperan, además, analizar en escala infinitesimal lo que sucedió en las primeras fracciones de segundo después de la Gran Explosión, conocida como Bing Bang, que según la teoría vigente dio comienzo al universo hace casi 13.000 millones de años.
CERN reportó varios éxitos experimentales desde que reanudó el acelerador el año pasado, luego de 14 meses de reparaciones y mejoras y una falla cuando los científicos intentaron poner en marcha el aparato.
CERN mejoró el aparato durante una reciente desactivación de dos meses y medio para poder usarlo con mayor energía experimental.
"Lograr que el haz de partículas circule a 3,5 billones TeV es una prueba de la solidez del diseño general del acelerador, y las mejoras que realizamos desde septiembre de 2008", dijo el director del CERN para aceleradores y tecnología, Steve Myers.
Demora de dos años
Recientemente, los encargados del LHC decidieron detener su marcha por un año, debido a cuestiones de seguridad y para que los científicos puedan corregir errores de diseño.
En declaraciones a la BBC, el doctor Myers dijo que, como consecuencia, el LHC demorará dos años en alcanzar su potencial máximo.
Además, es necesario que se resuelvan los errores de construcción detectados en el túnel.
"Es algo que con muchos más recursos y con más personal y controles de calidad posiblemente hubiésemos podido evitar", explicó Myers.
El cierre previsto para finales de año es uno más en la cadena de retrasos que han afectado a la máquina operada por el CERN e inaugurada en septiembre de 2008 en medio de grandes expectativas.
Los ingenieros estiman que el acelerador es seguro para manejar la energía prevista para los próximos meses, pero quieren evitar a toda costa otra avería, explica Judith Burns, de BBC Ciencia.
Con ese objetivo, han tomado la decisión de operar el aparato a la mitad de su capacidad máxima antes de apagarlo a finales de 2011 para emprender las correcciones.

jueves, 4 de marzo de 2010

Un meteorito gigante extinguió los dinosaurios


Fue rápido y devastador. Golpeó la tierra a una velocidad 20 veces superior a la de una bala de alta velocidad. La explosión de roca caliente y gas debió de parecer una inmensa bola de fuego. Y ese día llegó a su fin el reinado de los dinosaurios.
"Tenemos la certeza de que un asteroide causó la extinción del Cretácico-Terciario", ha declarado este jueves la doctora Joanna Morgan, coautora del informe del Departamento de Ciencias de la Tierra e ingeniera en el Imperial College de Londres, según publica la revista 'Science'.
"El último clavo del ataúd de los dinosaurios llegó cuando la explosión povocó el lanzamiento de materiales a gran velocidad hacia la atmósfera", ha explicado. "Eso sumió al planeta en la oscuridad y causó un invierno global. Muchas especies, incapaces de adaptarse a ese entorno infernal, murieron."
Impactó en México
El meteorito, de 15 kilómetros de diámetro, impactó en Chicxulub, al norte de la península de Yucatán (México), con una fuerza mil millones de veces más potente que la bomba atómica de Hiroshima. El frío acabó con la mayor parte de la vida sobre el planeta en cuestión de días. De eso hace 65,5 millones de años.
El nuevo estudio del Imperial College se basa en el trabajo de paleontólogos, geoquímicos, expertos en clima, geofísicos y sedimentólogos, que han pasado recogiendo pruebas los últimos 20 años. Los archivos geológicos muestran que la destrucción de los ecosistemas terrestres y marinos fue rápida, y concluyen que la única explicación posible es la colisión de un asteroide en Chicxulub.
Esta no es la única teoría que los expertos barajaban. Argumentaban que otra explicación posible era la intensa actividad volcánica en la península de Decán, en la India. Los restos de flujos de la zona, conocidos como Deccan Traps, provienen de una serie erupciones que duraron 1,5 millones de años.
El basalto expulsado por las erupciones habría sido suficiente para rellenar el Mar Negro dos veces, y se creía que hubiera causado el enfriamiento planetario y una lluvia ácida a escala global.
Un gran día para los mamíferos
El nuevo estudio refuta esta teoría. A pesar de la evidencia de una relativa actividad volcánica en Decán, los ecosistemas marinos y terrestres no mostraron grandes cambios en el medio millón de años precedente a la extinción del Cretácico Terciario.
Las reproducciones digitales del fenómeno demuestran, además, que los daños causados por la emisión de gases a la atmósfera no serían lo suficientemente graves para provocar la rápida extinción de de las especies.
El fin del Cretácico Terciario dio origen al Paleoceno. "Irónicamente, ese día infernal que marcó el fin de 160 millones de años de reinado de los dinosaurios fue un gran día para los mamíferos, que habían vivido a la sombra de los reptiles", ha comentado el doctor Gareth Collins, también autor del informe. Ese momento clave de la historia "sentó las bases de la oportunidad, para los humanos, de convertirse en la especie dominante sobre el planeta".

El pariente más antiguo de los dinosaurios



Los dinosaurios más antiguos que se conocen poblaron la Tierra hace 230 millones de años. Sin embargo, el hallazgo de un animal muy parecido que vivió 10 millones de años de antes sugiere que los dinosaurios habitaron nuestro planeta antes de lo que se pensaba. Así lo asegura el equipo de paleontólogos estadounidenses que halló los fósiles en Tanzania y cuyo estudio recoge el jueves la revista 'Nature'.
La nueva especie descubierta se llama 'Asilisaurus kongwe' y, según los investigadores, se parecía tanto a los dinosaurios como los hombres a los chimpancés. Pertenece a los silesaurus, un grupo de animales con características comunes a los dinosaurios pero con diferencias en algunos aspectos claves.
Según este estudio, liderado por el investigador de la Universidad de Texas Sterling Nesbitt, silesaurus y dinosaurios convivieron durante gran parte del Periodo Triásico (hace entre 250 y 200 millones de años). Por ello, sugieren que ambos tuvieron ancestros comunes hace 240 millones de años.
De carnívoros a herbívoros:
Además, sostiene que su forma de alimentarse evolucionó al menos tres veces en menos de 10 millones de años, un periodo relativamente corto cuando hablamos de dinosaurios. Así, pasaron de ser carnívoros a incluir plantas en su dieta. Aunque admiten que no se puede demostrar, los investigadores apuntan la posibilidad de que este cambio se deba a una ventaja evolutiva. Los ecosistemas pueden abastecer mejor a los herbívoros que a los carnívoros por lo que el hecho de que estos animales pudieran comer plantas les habría permitido vivir en hábitats muy variados.
¿Y cómo era este pariente de los dinosaurios? Medía entre 50 cm y un metro de altura, tenía una longitud de entre uno y tres metros, pesaban entre 10 y 30 kilogramos, caminaban sobre sus cuatro patas y probablemente comía tanto carne como plantas.
Los investigadores hallaron en el mismo yacimiento del sur de Tanzania restos de, al menos, 14 ejemplares, lo que les permitió reconstruir un esqueleto prácticamente completo, excepto algunas zonas del cráneo y de la pata delantera. Junto a ellos también había fósiles de cocodrilos primitivos, lo que, según este estudio, indicaría que la diversificación de animales emparentados con cocodrilos y aves fue rápida y se dio más temprano de lo que hasta ahora parecía.

miércoles, 3 de marzo de 2010

La Luna tiene grandes depósitos de agua


Un experimento llevado a cabo a bordo de la sonda espacial india Chandrayaan-1 identificó grandes depósitos de hielo cerca del polo norte de la Luna.
El experimento Mini-Sar de la agencia espacial estadounidense, NASA, encontró más de 40 cráteres que contienen hielo.
Y los resultados de otra misión lunar, llamada LCROSS, afirman que hay otros compuestos, como hidrocarburos, mezclados en el suelo lunar.
Los hallazgos fueron presentados en la conferencia anual del Instituto Lunar y Planetario que se celebra en Texas, Estados Unidos.
Los cráteres de hielo tienen desde 2 a 15 kilómetros de diámetro y según la NASA el hielo que contienen debe tener al menos unos dos metros de grosor, de lo contrario no hubieran sido detectados por la sonda.
El doctor Paul Spudis, del Instituto Lunar y Planetario en Houston, calcula que debe haber al menos 600 millones de toneladas métricas de hielo contenido en estos cráteres de impacto.
Esta cantidad, en términos de combustible para cohete, sería suficiente para lanzar una nave espacial cada día durante 2.200 años, expresó el científico en la conferencia.
Lo que todos estos cráteres tienen en común es que grandes áreas de su interior nunca ven la luz solar.
Las temperaturas de algunos de los cráteres permanentemente oscurecidos pueden llegar hasta los 25 grados Kelvin (menos 284ºC), mucho más frío que la superficie de Plutón lo cual permite que el agua congelada permanezca estable.
"Es en su mayoría agua congelada pura" explica el doctor Spudis.
"Y puede estar estar ubicada bajo unas cuantas decenas de centímetros de regolito (roca lunar)".
Esta capa protectora de tierra podría prevenir que los bloques de hielo puro se vaporicen incluso en algunas zonas que están expuestas a la luz solar, explica el experto.
"Ahora podemos decir con un buen grado de confianza que es posible la presencia sostenible del ser humano en la Luna. Es posible utilizar los recursos que se encuentran allí".
"Los resultados de estas misiones, que se han estado presentando en los últimos meses, están revolucionando totalmente nuestra visión de la Luna", señala.
Flota robótica
La sonda Chandrayaan-1 fue la contribución de India a la armada de naves espaciales no tripuladas que han sido lanzadas a nuestro satélite en años recientes.
Japón, Europa, China y Estados Unidos han enviado misiones con instrumentos para explorar el satélite de la Tierra con detalles sin precedentes.
La misión LCROSS de la NASA, un cohete con una sonda fueron estrellados contra un enorme cráter en el polo sur lunar, lo que provocó la expulsión de hielo y vapor.
Las medidas espectrales del material recogido tras el impacto del LCROSS indican que parte del agua congelada está en forma cristalina y no en la forma "amorfa" como las moléculas de agua se acomodan aleatoriamente.
"No existe una sola forma de agua en la Luna" dice Anhony Colaprete, jefe científico de la misión.
"Hay toda una gama que va desde el hielo relativamente puro hasta el agua absorbida (retenida por el suelo)".
En general, los resultados de las misiones recientes sugieren que podría haber varias fuentes de hielo lunar.
Una forma importante con que se puede formar el agua es a través de la interacción con el viento solar, la corriente de partículas que constantemente salen del sol.
La radiación espacial provoca una reacción química en la que los átomos de oxígeno que ya están en la tierra adquieren nucleos de hidrógeno para formar moléculas de agua y una molécula simple de hidrógeno-oxígeno.
Esta agua "absorbida" puede estar presente en capas finas que recubren las partículas de la tierra lunar.
Los científicos también informaron de la presencia de hidrocarburos, como etileno, en la pluma de impacto del LCROSS.
El doctor Colaprete afirma que es probable que los hidrocarburos llegaran a la superficie lunar con cometes o asteroides, lo cual es otra fuente vital de agua lunar.
Sin embargo, agrega, algunas de estas especies químicas pueden surgir de la "química fría" del polvo interestelar acumulado en la Luna.
Además de agua, los investigadores vieron una variedad de otros "volátiles" (compuestos con puntos de ebullición bajo) en la pluma de impacto, incluido dióxido de azufre (SO2).
Los resultados del experimento Mini-Sar serán publicados en la revista Geophysical Research Letters (Letras de Investigación Geofísica).

miércoles, 17 de febrero de 2010

La diversidad química del Cosmos en un meteorito



El famoso meteorito de Murchison, encontrado hace 40 años en Australia, contiene un impresionante arsenal de millones de componentes orgánicos, muchos más de los que se habían identificado hasta ahora, según han demostrado los últimos análisis de un grupo de químicos europeos.
El hallazgo pone de manifiesto que el Sistema Solar que acoge nuestro planeta contiene una variedad de química orgánica que sobrepasa la diversidad molecular que se encuentra en la Tierra. En concreto, se han localizado más de 14.000 diferentes elementos en la composición de la roca espacial.
El meteorito Murchison es uno de los tres más famosos localizados hasta ahora (los otros son el Allende, que cayó en México, y el Orgueil, en Francia) debido a su riqueza química. Cayó cerca de una localidad australiana, a la que debe su nombre, un 28 de septiembre de 1969. "Estos meteoritos son fundamentales para investigar la Tierra primitiva y entender las interacciones químicas y mineralógicas primigenias que contribuyeron al origen de la vida", explica el investigador del Centro de Astrobiología del CSIC-INTA Jesús Martínez Frías.
Los estudios que a lo largo de los años han hecho los investigadores en esta condrita (roca)carbonácea demostraron que contenía muchos aminoácidos fundamentales para la vida, si bien también dieron lugar a un intenso debate entre quienes defendían que se trataba de contaminación de origen terrestre y quienes aseguraban que habían venido del espacio exterior.
Posible contaminación
En este nuevo trabajo, publicado en Proceedings of National Academy of Science (PNAS), los autores, dirigidos por Philipe Schmitt-Kopplin, del Instituto alemán de Química Ecológica, han estudiado tres fragmentos del Murchison obtenidos en tres colecciones para diferenciar la posible contaminación del contenido original (estaban en Alaska, Japón y Luxemburgo).
Para analizarlos, utilizaron un espectrómetro de masa muy sofisticado que identificó 14.197 elementos en su composición, que podrían dar lugar a varios millones de estructuras moleculares. "Esta complejidad sugiere que la diversidad química extraterrestre es muy alta cuando se la compara con la bioquímica terrestre", aseguran los investigadores.
Además, han logrado determinar las interacciones que se han producido en el meteorito entre compuestos orgánicos (carbono, oxígeno, hidrógeno y nitrógeno) e inorgánicos (sulfuro de hierro y níquel).
Para Martínez Frías este hallazgo es especialmente importante porque "relaciona los meteoritos con las komatiitas, que son las lavas primitivas de la Tierra, las rocas más antiguas, y que también se han encontrado asociadas a sulfuros de hierro, lo que confirmaría su relación con los meteoritos que formaron nuestro planeta y que dieron lugar a la vida".
Se cree que el Murchison se formó en los primeros días del Sistema Solar, quizás antes que el Sol, y que atravesó las nubes de ese primitivo sistema recogiendo elementos orgánicos. Por ello, los autores sugieren que trazando la secuencia de las moléculas orgánicas se puede conocer la cronología de la formación y alteración de esas moléculas. En definitiva, un viaje al pasado para entender qué ocurrió.