sábado, 6 de diciembre de 2008

Alta suma para la "Máquina de Dios"

El acelerador de partículas más poderoso jamás construido necesita la instalación de un sistema de alarma contra escapes de gas además de una inyección de US$20 millones para reparar la avería sufrida en septiembre pasado.




Una investigación oficial determinó que la falla fue causada por una conexión eléctrica defectuosa que originó la liberación de gas helio, el cual dañó 53 superconductores magnéticos.

En noviembre pasado, el Centro Europeo de Investigaciones Nucleares (CERN, por sus siglas en inglés) confirmó que la llamada "Máquina de Dios" no volverá a arrancar antes del verano boreal de 2009.

El Gran Colisionador de Hadrones, (LHC, por sus siglas en inglés) entró en funcionamiento el pasado 10 de septiembre cuando los científicos lograron que el primer haz de protones diera una vuelta completa por el túnel de 27 kilómetros de circunferencia instalado bajo la frontera suizo-francesa, en las afueras de Ginebra.
Pero sólo 10 días después, una avería hizo que se tuviera que retrasar el experimento.

Gradual
De acuerdo con el periodista de la BBC Pallab Ghosh, la investigación sobre las fallas sufridas por el equipo recomendó la instalación de un sistema de alarma para detectar posibles escapes de helio durante las fases iniciales.
El informe, elaborado por el CERN, dice que la introducción de mejoras en las válvulas de salida de gas a presión podría evitar averías como la ocurrida en septiembre pasado.
El Gran Colisionador de Hadrones utiliza una serie de imanes para acelerar protones -pequeñísimas partículas subatómicas- a velocidades extremadamente rápidas.
De esa manera se intenta recrear las condiciones en que se encontraba el universo fracciones de segundo después de lo que se conoce como Big Bang, o Gran Explosión, una teoría que trata de explicar la formación del universo hace más de 13.000 millones de años.
Ahora, los científicos decidieron poner en funcionamiento el acelerador de partículas de una manera mucho más gradual.

El doctor Francisco Bertinelli, uno de los expertos que está reparando la avería, aseguró: "No reiniciaremos el acelerador desde cero hasta su máxima velocidad en una tarde. Iremos ganando confianza paulatinamente de modo que reduzcamos los riesgos".





BBC Mundo Ciencia y Tecnología Alta suma para la "Máquina de Dios"

China lanzará su primer satélite a Marte en octubre de 2009 con ayuda rusa

Una sonda espacial china será lanzada en octubre de 2009 hacia Marte, en la que será la primera misión del país asiático con destino al planeta rojo, confirmó uno de los responsables del proyecto citado por el oficial "Diario del Pueblo".


La sonda, que llevará el nombre de "Yinghuo I" ("Luciérnaga I"), se lanzará junto al explorador marciano "Phobos-Grunt", de Rusia, explicó uno de los diseñadores de la sonda china, Chen Changya.
Chen, que dio los primeros detalles de una misión de la que hasta ahora no se conocían apenas datos, indicó que los científicos chinos confían en terminar el diseño de la sonda en junio del próximo año.
La "luciérnaga" china volará junto a la misión rusa 11 meses, y será propulsada por ella hasta que alcance la órbita del planeta, momento en que las sondas de los dos países se separarán e iniciarán investigaciones independientes.
La sonda china tomará fotos del cuarto planeta del sistema solar y de sus dos satélites durante al menos un año, de forma similar al "Chang E I" que actualmente órbita alrededor de la Luna para ofrecer a los científicos chinos imágenes del suelo selenita.
El diseñador chino reconoció que todavía quedan por resolver algunos problemas técnicos antes de garantizar el éxito de la misión marciana, sobre todo el conseguir que la "Luciérnaga I" funcione óptimamente en los siete momentos del año en que no recibirá luz directa del sol, su principal fuente de alimentación.
En esos "eclipses marcianos", que durarán unas nueve horas, el satélite permanecerá apagado, flotando en estado latente hasta que regrese la luz solar, pero los científicos chinos todavía no han logrado garantizar que pasado ese tiempo pueda reactivarse en las mismas condiciones que antes.
China lanzó su primera sonda lunar en 2007, y este año, en septiembre, completó su tercera misión tripulada al cosmos, la primera en la que uno de sus astronautas salió de la nave y flotó en el espacio, una imagen histórica para la carrera espacial del país asiático.




China lanzará su primer satélite a Marte en octubre de 2009 con ayuda rusa - Yahoo! Noticias

India y Rusia firman acuerdos de energía nuclear y programas espaciales

India y Rusia firmaron este viernes acuerdos que incluyen la construcción de cuatro nuevos reactores de energía nuclear y cooperación en misiones espaciales, durante una visita del presidente ruso, Dimitri Medvedev, a Nueva Delhi destinada a estrechar los lazos bilaterales.



Según el acuerdo en materia de energía nuclear, Moscú se hará cargo de la construcción de cuatro reactores adicionales en la central de Kudankulam, en el Estado meridional de Tamil Nadu, que ya está equipada con material ruso.
Rusia se convierte así en el tercer país, tras Estados Unidos y Francia, que firma un acuerdo de energía nuclear con India desde que el Grupo de Suministradores Nucleares decidió en septiembre levantar su prohibición al comercio de tecnología nuclear con este país. Moscú ya construye actualmente dos reactores de 1.000 megavatios. El valor de los cuatro nuevos no fue anunciado.
Por otra parte, Rusia e India, ex aliados de la Guerra Fría, acordaron que Moscú envíe a un astronauta indio al espacio en 2013 y lance en 2015 una misión espacial tripulada integralmente india.
Otro de los acuerdos firmados este viernes era relativo a la venta a India de 80 helicópteros militares.
Medvedev, que llegó a Nueva Delhi el jueves, es el primer jefe de Estado que visita India tras los ataques de militantes islamistas a Bombay hace una semana, que dejaron 172 muertos -entre ellos 9 asaltantes- según el único balance. "La amenaza terrorista no ha terminado en nuestro país", afirmó el presidente ruso en una entrevista en la televisión pública india. "Ya tenemos cooperación (con India) con el objetivo de evitar atentados terroristas", agregó.
Medvedev fue recibido con honores militares en el palacio presidencial de Nueva Delhi e hizo una ofrenda floral en el monumento en memoria del líder de la independencia de India, Mahatma Gandhi, antes de entablar conversaciones con el primer ministro indio, Manmohan Singh.
Esta serie de acuerdos pone de manifiesto que las relaciones entre Moscú y Nueva Delhi -que datan de la época de la Unión Soviética- continúan siendo fuertes, pese a los deseos de India de estrechar lazos con Estados Unidos.
Avida de energía, India firmó acuerdos de cooperación con Francia y Estados Unidos tras el levantamiento de la prohibición, lo que significa que ahora Rusia se ve enfrentada a la competencia. "No nos asusta la competencia. La tecnología rusa es competitiva", declaró a los periodistas el jefe de la agencia nuclear rusa Sergei Kiriyenko. El responsable afirmó que es demasiado pronto para discutir sobre la posibilidad de que Rusia construya dos reactores más en Kudankulam pero que, tras las firmas de este viernes, "podemos empezar la negociación de nuevos acuerdos".
Moscú quiere mantener asimismo su posición de principal abastecedor de armamento a India ante la creciente competencia de Estados Unidos e Israel.
Rusia, que suministra el 70% del armamento indio, está preocupada por la posibilidad de que su tajada del mercado de defensa se vea reducida a raíz de desacuerdos sobre costes y retrasos en las entregas.
Las principales avenidas de Nueva Delhi fueron decoradas con banderas rusas para recibir a Medvedev, pero la visita, hasta el sábado, tiene lugar bajo fuertes medidas de seguridad.



India y Rusia firman acuerdos de energía nuclear y programas espaciales - Yahoo! Noticias

Mejoras en Fusión Nuclear Gracias a Hallazgos Sobre el Interior de Planetas

Una investigación que ha aportado una comprensión más profunda sobre el centro de los planetas podría también presentar el camino a seguir en la búsqueda mundial de una energía más limpia.



Un equipo internacional de científicos dirigido desde la Universidad de Oxford, y trabajando con investigadores de la CLF (Central Laser Facility), que depende del STFC (Science and Technology Facilities Council), ha logrado hacerse una idea más profunda sobre la densa materia caliente que se encuentra en el centro de los planetas, y, como resultado, ha proporcionado un mayor conocimiento sobre la fusión termonuclear controlada.Este mayor conocimiento sobre el interior de los planetas podría por tanto ampliar de manera decisiva el relativo a la energía de la fusión, la misma energía que alimenta al Sol, y el necesario para hacer de la fusión controlada por láser un método artificial viable de obtención de energía.La energía de fusión está ampliamente considerada como una atractiva fuente de energía, medioambientalmente limpia, que usa agua de mar como su principal fuente de combustible, y en la que no se producen gases de efecto invernadero ni desechos radioactivos de vida larga.
Usando el láser Vulcan del STFC, el equipo ha utilizado con éxito un intenso haz de rayos X para identificar y reproducir las condiciones del interior del núcleo de ciertos planetas, donde la materia sólida tiene una temperatura de bastantes miles de grados. Comprender el complejo estado de la materia en estas condiciones extremas representa uno de los mayores desafíos de la física contemporánea. Los resultados de los experimentos del Vulcan probablemente van a mejorar de manera sustancial los modelos de Júpiter y Saturno, y permitirán obtener una mejor definición de la composición y edad del Sistema Solar.En los experimentos, se ha demostrado cómo pueden ser evaluados los densos y calientes estados de la materia y cómo pueden ser averiguadas sus propiedades estructurales. Las propiedades termodinámicas, temperatura, densidad y estado de ionización, fueron objeto de mediciones usando una combinación de rayos X y avanzadas simulaciones numéricas. Los experimentos han revelado que en distancias superiores a 0,3 nanómetros, la materia en el centro de los planetas está en un estado intermedio entre sólido y gas. Los resultados demuestran que la materia sometida a estos estados extremos, se comporta como un líquido cargado, pero a distancias menores actúa más como un gas.




Mejoras en Fusión Nuclear Gracias a Hallazgos Sobre el Interior de Planetas

viernes, 5 de diciembre de 2008

La gran enciclopedia digital de las aves

Muchos aficionados a la observación de aves saben distinguir a dos especies aparentemente iguales sin más herramientas que unos prismáticos. Los amantes de la ornitología logran reconocer a sus amados ejemplares por la variada modalidad de sus trinos. ¿Pero es éste un conocimiento sólo alcanzable mediante largas salidas al campo y lecturas voraces de literatura especializada?
Un nuevo proyecto de gran envergadura quiere trascender esas fronteras y poner al alcance de cualquiera el mundo de las aves. ¿Qué aspecto tienen? ¿Qué las caracteriza? ¿Cómo se comportan? ¿Cómo cantan? ¿Dónde están? ¿Cuándo se las puede ver? Ahora, una pantalla y un ratón electrónico bastarán para conocer todas estas respuestas.
La Sociedad Española de Ornitología (SEO/Birdlife) que, dicho sea de paso, es la organización conservacionista más antigua de España y la Fundación BBVA acaban de lanzar la Enciclopedia de las Aves, un inventario multimedia que contiene información sobre cada una de las 563 especies que se pueden avistar en España (tanto habituales como ocasionales, residentes como migratorias).
El presidente del BBVA, Francisco González, y el de SEO, Eduardo de Juana, han presentado a los medios de comunicación esta obra, fruto del trabajo de un equipo de 40 personas durante dos años. Para González, es "la obra ornitológica digital más completa realizada hasta ahora en el mundo".






Voluntad educativa
González recordó el compromiso de la institución bancaria con la "sociedad y de manera particular con la conservación del medio ambiente y la biodiversidad" y puso a la obra como ejemplo del tipo de actividades que pretenden impulsar. Por ello, han apoyado además de la plataforma web sobre aves la edición de 60.000 ejemplares de un libro-CD con todos sus contenidos que será distribuido gratuitamente en colegios e institutos como material educativo.
Para Eduardo de Juana, la enciclopedia que ha realizado SEO cuenta con tres elementos claves para su organización como son la información científica, la voluntad de divulgación y difusión y el enfoque dirigido a la conservación: "Necesitamos que haya gente que conozca a las aves porque luego son esos ciudadanos los que salen al campo, las siguen y contribuyen a acumular información sobre ellas".
La enciclopedia cuenta con más de 4.000 páginas, 1.600 fotografías, 1.200 dibujos, 370 archivos de sonido, 200 vídeos y 400 mapas además de 15 publicaciones especializadas de referencia en el ámbito del medio ambiente que pueden descargarse en su totalidad.
La lista de aves está ordenada por orden alfabético (el usuario es libre de seleccionar el idioma en que quiere que aparezcan los nombres, o si prefiere, el nombre científico). Cada nombre de ave está enlazado a su ficha correspondiente, en la que aparecen, en buena parte de los casos, una o varias imágenes, una descripción detallada de sus características morfológicas, su modo de vida y comportamiento, su estatus de protección; un archivo de sonido para escuchar su canto, un vídeo, un calendario de avistamiento, un mapa de su distribución geográfica y, por último, documentación complementaria sobre la especie.
En cuanto a esto último, la bibliografía que ofrece la enciclopedia es nada menos que el Libro Rojo de las Aves de España, el Atlas de las Aves Reproductoras de España y Birds in Europe, their conservation status, tres obras de consulta descargables desde la página web.
Todo sobre las aves
Tomemos como ejemplo el archibebe claro o 'Tringa nebularia'. La ficha nos dice, entre otras muchas cosas, que es una limícola de tamaño medio, invernante, que puede avistarse en España durante todo el año excepto en junio, que se alimenta de invertebrados y que emite al cantar un "tiu tiu tiu muy lastimero". Hasta aquí, no difiere en gran cosa de una enciclopedia clásica (aunque, incluso si lo fuera, el mérito estaría en su digitalización y libre acceso).
El principal interés está en la aportación multimedia y el carácter interactivo. Al margen de los textos, un vídeo nos muestra cómo es el hábitat de esta especie y su modo de alimentarse. El audio nos permite escuchar las voces de parada nupcial de un macho. Dos ilustraciones detallan sus características morfológicas. Y nos enteramos de que el archibebe claro está amenazado por la caza ilegal y que está catalogado como de "especial interés" en el Catálogo Nacional de Especies Amenazadas.
Pero éste es sólo uno de los apartados de la enciclopedia online. Podemos entrar con otros propósitos y hacer otro tipo de búsquedas: hay abundante información sobre las actividades de ocio relacionadas con las aves. Dónde viajar para observarlas, cómo observarlas, cómo fotografiarlas o dibujarlas.
Tomemos otro ejemplo: el viajero puede tener como destino Cáceres y quiere aprovechar la ocasión para avistar aves (o al revés: quiere ver pájaros y elige Cáceres). Los 25 enclaves principales del país para el avistamiento de aves aparecen en un listado, y entre ellos, los Llanos de Cáceres. Un mapa nos informa de que en esa zona hay grullas, gangas ortega, carracas, gangas ibéricas, aguiluchos cenizos y cernícalos primilla. Se agradecen las fotos que emergen del mapa, pues nos ayudarán a identificar a estas especies.
Otros mapas complementarios trazan los itinerarios que se pueden recorrer, con sus distintos tramos y su longitud, y ofrecen datos prácticos para el viajero. De especial belleza son los "paisajes sonoros", un viaje virtual de vídeo y sonido por distintos tipos de ecosistemas españoles.
El mundo de las aves también tiene su visión general e histórica en un último apartado interactivo. Desde su evolución desde el dinosaurio ancestral, en los albores del Triásico (hace unos 250 millones de años), hasta la actual biología de estos animales voladores, pasando por la historia de la propia ornitología, la enciclopedia brinda un cursillo teórico para los no especializados.
Protección y conservación
Después de esta intensa inmersión en el mundo de las aves, el usuario tiene la opción de informarse acerca de cómo participar en su conservación (por algo el proyecto es de SEO/Birdlife). Lo más interesante de este apartado es, sin duda, la red fenológica online, un proyecto paralelo e independiente que fue presentado el año pasado por la misma organización.
Se trata de una base de datos que va registrando los comportamientos de las aves observadas por expertos y voluntarios en función de las condiciones meteorológicas, estacionales y de otros ritmos biológicos (día-noche, por ejemplo). Este tipo de registros, pionero también en su versión online en España, permite conocer las respuestas de las distintas especies a cambios en el ambiente, como los inducidos por el calentamiento climático.
Es, en definitiva, el universo de las aves en un 'click'. Sólo tenemos que poner algo de nuestra parte: un poco de paciencia. Ante semejante cantidad de datos, la navegación puede ser algo lenta.




La gran enciclopedia digital de las aves elmundo.es

Descubren en Brasil los restos fosilizados de una especie desconocida de reptil volador

Sus alas tenían una espectacular envergadura del tamaño de un monovolumen, llegando a alcanzar hasta cinco metros, y con ellas surcaba los cielos de Brasil hace 115 millones de años.





Así era la nueva especie de reptil volador cuyos restos fosilizados acaba de encontrar un equipo de paleontólogos dirigido por el británico Mark Witton, de la Universidad de Portsmouth.
Witton identificó el reptil a partir de un cráneo fósil hallado en Brasil, que desde hace largo tiempo se encontraba en el Museo Estatal de Ciencias Naturales de Karlsruhe, Alemania.
El paleontólogo bautizó el reptil con el nombre de 'Lacusovagus' (emigrante marino), porque el lugar del hallazgo estaba cubierto por agua cuando este animal vivía.
En comparación con otras especies de reptiles voladores, 'Lacusovagus' es un ejemplar de tamaño mediano. En el subgrupo de reptiles voladores sin dientes, al que pertenece 'Lacusovagus', se trata de la especie más grande descubierta hasta ahora.
"Algunos de los ejemplares anteriores que habíamos descubierto anteriormente en China sólo medían 60 centímetros, es decir, tan sólo el tamaño del cráneo de esta nueva especie", explica Witton. "En definitiva, todos los demás reptiles de este tipo que hemos hallado hasta ahora son enanos comparado con este nuevo descubrimiento".
Además, hasta ahora sólo se habían hallado en China fósiles de este grupo. "El descubrimiento en Brasil, tan distante de sus parientes, nos muestra lo poco que sabemos sobre la existencia e historia de estos animales fascinantes", indicó Witton.
A los investigadores les llamó especialmente la atención la gran anchura del cráneo. "Esto tiene implicaciones de cara a comprender su hábitos alimentarios. Quizás a este animal le gustaba devorar presas especialmente grandes", explica el paleontólogo.
En todo caso, los investigadores, cuyo descubrimiento se ha publicado en la revista Paleontology, reconocen que los restos hallados todavía son escasos y necesitarán recuperar más espécimenes para establecer conclusiones claras sobre la nueva especie.
Los reptiles voladores, del orden de los pterosaurios, son capaces de volar gracias a sus alas membranosas. Se trata de los primeros vertebrados voladores. El reptil volador más antiguo vivió hace unos 215 millones de años.




Descubren en Brasil los restos fosilizados de una especie desconocida de reptil volador elmundo.es

Darwin más que nunca

4 de diciembre de 2008.- 150 años después, la selección natural continua siendo la espina dorsal de la Teoría de la Evolución y goza de buena salud.





Sorprendentemente ahora en nuestro país cada vez se habla más de evolución: en publicidad, en discusiones formales e informales En contextos muy diversos la evolución es un concepto que está en boga y ha pasado a ser un elemento de la realidad social y cultural de nuestra especie. Como muchos otros vocablos que son socializados, nos sirven para entender cómo somos y nos ayudan a pensar y actuar de forma diferente.
Pero, ¿qué es la selección natural? De manera resumida, es la base del cambio evolutivo de los organismos vivos. A través de ella, los especímenes más adaptados sustituyen a los menos eficientes de manera que la acumulación lenta de cambios genéticos beneficiosos a lo largo de generaciones produce el éxito de una especie.
El racionalismo en Europa ha conseguido que evolución sea sinónimo de conciencia social, de conocimiento científico, de pensamiento consistente, etc. La formulación de la selección natural como mecanismo de adaptación y adquisición de caracteres que llevan a la diversidad biológica al planeta ha sido, y al paso que vamos, será la llave maestra del conocimiento sobre la evolución.
La influencia de Darwin en la evolución de la humanidad desde la publicación del 'Origen de las especies', en 1859, ha sido creciente tanto en los ámbitos científicos como en los sociales. Ha habido importantes nuevas formulaciones sobre la Teoría de la Evolución, sobre todo de la mano de Gould con su teoría del equilibrio puntuado, al admitir que la evolución tiene momentos de estasis o de pocos cambios y que en otros momentos los cambios se aceleran y producen transformaciones en cortos períodos de tiempo.
Una aplicación social de las teorías biológicas de la evolución nos llevo al darwinismo social, interpretación que ha servido durante mucho tiempo para justificar formaciones sociales como de la que formamos parte. Es obvio que Darwin no construyó la teoría para ser aplicada de forma poco elocuente a las diferencias sociales ni para justificarlas; hacerlo es una manipulación burda y de bajo perfil científico.
El evolucionismo, según mi punto de vista, tiene que jugar un rol muy importante en la concepción del futuro de la especie. La conciencia crítica y la inteligencia operativa son fruto de la selección natural, pero ahora, la conciencia, que también es un producto de la evolución, debe de servir para desplazar el azar evolutivo y sustituirlo por la lógica del conocimiento y del pensamiento humano.
El 150 aniversario de la Teoría de la Evolución nos puede servir para socializar aún más ese concepto que explica cómo hemos llegado hasta aquí. Leer directamente a Darwin es un lujo y lo aconsejo a los que no lo habéis hecho todavía. Cuántos más descubrimientos hacemos desde las ciencias de la vida y de la tierra, más sólida es esa teoría.
Tuve la suerte de estar en las Galápagos, uno de los lugares que visitó el genial naturalista en el siglo XIX con el Beagle. Desde allí tuve el honor de escuchar al matrimonio Grant, que lleva más de 25 años estudiando la variabilidad de los pinzones, con lo cual habían comprobado de nuevo lo robusta que es la Teoría de la Evolución.
Por consiguiente, hagamos un esfuerzo para conocer más y evolucionemos como humanos a través del conocimiento de la Teoría de la Evolución.



Darwin más que nunca elmundo.es: "Eudald Carbonell es codirector de Atapuerca y director del Instituto Catalán de Paleoecología Humana y Evolución Social (IPHES)."

miércoles, 26 de noviembre de 2008

Exitoso lanzamiento del primer carguero Progress de nueva generación hacia la EEI

Moscú, 26 nov (EFE).- El cohete portador Soyuz-U con el primer carguero ruso de nueva generación Progress M-01M fue lanzado hoy con éxito desde el cosmódromo kazajo de Baikonur rumbo a la Estación Espacial Internacional (EEI).


El lanzamiento tuvo lugar a las 15.38 hora de Moscú (12.38 GMT) y aproximadamente diez minutos más tarde la nave se colocó en órbita e inicio su vuelo autónomo hacia la plataforma orbital, informó un portavoz del Centro de Control de Vuelos Espaciales (CCVE) de Rusia.
"Según la información telemétrica recibida desde la Progress, su desenganche del cohete portador se produjo según lo establecido", subrayó el portavoz citado por los medios locales.
El carguero realizará un vuelo de cuatro días, y no de dos, a la EEI para probar el funcionamiento de su sistema de mando digital, anunció el pasado lunes el jefe del programa de vuelo del segmento ruso de la plataforma orbital, Vladímir Soloviov.
El acoplamiento de la nave a la estación espacial, cuya misión permanente está integrada por los astronautas de la NASA Michael Fincke y Sandra Magnus y el cosmonauta ruso Yuri Lonchakov, está programado para el próximo domingo a las 15.23 hora de Moscú (12.23 GMT).
Ese mismo día está previsto el aterrizaje en Florida del transbordador Endeavour que regresa de la plataforma orbital con siete astronautas a bordo.
Según un portavoz de la agencia espacial rusa Roscosmos, las trayectorias de vuelo de ambas naves no se superponen, por lo que queda descartado que se crucen.
Por otra parte, coincidirán en el espacio dos naves Progress, ya que la anterior M-65, que se desenganchó de la plataforma orbital el pasado 14, permanecerá en el cosmos en vuelo autónomo como laboratorio científico.
Hasta su hundimiento el próximo 7 de diciembre en el llamado "cementerio de naves espaciales" en el océano Pacífico, expertos utilizarán la Progress M-65 con el fin de realizar experimentos para el ministerio de Defensa de Rusia, ya que este tipo de estudios están prohibidos a bordo de la EEI.
Según el CCVE, el carguero de nueva generación Progress M-01M transporta a la plataforma orbital 2,5 toneladas de carga.
Entre el material transportado destacan 185 kilogramos de agua, 105 kilogramos de equipamiento científico y también 37 kilogramos de equipos de audio y vídeo, además de objetos personales y regalos de familiares y amigos de la tripulación de la EEI.
El carguero, de la nueva serie 400, se diferencia de los anteriores porque incorpora un nuevo ordenador digital, el "TsVM-101", en sustitución de las obsoletas computadoras "Argón-16".
Asimismo, el sistema de telemetría analógico ha sido sustituido por uno de tecnología digital, de menor tamaño.
El "TsVM-101" tiene ventajas significativas en cuanto a características funcionales y técnicas respecto al "Argón-16", pesa diez veces menos y ocupa considerablemente menos espacio.
Estos nuevos sistemas serán probados en cuatro cargueros Progress e instalados después también en las naves pilotadas Soyuz-TMA.
Tras cumplir su cometido, la nave de nueva generación será sustituida por la Progress M-66, de la serie antigua, con el fin de que los especialistas cuenten con un margen de tiempo para introducir cambios, si fuera necesario, en el sistema del segundo carguero de tecnología digital.




Exitoso lanzamiento del primer carguero Progress de nueva generación hacia la EEI - Yahoo! Noticias

10 años de habitar en el espacio

Viaja alrededor de la Tierra a una velocidad de 28.000 kilómetros por hora. Y el pasado día 20 cumplió diez años desde que fue colocada en órbita a unos 350 kilómetros sobre nuestro planeta.



Es la Estación Espacial Internacional (EEI), el mayor y más complejo proyecto de cooperación internacional que se ha llevado a cabo en el mundo.
En su construcción han participado las agencias espaciales de Estados Unidos, Rusia, Europa, Japón, Canadá y Brasil.
Cuenta con laboratorios de investigación donde los astronautas pueden llevar a cabo experimentos dentro y fuera de la estación.
Enorme casa espacial

La EEI viaja a 28.000 kilómetros por hora sobre la Tierra.Desde que el primer módulo de la EEI fue colocado en órbita, el 20 de noviembre de 1998, la estación ha crecido diez veces.
Hoy pesa más de 300 toneladas y tiene un volumen interno mayor que una casa de cuatro habitaciones.
Y se espera que cuando se termine de construir, en el 2010, la EEI pesará casi 500.000 kilos y medirá 108 metros de ancho por 88 de largo.
Contará también con más de 4.000 metros cuadrados de paneles solares que proveerán de energía eléctrica a los seis laboratorios de alta tecnología.
Será, en pocas palabras, un enorme complejo habitacional en el espacio.
Pero mantener a astronautas en órbita, llevando a cabo investigaciones, ha sido una empresa costosa.
Se calcula que hasta ahora se han gastado unos US$100.000 millones.
AGENCIAS ESPACIALES QUE PARTICIPAN
Estados Unidos
Rusia
Japón
Canadá
Brasil
Europa: Alemania, Reino Unido, Bélgica, Dinamarca, Francia, Italia, Holanda, España, Noruega, Suecia, Suiza.

La NASA cree que ha sido dinero muy bien gastado, dados los estudios científicos que nunca se hubieran podido llevar a cabo en la Tierra.
"Ha habido varios resultados muy positivos gracias al trabajo llevado a cabo en la EEI" explicó a la BBC Josh Byerly, portavoz de la agencia estadounidense.
"En primer lugar, hemos aprendido a construir, a vivir y trabajar en lugares ubicados en la órbita baja terrestre y esas son lecciones que nos ayudarán en nuestras futuras misiones a la luna y Marte".
"Esto obviamente convierte a la estación en un laboratorio único de investigación científica".
"Pero creo que lo principal que nos ha brindado la EEI es el éxito en la cooperación entre las 16 naciones involucradas en este proyecto masivo", afirma el portavoz.
Avances
Los científicos esperan que la investigación que se lleva a cabo en los laboratorios de la EEI conduzca a descubrimientos en medicina, composición de materiales y ciencia fundamental.
Por ejemplo, se ha estudiado la forma como se comporta el cuerpo humano en un ambiente de ingravidez durante un largo periodo.
Hemos aprendido a construir, a vivir y trabajar en lugares ubicados en la órbita baja terrestre y esas son lecciones que nos ayudarán en nuestras futuras misiones a la luna y Marte
Joshn Byerly, NASALos astronautas tienen que vivir en la estación durante períodos de 6 meses y el cuerpo humano debe adaptarse a la falta de gravedad.
Esto, afirman los científicos, tiene implicaciones directas para los habitantes de la Tierra.
Por ejemplo en la búsqueda de terapias para la atrofia muscular, pérdida de masa ósea y cambios en los fluidos corporales que por lo general resultan cuando el individuo no puede moverse de la cama o está postrado en una silla de ruedas.
Pero también se llevan a cabo experimentos en estas inusuales condiciones en el campo de la biología, biotecnología, física de materiales, astronomía y meteorología.
"Los programas espaciales alrededor del mundo han traído muchos beneficios para la humanidad" expresa Josh Byerly.
Por ejemplo, agrega, tecnologías que han tenido un impacto directo en la vida diaria de la gente, nuevas formas de tratar enfermedades, mejores métodos para producir materiales y por supuesto, un mejor entendimiento del universo.
Más de 100.000 personas en todo el mundo han estado involucradas en este programa y desde 1998, 167 individuos de 14 países han pisado la estación espacial.




BBC Mundo Ciencia y Tecnología 10 años de habitar en el espacio

Contención Ya Operativa de Plasma Para la Fusión Nuclear

Dos prototipos de sistemas que se espera ayuden a contener plasma a más de 100 millones de grados centígrados han sido calificados oficialmente como listos para su uso por investigadores de los Laboratorios Nacionales de Sandia. Los sistemas, ambos protegidos con losetas especiales y un sistema de absorción de calor, provienen de EE.UU. y de la Unión Europea.



El plasma se alojará en el Reactor Termonuclear Experimental Internacional (ahora mayormente conocido por sus siglas ITER) en el sur de Francia. La máquina, de 10 pisos de altura, es el primer dispositivo operativo del mundo para manejar el ardiente plasma de esa manera, y tiene como objetivo demostrar que se puede obtener energía eléctrica del agua del mar, el material viable más abundante sobre la Tierra.El ITER, del cual se espera que esté a punto en 2019, proporcionará un camino diferente para la fusión nuclear del utilizado en el método de compresión de diminutas cápsulas de isótopos de hidrógeno en nanosegundos y con campos magnéticos del orden de los megagauss en la Máquina Z de Sandia.La tarea de ITER será demostrar que los campos magnéticos estables en el rango de 50 a 130 kilogauss, generados por el electroimán más potente de su tipo en la Tierra, dos veces más poderoso que el del CERN, pueden contener un plasma caliente de deuterio y tritio durante mucho tiempo en un volumen grande. Estamos hablando de una temperatura seis veces más caliente que los 15 millones de grados Celsius del Sol en su núcleo, durante aproximadamente 15 minutos, en un dispositivo de contención con forma toroidal y un volumen de 500 metros cúbicos.Los sistemas probados en los Laboratorios de Sandia tienen un doble propósito.
Las losetas formarán la primera línea de defensa para los módulos del sistema de escudo nuclear del ITER, que protegen a los electroimanes y a la vasija al vacío del daño ocasionado por los neutrones.Los sistemas también absorben iones del plasma, átomos neutros de alta energía, y rayos X, minimizando la cantidad de contaminación que vuelve a entrar en el plasma. La energía absorbida se transmite fundamentalmente a través de una estructura de apoyo de cañerías de cobre que contienen agua como refrigerante.En una central eléctrica de fusión nuclear, el helio usado como refrigerante haría girar las turbinas para generar electricidad.Los Laboratorios de Sandia y el BESTH de la Unión Europea en la República Checa tienen la misión de probar los sistemas prototipo. En la construcción intervienen centros de Rusia, China, Corea y Japón, además de la Unión Europea y EE.UU.El autor principal del estudio es Vincent Lynch.



Contención Ya Operativa de Plasma Para la Fusión Nuclear

Conexión Artificial Entre Neuronas y Músculos

La utilización de una conexión artificial entre neuronas y músculos ha demostrado ser capaz de restaurar el movimiento voluntario en extremidades paralizadas.


Poder cambiar la ruta de las señales cerebrales para permitir su circulación entre cerebro y músculos sin tener que hacerlas pasar a través de nervios dañados sería una buena manera de tratar los efectos de las lesiones de médula espinal. Una lesión de esta clase destruye nervios pero suele dejar intactos los músculos y el tejido cerebral que los controla.A diferencia de experimentos anteriores para activar músculos paralizados a través de estímulos eléctricos predeterminados, o de aprovechar la actividad cerebral para manejar brazos robóticos o cursores en un ordenador, en este estudio se estimularon los músculos directamente utilizando la actividad de neuronas en la corteza motora, la parte del cerebro que normalmente controla el movimiento de las extremidades.El estudio fue una prueba de concepto: mostró que la idea podría funcionar. Lo que resultó fascinante sobre esta estimulación directa es que evita el complicado proceso de descodificar las señales neuronales para controlar un ordenador o dispositivo robótico. La estimulación directa de los músculos puede permitir a las personas tener un control más natural del movimiento a través de su propia voluntad.
Los experimentos fueron realizados con instrumental de laboratorio, pero los investigadores también construyeron un dispositivo electrónico portátil a partir de componentes comunes y de fácil obtención en el mercado, para convertir las señales de las neuronas de la corteza motora en estímulos. El dispositivo, que funciona con dos pilas de tipo AA, es lo bastante pequeño como para caber en una caja de fósforos y podría permitir a los pacientes valerse de la conexión artificial de modo duradero.El estudio fue llevado a cabo en un centro especializado en investigaciones sobre primates y dependiente de la Universidad de Washington.Los primates aprendieron a utilizar estímulos artificiales directos de células de la corteza motora escogidas arbitrariamente, transferidos a múltiples músculos, para flexionar y extender sus muñecas con el fin de jugar con un videojuego. Los nervios de sus muñecas habían sido desactivados temporalmente con un anestésico local. A pesar del bloqueo nervioso, los primates fueron capaces de controlar la fuerza de las contracciones de los músculos de sus muñecas para alcanzar un conjunto de objetivos en la pantalla de un ordenador. Controlar el grado de las contracciones musculares es lo que nos permite tomar un huevo sin romper su cascarón o agarrarnos con fuerza a una barandilla para evitar caernos.



Conexión Artificial Entre Neuronas y Músculos

Más Evidencias de Que una Supernova Condujo a la Formación de Nuestro Sistema Solar

Durante varias décadas, los científicos han pensado que el Sistema Solar se formó como resultado de la onda expansiva de una estrella que explotó (una supernova); tal onda expansiva contribuyó de manera decisiva al colapso de una densa nube de gas y polvo que a raíz del mismo se contrajo para formar el Sol y los planetas.

Pero los modelos detallados de este proceso de formación sólo han funcionado bajo la suposición simplificada de que las temperaturas durante estos violentos eventos fueron constantes. Ahora, unos astrofísicos del Departamento de Magnetismo Terrestre (DTM, por sus siglas en inglés) del Instituto Carnegie han demostrado por primera vez que una supernova pudo ciertamente haber activado la formación del Sistema Solar bajo las condiciones más probables de un rápido calentamiento y el subsiguiente enfriamiento. Los resultados de su trabajo han resuelto este debate de larga duración."Desde los años setenta, hemos obtenido evidencias químicas de los meteoritos apuntando a que una supernova activó la formación de nuestro Sistema Solar", comenta el autor principal del nuevo estudio, Alan Boss, del Instituto Carnegie. "Pero el problema ha estado en los detalles. Hasta este nuevo estudio, los científicos no habían podido elaborar un escenario coherente donde el colapso de la nube se activara al mismo tiempo que eran inyectados en ésta los isótopos recién creados por la supernova".
Los isótopos radiactivos efímeros (versiones poco estables de los elementos con el mismo número de protones pero un número diferente de neutrones) encontrados en los meteoritos muy antiguos se van desintegrando a lo largo de periodos del orden del millón de años o más, y se convierten en elementos diferentes (denominados elementos hijos). Encontrar los elementos hijos en los meteoritos primitivos implica que los elementos padres deben de haber sido creados sólo aproximadamente un millón de años por término medio antes de que los meteoritos se formaran. "Uno de estos isótopos padres, el hierro-60, puede formarse en cantidades significativas sólo en los potentes hornos nucleares de las estrellas masivas o muy desarrolladas. El hierro-60 se desintegra dando lugar al níquel-60, y el níquel-60 se ha encontrado en meteoritos primitivos. Por tanto, los científicos saben dónde y cuándo se formaron los isótopos padres, pero no cómo llegaron aquí.Valiéndose de un nuevo planteamiento, los investigadores llegaron a la conclusión de que después de 100.000 años la nube presolar era mil veces más densa que antes, y que el calor liberado por el frente de la onda expansiva se perdió rápidamente, resultando en sólo una delgada capa con temperaturas cercanas a 700 grados centígrados. Después de 160.000 años, el centro de la nube se había derrumbado sobre sí mismo, lo que la hacía un millón de veces más densa, formándose el protosol. Los investigadores encontraron que los isótopos del frente de la onda expansiva se mezclaron en el protosol de una manera que concuerda con su origen en una supernova.Ésta es la primera vez que se ha demostrado el funcionamiento correcto, sin contradicciones, de un modelo detallado de la formación de nuestro sistema solar activada por una supernova.



Más Evidencias de Que una Supernova Condujo a la Formación de Nuestro Sistema Solar

Almacenan Datos Dentro de un Atomo y los Recuperan

Se ha logrado otro paso hacia la computación cuántica, considerada el Santo Grial del procesamiento y almacenamiento de datos. Un equipo internacional de científicos que incluye a investigadores del Laboratorio Nacional Lawrence Berkeley (el Berkeley Lab) ha logrado con éxito almacenar información y recuperarla utilizando el núcleo de un átomo.



El equipo hizo un experimento en el que cristales de silicio excepcionalmente puros e isotópicamente controlados fueron dopados de manera muy precisa con átomos de fósforo. La información cuántica se procesó en los electrones del fósforo, siendo transferida al núcleo y luego transferida de nuevo a los electrones. Ésta es la primera demostración de que un solo núcleo atómico ya puede servir como memoria en la computación cuántica.John Morton de la Universidad de Oxford es el autor principal del trabajo. Otros autores son Thomas Schenkel, Eugene Haller y Joel Ager del Laboratorio de Berkeley, Richard Brown, Brendon Lovett y Arzhang Ardavan de la Universidad de Oxford, y Alexei Tyryshkin, Shyam Shankar y Stephen Lyon, de la Universidad de Princeton.Una computadora cuántica podría realizar ciertas tareas matemáticas muchos miles de millones de veces más rápido que las supercomputadoras actuales más potentes. Más allá de esto, la computación cuántica debería hacer posible realizar cálculos que no pueden ser abordados con la tecnología de la computación "clásica". El secreto de la extraordinaria capacidad de la computación cuántica radica en las propiedades raras y aparentemente "mágicas", pero reales y demostrables, de la mecánica cuántica.
En la computación clásica se procesa y almacena la información con arreglo a la carga del electrón, y dicha carga se representa con un dígito binario o "bit". Cada bit lleva un valor de 0 (sin carga) ó 1 (con carga). La computación cuántica utiliza una propiedad cuántica intrínseca denominada "espín", consistente en que ciertas partículas pueden actuar como si fueran un diminuto imán en forma de barra. Al espín se le asigna un estado direccional, que puede ser "Hacia Arriba" o "Hacia Abajo", lo que permite usarlo para codificar los datos en ceros y unos. Sin embargo, a diferencia de la computación clásica en la que la carga está o no presente, el espín puede ser Hacia Arriba o Hacia Abajo, o ambos simultáneamente, gracias a un efecto conocido como superposición cuántica.La superposición expande exponencialmente las capacidades del almacenamiento de un dato en el bit cuántico o "qubit". Considerando que un byte de datos clásico puede representar sólo una de las ocho posibles combinaciones de ceros y unos, un equivalente cuántico (a veces denominado qubyte) puede representar las ocho combinaciones simultáneamente. Además, gracias a otra propiedad cuántica, conocida como entrelazamiento cuántico, pueden realizarse de manera simultánea operaciones con las ocho combinaciones.




Almacenan Datos Dentro de un Atomo y los Recuperan

La ESA contará con 10.000 millones para financiar proyectos en los próximos años

Los 18 países miembros de la Agencia Espacial Europea (ESA) acordaron en La Haya un presupuesto de 10.000 millones de euros para financiar programas durante los próximos años, entre ellos la misión europea a Marte y su participación en la Estación Espacial Internacional (EEI).

España será el quinto contribuyente entre 2009 y 2013, con una aportación de 677 millones de euros, un 8% de los fondos previstos para ese periodo. El presupuesto de 10.000 millones acordado financiará varios proyectos que se desarrollarán en distintos períodos y que pueden prolongarse más allá del 2013.
La conferencia ministerial de la ESA, en la que la titular de Ciencia e Innovación, Cristina Garmendia, representó a España, tenía como objetivo establecer la dotación presupuestaria y las líneas estratégicas que guiarán el futuro de la Agencia en los próximos años.
El director general de la ESA, Jean-Jacques Dordain, valoró en una rueda de prensa al término de la reunión, celebrada durante dos días en La Haya (Holanda), la determinación de los países miembros de "seguir invirtiendo en el espacio", y celebró la decisión de aumentar un 3,5% por año las inversiones en los programas de ciencias. En concreto, la ESA destacó que la Política Espacial Europea, diseñada junto a la Comisión Europea, incrementará el desarrollo de aplicaciones espaciales que contribuyan a satisfacer las necesidades de los ciudadanos y de las empresas europeas.
Entre otros asuntos, los ministros aprobaron la continuidad de la financiación de la Estación Espacial Internacional (ISS) hasta 2012 -con la posibilidad de extenderla hasta 2020-, a la que han consagrado 1.373 millones de euros. Asimismo, apoyaron la próxima misión europea a Marte, 'ExoMars', con un presupuesto de 850 millones de euros que incluirá el desarrollo de programas de exploración robótica. También acordaron una aportación de 850 millones de euros entre 2009 y 2013 para el Centro Espacial Guayanés (CSG), también llamado Puerto Espacial de Europa, que Francia presta a la ESA.
Por otra parte, asignaron fondos a las actividades de observación de la Tierra, que incluyen un nuevo programa que hará previsiones sobre las variaciones del clima y el desarrollo de los satélites Meteosat de Tercera Generación (MTG).
Aportación española
España será el tercer país que más contribuya a ese proyecto, que cuenta con un presupuesto global de 1.000 millones de euros -uno de los mayores de la ESA- y se desarrollará de 2009 a 2020. Su misión será incrementar la precisión de las predicciones meteorológicas proporcionando mayor capacidad de medición, mayor resolución y mayor frecuencia en el envío de datos.
Además, España liderará el programa de Conocimiento del Medio Espacial (SSA, por sus siglas en inglés) y será el país que más dinero aporte, hasta 17 millones de euros de un presupuesto total de 55 millones entre 2009 y 2001.
Este proyecto elaborará un catálogo de objetos espaciales potencialmente peligrosos, desde basura espacial susceptible de dañar un satélite a meteoritos que pueden impactar en la Tierra, de forma que mejorará el nivel de seguridad de las infraestructuras espaciales europeas.
Por otra parte, Dordain aseguró que el respaldo a distintos programas de desarrollo de la tecnología de las telecomunicaciones ayudará a Europa a recuperarse de la actual crisis económica, ya que son inversiones que afectan a la "vida real, comercial", algo que no se relaciona tanto con los proyectos espaciales.



La ESA contará con 10.000 millones para financiar proyectos en los próximos años elmundo.es

viernes, 14 de noviembre de 2008

El mar es más rico de lo que se pensaba

Pulpos de 30 millones de años de antigüedad, estrellas de mar gigantescas y moluscos colosales, son algunas de las 250.000 especies registradas en la 4a edición del Censo de la Vida Marina.




El Censo, que se presentará en la Conferencia Mundial de Biodiversidad Marina de Valencia, España, es un proyecto internacional que intenta catalogar todas las especies que viven en los océanos y mares del planeta.
El proyecto, en el que participan unos 2.000 científicos de 82 países, comenzó en el año 2000 y se espera que esté finalizado para 2010.
Y tal como revela este 4° y último informe de avance, la biodiversidad marina del planeta es mucho mayor de lo que previamente se había pensado.
"El programa tiene como objetivo estudiar la biodiversidad, distribución y abundancia de todos los organismos marinos que están en los océanos" dijo a BBC Ciencia la doctora Patricia Miloslavich, de la Universidad Simón Bolívar, en Venezuela e investigadora titular del Censo.
"Y también busca ver los efectos que ha tenido el ser humano sobre las poblaciones marinas en el pasado y la predicción de lo que podría pasar a causa de estos efectos en el futuro", agregó.

Pulpos ancestrales

Los investigadores han registrado ya 250.000 especies.Entre los hallazgos más destacados del Censo, afirma la investigadora, está "la primera evidencia de que una gran proporción de las especies de pulpos de todo el mundo evolucionó de un ancestro común que todavía vive en el antártico".
"La evidencia muestra que los pulpos comenzaron a emigrar hacia los océanos hace más de 30 millones de años a medida que se enfriaba la Antártica", explica la doctora Miloslavich.
"Y las nuevas condiciones de los hábitats provocaron la evolución de distintas especies. Algunas por ejemplo, perdieron sus sacos de tinta de defensa, que no tenían ninguna utilidad en las oscuras profundidades".
Los detalles de este descubrimiento, dice la investigadora, aparecerán publicados en la revista Cladistics.
En un litro de agua, se han podido detectar hasta 50.000 formas de bacterias distintas
Dra. Patricia MiloslavichOtros hallazgos destacados de nuevas especies, son estrellas de mar "gigantescas" de más de un metro de tamaño, que también fueron descubiertas en la Antártica.
"Y también -agrega Patricia Miloslavich- mientras se recolectaban organismos en las márgenes continentales de Portugal, se encontraron ostras enormes de más de 20 centímetros de diámetro".
El Censo de la Vida Marina también descubrió lo que llama es un "Café de tiburones blancos" y un "parque de esturiones" en el Pacífico, asó como un "nuevo continente" en el Atlántico.

Muchas más especies

Una de las nuevas especies descubiertas son las estrellas gigantes.Los investigadores no saben cuántas nuevas especies más se podrán encontrar para cuando el proyecto llegue a su fin en el 2010.
Pero algo que hasta ahora ha sido claro, dicen, es que la biodiversidad marina es mucho más grande de lo que previamente se había pensado.
"Por ejemplo -dice la doctora Miloslavich- pensábamos que ya no había más peces por descubrir, que ya conocíamos todas las especies".
"Y sin embargo, creemos que además de las 16.000 especies de peces que ya conocemos, hay otras 4.000 especies por descubrir, muchas de ellas en los trópicos".
Y entre menos estudiados han sido los organismos, más habrá que descubrir. Por ejemplo, en el grupo de bacterias prácticamente casi todo es desconocido.
"En un litro de agua, se han podido detectar hasta 50.000 formas de bacterias distintas".

En el grupo de bacterias prácticamente falta descubrir casi todo.La mala noticia, afirman los expertos, es que hay muchas especies que nunca conocimos y que ya han desaparecido, en gran parte por el impacto del ser humano en estas poblaciones.
Pero para cuando concluya el censo en el 2010 los investigadores esperan poder integrar toda la información recolectada para tener un panorama global de la biodiversidad marina e identificar las especies que ya no se podrán descubrir.
"Lo cierto es que la tecnología con que contamos ahora ha sido fundamental para este censo".
"Porque gracias a ella estamos descubriendo una cantidad de especies sin precedentes", expresa la investigadora venezolana.
La primera Conferencia Mundial sobre Biodiversidad Marina, donde será presentado el informe, se realizará en Valencia del 11 al 17 de noviembre.





BBC Mundo Ciencia y Tecnología El mar es más rico de lo que se pensaba

Misión india llegó a la Luna

India está celebrando la llegada a la Luna de su sonda espacial Chandrayaan 1.

El hecho sin precedentes para India ocurrió este sábado cuando Chandrayaan 1 se acercó lentamente hacia el satélite de la Tierra hasta ser capturada por la gravedad lunar.
La sonda robótica no tripulada se trasladará en una elipse cuyo punto más lejano estará a 7.502 kilómetros de la Luna y el más cercano a sólo 504 kilómetros.
Luego realizará maniobras que llevarán a la sonda a un círculo más cercano, en una órbita de 100 kilómetros desde donde empezará su misión de exploración por el período de dos años.
Acontecimiento
Chandrayaan 1 fue lanzada al espacio el 22 de octubre y se ha convertido en el primer satélite indio en salir del campo de gravedad de la Tierra y alcanzar la Luna.

La misión compilará un atlas tridimensional de la superficie lunar y creará un mapa de distribución de elementos y minerales.
Usando como fuente de energía un panel solar que genera unos 700 vatios, la sonda lleva consigo cinco instrumentos fabricados en India y seis en otros países, incluyendo Estados Unidos, Alemania y el Reino Unido.
Los experimentos incluyen el desacoplamiento de una sonda de 30 kilogramos desde una la nodriza con el fin de que se pose sobre la superficie lunar.
La llamada Sonda de Impacto Lunar grabará imágenes de video en su recorrido y medirá la composición de la muy tenue atmósfera del satélite natural de la Tierra.
También colocará la bandera india sobre la superficie lunar.




BBC Mundo Ciencia y Tecnología Misión india llegó a la Luna

El ejército estadounidense desarrolla un interfaz de telepatía sintética



La electroencefalografía unida a un ordenador permitirá que las personas se comuniquen con el pensamiento.
El ejército estadounidense ha destinado cuatro millones de dólares al desarrollo de un sistema de interconexión entre el cerebro y el ordenador, que permita que las personas se comuniquen sólo con el pensamiento. Este sistema de “telepatía sintética” estará basado en la combinación de la técnica de la electroencefalografía (para registrar la actividad cerebral vinculada a un determinado “mensaje”) y de un receptor informático, capaz de traducir la actividad cerebral registrada a lenguaje corriente. Aunque aún queda mucho trabajo por delante hasta que pueda comercializarse este desarrollo, sus aplicaciones superarán sin duda el terreno de lo militar. Los expertos señalan que el sistema podría llegar a convertirse en una “nueva forma de comunicación”. Por Yaiza Martínez.



El pasado verano, la Universidad de California (UCI) , en Irvine, publicaba un comunicado, en el que se informaba de la concesión a científicos de dicha universidad de una donación de cuatro millones de dólares para el desarrollo de la llamada “telepatía sintética”. La investigación que se realizará gracias a esta concesión pretende culminar en un sistema de comunicación que beneficiará a los soldados en el campo de batalla, a enfermos de parálisis o a personas que hayan sufrido un infarto cerebral, señaló el investigador Michael D’Zmura, presidente del departamento de ciencias cognitivas de la UCI. El objetivo es fabricar un sistema de interconexión entre el cerebro y el ordenador, que aplicará una tecnología no invasiva de registro de imágenes del cerebro denominada electroencefalografía (EEG), que consiste en una exploración neurofisiológica basada en el registro de la actividad bioeléctrica cerebral. Comunicación mental Si todo sale bien, este sistema permitirá que las personas se comuniquen entre ellas usando sólo los pensamientos, sin articular palabra. Así, por ejemplo, si un soldado “piensa” en un mensaje dado, éste será automáticamente transmitido a un sistema de reconocimiento del lenguaje albergado en un ordenador. Dicho sistema decodificará a su vez las señales registradas por la electroencefalografía de la materia gris del soldado, permitiendo así que el mensaje sea conocido por otros. Los pensamientos decodificados, por tanto, no serían más que ondas cerebrales traducidas. Según D’Zmura, para hacerlo funcionar, las personas que quieran usarlo tendrán que entrenarse hasta aprender a enviar y recibir mensajes. Los pasos que deberá seguir el usuario para comunicarse telepáticamente serán los siguientes. En primer lugar, tendrá que componer un mensaje utilizando, según declaraciones de D’Zmura aparecidas en un artículo reciente de la msnbc.com , “esa pequeña voz de tu cabeza”. En segundo lugar, el usuario deberá enviar el mensaje a un receptor utilizando sólo el poder de su pensamiento. Una vez llegado, este mensaje podrá ser leído en forma de texto o como mensaje de voz. Nueva forma de comunicación Inicialmente, las comunicaciones estarán basadas en un conjunto limitado de palabras o frases reconocibles para el sistema, pero con el desarrollo de la tecnología ésta podrá decodificar un lenguaje cada vez más complejo. D’Zmura señala en la msnbc.com que “esta tecnología podría llegar a convertirse en una nueva forma de comunicación”. Para lograr este objetivo, el investigador asegura que queda mucho trabajo por delante, y que aún falta mucho tiempo. Sin embargo, vaticina que los resultados se aplicarán no sólo al terreno militar, sino también a diversos sectores comerciales. Por ejemplo, a dispositivos de videojuegos basados en electroencefalografía. O se destinarán al uso de pacientes que sufren determinadas enfermedades, como la enfermedad de Lou Gehrig, que provoca que, aún teniendo el cerebro intacto, se pierda el control de éste sobre los músculos del cuerpo. La telepatía sintética ayudaría a estas personas a comunicarse. Pero aún queda una gran labor por hacer, y algunos escollos que superar. Uno de ellos es el de comprender bien qué palabras y frases “activan” qué áreas del cerebro. Para crear un mapa detallado de éste en acción los científicos usarán las técnicas de exploración magnética funcional (fMRI) y de magnetoencefalografía (MEG). El mapa generado ayudará al ordenador a adivinar qué palabra quiere decir una persona cuando una parte concreta de su cerebro se activa. Antecedentes La idea de la comunicación mediante el pensamiento no es nueva. Ya en la década de los años 60, un investigador se colocó un electroencefalograma en la cabeza y, entrenando, consiguió detener y reiniciar sus ondas cerebrales alpha para componer mensajes en código Morse. Las ondas alpha son oscilaciones electromagnéticas surgidas de la actividad eléctrica de las células cerebrales de la zona del tálamo. Por otro lado, en el mercado de los videojuegos ya existe un dispositivo que registra las ondas cerebrales y las relaciona con órdenes de acciones concretas dentro de la pantalla. Creado por la compañía Emotiv Systems, permite el control de un ordenador sólo con el pensamiento, tal y como explicamos en Tendencias21. Otra compañía, Neurosky trabaja asimismo en el desarrollo de un sistema de sensores y procesador de señales biológicas con el que pretende traducir éstas a comandos lógicos y útiles. Asimismo, según la msnbc, ya existen cascos comerciales de electroencefalografía que permiten manipular objetos virtuales sólo con el pensamiento pero, eso sí, con órdenes más simples – del tipo “mover la piedra”-, que las que espera desarrollar D’Zmura.






El ejército estadounidense desarrolla un interfaz de telepatía sintética

Más verde, menos desigualdad

Los espacios verdes, aunque sean pequeños, pueden contribuir a disminuir la brecha entre ricos y pobres, señalan investigadores de dos universidades escocesas.

Incluso, dicen los científicos, los parques chicos en el corazón de la ciudad pueden protegernos de enfermedades coronarias, porque contribuyen a reducir el estrés y a estimularnos a hacer ejercicio.
El estudio, publicado en la revista especializada The Lancet, comparó información sobre cientos de miles de muertes y las contrastó tomando en cuenta los espacios verdes que existían en diferentes zonas.
Los municipios deben incorporar más parques para mejorar el estado de salud de los habitantes de las ciudades, recomendó el informe.
En todo el Reino Unido hay desigualdades en términos de salud relacionadas con el nivel de ingresos y pobreza, categorías que se ven reflejadas en los distintos estilos de vida, en la dieta y -en algunos casos- en el acceso a la salud.
Esto significa que la gente que vive en zonas pobres es más proclive a estar menos saludable y morir -por ende- más temprano.
Sin embargo, los científicos descubrieron que vivir cerca de un parque o un bosque reduce estas diferencias, más allá de la clase social.
Cuando se analizaron los récords de más de 360.000 personas fallecidas entre 2001 y 2005, se hizo evidente que incluso los espacios verdes diminutos producían una diferencia considerable en cuanto al riesgo de sufrir enfermedades fatales.
Más verde
El cambio fue más marcado en el área de enfermedades coronarias, lo cual hace pensar que la presencia de espacios verdes actúa como estímulo para que la gente haga más ejercicio.
Las implicaciones de este estudio son claras, los entornos que promueven el bienestar pueden llegar a ser cruciales en la lucha por reducir las desigualdades
Estudio publicado en The LancetAdemás los científicos Richard Mithchell de la Universidad de Glasgow y Frank Popham de la Universidad de St. Andrews, añaden que otras investigaciones indicaron que el contacto con la naturaleza también ayuda a disminuir la presión arterial, y quizás contribuya a una recuperación más rápida después de una operación quirúrgica.
"Las implicaciones de este estudio son claras, los entornos que promueven el bienestar pueden llegar a ser cruciales en la lucha por reducir las desigualdades", dice el estudio.
Ambos investigadores urgieron a las autoridades a crear más espacios verdes para mejorar la salud y promover el bienestar de la población.





BBC Mundo Ciencia y Tecnología Más verde, menos desigualdad

Partículas masivas inesperadas cuestionan el modelo estándar de la física de partículas

Investigadores del CDF del Fermi National Accelerator Laboratory, en Estados Unidos, han publicado recientemente los extraños resultados arrojados por el acelerador de partículas Tevatron. Un excedente de muones (partículas con carga negativa y una masa 200 veces mayor que la del electrón), que no podría explicarse a partir del modelo estándar de física de partículas, trae de cabeza a los físicos. Mientras unos tratan de relacionar estos registros con la materia oscura, otros intentan relacionarlos con la teoría de cuerdas. Los científicos del CDF son más cautos y, después de varios meses de intentar explicar este hecho, han decidido publicar los datos para que pueda abrirse el debate. Por Yaiza Martínez.


El pasado 29 de octubre, el archivo de publicaciones científicas arXiv publicó un artículo en el que investigadores del llamado Collider Detector (CDF) del Fermi National Accelerator Laboratory (Fermilab) de Estados Unidos, explicaban la aparición de unas misteriosas partículas dentro del acelerador circular de partículas Tevatron, uno de los mayores aceleradores de partículas del mundo. La revista Nature explica que el efecto de dichas partículas extrañas se habría registrado en casi 100.000 casos, los suficientes como para considerar que su aparición se deba a un evento fortuito. En algunos experimentos físicos, se registran datos o señales extrañas, pero resulta inusual que un efecto raro persista. Los científicos tratan ahora de comprender la aparición de estos “visitantes fantasmagóricos”, explica uno de los físicos implicados en las pruebas del Tevatron, Tommaso Dorigo, de la Universidad de Padua, en Italia, cuyo blog está lleno de alusiones a este hecho. Puede haber sorpresas El CDF está diseñado para encontrar partículas exóticas, raras veces vistas en la naturaleza. La detección de partículas en los experimentos físicos de alta energía no se puede realizar directamente, sino que consiste en rastrear los restos que dejan dichas partículas cuando los haces colisionan dentro de los aceleradores, descomponiéndose. Analizando las trayectorias de las partículas que salen despedidas tras la colisión, los físicos pueden inferir cuáles son las características de dichas partículas producidas. Las colisiones del CDF se producen dentro de un “canal de haces” de energía de 1,5 centímetros de ancho, que encierra a protones y antiprotones (protones cargados negativamente). Todo este proceso funciona y permite conocer qué partículas surgen gracias a un conjunto muy preciso de ecuaciones conocido como “modelo estándar de física de partículas” , que es la teoría que describe de manera conjunta tres de las cuatro fuerzas fundamentales de la naturaleza, a través de las cuales interaccionan las partículas elementales que componen toda la materia. De hecho, este modelo permite a los científicos comprender qué sucede en el centro del CDF con una gran exactitud. A pesar de todo, parece que aún puede haber sorpresas. Excedente de muones En concreto, lo que desconcierta a los físicos del CDF es un excedente de muones registrado por el detector del Tevatron. El muón es una partícula diminuta cuya carga eléctrica es negativa, y su masa es unas 200 veces mayor que la del electrón. Los muones son uno de los subproductos más comunes de las colisiones entre haces, pero el resultado de éstas en el CDF ha dado un número “mucho mayor de lo esperado” de descomposiciones productoras de exceso de muones. Por otro lado, y según publica la revista Newscientist, a los investigadores también les ha sorprendido que algunos de estos muones “extra” parecen haber sido creados fuera del “canal de haces”, sin dejar rastro alguno en la capa interior del detector de partículas. Durante meses, los físicos han intentado comprender a qué se debe este fenómeno, al que califican “sin sentido” e imposible de explicar utilizando el modelo estándar de física de partículas. Finalmente, han optado por publicar los datos para que otros físicos los puedan estudiar y se abra un debate al respecto. Posibles explicaciones Mientras el equipo del CDF se resiste a especular, otros físicos comienzan a hacerlo. Si la señal registrada como exceso de muones no es ficticia, esto significaría que una partícula desconocida, con un tiempo de vida de aproximadamente 20 picosegundos (un picosegundo es la billonésima parte de un segundo), habría recorrido alrededor de un centímetro, de un lado a otro del flanco del canal de haces, y después se habría descompuesto en muones. Según los científicos, un centímetro es un largo recorrido para la mayoría de las partículas antes de descomponerse, por lo que dar con una partícula de tan “larga vida” sería un gran descubrimiento. Las teorías que se están lanzando son las siguientes, según Nature y Newscientist: Por un lado, algunos físicos afirman que los muones excedentarios podrían proceder de la descomposición de una partícula pesada, aún no descubierta, quizá relacionada con la llamada materia oscura, una clase de materia hipotética, de composición desconocida, objeto de estudio de la astrofísica y la cosmología que, según se cree, podría constituir el 85% del universo. Otra posibilidad que manejan los físicos teóricos procede de la Teoría de Cuerdas, un modelo fundamental de la física que señala la existencia de branas de siete dimensiones habitadas por partículas exóticas que se manifiestan como cuerdas. Estas branas albergarían partículas que interactuarían ligeramente con nuestro mundo tridimensional creando una leve, aunque detectable, señal en los datos recopilados en el CDF. Estudios ulteriores quizá puedan desvelar la respuesta.







Partículas masivas inesperadas cuestionan el modelo estándar de la física de partículas

domingo, 2 de noviembre de 2008

Detectan un grave fallo de diseño en 'Ares I', la futura nave tripulada de la NASA

'Ares I' se presentó como la gran esperanza para el futuro de la conquista espacial estadounidense.





Cuando en 2004, George W. Bush intentó emular a John F. Kennedy al proponer un retorno a la edad dorada del programa Apollo en la que Estados Unidos volvería a pisar la Luna, y de allí viajaría a Marte, la clave del proyecto era la creación de esta nueva nave.
Sin embargo, cuando sólo quedan dos años para la jubilación definitiva de los actuales transbordadores, los ingenieros de la NASA han detectado un grave fallo de diseño en este vehículo que podría obligarles a volver a empezar desde cero.
Según ha revelado el diario Ornaldo Sentinel de Florida, una serie de simulaciones informáticas ha demostrado que el 'Ares I' no sería capaz de despegar e incluso podría estrellarse contra la rampa de lanzamiento en un día ventoso. De hecho, bastaría una brisa de 20 kilómetros por hora para provocar esta catástrofe.
El impacto de la caída probablemente destruiría el cohete, o como mínimo provocaría un grave incendio en la torre de lanzamiento que pondría en riesgo la vida de los astronautas.
«Tengo la impresión de que el desarrollo de este proyecto está yendo de mal en peor, e incluso podría acabar en una situación irreparable», reconocía al Sentinel uno de los técnicos involucrados en el diseño del Ares I, que no quiso revelar su nombre.
La fragilidad del vehículo se debe a lo que los ingenieros de la NASA denominan deriva de lanzamiento (en inglés, 'liftoff drift'), un fallo que provoca un leve desplazamiento de la nave hacia los lados durante el despegue. Este movimiento anormal, sobre todo en un día de viento, supone un inaceptable nivel de riesgo que va a obligar a los responsables del proyecto a replantearse su diseño.
La NASA se ha apresurado a intentar quitarle hierro al asunto, asegurando que el problema podría resolverse mediante un cambio en la estructura y la posición de la rampa de lanzamiento, lo que evitaría la necesidad de rediseñar la nave.
Gestión desastrosa
Sin embargo, incluso si el problema pudiera resolverse de esta manera, el proceso tardaría al menos un año y costaría decenas de millones de dólares más de lo que se había presupuestado hasta ahora en el proyecto. En tiempos de crisis económica, esto podría ser suficiente para poner en riesgo la viabilidad del 'Ares I'.
Pero para algunos de los expertos que han participado en el proyecto, la situación es todavía más crítica. El mes pasado, Jeff Finckenor, un prestigioso ingeniero de la NASA que llevaba años dedicándose al diseño de esta nave, decidió tirar la toalla y abandonar el proyecto 'Ares', al considerar que el desarrollo de la nave se estaba gestionando de forma desastrosa y podría acabar poniendo en peligro la vida de sus futuros tripulantes. «Ha llegado la hora de replantearse todo el proyecto», opina Finckenor.
Otro especialista consultado por la revista New Scientist que prefirió mantenerse en el anonimato opina exactamente lo mismo: «Llegados a este punto, es casi mejor dar marcha atrás e iniciar un rediseño para conseguir un modelo que funcione. Muy pocos en la NASA creen que el proyecto pueda sobrevivir tal y como se ha planteado hasta ahora».
Sin embargo, a pesar de todo, el director general de la NASA, Michael Griffin, quien desde el principio ha estado personalmente implicado en el diseño del 'Ares I', sigue defendiendo su viabilidad: «Siempre hay problemas cuando se desarrolla un nuevo sistema aeroespacial. Al fin y al cabo, es una de las cosas más difíciles que pueden hacer los seres humanos. Pero al final la NASA siempre los ha resuelto, y esta vez también lo lograremos».






Detectan un grave fallo de diseño en 'Ares I', la futura nave tripulada de la NASA elmundo.es

La NASA confirma la partida del "Endeavour" el 14 de noviembre en misión a la EEI

La misión STS-126, comandada por el astronauta Chris Ferguson, cumplirá, además, importantes tareas de reparación del orbitador y lo preparará para albergar a seis ocupantes de manera permanente, dijo la agencia espacial en un comunicado.





La misión de 15 días incluirá cuatro caminatas espaciales para efectuar mantenimientos de las juntas rotatorias de los paneles solares de la estación que gira en una órbita a más de 400 kilómetros de la tierra.
El "Endeavour" llevará en su compartimento de carga alrededor de 15 toneladas de suministros y equipos necesarios para aumentar la tripulación de tres a seis miembros a partir de la primavera del próximo año, indicó el comunicado.
La fecha prevista para el lanzamiento fue anunciada tras una revisión de los preparativos del vuelo en los que se determinó que tanto los equipos como los sistemas de apoyo de la misión están listos, señaló la NASA.
Además de Ferguson, la tripulación está integrada por el piloto Eric Boe y los especialistas Donald Pettit, Steven Bowen, Heidemarie Stefanyshyn-Pider, Shane Kimbrough y Sandra Magnus.
Magnus sustituirá en la tripulación de la EEI a Greg Chamitoff, quien ha permanecido en el orbitador más de cinco meses.
La astronauta estadounidense regresará con la misión siguiente de los transbordadores prevista para febrero de 2009, según la NASA.





La NASA confirma la partida del "Endeavour" el 14 de noviembre en misión a la EEI - Yahoo! Noticias

El telescopio espacial Hubble reanuda operaciones y transmite una foto de dos galaxias

El telescopio espacial Hubble ha reanudado las operaciones y su cámara principal transmitió una espectacular fotografía de dos galaxias, informó hoy la NASA.



Un comunicado de la NASA indicó que se trata de las galaxias identificadas como Arp 147 que muestran una influencia gravitatoria mutua.
La imagen demuestra que la cámara (planetaria gran angular WFPC2) está funcionando tal y como lo hacía antes de que se interrumpieran sus transmisiones el mes pasado "con un 10 perfecto en calidad y belleza", agregó.
Las dos galaxias están orientadas de tal forma que dan la apariencia de un número 10. La galaxia que corresponde al "1" parece estar rodeada por un anillo de estrellas y la que es el "cero" muestra un anillo azul que revela una formación de estrellas.
El par de galaxias, fotografiado por la cámara del Hubble entre el lunes y el martes pasados, se encuentra en la constelación Cetus a más de 400 millones de años luz de la Tierra.
El Hubble es un proyecto de cooperación internacional entre la NASA y la Agencia Espacial Europea (ESA), cuyas operaciones son controladas desde el Centro Goddard de Vuelos Espaciales de la agencia estadounidense.
El observatorio espacial ha sufrido una serie de problemas de funcionamiento en los últimos años y la NASA proyecta enviar a su órbita al transbordador "Atlantis" en una misión de servicio y reparaciones.
Esa misión, que incluirá al menos cinco caminatas espaciales, se realizará probablemente a comienzos del próximo año.
Considerado el instrumento más valioso y fructífero de la astronomía, el Hubble fue puesto en órbita desde el transbordador "Discovery" el 24 de abril de 1990.




El telescopio espacial Hubble reanuda operaciones y transmite una foto de dos galaxias - Yahoo! Noticias

martes, 28 de octubre de 2008

¡A dormir de día!

Los habitantes de Ecuador, Perú y Colombia reciben a diario niveles de radiación ultravioleta extremos debido al deterioro de la capa de ozono en la franja ecuatorial, según una investigación de la Agencia Espacial Civil Ecuatoriana (EXA).
El estudio se fundamenta en mediciones hechas por la EXA en los últimos seis meses y en la información proporcionada por 10 satélites pertenecientes a diferentes agencias espaciales y ambientales alrededor del mundo.





Las mediciones indican que la región está sometida a índices UV superiores a los recomendados.Los datos que arrojan las imágenes satelitales y los sensores de rayos ultravioleta (UV) indican que esta región está sometida la mayor parte del día a índices de radiación UV muy superiores a los recomendados por la Organización Mundial de la Salud (OMS).
Según los directivos de la EXA y algunos expertos en la salud, el efecto a corto y mediano plazo de este fenómeno será un aumento en los casos de cáncer de piel y otras enfermedades relacionadas al exceso de exposición a la radiación.
El debilitamiento de la capa de ozono se estaría produciendo a lo largo de toda la franja ecuatorial del planeta, pero afectaría en mayor medida a algunas ciudades de los países andinos debido a la altura en la que están ubicadas.
"Fuera del nivel de tolerancia"
Según Ronnie Nader, director de operaciones de la EXA, "la capa de ozono sobre la franja ecuatorial se ha debilitado tanto que la radiación que pasa a nuestro territorio está fuera del límite de tolerancia humana".

Hemos navegado por montañas de datos y todos los satélites indican que hay un debilitamiento de la capa de ozono
Ronnie Nader, director de operaciones de la EXA
Nader notó este fenómeno mientras realizaba un curso de análisis de imágenes satelitales en Rusia como parte de su preparación para convertirse en astronauta.
A su regreso a Ecuador, y tras crear la EXA, decidió realizar esta investigación con la adquisición de sensores de rayos UV y la interpretación de datos satelitales de la NASA, la Agencia Espacial Europea (ESA, por sus siglas en inglés), la Agencia Ambiental Canadiense (CEAA, por sus siglas en ingles), y el Instituto Real Meteorológico de Holanda (KNMI, por sus siglas en holandés), entre otros.
"Hemos navegado por montañas de datos y todos los satélites indican que hay un debilitamiento de la capa de ozono", le explicó Nader a BBC Mundo.
"Además tuvimos que traer dos máquinas automáticas que inmediatamente calculan el índice de radiación UV y comenzamos a tener índices catastróficos. En el caso de Quito, por ejemplo, se han registrado hasta 24 puntos, más del doble que el límite de tolerancia humana".

Índice UV
La OMS junto con la Organización Meteorológica Mundial (WMO, por sus siglas en inglés) y la Comisión Internacional de Protección contra la Radiación No Ionizante (ICNIRP, por sus siglas en inglés) realizó una guía práctica sobre el índice UV (IUV) solar mundial para la que se creó una tabla para medir el efecto de la radiación solar en los seres humanos.

Este fenómeno podría aumentar los casos de cáncer de piel.
De acuerdo a esta escala del IUV, la exposición de 6 a 7 puntos es considerada alta, de 8 a 10 muy alta y por encima de los 11 puntos se la califica de extremadamente alta.
La OMS recomienda que, pasado el nivel de 8 puntos en la escala, una persona debe "evitar salir en las horas centrales del día, buscar la sombra y usar de manera imprescindible ropa de manga larga, crema protectora, y sombrero".
Vea la escala del Indice UV de la OMS

Los niveles que la EXA registra a diario en Quito y en Guayaquil están por encima de los 11 puntos durante un promedio de seis horas diarias.
Esto, según Nader, estaría sucediendo en la mayoría de ciudades de Ecuador y Perú, y en algunas regiones de Colombia.
Eso se sustenta en imágenes del satélite SCIAMACHY en las que se puede apreciar claramente como la región andina cuenta con los mayores niveles de exposición UV.
Nader asegura que, de acuerdo a los registros históricos satelitales, este fenómeno vendría ocurriendo desde hace aproximadamente 10 años.
"Dormir de día"
Los datos presentados por la EXA fueron confirmados por la Fundación Ecuatoriana de la Psoriasis (FEPSO), otra institución que ha venido realizando mediciones de la radiación UV en Ecuador en los últimos tres años.

El cáncer de piel en algunos casos se ha duplicado en los últimos 20 años
Cecilia Cañarte, dermatóloga y presidenta de la FEPSO
La FEPSO envía los resultados al Instituto de Física de Rosario (IFIR), en Argentina, donde se mide el ozono de toda América Latina.
"Quito se ha mantenido desde alto a extremo, y el último año se ha mantenido desde muy alto a extremo", le explicó a BBC Mundo la dermatóloga Cecilia Cañarte, presidenta de la FEPSO.
Según Cañarte, en Quito no han tenido "una radiación baja en todo el año, aún con cielo nublado".
La FEPSO también ha llevado a cabo estudios sobre el cáncer de piel entre poblaciones "vulnerables", como los pescadores, albañiles, campesinos y taxistas, quienes por su actividad pasan la mayor parte del tiempo expuestos a la luz solar.
Según Cañarte "el cáncer de piel en algunos casos se ha duplicado en los últimos 20 años" y asegura que otra población extremadamente vulnerable es la de los niños, quienes pasan muchas horas al aire libre en las escuelas.
Cañarte explica que el cáncer de piel es acumulativo y que sus efectos no se presentan de inmediato, por lo tanto "un descuido ahora se puede lamentar en el futuro".
"Estamos hablando de un futuro que no va a suceder en 10 años o 20 años, sino que puede suceder ya, al mes o a los dos meses, dependiendo el tipo de piel que tengamos", afirma la especialista.
Para Cañarte, el problema de la radiación "nos obligará a cambiar nuestro estilo de vida".

Según la dermatóloga, en el último congreso de Fotobiología y Fotomedicina que se realizó en Porto Alegre, Brasil, varios expertos pronosticaron que en un futuro, el ser humano tendrá que "dormir de día y trabajar de noche".




BBC Mundo Ciencia y Tecnología ¡A dormir de día!

Venezuela inicia carrera espacial

Venezuela lanzará este miércoles su primer satélite, el Simón Bolívar, desde una base en China con miras a mejorar las telecomunicaciones en el país y atender temas sociales.




El Simón Bolívar cumplirá funciones de telecomunicación social.El satélite surgió de un proyecto conjunto entre Venezuela y China, que aportó la tecnología para su diseño y construcción, así como el cohete que lo lanzará al espacio.
La logística y concepto de su función corrió por cuenta del gobierno venezolano que señala que el Simón Bolívar tendrá tareas más amplias que la tradicional tecnología satelital.
El viceministro de Planificación de Ciencia y Tecnología, Luis Mercano González, dijo a BBC Mundo que además de mejorar las telecomunicaciones del país, la internet, la telefonía móvil y fija, el satélite estará destinado a llevar servicios de tele-medicina y tele-educación a las poblaciones más apartadas.
Creo que la inversión es poca desde el punto de vista del objetivo fundamental del gobierno bolivariano, que es la búsqueda de la unidad latinoamericana, caribeña y centroamericana
Luis Mercano González, viceministro de Ciencia y Tecnología
"Venezuela es un territorio de casi un millón de kilómetros cuadrados y tenemos poblaciones muy lejanas, la mayoría indígenas, que han tenido poca oportunidad de ser atendidos por el Estado venezolano en materia de salud y educación", dijo Mercano González.
Salud y educación
El funcionario explicó que vienen trabajando desde hace más de un año con los Ministerios Educación y Salud en pruebas pilotos con comunidades en las fronteras para llevar con eficiencia tratamientos y trasmisión de conocimiento a distancia.
"En ese sentido la medicina es muy importante porque tenemos poblaciones en el delta del Orinoco muy lejanas que no pueden ser atendidas", agregó el viceministro.
"En cuanto a la educación, es evidente que la educación a distancia es muy importante y se facilitaría".

El programa satelital se lleva a cabo con tecnología china.
Pero también hay planes para que otros países de Latinoamérica y el Caribe puedan participar de la ampliación en las telecomunicaciones, con la ampliación del canal de noticias Telesur y la Radio del Sur.
Estos son medios alternativos que forman parte fundamental de la filosofía del presidente Hugo Chávez en su declarado ideal de la unión de pueblos.
El costo total del proyecto ha sido de US$406 millones. Incluye el cohete de lanzamiento, dos estaciones terrestres y el tele puerto. Estos dos últimos construidos por Venezuela con tecnología china.
A pesar de la elevada suma, el viceministro Mercano González cree que la inversión es justificada y da el ejemplo de India:
"Hace más de 30 años India inició su programa cuando tenía niveles de pobreza muy altos. La tecnología espacial le ha permitido mantener la cohesión social y cultural para salir del subdesarrollo. Hoy en día es una gran potencia con una voz firme en el concierto de las naciones", aseguró el viceministro.
"Creo que la inversión es poca desde el punto de vista del objetivo fundamental del gobierno bolivariano, que es la búsqueda de la unidad latinoamericana, caribeña y centroamericana", concluyó.



BBC Mundo América Latina Venezuela inicia carrera espacial

Microsoft batalla "en las nubes"

Microsoft reveló una "nube computacional", en el que la información y las aplicaciones no estarán almacenadas en los computadores de los individuos.

La nueva plataforma, conocida como Windows Azure, fue anunciada en una conferencia en Los Angeles, EE.UU.
La plataforma fue descrita por el arquitecto jefe de software de Microsoft, Ray Ozzie, como "Windows para la nube".
Será ofrecida junto a la siguiente versión de Windows, Windows 7.
La iniciativa muestra a Microsoft enfrentándose a jugadores establecidos como Google y Amazon en el rápidamente creciente negocio del software en línea.
El objetivo es permitir a los creadores construir nuevas aplicaciones que viven en Internet, en vez de en sus propios computadores.
Microsoft cree que los consumidores también querrán almacenar mucho más de su información, desde cartas, pasando por fotos y videos, en los servidores de su "nube" de centros gigantes de datos alrededor del mundo, para que puedan ser revisados en cualquier parte, desde cualquier instrumento.
La decisión, vista por Microsoft como un cambio importante en su estrategia corporativa, fue revelada en frente de 6.000 desarrolladores de software de todo el mundo.

Nuevo software
Microsoft se enfrenta a otras firmas consolidadas en el campo como Google.
El termino "nube computacional" se ha puesto de moda, a medida que empresas con centros de datos grandes empiezan a rentar espacio a compañías que quieren construir aplicaciones en línea de rápido crecimiento sin necesidad de invertir en más servidores cuando el tráfico crece.
Para los consumidores está el prospecto de un futuro en el que buena parte de sus datos y muchas de las aplicaciones que usan podrían ser almacenadas en línea "en la nube".
Microsoft, que todavía obtiene enormes utilidades de sus productos Windows y Office, está moviéndose ahora a territorio en donde hasta ahora ha tenido dificultades para lograr un impacto.
Google, que domina en motores de búsqueda y en publicidad en línea, ya tiene un grupo de aplicaciones en línea viviendo en "la nube".
Sam Schillache, administrador de Google Docs, dice no estar preocupado por la llegada de un nuevo rival de gran tamaño.
"La competencia, incluso la dura competencia de Microsoft no nos preocupa porque hará que internet en su conjunto sea mejor, o de lo contrario será irrelevante para hacerlo mejor".
Sin mencionar a Microsoft, Schillace estableció un contraste entre el viejo modelo de software "voluminoso" y un futuro más abierto en el que las aplicaciones en línea serían actualizadas virtualmente cada semana.
"La manera en que la gente trabaja y se comunica; apertura, velocidad, agilidad y enfoque son mucho más valiosos y creo que es un desplazamiento muy grande" agregó.

Nubes veloces
Amazon, con grandes centros de datos que manejan millones de transacciones de e-comercio, ha sido otro pionero en el campo, con su Servicio Elástico de Nube.
Utilizando la capacidad ociosa en sus servidores, permite que un rango de clientes grandes y pequeños, desde desarrolladores de aplicaciones de Facebook hasta el Washington Post, construyan aplicaciones que pueden afrontar un aumento súbito en la demanda.
En su discurso en Los Angeles, Ray Ozzie dijo que se "quitaba el sombrero" ante Amazon por su trabajo en ese campo, diciendo que todos estamos "parados en sus hombros".
Microsoft está tomando un camino distinto al de algunos de sus rivales, insistiendo en que sus clientes todavía quieren la opción de mantener el software en sus propios computadores, así como en línea en la nube de la red. Es una estrategia que los rivales dirán está diseñada para proteger las utilidades derivadas de sus productos de software existentes.
Pero está planteada una batalla en las nubes entre las pocas grandes empresas con los recursos suficientes para construir los enormes centros de datos sobre los cuales dependerá está nueva forma de computación.



BBC Mundo Ciencia y Tecnología Microsoft batalla "en las nubes"