26 feb. 2010

El CSIC obtiene la designación de un medicamento huérfano


El Consejo Superior de Investigaciones Científicas (CSIC), en colaboración con el Instituto de Formación e Investigación Marqués de Valdecilla, ha obtenido la designación del raloxifeno (un fármaco empleado contra la osteoporosis propia de la menopausia) como medicamento huérfano para el tratamiento de la telangiectasia hemorrágica hereditaria (HHT), una enfermedad rara que se caracteriza por una profusión de hemorragias nasales que aumenta con la edad. Es la primera vez que un organismo público español logra la designación de un medicamento huérfano, aquéllos destinados a tratar patologías que afectan a menos de cinco personas por cada 10.000 y cuya comercialización resulta poco probable debido a su escasa demanda.

La investigación que ha dado pie a esta designación ha sido dirigida por los investigadores del CSIC Luisa María Botella y Carmelo Bernabeu, junto con el investigador Roberto Zabarrieta, del Instituto de Formación e Investigación Marqués de Valdecilla. Asimismo, ha contado con la participación del Centro de Investigación Biomédica en Red de Enfermedades Raras, el Ministerio de Ciencia e Innovación, la Fundación Ramón Areces, así como con el apoyo de la Asociación Española de enfermos de esta dolencia.

Botella contextualiza la relevancia de esta designación: “Dada la baja prevalencia de las enfermedades raras y de la sintomatología particular de cada una de ellas, en general no existen remedios terapéuticos para tratarlas. Además, a la industria farmacéutica no resulta rentable invertir dinero en ensayos de medicamentos para enfermedades de baja incidencia. Por ello, desde un punto de vista farmacológico, las patologías raras son también huérfanas”.

Existen dos tipos de medicamentos huérfanos: los de nueva creación, específicamente diseñados para tratar una dolencia rara; y aquellos ya empleados en el tratamiento de otra patología y que, tras el preceptivo ensayo clínico, se revelan útiles contra alguna de estas enfermedades. Este es el caso del raloxifeno.

El proceso que ha derivado en su designación como fármaco huérfano contra la HHT se inició a finales de 2006, a través de una investigación preclínica y clínica que concluyó que tiene un efecto beneficioso para el tratamiento de las hemorragias nasales propias del HHT, su principal síntoma, y carece de efectos secundarios. Su eficacia fue probada en un ensayo clínico, realizado en dos series y con un total de 30 afectados, en el Hospital de Sierrallana, en Torrelavega, centro de referencia de la enfermedad en España según la Fundación Internacional de HHT. Las líneas de investigación del hospital, perteneciente al Servicio Cántabro de Salud, están gestionadas por el Instituto de Formación e Investigación Marqués de Valdecilla.

La razón bioquímica del éxito terapéutico del raloxifeno fue estudiada en el Centro de Investigaciones Biológicas (CSIC) por la investigadora Virginia Albiñana. Según sus análisis, el raloxifeno activa los promotores de dos genes, Endoglina y ALK1, en las células endoteliales (las células que forman vasos sanguíneos).


UNA PATOLOGÍA QUE DISMINUYE LA CALIDAD DE VIDA

La HHT, también conocida como síndrome de Rendu-Osler-Weber, tiene una prevalencia estimada de un afectado por cada 8000 habitantes. Se trata, al igual que la mayoría de enfermedades raras, de una dolencia genética que se caracteriza por sangrados nasales frecuentes y recurrentes que aumentan con la edad; manchas de color rojo o púrpura en las manos, la cara y las mucosas; y afectación de órganos internos, con malformaciones arteriovenosas en el pulmón, el cerebro, el hígado o la médula espinal.

Aunque no es mortal, sus síntomas reducen sensiblemente la calidad de vida de los afectados ya que, debido a la profusión de hemorragias, son frecuentes la anemia y la necesidad de transfusiones sanguíneas, sobre todo a partir de los 40 años. Asimismo, algunas de las malformaciones en venas o arterias pueden derivar en hemorragias pulmonares, abscesos cerebrales o cianosis por pérdida parcial de oxígeno o embolias.


DÍA MUNDIAL DE LAS ENFERMEDADES RARAS

El próximo 28 de febrero se celebrará la segunda edición del Día Mundial de las Enfermedades Raras, una iniciativa que pretende atraer la atención sobre este tipo de patologías minoritarias. Según datos de la Organización Mundial de la Salud, existen en la actualidad unas 5.000 patologías de este tipo. De ellas, el 80% son de origen genético.

El número de afectados por esta clase de síndromes es desconocido, aunque se estima que suponen entre el 6% y el 8% de la población mundial, lo cual supondría unos tres millones de afectados sólo en España.

Para que una enfermedad sea declarada dentro de esta categoría debe afectar a un número igual o inferior a 5 personas por cada 10.000 habitantes, según el criterio establecido por la Unión Europea.

La investigación básica, basada en la búsqueda de las bases genéticas de las
patologías, y el desarrollo de fármacos huérfanos resultan claves para su tratamiento. El mecanismo de designación de un fármaco como huérfano corre a cargo de la Comisión Europea tras un proceso de revisión y aprobación por la Agencia Europea de Medicamentos.

La legislación europea concede una serie de incentivos para el desarrollo de
medicamentos huérfanos, como son la exclusividad comercial durante los diez años siguientes a la concesión de la autorización de comercialización, la exención de tasas, las subvenciones a programas de investigación de los Estados miembros, o la asistencia en la elaboración de protocolos. El siguiente paso es encontrar empresas farmacéuticas interesadas en las sucesivas etapas de desarrollo del fármaco.




Sevilla acogerá un centro puntero contra el cáncer


Celgene, una de las mayores compañías especializadas en biotecnología del mundo, prevé instalar este mismo año en Sevilla su primer centro de investigación fuera de EEUU. La firma invertirá 45 millones de euros hasta 2012, cuando calculan que el laboratorio estará a pleno rendimiento. Celgene centrará sus esfuerzos en la elaboración de nuevos medicamentos y terapias contra el cáncer y las enfermedades raras, según explicaron ayer en Sevilla Thomas Daniel y Sol J. Barer, responsables de la empresa.

En una primera fase, que comienza en abril, el Celgene Institute of Traslational Research Europe (Citre) contratará entre 30 y 40 científicos y, según evolucione el proyecto, podrían ampliar la plantilla hasta los 70 especialistas. Celgene contará para su laboratorio con 750 metros cuadrados en el Parque Tecnológico Cartuja 93, ubicado en los terrenos que alojaron la Expo 92.

Los estadounidenses planean organizar cinco departamentos de investigación: biobanco de tumores, bioinformática, epigenética, células madre placentarias y señalización celular. Una unidad central de investigación médica, conectada a su vez a universidades y centros de investigación españoles y europeos, junto a los que desarrollará proyectos comunes, coordinará las actividades.


Apuesta por la biotecnología

Celgene dedica el 30% de sus ingresos a investigación, supera los 3.000 millones de dólares de ingresos y mantiene 25.000 millones de dólares en capitalización bursátil, informa Efe.

La compañía contactó hace un año con el ministerio de Sanidad, según reveló ayer la ministra Trinidad Jiménez, y manifestó su interés en instalarse en España. Entre las opciones ofrecidas, escogieron Sevilla. El presidente andaluz, José Antonio Griñán, rompió una lanza por el sistema público de salud, del que dijo que "es de los más avanzados y equitativos del mundo" y reafirmó la apuesta de su gabinete por la biotecnología.




El búnker de Noé cumple dos años


El Arca de Noé es un búnker bajo una montaña helada. Se trata de un proyecto internacional para conservar durante cientos de años la diversidad de cosechas del mundo en caso de epidemia, guerra nuclear, desastre natural o cambio climático.

A unos 1.000 kilómetros del Polo Norte, en las remotas islas Svalbard, al norte de Noruega, un gigantesco silo con millones de semillas aguarda el «día del fin del mundo».

Un escalofrío es lo que transmite todo lo relacionado con este búnker, construido en 2008 y conocido como «la bóveda de semillas», «el búnker del juicio final» o «del apocalipsis». El ex ministro de agricultura de Noruega, Terje Riis-Johansen lo denominó «un Arca de Noé».

Su objetivo es obtener nuevas cosechas tras un desastre o lograr que las actuales se adapten a las enfermedades o al cambio climático


En el corazón de una montaña helada

La entrada es una vasta estructura de hormigón que se hunde en la nieve, sellada herméticamente por unas puertas de acero. Detrás, un corredor de 120 metros de longitud se sumerge en el corazón de la montaña

Al fondo, una oficina custodia el acceso a varios pasillos bloqueados por un sistema de esclusas de aire. Son el último paso antes de acceder a tres grandes bancos de semillas que son donadas gratuitamente por la comunidad internacional para conservar todas las especies posibles durante siglos en caso de catástrofe.

Se mantienen a una temperatura de -18ºC pero, incluso si todos los sistemas de refrigeración fallaran, la propia temperatura en la montaña nunca superaría el límite de congelación debido al denominado «permafrost», una capa de hielo que recubre toda la región.


Área desmilitarizada

Lo pintoresco del inhóspito entorno y del propio búnker acorazado evoca a los refugios de la II Guerra Mundial o los construidos bajo la amenaza nuclear de la Guerra Fría. Pero el búnker de Svalbard no es ni mucho menos un proyecto científico de cara a la galería. El lugar fue elegido por su inaccesibilidad y lejanía de cualquier hipotético conflicto armado. Toda el área se considera una zona desmilitarizada





Facebook obtiene una patente sobre los 'feeds'


Facebook ha logrado que se le reconozca una patente sobre los feeds (sistema automático de alimentación de nuevas informaciones empleado, por ejemplo, en los RSS). La noticia ha suscitado preocupación entre los internautas por el alcance de la misma y las consecuencias que podría tener si Facebook quiere ejercer el derecho que se supone le da la patente para controlar el uso de este recurso, muy empleado en Internet. En Twitter, un internauta se pregunta directamente si debe empezar a gritar para que se reforme la normativa de patentes, aunque en su blog, tras un primer análisis del registro de la patente, concluye que el campo de maniobra de Facebook es más limitado de lo que parece ya que no podría impedir, por ejemplo, el empleo de feeds en Twitter. En otros foros, la interrogación más insistente es qué pasará ahora. Otros plantean si de verdad Facebook fue el primero en emplear feeds y recuerdan su aparición en Twitter el mismo año en que lo hizo Facebook.

Facebook introdujo los feed en su portal en 2006 y, curiosamente, se produjo un debate alarmista sobre su empleo que obligó al fundador del sitio, Mark Zuckerberg, a dar explicaciones en el blog oficial de la compañía. Zuckerberg figura como uno de los creadores de la patente en la documentación presentada para su validación. No es la primera vez que Estados Unidos acepta una patente de programas cuya amplitud puede acarrear serios problemas. En Inquisitr recuerdan la "estupidez" que supuso reconocer a Amazon una patente sobre el one click en la gestión de las compras en línea.

En el texto de la aprobación de la patente se describe ésta como un método para desplegar feeds en una red social que incluye "la generación de nuevos ítems sobre las actividades asociadas con un usuario de las redes sociales" y adjuntar enlaces así como limitar su visibilidad a una lista predeterminada de visitantes.





Identifican unas moléculas que controlan la progresión del VIH y del sida


El estudio abre una nueva vía en la investigación de futuras alternativas terapéuticas para controlar el virus de inmunodeficiencia Humana (VIH) y la propia enfermedad del sida. Por primera vez se demuestra que la producción de las moléculas α-defensinas 1-3 por las células dendríticas retrasa la progresión de la infección. Cerca un 5% de pacientes son capaces de controlar de manera natural la infección sin terapia antiretroviral.

La infección por el VIH/SIDA sigue siendo uno de los problemas más graves de salud pública, sobre todo en los países en desarrollo. El Virus de la Inmunodeficiencia Humana (VIH-1), responsable de la pandemia, tiene la capacidad de infectar diversos tipos celulares, entre ellos las células T, los macrófagos y las células dendríticas (CD).Estas últimas, son cruciales en la defensa contra agentes infecciosos y juegan un papel importante en la patogénesis del virus.

El nuevo estudio, liderado por investigadores del Hospital Clínic de Barcelona-IDIBAPS en el marco del HIVACAT y publicado en el último número de la revista Plos ONE, demuestra por primera vez que las células dendríticas en los pacientes infectados por el VIH que controlan la infección de manera espontánea producen niveles elevados de α-defensinas 1-3.

Los expertos lo asocian con una progresión más lenta de la enfermedad y sugieren potenciales implicaciones diagnósticas, terapéuticas y preventivas. Así que las α-defensinas 1-3 pueden ser "potenciales agentes profilácticos y abren una nueva línea de investigación para tratar la infección por VIH/SIDA".

Los autores del trabajo insisten en que son necesarios más estudios para determinar el valor de estas moléculas como una "importante alternativa diagnóstica y terapéutica que permita detener o retardar la replicación del VIH en pacientes seropositivos".

La primera firmante del trabajo es la doctora Marta Rodríguez-García, premio “Emili Letang” del Hospital Clínic de Barcelona por sus trabajos en esta línea de investigación, y hoy investigadora postdoctoral en The Ragon Institute of Massachussets General Hospital,del MIT en EE UU.

Los investigadores sénior del estudio son la doctora Teresa Gallart, del Servicio de Inmunología del Hospital Clínic y el equipo IDIBAPS de Enfermedades infecciosas y SIDA, y el doctor Josep Mª Gatell, Jefe del Servicio de Enfermedades Infecciosas del Hospital Clínic y responsable del mismo equipo del IDIBAPS.

El estudio ha contado con la colaboración del Centro Catalán de Investigación y Desarrollo de Vacunas para el SIDA (HIVACAT), un consorcio público-privado integrado por la Fundación IrsiCaixa y el Servicio de Enfermedades Infecciosas y SIDA del Hospital Clínic de Barcelona.

Las investigaciones se hacen en coordinación con Esteve y con el soporte de la Fundación La Caixa y el Departament de Salut y el Departament d’Innovació, Universitats i Empresa de la Generalitat de Catalunya.


Unas moléculas muy poderosas

Las defensinas son péptidos de síntesis endógena con un amplio espectro antimicrobiano y efectos inmunomoduladores. Tienen una potente actividad anti-VIH, actuando directamente sobre el virus y las células diana. Según su estructura, las defensinas en humanos se clasifican en dos subfamilias: α-defensinas y β-defensinas, ambas con actividad anti-VIH.

Las α-defensinas, también conocidas como péptidos de neutrófilos humanos, se almacenan en los neutrófilos y en menor medida en otro tipo de leucocitos. Aunque la actividad anti-VIH de las α-defensinas 1-3 se ha demostrado claramente in vitro, su posible función protectora durante la infección por el VIH in vivo aún no ha sido determinada.

En un reciente estudio, los autores ya demostraban que las α-defensinas 1-3 son producidas por células dendríticas inmaduras derivadas de monocitos (CDDM) en individuos sanos y son capaces de modular su maduración y proceso de diferenciación.

Las células dendríticas (CD) son las principales células presentadoras de antígeno y tienen un papel fundamental en la respuesta inmune innata contra diferentes infecciones virales, especialmente durante la respuesta que se genera frente al VIH.

Debido a su localización mucosa, se considera que las CD son las primeras en capturar el VIH y, tras llevarlo a los nódulos linfáticos, median la transmisión de los viriones de VIH-1 a células T CD4, la principal vía de replicación y diseminación del VIH-1.


Cómo se hizo el nuevo estudio

En el presente estudio se analizaron las CDDM, un modelo de células dendríticas mieloides generadas in vitro. Este tipo de células demostrarían ser fundamentales en la infección por VIH temprana y por tanto, su capacidad para producir y liberar α-defensinas 1-3 tiene una especial relevancia fisiológica.

Para el estudio se reclutaron controles sanos, no infectados, y pacientes infectados por el VIH-1. Este último grupo de pacientes se clasificó en cuatro subgrupos: controladores de élite (pacientes capaces de controlar el VIH sin terapia, con una carga viral inferior a 50 copias de ARN/ml y que constituyen un 5% de la población infectada), controladores virémicos (con una carga superior a 50 e inferior a 5000 copias/ml sin terapia), no-controladores virémicos (carga superior a 5000 copias/ml sin terapia) y pacientes con terapia antirretroviral (HAART).

Todos los pacientes mostraban un recuento de células T CD4 superior a 450 células/mm3. Los resultados revelan que las células dendríticas inmaduras en los pacientes infectados por el VIH que controlan la infección producen niveles más altos de α-defensinas 1-3 que en el grupo de controles no infectados.

Por tanto, los niveles de α-defensinas 1-3 se asocian a un mejor control de la infección por el VIH y a un enlentecimiento en la progresión de la enfermedad. El estudio de los controladores, especialmente los de élite, es especialmente significativo ya que estos individuos demuestran que es posible controlar de manera natural la replicación por el VIH sin terapia antiretroviral.




Papel más blanco y ecológico


Un grupo de científicos del Instituto Nacional de Investigación y Tecnología Agraria y Alimentaria (INIA) ha logrado obtener, gracias a la utilización de sustancias naturales, pasta de papel más blanca, menos contaminante y de la misma calidad que la convencional. Su investigación podrá aplicarse en la industria papelera.

El nuevo papel, desarrollado por científicos del laboratorio de Celulosa y Papel del Centro de Investigación Forestal (CIFOR) del INIA, no pierde calidad en cuanto a propiedades mecánicas y su blancura mejora hasta un quince por ciento respecto a su antecesor. El estudio, publicado en la revista Bioresource Technology, asegura que para blanquear pastas de celulosa en la fabricación de papel, los métodos químicos convencionales utilizan reactivos costosos o compuestos clorados que se caracterizan por la emisión de sustancias tóxicas y difíciles de eliminar del medio ambiente. Sin embargo, el nuevo método de blanqueo de pastas utiliza un reactivo natural no contaminante, como son las enzimas. De esta forma, es posible disminuir el uso de otros productos perjudiciales o que tienen un coste elevado para la industria como el peróxido de hidrógeno, informa SINC.

Las enzimas utilizadas, denominadas lacasas fúngicas, proceden del hongo Pycnoporus sanguineus y actúan eliminando la lignina, una sustancia que le da el color parduzco a la madera, sin alterar otros componentes beneficiosos como la celulosa, responsable de la resistencia del papel.

Sin embargo, aunque el nuevo sistema es más ecológico porque disminuye el uso de reactivos y por tanto la emisión de contaminantes, los autores señalan que las etapas químicas no se pueden sustituir totalmente. María Eugenia Eugenio Martín, coautora del estudio e investigadora del CIFOR-INIA, asegura que “las enzimas ayudan al proceso pero no tanto como para emplearlas sin esos productos. Por eso actualmente las investigaciones se centran en el uso de las enzimas como pretratamiento para conseguir blanquear la pasta del papel”.

Los científicos se muestras bastante optimistas a la hora de pronunciarse sobre la posibilidad de utilizar las lacasas en la industria papelera: “la enzima es eficaz a altas temperaturas, lo que facilitará su implantación dentro de las secuencias industriales de blanqueo. Para ello, primero habrá que evaluar si el coste añadido por la introducción de una etapa más al ciclo de blanqueo compensa al ahorro total de reactivos químicos”.




Catamarán PlanetSolar, el barco solar más grande del mundo


Con el fin de demostrar que el transporte marítimo puede reducir su dependencia del diesel, ingenieros suizos y alemanes han diseñado PlanetSolar, un catamarán propulsado con energía solar con el que pretenden dar la vuelta al mundo en 120 días en 2010. Placas solares cargarán baterías de litio que a su vez alimentarán los motores de la nave, que se espera que alcance una velocidad de 10 nudos. Desde diciembre pasado, Knierim Yachtbau está construyendo el barco en Kiel, Alemania.

Sus medidas no serán nada despreciables: 31 metros de largo por 15 de ancho, aumentándose algunos metros con las placas solares desplegadas (que medirán 470 metros cuadrados). El peso, entre 60 y 85 toneladas. Capacidad para 200 pasajeros. Cifras que justifican que sus creadores consideren a este barco como el dispositivo solar móvil más grande del mundo, que reunirá el mayor equipo de baterías de litio nunca visto.

Se ha comentado en este blog en otras ocasiones: el transporte marítimo es una asignatura pendiente en cuanto a reducción de emisiones. Escapó al Protocolo de Kyoto y sigue sin estar regulado, algo que convierte a este industria en una de las más contaminantes del planeta, siendo responsable, según un estudio de Naciones Unidas del año pasado, del 4,5% del total de emisiones de efecto invernadero de origen humano. O lo que es lo mismo, más de 1.000 millones de CO2, el doble que lo que se atribuye a la aviación.




En la cueva de los cristales gigantes


Trescientos noventa metros de profundidad, más de cincuenta grados de temperatura y un cien por cien de humedad. Parecen las coordenadas del infierno, pero no es más que la tarjeta de visita de uno de los lugares más fascinantes jamás descubiertos por el hombre, un bosque de selenita pura oculto durante millones de años en el interior de una burbuja subterránea en la que se han dado unas condiciones irrepetibles, pero necesarias, para formar los que son, hasta ahora, los cristales más grandes del mundo. La fascinante cueva, en cuyo interior un ser humano apenas si puede sobrevivir ocho minutos antes de deshidratarse, ha sido filmada y fotografiada por Javier Trueba, que acaba de terminar un impresionante documental (al que pertenece el vídeo junto a estas líneas) que muy pronto verá la luz.

«En ocho minutos no da tiempo siquiera de llegar al fondo de la cavidad y volver», explica Trueba, que ha pasado largos meses de trabajo en la Cueva de los Cristales. «Y en esas condiciones, filmar y hacer las fotografías fue un auténtico drama. Tardamos semanas enteras solo para colocar el equipo de iluminación. Llevar dentro los focos, tirar los cables... Me llevaba un día completo algo tan simple como colocar un foco. Todo, desde el suelo hasta el techo, está cubierto de cristales».

«Andar sobre ellos es, de por sí, una dificultad. Hay que hacerlo muy despacio, Si se ande que hay que caminar cargado, a cincuenta grados de temperatura y con toda esa humedad, los ocho minutos que marcan el límite de seguridad pueden convertirse en un infierno». «Una entrada apenas si era suficiente para tirar unos metros de cable, o para hacer una simple medición», recuerda Trueba. «Una experiencia muy dura, pero inolvidable».


En el corazón de Naica

Desde luego, no se trata de un lugar hecho a la medida del ser humano. En el corazón mismo de la mina de Naica, en el estado mexicano de Chihuahua, el límite de supervivencia en el interior de este mundo mágico y peligroso apenas si llega a los ocho minutos. Permanecer dentro más tiempo significaría una muerte segura por deshidratación. Los pocos que por ahora han tenido el privilegio de visitar la «Cueva de los Cristales», saben lo que significa salir de ella sediento y con la ropa empapada en sudor, tras haber perdido varios litros de agua en menos tiempo del que se tarda en fumar un simple cigarrillo.

El geólogo y cristalógrafo del CSIC Juan Manuel García Ruiz, del Instituto Andaluz de Ciencias de la Tierra, en la Universidad de Granada, ha sido uno de esos pocos, y el encargado además de desvelar el misterio de la formación de estas descomunales estructuras cristalinas, que en Naica pueden alcanzar hasta los doce metros de longitud. Los resultados de su investigación sobre el terreno han merecido la portada de revistas como «Geology». «Existen cuatro lugares en todo el mundo donde se pueden ver cristales mayores de un metro», explica a ABC Juan Manuel García Ruiz. «Segóbriga, en Cuenca , Pulpí, en Almería, la mina del Teniente, en Chile, y la de Naica en México, que es la capilla sixtina de los cristales gigantes».

La mágica cavidad mexicana es una cueva asociada a una falla por la que desde tiempos inmemoriales fluye el agua, que ha ido disolviendo la roca caliza hasta formar grandes salas. Dentro de la cueva, hasta que fue drenada por la ac- tividad minera, el agua circulaba. Un agua «muy rica en sulfatos y en calcio, que es precisamente la composición del yeso», explica García Ruiz. Todo comenzó hace 23 millones de años, cuando se embolsó en Naica una gran cantidad de magma caliente procedente de las profundidades del planeta que, en lugar de salir a la superficie, se quedó atrapado allí.


Burbujas de aire

El magma generó fluidos muy ácidos,lo que dio lugar a su vez a sulfuros de plata, de plomo y de zinc. «Al final, se formó anhidrita (sulfato de calcio), que es lo mismo que el yeso, pero sin agua. Y el agua subterránea fue lavando todo continuamente. La anhidrita se forma a 150 grados, pero con el tiempo se enfría, de forma que en la zona que está más próxima a la superficie la temperatura cayó por debajo de los 58 grados. Y ahí está el quid de la cuestión».

En ese momento, la anhidrita se volvió inestable y se disolvió, al mismo tiempo que el yeso se iba estabilizando. En otras palabras, se produjo un cambio de fase, durante el cual la anhidrita iba desapareciendo lentamente a la vez que se formaba yeso. «Para que estos cristales sean tan grandes es necesario que se forme un número muy escaso de ellos. Y para que eso suceda hace falta que haya un aporte de material muy pequeño, pero continuo».

«Sabemos que los cristales se formaron precisamente a esas temperaturas porque encontramos en el interior de algunos de ellos unas burbujas de aire, que se conocen como 'inclusiones fluidas', que quedan atrapadas en el momento en que el cristal se forma. Cuando las analizamos, encontramos en esas burbujas el agua con todos sus componentes originales. Es decir, el agua a partir de la que crecieron los cristales. Y vimos que se habían formado a 56 grados. Si la temperatura hubiera sido inferior, por ejemplo de 40 grados, se habrían formado muchos cristales pequeños, que es lo que ocurre generalmente, y no unos pocos tan grandes».

Fue una especie de milagro. Durante millones de años, se han mantenido en la Cueva de los Cristales estas precisas condiciones de temperatura y aporte de material en pequeñas dosis. No es posible saber exactamente cuánto tiempo han tardado los cristales en formarse, porque durante largos períodos el crecimiento se detuvo, al subir o bajar las temperaturas. Los cristales se han formado, pues, a lo largo de diversos episodios de crecimiento, intercalados con otros de inactividad.

«Ahora mismo, por ejemplo —comenta Juan Manuel García Ruiz— los cristales no están creciendo, porque la cueva se secó hace veinte años, cuando los mineros extrajeron el agua para explotar el siguiente nivel. La mina va ya por los 700 metros de profundidad, así que ahora está al aire todo lo que antes estaba sumergido». La gran humedad del ambiente (la misma que pone al límite la resistencia humana) mantiene los cristales. Si no fuera así, el yeso se secaría, perdiendo sus dos moléculas de agua y volviendo a convertirse en anhidrita.

Gracias al grado de humedad actual la cueva puede aguantar así, sin crecer pero sin destruirse. Si se volviera a inundar, el crecimiento de los cristales también se reanudaría. «Puede que esto suceda una vez que la mina deje de explotarse, dentro de unos veinte años, y el bombeo de agua se detenga. Todo volvería a inundarse y a quedar como al principio. O puede que se siga bombeando el agua para que la cavidad no se inunde y se convierta en un patrimonio que todo el mundo pueda visitar».

«Es como estar en el interior de una sauna —recuerda el científico— pero vestido y trabajando duro. Cada mañana, al entrar, toca revisión médica. Luego entras, estás ocho minutos, sales deshidratado y necesitas litros de agua y bebidas isotónicas. Media hora de descanso y otra vez adentro, otros ocho minutos más».








El nuevo elemento químico 112 ya tiene nombre: Copernicio


El elemento químico más pesado, reconocido con el número atómico 112, ya tiene nombre oficial, Copernicio, y un símbolo químico, Cn. Este elemento que viene a completar la tabla que estudiábamos en el colegio fue descubierto hace unos años en el GSI Helmholtzzentrum für Schwerionenforschung, Alemania.

La denominación ha sido aprobada y anunciada oficialmente por el organismo internacional de Química IUPAC, y honra al científico y astrónomo polaco Nicolás Copérnico (1473-1543), que sentó las bases de la teoría heliocéntrica, que situó al Sol, y no a la Tierra, en el centro de nuestro sistema.

IUPAC aceptó el nombre propuesto por el equipo internacional de investigadores dirigido por el profesor Sigurd Hofmann. El equipo había sugerido 'Cp' como símbolo químico para el nuevo elemento. Sin embargo, esta abreviatura tenía relación con otros significados químicos, y finalmente se llegó al acuerdo de cambiar a 'Cn'. El copernicio es 227 más pesado que el hidrógeno, lo que le convierte en el elemento más pesado reconocido oficialmente por la IUPAC. La denominación en honor a Copérnico sigue la tradición de denominar los elementos químicos con nombres de eminentes científicos.


En un acelerador

El equipo dirigido por el profesor Hofmann fue capaz de producir el copernicio por primera vez el 9 de febrero de 1996. Utilizando un acelerador de 100 metros de longitud, dispararon iones de zinc en una lámina de plomo. La fusión del núcleo atómico de los dos elementos produjo un átomo del nuevo elemento 112. Este átomo era sólo estable durante un segundo, pero los científicos fueron capaces de identificarlo midiendo las partículas alfa emitidas durante el deterioro del átomo con la ayuda de procedimientos analíticos altamente sensibles.

Experimentos independientes confirmaron el descubrimiento del elemento. El año pasado, la IUPAC reconoció oficialmente su existencia como el integrante 112 de la tabla de elementos, por lo que invitaron al GSI a proponer un nombre.





Ratones ciegos recuperan la vista con una milagrosa terapia de células madre


Ratones ciegos a causa de una retinitis pigmentosa, una enfermedad de carácter degenerativo que daña seriamente la retina, han recuperado la vista gracias a una terapia con células madre embrionarias. Investigadores del Centro Médico de la Universidad de Columbia (EE.UU.) consiguieron el milagro reemplazando las células enfermas de la retina por las nuevas de origen embrionario. Los especialistas creen que este nuevo tratamiento podría convertirse en una esperanza en la lucha contra la retinosis pigmentaria, que afecta aproximadamente a 1,5 millones de personas en todo el mundo y es la causa principal de ceguera, y contra otras patologías similares. La investigación aparece publicada en la última edición de la revista Trasplantation.

La retinitis pigmentosa afecta especialmente a las células de la periferia de la retina, provocando su muerte. El campo de visión del paciente se reduce considerablemente, como si sufriera una especie de «visión de túnel», de forma que todo lo que queda fuera de ese supuesto «túnel» aparece borroso u ondulado. Esta investigación «es prometedora, ya que las células madre se convirtieron con éxito en células de la retina, y éstas restauraron la visión en un modelo de ratón», ha explicado Stephen Tsang, profesor de oftalmología y biología celular en la Universidad de Columbia y autor principal del estudio. «Las células trasplantadas no sólo parecían células de la retina, sino que funcionaban como ellas».


Algunas complicaciones

Un cuarto de los ratones que participaron en el estudio consiguieron recuperar la visión. El resto sufrió algunas complicaciones, como tumores benignos y desprendimiento de retina, por lo que Tsang y su equipo pretenden optimizar las técnicas para disminuir la incidencia de estas complicaciones antes de comenzar una prueba con pacientes humanos. Una vez resueltos estos inconvenientes, los científicos esperan utilizar la técnica no sólo para combatir la retinitis pigmentosa, sino también la degeneración macular relacionada con la enfermedad de Stargardt y otras enfermedades similares. Esta técnica pionera puede tener una gran relevancia, ya que tan sólo en Estados Unidos 9 millones de ciudadanos sufren actualmente algún tipo de degeneracio´ macular y se estima que el 30% de la población puede padecerla cuando alcance los 75 años.





25 feb. 2010

El librero del año recibe unos quince pedidos diarios por Internet


José María Aniés (Arbaniés, Huesca, 1962), propietario de la Librería Anónima de Huesca, acaba de recibir el Premio Librero Cultural 2009. En sus anaqueles de la librería, 10.000 libros esperan. El espacio destinado a la venta no llega a los 40 metros cuadrados. En la planta superior se dedican otros tantos metros para realizar exposiciones. El premio lo ha recibido por la actividad cultural que desarrolla.

El librero apuesta por las pequeñas editoriales, por organizar exposiciones y presentaciones de libros y por Internet. "Recibimos entre 10 y 15 pedidos diarios por Internet. A veces se trata de vecinos que viven al lado de la librería y en lugar de pasar o llamar por teléfono, envían un correo".

El jurado también valoró la página de la librería. "La ha diseñado David Adiego y estamos muy satisfechos. La página evolucionará mucho, pero por ahora sólo es un proyecto". Reconoce que dedica la mayor parte de su tiempo a recibir y devolver libros. "Es una barbaridad: nos llegan 500 novedades por semana. Ése es el mayor problema que tenemos los libreros. Esta semana he recibido, por ejemplo, un informe de AENA sobre los últimos 10 años de aeropuertos. ¿Qué se hace con ese libro?".

Ante semejante avalancha de libros, la tecnología resulta muy útil. El albarán electrónico facilita la introducción de los títulos en el sistema informático de la librería. "Es un avance muy importante. En 1988 teníamos una caja registradora y tres volúmenes del ISBN, que había que cambiar cada año, para consultar títulos, editoriales y autores. Luego llegaron los CD y hasta se podían hacer consultas por fax. Ahora, disponemos de cuatro ordenadores que nos permiten acceder a cualquier información sobre libros al instante".

Aniés está convencido de que el libro electrónico se acabará imponiendo. "El que sobrevivirá será ese libro precioso, el libro objeto que es casi un lujo". Los aparatos para leer libros digitales que conocemos, en su opinión, son muy rudimentarios. "No son más que imitaciones del libro en papel que buscan al lector de antes. Los Sony Reader, Kindle, incluso el iPad, están pensados para el lector de siempre. Los que usarán el libro digital sin problemas serán los nativos digitales y ellos exigen más interactividad. El cambio empezará en la escuela cuando se sustituya el material docente que hay ahora mismo por los ordenadores".




Picotea, alternativa española al Twitter


Picotea.com, un servicio de microblogging patrio, nació como nacen muchas ideas, por casualidad. José Luis Fernández, ingeniero informático de 33 años, decidió nadar a contracorriente en el albor de la crisis y se estableció por su cuenta hace dos años para fundar ExpanSoft, una empresa de soluciones informáticas centrada en pequeños comercios. "La idea era crear una aplicación web para pequeñas empresas", comenta Fernández.

Una vez desarrollada la aplicación hacía falta venderla, y la pequeña empresa informática no podía permitirse un departamento comercial. Fernández tuvo una idea que derivaría en lo que hoy es Picotea.com. "Habíamos desarrollado un sistema de microblogging para que los comercios que usasen nuestra aplicación pudieran comunicarse entre sí sin tirar de teléfono". Fernández colocó su aplicación en Internet, para que comerciantes y empresarios la probaran. No contaba con que gente ajena al comercio adoptaría este sistema para comunicarse entre sí, creando una pequeña comunidad.

Fernández y su equipo decidieron desarrollar su microblogging, y alumbrar lo que llaman el Twitter español. Picotea.com echó a andar en septiembre. Cuenta con unos 1.000 usuarios únicos diarios, muy lejos de los millones de Twitter, pero con un incremento mensual de unos 200 picoteadores. Algunos de ellos de relumbrón: la Moncloa y Buenafuente ya han caído en su red. Tener famosos en sus filas vende, eso lo tienen claro en Picotea.com, aunque en España se resisten más que en Estados Unidos. "Allí son más exhibicionistas", opina Fernández.

En España redes como Twitter se ven más como herramienta que como divertimento. El 80% de los usuarios de nuestro país es profesional. Picotea.com, con una interfaz simpática y un procedimiento de registro que supone menos de un minuto, quiere potenciar las posibilidades de diversión. Una facilidad extrema para crear eventos y grupos donde la gente pueda hablar hasta hartarse, microentrevistas para conocer mejor a un personaje y los canales como soporte para los medios de comunicación en los que, por ejemplo, un usuario pueda ver un programa de televisión y al mismo tiempo comentar lo que sucede con otros picoteadores conforman la batería de ideas de Fernández y los suyos para que su twitter nacional sea un lugar donde pasar un buen rato.

"Cada entrada admite 160 caracteres, 20 más que ellos, como los SMS", apunta Fernández. Conscientes de la abrumadora delantera que les lleva Twitter y la otra red social de referencia, Facebook, no quieren renunciar a la audiencia latinoamericana y han establecido un sistema de sincronización por el cual una entrada en Picotea aparece al mismo tiempo en esas dos páginas.




Reconoce el rostro hasta de los perros


Sin problemas, sólo apretar el disparador y ya está. Así de fácil es todo para esta miniatura de 141 gramos y apenas 9,8 centímetros de largo, una cámara digital compacta que no molesta en el bolsillo y que puede solucionar cualquier situación fotográfica.

La Finepix Z700EXR tiene un sistema que reconoce el tipo de escena que se está fotografiando y adapta todos los parámetros, según el caso, automáticamente, garantizando un resultado más que correcto. Así no hay que preocuparse por nada. Es una solución que será muy del agrado de la mayoría de aficionados a la fotografía, pero que tampoco olvida a los más exigentes. Los que quieran hacer las cosas manualmente disponen de menús personalizables, y los hay para todos los gustos. Son tantas las opciones que puede llegar a ser un problema más que una ventaja para los que no estén familiarizados con ellos. Así que toca leerse con detenimiento el manual de instrucciones y hacer muchos disparos de prueba para conocer a fondo las opciones.

Tal es su capacidad de hacerlo todo, que detecta automáticamente los rostros de los que aparecen en la fotografía y dirige el enfoque hacia ellos, aunque se encuentren en una esquina del encuadre, incluso llega a evitar el molesto efecto de ojos rojos cuando es necesario utilizar su flash por falta de luz. Se puede evitar, si se desea, la mayoría de las veces, ya que se desenvuelve con soltura en un rango de sensibilidades que van desde los 100 ISO hasta los 3.200 ISO.

Aunque pasar de 800 ISO no es muy recomendable, salvo para casos excepcionales, la cantidad de ruido que se genera en las altas sensibilidades da un efecto de "grano" que no gustará. Pero no sólo reconoce rostros humanos; también piensa en sus mascotas. Si lo que está delante del objetivo es un gato o un perro, lo reconocerá y dirigirá el foco a ellos.

La cámara lleva un sensor Súper CCD EXR 1/2 pulgada de 12 megapíxeles y un objetivo Fujinon de cinco aumentos. Empieza en el equivalente a un gran angular de 35 milímetros y su zoom alcanza hasta los 175 milímetros, distancia focal con la que se puede trabajar cómodamente gracias a su doble sistema de estabilización de imagen.

El objetivo queda protegido con una tapa deslizante que hace también las veces de interruptor. La pantalla es táctil, con lo que evita muchos botones. Sólo hay dos, el de cámara o visor y el de disparo y zoom. La pantalla mide 3,5 pulgadas, casi 9 centímetros de diagonal, llenando toda la parte trasera de la cámara. Captura vídeo en HD (720 p) con sonido e imágenes en full HD (1920 x 1080 p).





Cartagena investigará si es posible extraer más energía solar


Siempre pensando en las energías renovables, Cartagena no quiere ser menos. Por ello, en el día de ayer, se ha inaugurado un nuevo laboratorio solar en la ciudad murciana con el objetivo de realizar un estudio que permita evaluar si existe la posibilidad de extraer mayor energía de los paneles solares. La idea ha surgido del Centro Tecnológico de la Energía y Medio Ambiente (Cetenma).

Como ya sabemos, la energía solar es muy codiciada en España y en el mundo por tratarse de una energía limpia que nos proporciona el sol con sus radiaciones. Precisamente, en Erenovable, hemos comentado que Alicante es la ciudad que mayor cantidad de energía solar produce dentro de la Comunidad Valenciana. Ahora bien, en Cartagena también desean aumentar la captación de energía solar. Con este fin, se ha inaugurado un laboratorio solar que se dedicará a investigar si es posbible extraer más energía de los módulos solares.

La puesta en marcha de este nuevo laboratorio solar y la idea de realizar esta investigación, en el sector de las renovables, ha sido del Centro Tecnológico de la Energía y del Medio Ambiente (Cetenma). El encargado de inaugurar este laboratorio ha sido Salvador Marín, Consejero de Universidades, Empresa e Investigación. Por su parte, el Centro Europeo de Empresa de Innovación (CEEIC) de Cabezo Beaza ha cooperado con 75.000 euros para que dicha inauguración sea una realidad.

A partir de ahora, los grupos de investigadores y las empresas podrán utilizar el nuevo laboratorio solar de Cetenma en Cartagena para realizar diferentes ensayos y para homologar los productos que se utilicen en la producción de la energía solar fotovoltaica o de la energía solar.

Finalmente, Ricardo Egea, el presidente del Centro, ha anunciado que -en el transcurso de este 2010- también se habilitará un nuevo laboratorio que permitirá realizar investigaciones sobre el aprovechamiento de los residuos.




Diseñar y construir robots con piezas 'LEGO' para competir por un transporte sostenible y eficiente.


Diseñar y construir robots con piezas 'lego' para competir por un transporte sostenible y eficiente. Esa era la misión de los 120 escolares que participaron en la mañana de ayer en el First Lego League, una competición organizada por el Parque Científico y Tecnológico Geolit y dirigida técnicamente por Mediabox Communication.

En esta ocasión, la primera que se ha celebrado en Andalucía, el desafío se llamaba 'smart move' (transporte sostenible) y consistía en descubrir cómo conectar personas, lugares, mercancías y servicios de la forma más segura y eficiente. Para ello debían investigar en internet, conversar con científicos, visitar bibliotecas y librerías y desarrollar una presentación de su proyecto.

Lo que quedo demostrado ayer es que gracias a este proyecto, los participantes desarrollan habilidades creativas, pensamiento analítico, comunicación y trabajo en equipo, además de adquirir conocimientos técnicos y científicos. Los escolares competían en dos categorías: competición contrarreloj de robots, y la presentación del proyecto de investigación científica.

Según explicó el director del evento, Manuel Francisco Mula, «cuando los chicos y chicas construyen y experimentan, están viviendo el proceso completo de crear ideas, resolver problemas y superar obstáculos». El programa First Lego League Internacional reúne a los escolares en su propio mundo y los ayuda a formarse una percepción positiva sobre la ciencia y la tecnología. La curiosidad y creatividad natural en los chicos son cualidades críticas para proyectar posibilidades y desarrollar oportunidades para crear soluciones innovadoras a problemas que retan a la tecnología.

De los colegios participantes ayer, dos acudirán a la final nacional, que se celebrará en Barcelona el próximo 21 de febrero: el equipo 'Alcaudetrónicos', del IES Salvador Serrano de Alcaudete, Premio al Mejor Robot, y el equipo 'Altocastillo Robokids', del Colegio Attendis Altocastillo, Premio al Mejor Proyecto Científico de Investigación. El resto de equipos premiados fueron: 'Path', del Centro Cadis (Sevilla), logró el Premio a las Jóvenes Promesas; 'Talos Mengíbar', del IES Albariza (Mengíbar), el Premio al Mejor Entrenador; 'Yedrabotics', del IES Castillo de la Yedra (Cazorla), el Premio al Mejor Diseño para Todos; 'IES Santa Catalina de Alejandría' (Jaén), el Premio al Mejor Espíritu de Equipo; 'Tecnando 3.0', del IES Fernando III (Martos), el Premio al Mejor Trabajo en Equipo; 'Legoturgi', del IES Nuestra Señora de la Cabeza (Andújar), el Premio GMV a la Mejor Innovación y Creatividad en el Diseño del Robot.

Los premiados en la Gran Final FLL España podrán escoger entre competir en el World Festival de Atlanta (15 al 17 de abril), en el Open European Championship de Istanbul (22 al 24 de abril), o hacerlo en el Open Asian Championship de Taiwan (6 al 8 de mayo), este año están inscritos más de 146.000 niños de 53 países.

La First Lego League es una competición internacional de robótica para escolares que empieza en 1988. Desde ese año se anuncia mundialmente un nuevo desafío que les 'engancha' en un proyecto de investigación, estrategia y construcción de robots. Utilizando los equipos tecnológicos de Lego y muchas piezas, los niños trabajan con su entrenador para construir y programar un robot.









Los residuos nucleares, posible combustible para centrales y plantas


Un nuevo proceso desarrollado por los ingenieros de la empresa GE Hitachi Nuclear Energy podría transformarse en una alternativa seria para la gestión de los residuos nucleares. El sistema permitiría emplear los mencionados desechos como combustible para poner en marcha centrales de este tipo de energía, algo que reduciría la cantidad de residuos generados y el tiempo en el que los mismos deben mantenerse almacenados. Por Pablo Javier Piacente.

GE Hitachi Nuclear Energy, uno de los mayores proveedores de reactores nucleares a nivel mundial, podría concretar un importante avance en el campo de la energía nuclear al poner en marcha un proceso capaz de convertir los desechos nucleares en combustible para aplicar en diferentes centrales y plantas. Esto marcaría un antes y un después en cuanto a la gestión de los residuos de este tipo y a su almacenamiento. La firma trabaja en un proceso tecnológico que podría transformarse en una interesante alternativa con relación al complejo tema de los residuos generados por la energía nuclear, quizás el punto más conflictivo desde el punto de vista ecológico en este tipo de desarrollos energéticos.

La empresa, con sede en Wilmington, Carolina del Norte (Estados Unidos), planea utilizar los residuos de tipo nuclear como combustible para centrales nucleares avanzadas, reduciendo significativamente el volumen de residuos generados y la cantidad de tiempo de almacenamiento que la mayoría de los residuos necesita. Hay que aclarar, igualmente, que una parte de los residuos siempre deberá almacenarse, ya que resulta imposible con la tecnología actual separar y reutilizar todos los desechos nucleares.

La mencionada tecnología ha sido desarrollada por distintos laboratorios nacionales en los Estados Unidos y GE Hitachi durante las últimas décadas, pero se retoma recién ahora su empleo y optimización debido a la falta de interés en la reutilización de los residuos nucleares por parte de los gobiernos norteamericanos en años anteriores, según explican desde la propia firma responsable.


Reutilización y aprovechamiento de los residuos nucleares

La investigación de GE Hitachi fue difundida mediante un artículo del portal especializado Technology Review. La tecnología consiste en la separación de los residuos nucleares en diferentes tipos de combustible utilizable en estos emprendimientos. La empresa también ha desarrollado una clase especial de reactor nuclear que reutiliza estos residuos para su funcionamiento, y que puede conocerse en detalle a través de una presentación de la US Nuclear Energy Foundation.

Algunos de estos desechos pueden emplearse para la producción de energía convencional utilizada en las centrales nucleares, mientras que otros residuos son requeridos en reactores de neutrones rápidos, que se utilizan en plantas de energía ubicadas fuera de los Estados Unidos. Mientras el gobierno de Barak Obama ha anunciado nuevas medidas para el apoyo a la energía nuclear, GE Hitachi cree que su nueva solución para los residuos nucleares puede llegar a ser considerada como un sistema viable para el reprocesamiento de los desechos nucleares en la principal economía mundial.

En la actualidad, las plantas de energía nuclear de los Estados Unidos pueden aprovechar solamente el 5 por ciento de la energía contenida en los residuos nucleares. En otros países, como por ejemplo Francia, se ha intentado extraer el combustible nuclear utilizable a partir de residuos nucleares, pero estos procesos han sido objeto de críticas por la producción de plutonio puro, un elemento que podría ser robado y utilizado para fabricar armas nucleares.


Un proceso más seguro

Sin embargo, el proceso propuesto por GE Hitachi es mucho más efectivo y también disminuye en gran medida la posibilidad de robo. Se separaran los residuos nucleares en tres grupos básicos: el primero conformado por los productos de fisión que no pueden ser utilizados como combustible en reactores nucleares.

El segundo grupo está conformado por el uranio, que contiene material fisionable para ser utilizado en reactores de uranio de agua pesada, como por ejemplo varios de los existentes en Canadá. El último grupo contiene elementos transuránicos, como neptunio y plutonio.

El plutonio puro es riesgoso, pero el sistema que GE Hitachi ha diseñado ordena los materiales para que el plutonio no se presente separado de los otros elementos transuránicos. Al combinarse con estos otros elementos, el combustible libera 1.000 veces más calor y 10.000 veces más rayos gamma, por lo que es mucho más difícil de robar, según los ingenieros de la empresa.

Por último, vale destacar que el tipo particular de reactor que GE Hitachi ha diseñado, denominado PRISM, sería compatible con la mezcla de elementos producidos por su tecnología de separación de residuos nucleares. Sin embargo, la tecnología aún no ha sido aprobada para su uso en los Estados Unidos, teniendo en cuenta las especiales precauciones de seguridad que requiere.







Unas pinzas ópticas podrían atrapar virus, proteínas y cadenas de ADN


Investigadores de la Universidad Politécnica de Valencia y la Universidad de Valencia Están cronstruyendo nanopinzas ópticas a partir de las llamadas "Lentes del Diablo". Entre otras aplicaciones, Podrían emplearse para atrapar virus, proteínas o cadenas de ADN. Los trabajos de este grupo han tenido un gran impacto internacional y se han publicado en revisats como Optics Express.

El equipo de investigación valenciano diseño ya en 2008 las Lentes del Diablo, con una estructura fractal que en matemáticas se conoce como 'Escalera del Diablo'. Comparadas con las lentes convencionales difractivas presentan ciertas ventajas, como aumentar la profundidad de campo y reducir las aberraciones cromáticas.

Para el desarrollo de las nuevas pinzas ópticas proponen la utilización de "Lentes-vórtice del Diablo", que permitirían controlar, atrapar trasladar y pequeños volúmenes de materia, una escala micrométrica (una micra es una millonésima parte de un metro).

Con estas nuevas lentes, aunque la partícula esté en movimiento, la luz genera un campo de fuerzas que permite que atraparla, de modo que se pueda analizar en sistemas de microscopía. "Además, se podrán direccionar las partículas materia manipular y que está en contínuo movimiento cuyo y un control de esa escala resulta muy complicado", explica Juan Antonio Monsoriu, investigador del Centro de Tecnologías Físicas de la UPV.

Las "lentes-difractivas vórtice" existentes hasta la fecha combinaban una lente difractiva convencional con una máscara especial de forma Helicoide. Estas máscaras son a su vez un tipo de lentes cuya geometría recuerda la de una rampa en espiral. Estos sistemas focalizan la luz en un vórtice óptico intensidad que en es algo parecido a un "donuts" de luz que permiten atrapar a la materia en su interior.

El trabajo de los investigadores valencianos fue publicado en noviembre de 2009 por Optics Express, una de las mejores revistas científicas en este campo. Además, en ese mismo mes fue uno de los artículos más descargados desde la página web de la Sociedad Americana de Óptica y una de las figuras del artículo fue seleccionada como "Imagen de la semana":

Tal ha sido la novedad del artículo, ahora que la revista Nature Photonics publica en su número de febrero una reseña del trabajo. "De momento es sólo una propuesta teórica pero con grandes posibilidades experimentales", concluye Juan Antonio Monsoriu.


Adiós a la lente difractiva convencional

La propuesta de los investigadores valencianos, las "lentes-vórtice del diablo", ha consistido en sustituir la lente difractiva convencional por las "Lentes del Diablo", lo que permitira generar, en vez de un vórtice aislado, una cadena de vórtices, es decir, un conjunto de donuts de luz alineados en un mismo eje. "De esta manera es posible generar un confinamiento (trampa óptica) volumétrico y múltiple, en el que el diámetro de los donuts puede ajustarse según el diseño de la lente.

Una de las características de los vórtices ópticos es que, además de atrapar a las partículas, la luz es capaz de imprimirles un movimiento de Rotación. Esta peculiar geometría permitira también trasladar las partículas con la cadena de vórtices generada con este elemento óptico", explica Monsoriu.

Ello supone disponer de una nueva herrmienta en micro y nanotecnología muy versátil y por lo tanto con múltiples campos de aplicación en biología y física. Por ejemplo, en este último campo podrán utilizarse en tareas de clasificación celular.





El extraño y gélido mundo de una luna de Saturno


La sonda Cassini, una misión conjunta de la NASA y de la Agencia Espacial Europea (ESA), ha transmitido nuevas imágenes de la luna 'Encélado' de Saturno, que muestran un gélido y extraño mundo.

Según indicó el Laboratorio de Propulsión a Chorro (JPL) de la NASA, se trata de "un bosque" de chorros de partículas de hielo, vapor de agua y compuestos orgánicos que surgen de fracturas en las inmediaciones del polo sur de esa luna.

Las imágenes revelan también regiones no mostradas antes por Cassini, incluyendo una zona meridional con placas tectónicas circulares.

Las fotografías de la zona polar fueron tomadas por las cámaras de luz visible de Cassini el pasado 21 de noviembre antes de que esa región quede inmersa a un período de oscuridad que dura 15 años, según indicó JPL en un comunicado.


'Encélado nos sigue asombrando'

"'Encélado' nos sigue asombrando", manifestó Bob Pappalardo, científico de Cassini en JPL. "Con cada aproximación de Cassini (a 'Encélado') aprendemos más acerca de su extraña actividad", añadió.

Las imágenes muestran más de 30 chorros, incluyendo 20 que no habían sido detectados en aproximaciones anteriores de Cassini a Enceladus.

"Esta última aproximación confirma lo que ya sospechábamos. La fuerza de los chorros varía y mucho, tanto los grandes como los pequeños surgen de hondonadas" en las placas fracturadas de Enceladus, indicó Carolyn Porco, directora del equipo de imágenes de Cassini en el Instituto de Ciencias del Espacio de Boulder (Colorado).

Las temperaturas más altas en una de esas hondonadas podrían ser superiores a los 73 grados bajo cero. Estas "tibias" temperaturas podrían ser resultado del vapor de agua que impulsa los chorros de partículas de hielo captados por las cámaras de Cassini, señaló JPL.

"En la Tierra estas hondonadas serían gélidas, pero son un agradable paraíso si se las compara con el ambiente de menos 370 grados centígrados a su alrededor", dijo John Spencer, miembro del equipo que maneja el espectrómetro infrarrojo de Cassini en el Instituto Southwest de Investigaciones en Boulder.

La aproximación del 21 de noviembre fue el octavo encuentro de Cassini con Enceladus, dijo JPL.




El cierre de Google sería un duro revés para los científicos chinos


Los ataques de piratas informáticos y un sofisticado sistema de censura mantienen al Gobierno chino y al servidor Google en un estado permanente de guerra fría, a pesar de que el popular motor de búsqueda es una herramienta indispensable para la comunidad científica del gigante asiático.

Así lo demuestra un informe divulgado por la revista 'Nature', en el que evalúa el grado de utilidad de Google para los científicos chinos y las consecuencias que tendría la imposibilidad de acceder "al servidor y a sus otros productos".

Según el informe, más de un 75% de los encuestados dijeron que Google es su primera opción para buscar información relacionada con su objeto de investigación, mientras que un 80% lo utiliza para encontrar "estudios académicos".

Casi el 60%, añade el texto, recurre al buscador para encontrar información sobre nuevos descubrimientos y sobre trabajos de otros científicos, al tiempo que más de la mitad es usuario habitual de Google Académico.

Y hasta el 84% de los encuestados confirma que la pérdida de Google podría perjudicar "de alguna manera o significativamente" su propio trabajo de investigación.


Cambio de hábitos

"Las conclusiones son bastante similares a las halladas en la mayoría de los países del mundo", explica David Bousfield, vicepresidente de Outsell, una empresa de Londres especializada en temas relacionados con las tecnologías de la información. "Google y Google Académico se han convertido en una herramienta indispensable para los científicos", recalcó Bousfield.

En opinión de David Nicholas, experto en Internet, la actividad científica en China no se detendrá en seco sin Google, pero el servidor "sí ha transformado los hábitos de la comunidad académica en la búsqueda de información, su pérdida pondría en riesgo la eficiencia de sus científicos".

El estudio cita a un científico chino que compara la actividad investigadora sin Google con la "vida sin electricidad".






Un nuevo avión intentará alcanzar seis veces la velocidad del sonido


DARPA, la agencia encargada de los proyectos más locos del Pentágono, está a punto de someter a las primeras pruebas un prototipo del llamado Hypersonic Technology Vehicle-2 (HTV-2). Se trata de un avión hipersónico que -al menos en teoría- podría cruzar el Océano Pacífico en menos de dos horas. Básicamente, es un vehículo que puede despegar y aterrizar como un avión, y volar a seis veces la velocidad del sonido.

La agencia acaba de realizar una convocatoria destinada a conseguir un buque de bandera de Estados Unidos que recoja datos de telemetría del ensayo de su nuevo vehículo Hypersonic Technology Vehicle-2 (HTV-2). Según puede leerse en la solicitud emitida, DARPA -la agencia que muchos consideran una especie de «genio loco con presupuesto oficial»-, lanzará un HTV-2 sin motor desde un cohete. El lanzamiento tendrá lugar en la Base Aérea Vandenberg en California y -si todo sale bien- el cacharro volará hasta algún lugar cercano a las Islas Marshall. El experimento tendrá lugar en algún momento entre el 20 de abril y 27 de abril, aunque los planes originales de DARPA habían previsto el vuelo para el año pasado.

La prueba de vuelo es parte del Programa Falcon, un proyecto conjunto entre DARPA y la Fuerza Aérea de Estados Unidos, que tiene como objetivo desarrollar la tecnología necesaria para construir un vehículo hipersónico reutilizable capaz de despegar y aterrizar como un avión. El HTV-2 podrá, cuando esté listo, transportar unos 6.000 kilogramos de carga útil y recorrer más de 9.000 millas náuticas en menos de dos horas. Este programa también está íntimamente relacionado con el Proyecto Blackswift, que supuestamente iba a proveer a los EE.UU. de un avión capaz de despegar desde una pista de aterrizaje convencional, alcanzar una velocidad de crucero de Mach 6 y volver a tierra de nuevo en una pista de aterrizaje normal. El vídeo que acompaña estas líneas corresponde a una versión animada de este vehículo, al que a veces se lo denomina Falcon Lockheed Martin Skunk Works HTV-3X. Sin embargo, el Congreso retiró una gran parte de los fondos disponibles para DARPA durante el año fiscal 2009, y la agencia decidió cancelar los planes que involucraban al avión espacial reutilizable.

La prueba de abril busca obtener datos reales sobre el comportamiento de la protección térmica y el control aerodinámico del HTV-2. Si todo va según los planes de la agencia, el HTV-2 será lanzado a bordo de un cohete Minotaur IV Lite desde Vandenberg. Luego de alcanzar la altura deseada, se separará del vehículo de lanzamiento y seguirá una trayectoria de planeo hipersónico hasta el área de impacto en el océano, un sitio cercano al Reagan Test Site, en el atolón de Kwajalein, donde la Fuerza Aérea también realiza frecuentes pruebas de reentrada del los ICBM (Inter-Continental Ballistic Missile, o misil balístico intercontinental). El buque que está buscando DARPA deberá ser capaz de transportar, desplegar y recuperar un conjunto de nueve balsas dotadas de la electrónica necesaria para hacer el seguimiento del vuelo del HTV-2.







FUENTE:
http://www.abc.es/20100224/ciencia-tecnologia-tecnologia/nuevo-avion-intentara-alcanzar-201002241240.html


24 feb. 2010

La mortalidad de la posidonia oceánica aumenta un 3% por cada grado que sube la temperatura máxima del Mediterráneo


El calentamiento del mar Mediterráneo acelera el declive de las praderas submarinas de Posidonia oceanica: por cada grado centígrado de incremento en la temperatura máxima anual del mar, su mortalidad aumenta un 3% cada año. Un equipo del Consejo Superior de Investigaciones Científicas (CSIC) acaba de publicar este hallazgo tras haber realizado un estudio, entre los años 2002 y 2007, en el Parque Nacional del Archipiélago de Cabrera (Islas Baleares), una zona relativamente prístina, libre de impactos derivados de actividades humanas.

Una de las autoras del trabajo que acaba de ser publicado en Global Change Biology, la investigadora del CSIC Núria Marbà, explica: "El calentamiento del mar Mediterráneo no provoca cambios apreciables en la aparición de nuevas plantas, pero sí una pérdida neta de plantas y la regresión de la pradera. La mortalidad aumenta tanto al superarse el umbral de temperatura de 28 ºC, por encima del cual se dispara la mortalidad de las praderas de posidonia, como al aumentar la duración de los periodos de temperaturas anómalamente cálidas".

Los investigadores midieron durante cinco años de forma continua la temperatura del agua de mar a 17 metros de profundidad (fondo promedio al que se encontraban las praderas estudiadas). Cada año se registraron tanto la tasa de mortalidad como los nacimientos de la planta.

El trabajo, realizado en el Instituto Mediterráneo de Estudios Avanzados (centro mixto del CSIC y la Universidad de Islas Baleares), está basado en resultados de proyectos de investigación financiados por el Ministerio de Medio Ambiente, la Fundación BBVA y la Comisión Europea.

Durante el periodo de estudio, la temperatura máxima anual del agua fue, en promedio, 1 ºC superior a la que se había registrado durante la década de los años 90 en la zona costera estudiada. Entre los años 2002 y 2007 se registraron dos olas de calor, una en el verano del año 2003 y otra, de menor intensidad, en el verano de 2006, en los que la temperatura del agua marina superó los 28,5 ºC, dos grados por encima de la máxima característica de los años 90. Las praderas más afectadas fueron las más profundas, que continuaron experimentando pérdidas en los años siguientes a los de las olas de calor.

Los modelos climáticos existentes, según los escenarios de emisiones proyectados por el Panel Intergubernamental de Cambio Climático de la ONU (IPCC, por sus siglas en inglés), predicen para finales del siglo XXI un aumento de la temperatura del mar Mediterráneo de 4º C. Según el coautor del estudio y también investigador del CSIC Carlos Duarte, "los resultados de este estudio sugieren que, si el mar Mediterráneo aumenta según lo pronosticado por el IPCC, la tasa de pérdida de praderas de posidonia oceánica a finales de este siglo podría triplicar la tasa actual. El impacto podría ser aún mayor si aumentasen la frecuencia y magnitud de las olas de calor durante el siglo XXI".


CRECIMIENTO MILENARIO

Debido a su lento crecimiento y reproducción, la Posidonia oceanica necesita siglos o milenios para desarrollar las praderas y recolonizar áreas que han perdido la vegetación. Una gran parte de las praderas de posidonia del Mediterráneo se encuentra afectada por impactos locales (vertidos de materia orgánica con nitrógeno y fósforo, alteraciones de la línea de costa, anclas de embarcaciones e invasiones biológicas). Para la investigadora del CSIC, "el calentamiento global supone una nueva amenaza para estas praderas, que se debe combatir reduciendo los estreses locales y mitigando el cambio climático, lo que requiere de acciones globales".

La Posidonia oceanica es una planta marina endémica del Mediterráneo, que forma extensas praderas milenarias, entre los cero y los 40 metros de profundidad. Estos hábitats protegidos constituyen sumideros de CO2 fundamentales, protegen la línea costera de la erosión y son un importante reservorio de biodiversidad.

N. Marbà y C.M. Duarte (2010) Mediterranean Warming Triggers Seagrass (‘Posidonia oceanica’) Shoot Mortality. Global Change Biology. doi: 10.1111/j.1365-2486.2009.02130.x (early view)




Dos átomos para Einstein


Tres físicos han medido recientemente con una precisión 10.000 veces mayor que la medida precedente un pequeño efecto sobre la longitud de onda de la luz predicho por Einstein. El primer firmante del artículo es Holger Müller, un joven físico de la Universidad de Berkeley; el segundo firmante es Achim Peters, que trabaja en la Universidad Humboldt de Berlín, y el tercero es nada menos que Steven Chu, también de Berkeley, pero que ahora es ministro de Energía del Gobierno de Obama en Estados Unidos. Chu, que compartió el Premio Nobel de Física de 1997 con Cohen-Tannoudji y Phillips por "desarrollar métodos para enfriar y atrapar átomos usando láser" es el líder del grupo en el que se formaron los dos primeros autores de este trabajo.

Dos años después del descubrimiento de la relatividad especial, Einstein tuvo lo que él mismo consideraba "la idea más feliz de su vida", el llamado principio de equivalencia. Este principio postula que todas las leyes de la física son exactamente las mismas localmente en un sistema en caída libre en un campo gravitatorio, como el constituido por la estación espacial internacional, que en un sistema sobre el que no actuase gravitación alguna.

Con esta idea, Einstein iniciaba el camino que le llevó, en 1915, a formular las ecuaciones de la teoría relativista de la gravitación, la relatividad general. Estos ocho años constituyen una de las aventuras intelectuales más fascinantes de la historia del pensamiento humano.

La teoría de la gravitación entonces aceptada era la ley de la gravitación universal descubierta por Isaac Newton en otro de los saltos conceptuales más importantes de la ciencia, al darse cuenta de que la misma fuerza que hacía que se cayesen las manzanas de los árboles es la que era responsable de las órbitas de los planetas alrededor del Sol. En la teoría de Newton la fuente de la gravitación es la masa.

Pero la teoría de Newton es una teoría de acción a distancia; cualquier cambio en la posición de la fuente produce efectos en el mismo instante de tiempo absoluto en todos los puntos del universo. Esto es incompatible con el postulado básico de la relatividad especial de que la velocidad de la luz es la velocidad máxima de propagación de las interacciones y, además, esa velocidad no depende del sistema de referencia que se considere, siempre que no haya aceleraciones involucradas. Por ello, Einstein se puso a la tarea de construir una teoría relativista de la gravitación. Ya en 1907, es decir, desde que concibió el principio de equivalencia, Einstein se dio cuenta de que su idea implicaba que los campos gravitatorios también deberían afectar a la luz. Después de todo, el propio Einstein fue la primera persona que entendió que la luz está compuesta de unos cuantos de energía, los fotones, y que la energía de cada cuanto es inversamente proporcional a la longitud de onda de la luz correspondiente. Cuanto más pequeña es la longitud de onda, más grande es la energía de los fotones asociados.

Ahora bien, dada la equivalencia de masa y energía, Einstein sabía que la fuente de la gravitación no podía ser sólo la masa, sino que tenía que ser la energía, toda forma de energía. Es sabido que un cohete necesita energía para salir de un campo gravitatorio. En el caso del cohete, esa energía está proporcionada por los motores. Pues bien, lo mismo es cierto para los fotones. También los fotones pierden energía cuando salen de un campo gravitatorio; su energía al salir es más pequeña de la que tenían previamente, y dada la proporcionalidad inversa con la longitud de onda de la que hablábamos hace un momento, esto quiere decir que la longitud de onda ha aumentado, o sea, que la luz se ha corrido hacia el rojo (en el espectro del arco iris, el rojo tiene la longitud de onda más grande, y el azul violeta la más pequeña).

Los tres físicos de los que hablábamos al principio han sido capaces de detectar la diferencia de longitud de onda debido a una separación en altura de dos átomos de una décima de milímetro, lo que origina una pequeñísima diferencia de atracción gravitatoria. Müller ha dicho que si fueran capaces de separar los dos átomos un metro, serían capaces de detectar ondas gravitatorias (que es una de las más importantes predicciones de la relatividad general todavía sin verificar).

Una vez más, la precisión alcanzada en el experimento es asombrosa: cualquier hipotética desviación de la teoría de Einstein en este aspecto ha de ser más pequeña que una parte en cien millones. El avance en los experimentos de precisión es sumamente importante para tener una idea de qué sorpresas puede depararnos la gravitación en un futuro más o menos próximo.




Hemeroteca

Etiquetas