Páginas

2 oct 2009

Sony desarrolla baterías de ion de litio cuatro veces más capaces


En su andadura por el camino de la investigación, la japonesa Sony nos ha presentado novedades reveladoras. En esta ocasión, la firma ha desarrollado unas baterías de ion de litio mucho más eficientes que las que manejamos actualmente. Según han especificado los responsables de Sony, las nuevas baterías podrán recargarse hasta cuatro veces más rápido que cualquiera de las que podemos encontrar hoy en el mercado.

El primer detalle sorprendente de las nuevas baterías es su formato. Y es que son exactamente idénticas a las típicas pilas AA que hacen funcionar la radio del abuelo. A pesar de su aspecto pues, tienen la capacidad de recargar un 99% de su capacidad en un tiempo máximo de 30 minutos. Después de haber pasado por 2.000 ciclos de carga, también son capaces de ofrecer un 80% de su capacidad, lo que las convierte en baterías todoterreno.

De momento, y como viene siendo habitual en las investigaciones y los prototipos, Sony todavía no ha avanzado qué aplicaciones tendrá la nueva batería y en qué tipo de aparatos podrá emplearse. Mientras tanto nos queda seguir con las clásicas pilas o probar suerte con el Alpha BC-900, un cargador de pilas que resucita las viejas baterías.



Un planeta en el que llueven piedras


Los terrícolas sabemos de lluvias de ranas y peces, de granizos del tamaño de puños y de otros fenómenos meteorológicos extraños, pero el clima en un planeta extrasolar puede ser bastante más duro. En Corot-7b, el mundo «gemelo» de la Tierra dado a conocer por los astronómos en Barcelona hace tan solo unos días, llueven piedras.

Corot-7b, llamado así por el telescopio espacial con el que se descubrió, se encuentra a unos 400 años luz y es, según los científicos, «el primer planeta del tamaño de la Tierra que podemos decir que se parece al nuestro». Aun así, hay diferencias considerables que le impiden albergar buenas concidiones para la vida, ya que se encuentra a muy poca distancia de su estrella y, por eso mismo, soporta temperaturas que, según los cálculos, rondan los mil grados centígrados.


Frentes de guijarros y lluvias de piedras.
El infierno es aún mayor en la cara del planeta que siempre mira su estrella (de la misma forma que la Luna, atrapada por el campo de gravedad de la Tierra, nos da siempre la misma cara). Allí, se superan los 2.300 grados, una temperatura que, aunque parezca increíble, ¡vaporiza las rocas!

A diferencia de la Tierra, mucho más fresquita, Corot-7b no tiene gases volátiles (dióxido de carbono, vapor de agua o nitrógeno) en su atmósfera. «El ambiente se ha producido a partir de vapor de derivados de silicatos caliente fundidos en un mar de lava», explica Bruce Fegley Jr, de la Universidad de Washington en Saint Louis. Para averiguar el pronóstico del tiempo en el exoplaneta, Fegley y sus colegas realizaron un modelo experimental (El estudio se ha publicado en la revista The Astrophysical Journal).

De esta forma, comprobaron cómo «un frente de guijarros» se condensa en el aire. «El sodio, el potasio, el monóxido de silicio y el oxígeno constituyen la mayor parte de la atmósfera» de Corot, pero también hay elementos encontrados en las rocas como «magnesio, aluminio, calcio o hierro». El resultado es que se forman «nubes de rocas» y «llueven piedritas».



La sonda Messenger envía las imágenes de su último vuelo sobre Mercurio


La sonda Messenger ha realizado con éxito su tercera y última visita a Mercurio, un vuelo que le ha permitido transmitir nueva información y fotografías del planeta.

La sonda Mercury Surface, Space Environmente, Geochemistry and Ranging pasó el martes a las 21.55 GMT (dos horas más en la península) a 228 kilómetros de la superficie de Mercurio, según ha explicado la NASA.

Las señales radiofónicas comenzaron a recibirse después de que la sonda apareciera detrás del rocoso planeta y sus instrumentos «están recogiendo imágenes y haciendo mediciones a medida de que se aleja», señalaba el


En órbita, en 2011
«Recibiremos imágenes a color y en alta resolución de objetivos científicos interesantes que identificamos en el segundo vuelo de aproximación», ha dicho Ralph McNutt, científico del Laboratorio de Física Aplicada de la Universidad Johns Hopkins.

Según los planes de los científicos de la NASA, Messenger deberá ingresar en una órbita permanente en torno a Mercurio en 2011 tras haber visitado Venus y haber realizado 15 órbitas en torno al Sol después de su lanzamiento en agosto de 2004.

Aunque la sonda ya cuenta con imágenes de más del 90 por ciento de la superficie, el principal objetivo de la misión fue ahora determinar la composición geológica de Mercurio. Esta visita es «nuestra última oportunidad de echar una mirada de cerca a sus regiones ecuatoriales», ha indicado Sean Solomon, principal científico de Messenger en el Instituto Carnegie, en Washington.

Pero éste es solo el comienzo «porque el principal objetivo es observar a Mercurio desde una órbita durante todo un año», ha añadido. Antes de entrar en la órbita de Mercurio, Messenger habrá completado un viaje de 7.040 millones de kilómetros desde su lanzamiento.



Emilio Méndez: "La ciencia nos mejora, hay que mimarla y desarrollarla"


La nanotecnología ayudará a salir de la crisis energética. Ayudará a resolver problemas de las energías renovables gracias a nuevos materiales y dispositivos más eficientes. De ello habló Emilio Méndez (Lérida, 1949), director del Centro de Nanomateriales del Laboratorio Nacional de Brookhaven (Estados Unidos), en el congreso Atom by Atom, que ayer se clausuró en Donostia.


- Hablamos de ahorro energético en una sala del Kursaal en la que apenas hay luz natural.
- Al menos se usan luces fluorescentes, que son cinco veces más eficientes que las bombillas. Con el tiempo los arquitectos usarán diodos emisores de luz blanca, un aporte de la nanotecnología.


- La luz natural no nos basta.
- Dependemos de la luz artificial. Lo que hay que conseguir es que el consumo sea el menor posible. Por cada semáforo de diodos emisores de luz, Nueva York ahorra al año más de 1.500 dólares.


- ¿La nanotecnología nos sacará de la crisis energética?
- Será uno de los componentes de una solución que incluye políticas económicas, de estímulo y de conservación de energía con incentivos y penalizaciones. También se necesita una concienciación general de lo importante que es disminuir el consumo y hacer un gasto más eficiente.


- ¿Cómo será la nueva energía?
- La nanotecnología ayudará con dispositivos, líneas de transmisión de potencia y catalizadores de reacciones químicas más eficientes. Las energías renovables representan una mínima parte de la producción. El 85% de la energía producida en Estados Unidos proviene de fuentes fósiles, el 8% es nuclear y el 7%, renovable.


- Las renovables tienen un gran camino por delante, dicen.
- Dentro de este grupo, más del 60% es energía hidroeléctrica. La energía solar en Estados Unidos representa menos del 0,1%.


- La solar, ¿energía del futuro?
- No es la única. Con la energía que el sol derrama sobre la Tierra en una hora, se podría abastecer un año a toda la humanidad. Pero requiere almacenaje, lo que hoy es un serio problema. Y es cara.


- Recibió el Príncipe de Asturias por sus aportaciones en electrónica. ¿Cómo llega el descubrimiento científico?
- El científico busca algo, tiene una meta. Pero la mayoría de nuestras intuiciones no funcionan. El experimento que uno diseña parece tener vida propia y va en su propia dirección. Terminas encontrando algo que no esperabas. Y muchas veces no tienes idea de las implicaciones que tendrá.


- Recibió el premio junto a Pedro Miguel Etxenike, impulsor del congreso. ¿Reencuentro en Donostia?
- Nos conocíamos desde hacía tiempo. Visitó IBM donde yo trabajaba y entablamos una estrecha amistad. Él es un científico teórico y yo experimental. Yo le digo que estoy más próximo a la realidad que él aunque él responda que no. No hemos trabajado en ningún proyecto conjunto, pero compartimos la filosofía de la ciencia, motor del desarrollo de la sociedad.


- Resuma su filosofía.
- La ciencia tiene un valor intrínseco. Nos hace más humanos. Y por tanto debe estimarse, mimarse y desarrollarse. Pero tiene un coste y el científico tiene la responsabilidad de contribuir a ese esfuerzo social.



Selección de embriones para evitar el rechazo inmunológico de la madre


La selección genética de embriones es una solución válida para prevenir el rechazo inmunológico de la madre a su propio hijo por factores Rh sanguíneos incompatibles. El Instituto Europeo de Fertilidad (IEF) y Sistemas Genómicos (SG) han presentado en el Parque Tecnológico de Paterna (Valencia) el primer caso hecho público en España -y tercero con referencias en prensa especializada del mundo- en el que se ha conseguido mediante esta técnica que una mujer que había generado anticuerpos en un embarazo previo se haya quedado embarazada de un feto compatible que, en la semana 14 de gestación, se desarrolla con normalidad en el vientre de su madre.

El caso de esta pareja no es nada frecuente. El hombre debe ser Rh positivo y la mujer Rh negativo. Debe existir un embarazo previo en el que el hijo fuera también positivo. En el parto, la sangre del hijo entra en contacto con la de la madre y ésta genera anticuerpos contra el factor Rh positivo. Los problemas se dan en los hijos sucesivos, siempre que tengan el factor sanguíneo positivo, ya que la madre los reconoce como extraños y agrede a los glóbulos rojos fetales. Pero, sobre todo, es extraño porque lo normal es que las madres Rh negativo reciban una medicación hacia las 28 semanas de gestación que impide que reaccionen contra su pequeño huésped si éste tuviera un factor sanguíneo positivo.

En este caso, se cumplieron todas estas condiciones salvo la medicación. No sólo eso, sino que, tras una primera gestación, se produjo un segundo embarazo en el que el rechazo de la madre fue especialmente agresivo. Tanto que se llegó a practicar una transfusión intraútero al feto para combatir la grave anemia que había desarrollado debido al ataque sufrido por el sistema inmune materno. El tratamiento no fue suficiente y la anemia acabó en aborto.

Ante la intensa activación de los anticuerpos de la madre y el deseo de la pareja de tener otro hijo, los especialistas les recomendaron recurrir a la selección genética de embriones. El objetivo era concebir varios embriones in vitro y, de ellos, elegir los que hubieran heredado el factor Rh negativo de la madre y, por tanto, la compatibilidad. Del proceso de selección y de desarrollo de los análisis para localizar el factor Rh en las muestras de los embriones se encargó Sistemas Genómicos. De la técnica de reprodición asistida el IEF. Finalmente, se consiguieron tres embriones, de los que sólo uno tenía el factor negativo.

Fue suficiente. El embrión seleccionado arraigó en el útero de la madre y se espera que nazca a finales de invierno.


Una aplicación poco común

Las aplicaciones más comunes de la selección genética de embriones se suelen dar en casos en los que los progenitores padecen una grave enfermedad genética incurable. Esta técnica se usa entonces para elegir entre los óvulos fecundados por un procedimiento in vitro a aquellos que no hayan heredado la enfermedad, implantarlos en la madre y cortar de esta forma con la transmisión de la enfermedad que se ha arrastrado en la familia generación tras generación. Esta circunstancia está regulada por la Ley de Reproducción Humana Asistida de 2006.

La norma contempla otras posibilidades de aplicación de la técnica. También se puede usar la selección de embriones para elegir, no sólo aquellos que hayan esquivado la enfermedad de sus progenitores, sino los que, además, presenten unos factores de histocompatibilidad (HLA) tales que la sangre de cordón obtenida de los futuros bebés pueda curar a los hermanos de la grave patología de la que ellos -los nacidos del proceso de selección- se han librado.

E incluso, en una vuelta de tuerca más, se permite la selección genética, no sólo cuando se nazca con la enfermedad o exista la certidumbre de que se desarrollará, sino cuando exista una elevada posibilidad de padecerla, como es el caso de determinados tumores hereditarios.

La ley contempla también la posibilidad de intervenir si se detectan "alteraciones que puedan comprometer la viabilidad del embrión". En este apartado es donde encaja la incompatibilidad de factores Rh.




Sniff, un perro-guía de peluche con nariz RFID para ayudar a niños con problemas de visión


Este simpático perro de peluche se llama Sniff y es el proyecto de Sara Johansson, Timo Arnall y Einar Sneve Martinussen, tres estudiantes de la Escuela de Arquitectura y Diseño de Oslo. Aparte de salao, Sniff está lleno de tecnología, En su nariz se esconde un sensor de etiquetas RFID unido a un pequeño ordenador de a bordo.

El can de trapo está programado para reaccionar ladrando y vibrando de distinta manera cuando se le acerca su nariz a distintas etiquetas de radiofrecuencia. Originariamente, Sniff ha sido diseñado como un juguete que podría ayudar a niños con problemas de visión a encontrar lugares y objetos dentro de la casa. En realidad, el uso de etiquetas RFID aún no se ha generalizado pero, de conseguirlo, los usos de Sniff podrían multiplicarse hasta el punto de convertirse en un auténtico perro-guía para muchos niños.

Evidentemente, Sniff es un prototipo y no está disponible a la venta. Si hay alguien interesado en el proyecto puede hacerse con un libro en el que sus creadores explican los pormenores técnicos de este lazarillo de peluche.



Astrónomos españoles descubren un cometa, el primero desde 1932


El Observatorio Astronómico de Mallorca (OAM) ha descubierto desde su estación de La Sagra (Sierra de Granada) un nuevo cometa de órbita periódica, el primero de origen español de la astronomía moderna en los últimos 77 años.

El OAM ha informado de que es la primera vez en la que un observatorio español descubre un nuevo cometa desde el año 1932, cuando se visionó por vez primera el cometa C/1932H1 desde el Observatorio Astronómico Nacional, en Madrid.

Anteriormente, se descubrieron los cometas C/1925F1 y 32P/1926, detectados desde el Observatorio Fabra de Barcelona, mientras que desde Calar Alto, en Almería, se halló el 1985T1.

La Unión Astronómica Internacional (IAU), que ha denominado al nuevo cometa español 2009QG31La Sagra, ha comunicado de forma oficial que los observatorios de Hawai, Australia y Europa confirmaron la naturaleza del nuevo cuerpo celeste. El reciente hallazgo se produjo desde la estación robótica de telescopios que el OAM mantiene en La Sagra, dedicada al rastreo de cuerpos menores del Sistema Solar, principalmente de asteroides que se aproximan a la Tierra (NEOs), aunque también se visionan asteroides lejanos y cometa.

El 2009QG31La Sagra fue detectado a 170 millones de kilómetros en la constelación de Acuario debido a que cada 6,77 años se acerca al Sol y desarrolla una nube de polvo y gases de casi el tamaño de la Tierra, unos 12.000 kilómetros de diámetro, que lo distingue de los demás asteroides. El observatorio mallorquín ha logrado que la estación de La Sagra se erija, en su primer año, como el primer centro europeo en el rastreo de cuerpos menores, tras haber realizado más de 500.000 mediciones de posición de objetos conocidos y 3.300 nuevos descubrimientos en el último año, únicamente superado por los tres grandes programas de búsqueda estadounidenses financiados por la NASA y la Fuerza Aérea de EE UU.




1 oct 2009

Ingeniería para cambiar el planeta


Geoingeniería es el término acuñado para denominar a la técnica que trata de contrarrestar los efectos del cambio climático mediante la manipulación del medio ambiente. Es un hecho probado que la Tierra padece un progresivo calentamiento global debido a los gases de efecto invernadero y la geoingeniería llegó para solucionar este problema, pero muchas de sus técnicas parecen demasiado descabelladas, a juicio de algunos expertos.

Es el caso de algunos de los métodos propuestos para la gestión de la radiación solar, con proyectos como un espejo gigante en la Luna, un parasol espacial hecho de una malla ultrafina de aluminio, o un enjambre de 1.000 billones de pequeños espejos lanzados al espacio en cantidades de un millón cada minuto en los próximos 30 años.

Alguno de ellos ya se ha puesto en práctica, como sucedió en los pasados Juegos Olímpicos de Pekín, cuando el Gobierno chino optó por inyectar las nubes con yoduro de plata para acelerar las lluvias, con los posibles efectos negativos sobre los campos, pues el agua resultante contiene más sales de lo normal.

En este contexto, un estudio de la Real Sociedad británica arroja esperanza sobre muchos de los métodos de geoingeniería para combatir el cambio climático, calificándolos de técnicamente posibles, y desterrando algunos mitos. Capturar el dióxido de carbono de la atmósfera, mitigar los efectos de la erosión u optimizar el uso de la tierra junto a la reforestación se presentan como algunas de las opciones más viables, tanto desde el punto de vista técnico y logístico, como de costes y tiempo de implantación y eficacia. El organismo británico no ha sido el único en analizar recientemente estos métodos; la Academia Nacional de Ciencias de EEUU también lo hacía meses atrás, emitiendo una declaración política en la que hacía un llamamiento hacia la precaución, solicitando más investigación en esta materia.

La captura de CO2 y la gestión de la radiación solar son los métodos más eficaces, pero para que fueran relativamente rentables, los cálculos realizados revelan que el coste de los métodos de gestión de la radiación solar debería ser de un billón de dólares al año, mientras que los de captura de CO2 rondan los 100 dólares por cada tonelada de carbono.

Aún existen demasiadas incertidumbres en cuanto a costes, efectividad e impacto en el medio ambiente de muchos de estos métodos de geoingeniería. Un buen ejemplo de ello es la reducción de la radiación solar, que podría provocar un descenso demasiado drástico de la temperatura; o la fertilización del océano con limaduras de hierro para favorecer el crecimiento de algas, lo que podría tener impactos muy negativos en el resto del ecosistema marino. Otro riesgo asociado es el crecimiento de unas plantas en detrimento de otras, lo que desequilibraría el ecosistema incrementando otros gases de efecto invernadero, como el metano o el óxido nítrico; o, incluso, la transferencia de muchos de los nutrientes a las profundidades del mar, lo que provocaría, a largo plazo, la falta de alimento para el resto de las especies.


Marco legal
La ONG canadiense ETC, dedicada al estudio de la geoingeniería desde 2006, niega que esta sea la respuesta al cambio climático. "Cualquier experimentación que altere la estructura de los océanos o la estratosfera debe proceder de un debate público profundo e informado sobre sus posibles consecuencias y sin autorización de las Naciones Unidas", dice.

El informe también incide en el inadecuado marco legal internacional para que los proyectos de éxito crucen las fronteras. Para solucionar esta problemática, se sugiere la creación de un organismo internacional similar a la Comisión de Desarrollo Sostenible de la ONU. ETC incide en este hecho, subrayando que "ninguna nación debe emprender unilateralmente la geoingeniería".

En esta línea, la comunidad científica ya ha iniciado los primeros movimientos. Prueba de ello es un reciente informe elaborado por un grupo de científicos de Austria, Bélgica, Suecia y EEUU, como preludio de la Conferencia de las Naciones Unidas sobre el Cambio Climático que tendrá lugar en Copenhague el próximo diciembre. El informe apoya los métodos de geoingeniería y, más específicamente, los relacionados con los océanos.

Uno de los autores del informe, Tom Battin, del departamento de Ecología del Agua Dulce de la Universidad de Viena, sostiene que, aunque las aguas continentales representan tan sólo el 1% de la superficie de la Tierra, "su contribución al ciclo del carbono es desproporcionadamente grande, está infravalorada y no se incluyó en los modelos en los que se basó el Protocolo de Kioto". Desde su punto de vista, es posible modificar el "destino del carbono terrestre liberado" a los océanos a través de las aguas continentales. Las investigaciones revelan, de hecho, que el 20% del carbono continental se captura al quedar enterrado en los sedimentos de las aguas continentales y que la cantidad de gases de carbono respirado que emiten los ríos a la atmósfera equivale al 13% del carbono procedente de la quema anual de combustibles fósiles.


Investigación en España
En España, la comunidad científica se muestra escéptica ante estos proyectos y, una parte de ella, incluso tajante a la hora de desaprobar estos métodos. Es el caso de Yolanda Moratilla, presidenta del Comité de Energía y Recursos Naturales del Instituto de la Ingeniería de España, quien indica: "Después de mirar el informe, mi opinión es que hay cosas más serias en las que trabajar; no me parece muy real". Y añade: "En tecnología energética se está haciendo un gran esfuerzo por innovar, pero de forma seria, real y competitiva. Prefiero no calificar lo que aquí proponen".

María José Jurado, investigadora del CSIC en el Instituto de Ciencias de la Tierra Jaume Almera, es responsable de varios proyectos de geoingeniería y, desde su punto de vista, "todos los planes en los que no se tenga por completo el control resultan arriesgados y muy complicados". Sus investigaciones se dirigen hacia el almacenamiento de CO2 en el subsuelo, tratando de buscar situaciones de estabilidad para este gas. "Estamos buscando reservorios en los que se pueda quedar atrapado sin riesgo de fuga", aunque existen zonas, como la Toscana italiana, en las que la emisión natural de CO2 del subsuelo es constante desde hace muchos años.

Una de las mejores opciones para este almacenamiento son los antiguos yacimientos de hidrocarburos, "puesto que si el gas ha permanecido allí cientos de años sin fugas hasta que se extrajo, es posible inyectar el CO2 sin riesgos de inestabilidad", explica la investigadora. Surge aquí un nuevo fenómeno: no todos los países tendrán la misma capacidad de almacenamiento; mientras unos podrán albergar el CO2 de varios países, otros no podrán almacenar el suyo propio. Según Jurado, "los países con más capacidad" los que previamente comercializaron el gas "cobrarán a otros países por el almacenamiento".


Tormenta de ideas heterodoxas

Inyección estratosférica
Paul Crutzen, Nobel de Química en 1995, o Wallace Broecker, ‘padre’ del cambio climático, defienden rociar la estratosfera con toneladas de dióxido de azufre para atenuar los rayos del Sol como hacen los volcanes. Pero no sólo sería sustituir un gas de efecto invernadero por otro (CO2 por SO2), sino que los aviones necesarios para hacerlo potenciarían la lluvia ácida.

Aviones sulfúricos
James Lovelock, el padre de la hipótesis Gaia de autorregulación de la Tierra, propuso introducir azufre en los depósitos de combustible de los aviones comerciales para que lo expulsen durante sus vuelos.

Sembrar nubes
John Lathan ideó un barco que expulsaría vapor de agua salada hacia las nubes oceánicas para reflejar más luz solar.

Urea en el mar
Ian Jones propone fertilizar el mar con urea –componente de la orina– para crear un bosque acuático que absorba el CO2.

Espejos espaciales
Roger Angel apuesta por colocar billones de espejos en el espacio, entre la Tierra y el Sol –a 1,6 millones de kilómetros de la superficie terrestre–, para bloquear parcialmente la luz solar, como un eclipse artificial.




Bolsa de Trabajo del CSIC


Creación de una Bolsa de Trabajo del CSIC para la contratación temporal de personal con cargo a proyectos, convenios y contratos de investigación.

La Bolsa ha entrado en vigor el 1 de Septiembre y se crea mediante Resolución del Presidente del CSIC (BO.CSIC).

El acceso a la bolsa de trabajo se realiza a través del enlace que aparece en el apartado "Más Información" para lo cual previamente habrá que darse de alta con Usuario y Contraseña en la base de datos.

Más información en:

La tecnología en España genera ingresos por valor del 22% del PIB


La tecnología movió en España 114.320 millones de euros en 2008, lo que significa un incremento del 1,5% con relación a 2007. Además, si sumamos la relación de las tecnologías de la información y las comunicaciones (TIC) con otras industria, el beneficio bruto suma los 246.160 millones de euros. O, lo que es lo mismo, el 22,5% del Producto Interior Bruto.

Las cifras provienen del informe “La Sociedad en Red 2008”, elaborado por el Ministerio de Industria, Turismo y Comercio. Un completo estudio que revela también otros datos interesantes, como que el 60,5% de los españoles ya está conectado a Internet. O, al menos, lo ha hecho durante el último semestre. Eso sí. El informe no dice nada de que somos uno de los países europeos con el acceso a Internet más caro y lento.

Francisco Ros, secretario de Estado de Telecomunicaciones y para la Sociedad de la Información, ha destacado que “la productividad del trabajo en el sector TIC ha aumentado un 26% en los últimos tres años”. Por otro lado, el impacto sobre el empleo fue de 1,5 millones de trabajadores, lo que implica a cerca del 7,5% del conjunto de ocupados en España.

Por su parte, el número de sociedades activas que se dedican a actividades TIC ha pasado de 22.320 empresas en 2005 a 28.259 en 2007, subiendo un 27% en los dos años. Por otra parte, no se han ofrecido datos de empresas durante la crisis. No vaya a ser que empañen el tono optimista del estudio.



El mayor sistema de almacenamiemto de datos científicos del mundo


El mayor sistema de almacenamiento de datos científicos del mundo no se halla en la borgeana Biblioteca de Babel sino en el Sistema de Almacenamiento de Alto Rendimiento del Laboratorio Nacional Lawrence Berkeley, en Estados Unidos, donde se almacena una copia de seguridad, un backup de datos de genética, química, biotecnología, eficiencia energética, astrofísica, física nuclear, climatología, ingeniería, etc.

Este moderno sistema de almacenamiento de archivos se instaló en 1998 en el National Energy Research Scientific Computing Center (NERSC), en Oakland, California, que también es la sede de diversos superordenadores, como el Franklin, un XT4 Cray con 19.320 núcleos de procesadores Opteron que, desde noviembre de 2007, se encuentra en el puesto 9 del Top 500 de los superordenadores más rápidos del mundo.

Pero volvamos al HPSS. En él no hay libros ni bibliotecarios (anque sí largas estanterías) sino un brazo robot que, a velocidad de vértigo, localiza en 30 segundos cualquier dato científico, lo atrapa con sus pinzas y lo pone a disposición del usuario. Porque la información que se guarda en el HPSS desde su fundación está en formato digital, dentro de las entrañas de discos compactos con forma de ladrillo.

Actualmente, el HPSS acumula 59.000 de estos ladrillos. Cada uno de ellos tiene una capacidad de entre 75 y 1.000 gigabytes de capacidad (lo que hoy un disco duro corriente de ordenador personal), lo que supone que contienen 66 millones de archivos. Es decir, en el HPSS hallaréis 3,9 petabytes. Todavía queda mucho espacio libre: los responsables del centro garantizan que el HPSS puede llegar a atesorar hasta 37 petabytes (el equivalente a la capacidad de almacenamiento de 321.900 reproductores iPod Classic).

Esta especie de ladrillos son cartuchos supereficientes desde el punto de vista energético. Las velocidades de transferencia tienen una media de 100 megabytes por segundo, aunque se han llegado registrar picos de 450 MB/s.



Viaje a las montañas submarinas del Sáhara


La organización ecologista Oceana ha logrado por primera vez filmar las montañas submarinas más meridionales de España, que se encuentran 160 millas (casi 300 kilómetros) al sur de Canarias. La grabación se realizó a 600 metros de profundidad con un robot submarino a bordo del catamarán Oceana Ranger.

La ONG, que cuenta con el apoyo de la Fundación Biodiversidad en esta expedición, explicó en un comunicado que las imágenes captadas corresponden a las montañas submarinas del Sáhara, entre 140 y 190 millas al suroeste de la isla de El Hierro. La organización concretó que muchas de ellas se asientan sobre fondos cercanos a los 4.000 metros de profundidad, pero que algunas se han quedado a sólo 200 metros de aflorar a la superficie. Así, en el caso de la montaña de Echo, conocida también como Banco Endeavour, se detectó que su amplia cima tiene una plataforma de más de 350 kilómetros cuadrados, entre los 230 y los 350 metros de profundidad, que termina desplomándose hasta los 3.800 metros de los fondos abisales.

Asimismo, en las primeras imágenes conseguidas de estas elevaciones marinas por Oceana se aprecian unos lechos rocosos y arenosos de origen volcánico con multitud de cuevas, extraplomos y grietas que dan cobijo a una variada fauna como tiburones de profundidad, rayas, chernas, congrios, molleras, escolares, peces reloj y otros peces conviven con extensos campos de esponjas, gorgonias y corales. Además, la zona parece ser especialmente rica en cañabotas, un tiburón de profundidad que puede alcanzar casi 5 metros de longitud y superar la media tonelada de peso.

Para el director ejecutivo de Oceana Europa, Xavier Pastor, la importancia de las montañas submarinas está siendo reconocida internacionalmente por la cantidad de especies endémicas que albergan y por su importancia para la biodiversidad marina. "Protegerlas no es solo una gran oportunidad para los países que albergan estos tesoros en sus aguas, sino una obligación", subrayó.

"Nos han sorprendido especialmente algunas esponjas que actúan a modo de arrecife de coral, dando cobijo a diversas especies de peces, crustáceos, moluscos y equinodermos", añadió el director de investigación de Oceana, Ricardo Aguilar.



30 sept 2009

Hallan la estructura molecular del cemento


Un equipo de ingenieros y científicos del Massachusetts Institute of Technology (MIT), habría descubierto y decodificado la estructura molecular del hidrato de cemento, abriendo en consecuencia un nuevo campo de posibilidades para el desarrollo de variantes en este material. Los cambios apuntarían principalmente al mejoramiento de las condiciones ecológicas del mismo, que actualmente es juzgado negativamente por diferentes órganos ambientalistas debido a las altas emisiones de dióxido de carbono que provoca. Por Pablo Javier Piacente.

La decodificación de la estructura molecular del cemento, uno de los objetivos que han perseguido durante muchos años la industria química y las áreas de investigación científico-técnica relacionadas, parece haberse concretado. Por lo menos así lo establece un trabajo desarrollado por ingenieros y científicos del Department of Civil and Environmental Engineering del Massachusetts Institute of Technology.

Hace 2.000 años que el hombre emplea el cemento para construir un vasto sistema de infraestructuras, desde acueductos de hormigón y otros grandes edificios hasta la mayoría de las viviendas que pueden hallarse en las ciudades actuales. Al mismo tiempo, el análisis de la estructura molecular de los distintos materiales naturales permitió la creación de nuevas opciones para la construcción, como en el caso del acero. En este caso, su estructura se encuentra convenientemente documentada.

Sin embargo, la estructura del hidrato de cemento y su decodificación han sido una incógnita para la ciencia hasta el momento. A pesar de ello, este material es el centro de una industria que mueve grandes cantidades de dinero pero que, al mismo tiempo, se encuentra cuestionada por el impacto ambiental negativo que produce.

Vale recordar que la fabricación de cemento produce alrededor del 5% de la totalidad de las emisiones de dióxido de carbono en todo el planeta. Nuevas disposiciones de la Agencia de Protección Ambiental de los Estados Unidos en cuanto a este tipo de emisiones están empujando a la industria de la construcción a buscar nuevas opciones en cemento y hormigón ecológico.

Un nuevo camino para los materiales empleados en la construcción

Se sabe que el reemplazo del cemento es una alternativa que nunca podría darse en los próximos años, sino que llevará un largo tiempo. Por eso, la decodificación de la estructura del cemento y el conocimiento básico de este material podría ser un hecho de gran importancia para avanzar en el desarrollo de nuevas opciones a aplicar en la industria de la construcción.

Según Sidney Yip, Profesor del MIT y co-autor de un documento publicado en línea en las Actas de la National Academy of Sciences (PNAS), donde se reseña la investigación realizada, el anuncio de la decodificación de la estructura tridimensional de la unidad básica del hidrato de cemento por un grupo de investigadores del MIT, denominado Liquid Stone, podría llegar a abrir una nueva era en la industria de la construcción.

El documento también apareció en un comunicado de prensa del Department of Civil and Environmental Engineering del Massachusetts Institute of Technology, siendo definido como uno de los casos en los cuales las fronteras de la investigación científica y tecnológica se amplían. La investigación fue financiada por el fabricante de cemento portugués Cimpor Corp., a través del Programa MIT-Portugal.

De acuerdo a los responsables de la investigación, este trabajo es el primer paso hacia un modelo coherente de la estructura molecular de los hidratos de cemento, esperándose de aquí en más nuevas colaboraciones de la comunidad científica para lograr mayores avances en la materia.

Caen viejos supuestos y se abren nuevas posibilidades

El descubrimiento ha derrumbado varios supuestos sobre la estructura atómica del hidrato de cemento. Hasta esta investigación, se creía que el mismo contaba con una geometría compuesta por largas cadenas de moléculas de tres átomos de silicio, intercaladas con capas de óxido de calcio puro, dando como resultado una estructura cristalina.

Por el contrario, el equipo del MIT encontró que esa estructura cristalina no existe realmente en el hidrato de cemento. Se trataría de un híbrido que comparte algunas características con las estructuras cristalinas y otras con las típicas estructuras amorfas de líquidos congelados, como el vidrio o el hielo.

El trabajo del equipo de investigación del MIT podría haber dado como resultado el hallazgo del “ADN del hormigón”, según las palabras de los propios especialistas. Luego de saber durante años que a escala nanométrica los hidratos de cemento se aúnan en forma de paquetes herméticos, ahora sería posible conocer las características más profundas de cada una de las pequeñas partes de esos paquetes.

Al existir un modelo molecular validado, será posible manipular la estructura química del material empleado por la mayoría de los diseños arquitectónicos y las grandes obras de infraestructura, modificando sus cualidades medioambientales y disminuyendo su incidencia ecológica negativa, así como también optimizando su capacidad para soportar una mayor presión o temperaturas extremas.


FUENTE:
http://www.tendencias21.net/Hallan-la-estructura-molecular-del-cemento_a3667.html

Una investigación de la UPV/EHU ha estudiado los efectos del clima sobre el plancton de los estuarios de Bilbao y de Urdaibai


Este trabajo ha tenido como principal objetivo aportar información acerca de los efectos de la variabilidad climática y su influencia sobre las características hidrológicas y la dinámica del plancton en los estuarios de Bilbao y de Urdaibai.

El autor de la tesis es Guillermo Aravena Cuevas, y su trabajo se titula Impact of climate variability on the pelagic ecosystem of two contrasting estuaries of the Basque coast (Bay of Biscay): a time series analysis (Efectos de la variabilidad climática sobre los ecosistemas pelágicos en dos diferentes estuarios de la costa vasca (Golfo de Bizkaia): un análisis de series temporales).

Los datos han sido obtenidos a partir del programa de monitorización ambiental llevado a cabo en estos dos estuarios desde el año 1997. Durante la última década (1997-2006) se llevó a cabo un plan de seguimiento ambiental en el ecosistema pelágico de dichos estuarios. Mediante el uso de datos hidrológicos (caudal, temperatura del agua y oxígeno disuelto) y biológicos (clorofila a y mesozooplancton), el uso de variables meteorológicas (temperatura del aire y precipitaciones) e índices climáticos (Oscilación del Atlántico Norte, OAN), se evaluaron los efectos de la variabilidad climática sobre las condiciones hidrológicas y las comunidades planctónicas de estos estuarios.

Análisis de series temporales

Aravena ha aplicado algunas de las metodologías más recientes y específicas del análisis de series temporales. Dicho análisis utiliza métodos que ayudan a interpretar una secuencia de datos medidos en determinados momentos, ordenados cronológicamente, y, normalmente, espaciados entre sí de manera uniforme. De dichos datos se extrae información representativa, relativa tanto a los orígenes como a la posibilidad de extrapolar y predecir su comportamiento futuro.

En palabras del autor de la tesis, las metodologías de series temporales utilizadas han sido apropiadas para evaluar los cambios en el ecosistema pelágico de los estuarios de Bilbao y de Urdaibai, y para determinar su relación con los factores climáticos.

En general, las tendencias de las variables ambientales y biológicas mostraron significativas diferencias entre estuarios y entre zonas salinas. Según Aravena, esto demuestra que la respuesta de las variables estuáricas a la variabilidad climática puede ser diferente debido, entre otros, al efecto que producen los humanos dentro de cada estuario.

Aravena ha observado que la OAN juega un importante rol en las variaciones de la temperatura del aire y, en consecuencia, sobre las temperaturas del agua observadas en la costa vasca. En relación a la interacción agua-atmósfera, el efecto directo de la temperatura del aire sobre la temperatura del agua mostró significativas diferencias dependiendo de las características físicas e hidrológicas en ambos estuarios.

En la parte final de la tesis Aravena analizó los efectos de variables ambientales sobre la dinámica de las poblaciones de Acartia, que son el componente dominante del mesozooplancton en ambos estuarios. Según el autor, los factores ambientales y las interacciones biológicas parecen influenciar la distribución y abundancia de importantes componentes del mesozooplancton como Acartias. Se registra por primera vez la presencia de A. tonsa, que ha colonizado las aguas interiores del estuario de Bilbao, afectando además negativamente a la abundancia de A. clausi, puesto que la especie invasora (A. tonsa) ha desplazado a la especie autóctona (A. Clausi) al exterior del estuario No fue ese el caso del estuario de Urdaibai, donde las aguas interiores han sido ocupadas por la especie estuárica A. Bifilosa, más abundante en las últimas décadas.

Información sobre el autor
Guillermo Aravena Cuevas (Chile, 1970) es licenciado en Ciencias del Mar y ha realizado un master en Ecosistemas Acuáticos. Los directores de la tesis han sido Fernando Villate e Ibon Uriarte, del departamento de Biología Vegetal y Ecología de la Facultad de Ciencia y Tecnología de la UPV/EHU. En la actualidad, Aravena trabaja como investigador a tiempo parcial en el citado departamento. Durante el desarrollo de su tesis doctoral, Guillermo Aravena realizó una estancia de colaboración con el Dr. Nils Christian Stenseth, de la Universidad de Oslo.



España crea algo más de la mitad de las páginas web en español


La comunidad hispanohablante de EEUU es la autora del 10% de las páginas web en español que se crean en el mundo, gracias, en buena parte, al impulso de la inmigración hispana que ha situado a este país como el de mayor número de usuarios del mundo que utiliza el español en la Red.

Daniel Pimienta, miembro de la ONG Funredes, dedicada a la difusión de las nuevas tecnologías en América Latina y el Caribe, ha explicado que debido al auge del español en EEUU, es la tercera lengua de la red con 131 millones de internautas, sólo sobrepasado por el chino y el inglés.

Sin embargo, España ocupa el quinto puesto como idioma de producción de contenidos, tras el inglés, el chino, el alemán y el francés.

Pimienta asegura que el uso del español en Internet ha empezado a despegar "cuando los inmigrantes hispanos en EEUU han empezado a crear contenidos", llegando a superar la producción de México, país de procedencia de muchos de ellos y que alcanza el 8,4% del total de la producción de contenidos en español.

España produce el 56% de los contenidos en español de la red, y también crea el 3,8% de los de lengua portuguesa y el 6,36% de los contenidos en inglés, superando incluso a algunos países anglosajones como Australia, responsable de tan sólo el 1,5% de las páginas creadas en inglés, mientras que EEUU alcanza el 66%.

Pimienta, que ha participado en una conferencia de la primera jornada del I Simposium Internacional de Multilingüismo y Ciberespacio organizado por Linguamón-Casa de las Lenguas, opina que el futuro del español en Internet estará íntimamente ligado a la evolución de este idioma en Estados Unidos.

Buena salud
A pesar de la "buena salud" de la que goza el español en la red, Pimienta pide la creación de un organismo público dedicado a impulsar el uso de este idioma en el ciberespacio "como ocurre con el francés y la Agencia de la Francofonía, que reúne a todos los países con el francés como lengua principal", explica Pimienta.

El experto de Funredes señala la falta de interacción entre los españoles y latinoamericanos y los bajos niveles de producción de contenidos de éstos últimos como los principales puntos débiles del español en Internet.



Pilas de hidrógeno: energías limpias del siglo XXI


Siempre en la búsqueda de energías limpias, la Universidad de Zaragoza y el Instituto de Nanociencia de Aragón apostarán con todas sus fuerzas por las pilas de combustible y por el hidrógeno como la mejor alternativa de calor y de energías limpias. Obviamente, este tipo de energía se producirá a partir de las energías renovables como la energía fotovoltaica, la energía solar y la energía eólica y no a partir de los combustibles fósiles como el gas natural o el petróleo.

Esto es lo que se ha manifestado en la presentación del Proyecto Zeocell, proyecto a nivel internacional dirigido por un grupo de investigación aragonés y en el que participan cinco países. La presentación se realizó en la Feria Internacional del Hidrógeno que lleva a cabo estos días la Asociación Española de Hidrógeno en Zaragoza.

Es una realidad que la demanda de energía está creciendo a una velocidad insospechada y que los combustibles fósiles, principales suministros de energía, están presentando problemas serios como la disminución de las reservas de petróleo, la contaminación de gases, la suba de precios y la regulación de la política de medio ambiente. Por ello, Europa ya redujo el año pasado un 8% de las emisiones de CO2 y se ha propuesto una mejoría de la eficiencia energética de un 18% entre 1995 y el 2010, además de duplicar el uso de las energías renovables.

El Proyecto Zeocell apuesta por la producción de electricidad siempre a partir de alcoholes como etanol o metanol y de combustibles como el hidrógeno. Esto se logra gracias a nuevas tecnologías actuales que prometen ser más sostenibles como son las Pilas de Combustibles de Membranas Intercambio de Protones (PEMFC) de Alta Temperatura.

El objetivo del proyecto Zeocell es desarrollar membranas nanoestructuradas basadas en un material nuevo y multifuncional. Se trata de un material compuesto que se obtendrá gracias a la combinación sinérgica de líquidos iónicos, polímeros y senérgica de zeolitas. Esta es una noticia que revoluciona el futuro de las energías renovables porque es la primera vez que se plantea el desarrollo de esta clase de material para ser aplicado de modo industrial.



La FECYT convoca el concurso Iconografía de la Innovación


En consonancia con los objetivos de la celebración en 2009 del Año Europeo de la Creatividad y la Innovación, la Fundación Española para la Ciencia y la Tecnología (FECYT) pretende que los ciudadanos identifiquen claramente las cualidades y valores innovadores asociados a organizaciones, acciones, servicios o productos.


Para ello, la FECYT convoca el concurso Iconografía de la Innovación cuyo objetivo es involucrar al conjunto de la sociedad en los conceptos de creatividad e innovación, invitando a todos los ciudadanos a que reflexionen sobre su idea de la innovación y la traduzcan en una imagen evocadora de ese concepto.

Las obras deberán ser imágenes digitales originales e inéditas, de técnica y estilo libres, y no podrán incluir texto, pero se permite la inclusión de elementos tipográficos para la composición de la imagen. La participación está abierta a cualquier persona. La presentación de las obras se realizará a través de un formulario de participación disponible en la página Web del concurso.


El premio está dotado con 6.000 €. El plazo de presentación se abre el 2 de octubre y concluirá el lunes 23 de noviembre de 2009. Además, a través de un sistema de participación en la página Web del concurso, la obra más votada por el público obtendrá una mención honorífica que no conllevará contraprestación económica alguna.

El fallo del concurso y la votación popular se harán públicos a partir del 3 de diciembre de 2009 en la página del concurso www.innovacion2009.es/iconografia .




Para más información: Gabinete Técnico de FECYT.
Tfno: 91 425 09 09
Nuria Molinero, Ana Guillamón
E-mail: comunicacion@fecyt.es






La ministra de Ciencia e Innovación inaugura en Barcelona la ampliación de la Sala Blanca del CSIC


La ministra de Ciencia e Innovación, Cristina Garmendia, ha inaugurado hoy, junto al presidente del Consejo Superior de Investigaciones Científicas (CSIC), Rafael Rodrigo, la ampliación de la Sala Blanca y una nueva zona de laboratorios del Instituto de Microelectrónica de Barcelona del CSIC. En esta gran instalación, un recinto con atmósfera totalmente controlada, los científicos desarrollan sensores químicos y biológicos y dispositivos implantables a escala micro y nanométrica. La nueva zona incrementa el tamaño de las instalaciones de la Sala Blanca en un 50 por ciento.

A la inauguración han acudido también el alcalde del Ayuntamiento de Cerdanyola del Vallés, Antonio Morral, el director general de Investigación de la Generalidad de Cataluña, Joan Roca, la rectora de la Universidad Autónoma de Barcelona, Ana Ripoll, la vicepresidenta de Investigación Científica y Técnica del CSIC, Carmen Peláez, el director del Centro Nacional de Microelectrónica del CSIC, Emilio Lora- Tamayo, y el coordinador Institucional del CSIC en Cataluña, Luis Calvo.

Rodrigo destaca la importancia de las nuevas instalaciones: “Esta ampliación permitirá que los investigadores del CSIC, y de cualquier institución nacional o internacional, puedan desarrollar proyectos más ambiciosos. Además, desde el CSIC, uno de los ejes estratégicos que hemos fijado para los próximos años es el de dotar a nuestros centros con la instrumentación y la ingeniería más avanzadas para potenciar los proyectos de excelencia y facilitar el trabajo de los científicos”.

Esta Infraestructura Científica y Tecnológica Singular, cuenta con unas instalaciones de cerca de 7.000 metros cuadrados, de los que algo más de 1.500 corresponden a la Sala Blanca con ambiente controlado. Cuenta con más de un centenar de equipos de última generación para la investigación y el desarrollo de sistemas micro y nanométricos de forma integrada.

Los investigadores del CSIC utilizan estos equipos para realizar procesos basados en obleas de silicio y otros materiales. A partir de estos trabajos desarrollan sensores químicos, micro y nanosistemas, módulos microchip y dispositivos ópticos. La Sala Blanca cuenta con un equipo fijo de 33 personas, de las 172 que componen este instituto catalán.

DIAGNOSTICAR EL VIH Y CONTROLAR LOS NIVELES DE GLUCOSA EN DIABÉTICOS

Dentro del campo de la biomedicina, los investigadores del CSIC trabajan entre otros proyectos en la creación de biosensores para la detección de anticuerpos de VIH y de los niveles de glucosa en pacientes diabéticos.

Este equipo ha desarrollado un nuevo tipo de biosensor para la detección rápida de la infección por el Virus de Inmunodeficiencia Humana (VIH) en colaboración con la Universidad Autónoma de Barcelona. Basado en una enzima modificada genéticamente y una pequeña red de microelectrodos, el biosensor permite obtener el diagnóstico en una hora. Según los investigadores, por su reducido tamaño y bajo coste resulta muy útil en áreas geográficas apartadas con recursos médicos insuficientes. Esta nueva tecnología podría aplicarse también para detectar otras infecciones víricas, como la fiebre aftosa, la peste porcina y las hepatitis B y C.

Además, los investigadores del CSIC dirigen la parte española de un proyecto internacional para desarrollar biosensores de glucosa implantables. En la actualidad, están desarrollando un sensor subcutáneo que controlaría el nivel de azúcar de los pacientes cada 10 o 15 minutos. El sensor transmite esos datos al móvil del enfermo o a cualquier otro dispositivo conectado a Internet y al centro sanitario donde se archiva su historia clínica. Además, le indica las acciones a seguir, como ingerir alimentos, y la dosis necesaria de insulina cuando detecta una concentración alta o baja de azúcar en la sangre.




28 sept 2009

Panasonic presenta un plasma 3D con gafas como sistema de cine en casa ideal


Panasonic está convencida de que un plasma de 50 pulgadas será el elemento central de los cines en casa de la mayoría de hogares. Al menos en el tamaño puede que estemos de acuerdo.

Con esa impresionante diagonal ha presentado Panasonic su último televisor de plasma que no es un modelo cualquiera sino que viene preparado para el cine en tres dimensiones y además se ofrece junto con unas nuevas gafas para profundizar en la experiencia tridimensional, nunca mejor dicho.

Este conjunto se mostrará en el CEATEC de Japón estos días, y su puesta en el mercado está prevista para el año que viene, 2010, momento en el que toda la industria, porque les conviene, está convencida de que el mercado de los televisores compatibles con las tres dimensiones arrancará de forma definitiva.

De momento, este plasma de Panasonic con 50 pulgadas de tamaño en conjunto con las nuevas gafas de la marca, prometen llevar a cada ojo imágenes con resolución máxima, es decir, 1080p.



El fraude más honesto de la ciencia


El rey del fraude científico era en realidad un incomprendido. Así lo mantiene un nuevo estudio sobre la vida y trabajos de Paul Kammerer, un investigador austríaco de principios del siglo XX a quien las acusaciones de apañar sus experimentos le empujaron a un suicidio solitario cerca de Viena. Kammerer, que abandonó su carrera musical para dedicarse a la ciencia, fue siempre a contracorriente. Pasó años haciendo experimentos que contradecían las teorías evolutivas dominantes. Su carrera quedó truncada para siempre cuando un investigador le acusó de inyectar tinta en un sapo para demostrar sus hipótesis. Todo su legado científico se fue a la basura y su nombre engrosó las páginas de la infamia científica.

El único lugar donde su memoria fue respetada fue la Unión Soviética, donde se le consideró un héroe. Incluso se rodó una película pseudobiográfica que acababa con un apoteósico triunfo científico, en lugar de con un lamentable suicidio.

Más de 80 años después de su muerte, una revisión de sus experimentos recién publicada en Journal of Experimental Zoology mantiene que Kammerer no sólo no manipuló sus experimentos, sino que fue el primero en demostrar que el medio ambiente imprime cambios en un individuo que se transmiten de generación en generación. En otras palabras, Kammerer fue el primero en toparse con la epigenética, una teoría denostada durante décadas pero aceptada en la actualidad. Significa "sobre los genes" y sostiene que el medio impone cambios heredables que se transmiten por modificaciones químicas que no alteran la secuencia de ADN. El mecanismo se ha probado en varios modelos animales y ya se utiliza en medicamentos contra el cáncer. Kammerer se habría adelantado varias décadas a Conrad Waddington, que describió los primeros casos de este fenómeno y acuñó el término en 1942.

"Kammerer podría ser considerado el padre de la epigenética", explica Alexander Vargas, el investigador de la Universidad de Chile que firma el nuevo estudio. Al igual que otros expertos de la epigenética, señala que el científico tiene que ser rehabilitado. Para ello quiere repetir sus experimentos. "La rehabilitación completa pasa por replicar sus observaciones", comenta.

Kammerer fue socialista y valedor de las teorías evolutivas lamarquistas, que mantenían que el medio modela las características de un individuo y que este las transmite a sus descendientes. En la década de 1920, esta teoría había caído en desgracia, favoreciendo el auge de la selección natural de Darwin quien no renegaba del lamarquismo y las leyes genéticas de Mendel.

El experimento más famoso de Kammerer llevó ocho años de trabajo con el sapo partero, un anfibio que vive en el agua pero que procrea en seco. Kammerer crió a estos sapos en un terrario tan cálido y seco que los animales se vieron obligados a reproducirse en el agua. La mayoría de las camadas murieron, pero un 5% sobrevivió. Al contrario que sus ancestros, estos animales preferían procrear en el agua aunque se les devolviera a sus condiciones naturales.

El callo nupcial
Tras varias generaciones, los sapos de Kammerer desarrollaron unos oscuros callos nupciales en las patas. El investigador argumentó que eran un nuevo rasgo adaptativo que ayudaba a los sapos a que no se les escurriera la hembra en el momento clave. Kammerer publicó varios artículos en las revistas más prestigiosas y viajó por Europa mostrando sus ejemplares, explica Vargas. Predicaba en el desierto, ya que sus experimentos se percibían como un ataque directo a las teorías de Darwin y Mendel. Después estalló la I Guerra Mundial y el centro en el que investigaba Kammerer sufrió importantes daños, entre ellos la aniquilación de los preciados sapos. Sólo se salvó uno, en un bote de formol.

En 1926, el biólogo William Bateson, muy crítico con Kammerer, examinó el animal. No tardó en comprobar que los oscuros callos nupciales habían sido inyectados con tinta. La presencia de los callos era "pura conjetura", señaló Bateson en un artículo. Kammerer se pegó un tiro en la sien dos meses después en un pueblecito de montaña a 80 kilómetros de Viena.

El científico dejó varias notas, entre ellas una para la Academia Rusa de Ciencias, que le había ofrecido un importante puesto en la Universidad. Sus experimentos lamarquistas gustaban mucho en la Rusia soviética, donde la dictadura de la genética no casaba bien con la del proletariado. Gracias al comisario de Instrucción Anatoli Lunacharski, Kammerer tuvo en el cine el final que no pudo tener en vida. El político escribió el guión de Salamandra (1928), una película en la que, la noche antes de que Kammerer presente su sapo a sus colegas, dos saboteadores (un príncipe y un cura) inyectan tinta al animal. Al día siguiente el cura, opuesto a las teorías de Kammerer, le denuncia en plena aula magna y demuestra el engaño. Kammerer cae en desgracia y se dispone a quitarse la vida. Cuando está a punto de apretar el gatillo, recibe un mensaje del comisario Lunacharski, que actúa en la película como él mismo. El político le ofrece una plaza en la Universidad y le salva del oprobio.

En 1971, el periodista y escritor Arthur Koestler aportó pruebas reales de que Kammerer podría ser inocente, y argumentó que la inyección la hizo un simpatizante de los nazis.

La nueva revisión de Vargas señala que, falsos o verdaderos, los callos nupciales son lo de menos. Como parte de sus experimentos, Kammerer cruzó sapos tratados y sapos normales. Para su sorpresa, observó que, cuando el padre era un individuo tratado, sus costumbres reproductivas se transmitían a hijos y nietos, pero no cuando se apareaban una hembra tratada y un macho normal. Esto contradecía las hipótesis del científico, que nunca pudo entender estos resultados. Sus detractores los usaron para derribar su teoría, pero, hoy en día, la observación no sorprendería a casi nadie: se trata de un fenómeno epigenético, señala Vargas. La herencia reproductiva no se transmitiría en los genes, sino a través de cambios químicos que actúan sobre ellos y garantizan que un determinado rasgo se pase entre generaciones. "El mecanismo molecular en los experimentos de Kammerer es probablemente epigenético", opina Michael Skinner, investigador de la Universidad del Estado de Washington. Skinner probó en 2005 que los efectos de productos tóxicos se heredan varias generaciones en animales a través de cambios epigenéticos. "Los experimentos se inclinaron más hacia el fraude que hacia la verdad", señala Manel Esteller, que investiga la epigenética del cáncer en Barcelona. Añade que eso no quita que sus ideas fueran correctas, lo que ha sucedido en otros casos.

Salir de dudas es más fácil hoy en día, debido al enorme progreso en biología molecular, comenta Esteller. Es justo lo que quiere hacer Vargas en Chile. "Estamos a sólo un paso de saber si era inocente o no", concluye.





FUENTE:
http://www.publico.es/ciencias/255322/fraude/honesto/ciencia



Hexaglot N518, un libro electrónico con sistema de reconocimiento de escritura


Los libros electrónicos avanzan en las prestaciones a usuarios y no se limitan a ser un “mírame y no me toques”. Sobre todo, con la última hornada de dispositivos táctiles, como el Samsung Papyrus. La compañía alemana Hexaglot, afincada en Hamburgo, acaba de dar un nuevo paso. Es la responsable de Hexaglot N518. Un lector que permite escribir sobre su superficie y, además, viene con un sistema de reconocimiento de escritura. Así, digitaliza las notas que los usuarios tomen sobre el texto con el stylus o lápiz electrónico.

La pantalla con resolución de 800 x 600 píxeles mide cinco pulgadas, lo que viene a ser habitual en los lectores de libros electrónicos. Incluye una función de reproducción de audio y es compatible con los formatos MP3, WAV y WMA. También graba en WAV. En cuanto a imágenes, soporta archivos JPEG, TIF, BMP, PNG y GIF. Con un peso de 190 gramos y unas dimensiones de 153 x 112 x 12 milímetros se perfila como un excelente compañero de viaje. Lee documentos ePUB (Adobe DRM), PDF, TXT, HTXT, HTML y Microsoft Word en diferentes idiomas, como alemán, inglés, italiano, francés, español, polaco, ruso o chino.

La memoria interna inicial es de 512 megabytes, ampliables mediante tarjeta microSDHC hasta los 32 Gb. Trae una de 4 Gb. El Hexaglot N518 no consume batería mientras no permanece encendido. El tiempo de carga conectado a un PC a través de USB es de cuatro horas, que descienden a dos horas si se emplea un cargador enchufado a la red eléctrica ordinaria. Tiene una autonomía equivalente a 15 días de uso, que permiten la lectura de unas 7.000 páginas.

Se encuentra disponible en dos colores, negro y blanco, en la web de fabricante. Su precio es de 280 euros e incluye un curso de audio para aprender inglés. Claro que es probable que venga en alemán…



Científicos japoneses consiguen transmitir energía eléctrica inalámbrica a 40 cm de distancia


Poco a poco se va avanzando en el campo de la trasmisión inalámbrica de electricidad. En Tusequipos ya os hemos hablado del sorprendente WildCharge. Ahora, es la compañía japonesa Nagano Japan Radio la que está presentando un sistema que garantiza un 95 por ciento de eficacia en la transmisión de electricidad a cuarenta centímetros de distancia. Un sistema que, además, es capaz de funcionar (transmitir electricidad) aunque el equipo esté separado de la fuente de alimentación un máximo de un metro de distancia.

La clave, según la compañía, es que usa resonancia magnética en lugar de inducción electromagnética, de manera que creen que podrán trasmitir desde varios vatios hasta algunos Kilovatios. No parece muy sencillo de entender, para que vamos a engañarnos, pero el caso es que por lo visto funciona.

El principal inconveniente que se han encontrado de momento los técnicos de Nagano es que el sistema falla cuando se mueve o el emisor o el receptor. Según han visto, para una correcta carga deben estar ambos quietos. Para intentar corregir esto, han añadido un detector de movimiento que reorienta el dispositivo cuando se percibe un cambio.

Estos avances podrían evitar muchos cables y muchas incomodidades en pequeños dispositivos, pero también pueden ser muy útiles en la carga de, por ejemplo, vehículos eléctricos. Sin duda, el mundo cambiaría, otra cosa es como le sentaría a nuestra salud.




Hallan en China el antepasado más antiguo de las aves


El yacimiento de Tiaojishan, en la provincia China de Liaoning, ha revelado los restos del eslabón perdido en el proceso de evolución entre los dinosaurios y las aves. El esqueleto de este animal es 10 millones de años más antiguo que los restos del ave más antigua conocida, el Archaeopteryx, encontrado en Alemania a finales del s.XIX.

Bautizado como 'Anchiornis Huxleyi', en honor al evolucionista Thomas Henry Huxley, tiene el honor de ser la criatura emplumada más antigua de la que se tiene noticia. Los investigadores de la Universidad de Pekín, responsables del hallazgo publicado en la revista 'Nature', ya habían encontrado un esqueleto incompleto a principios de año, pero recientemente han podido hallar un segundo ejemplar en excelentes condiciones de conservación.

Este antepasado de las aves vivió hace 155 millones de años, en el jurásico tardío. Mide unos cincuenta centímetros, tiene cuatro alas y posee un extenso plumaje cubriendo sus brazos, cola y pies.

Según explican sus descubridores, la evolución temprana de los terópodos (como el Anchiornis) era muy poco conocida a causa de los pobres registros fósiles de finales del jurásico. Ahora afirman que el hallazgo del 'Anchiornis Huxleyi' supone la prueba final de que los dinosaurios son ancestros de las aves.



El CSIC y el Ayuntamiento de Santiago firman un convenio que permitirá construir el Centro de Ciencias del Patrimonio Cultural del CSIC


El presidente del Consejo Superior de Investigaciones Científicas (CSIC), Rafael Rodrigo Montero, y el alcalde de Santiago de Compostela, Xosé Sánchez Bugallo, han firmado en la Alcaldía del Ayuntamiento de Santiago un convenio para la obtención de terrenos sobre los que se construirá el Centro de Ciencias del Patrimonio Cultural, del CSIC. Además de firmar el convenio, se ha constituido una comisión mixta entre ambas entidades que realizará el seguimiento del proyecto.

El Centro de Ciencias del Patrimonio Cultural pretende ser un centro de referencia internacional en investigaciones y estudios sobre el patrimonio cultural, que contribuya a la recuperación de una concepción social y pública.

Rodrigo destaca la importancia de este nuevo centro: “Este centro gallego del CSIC será multidisciplinar y de alto nivel científico. Acogerá disciplinas relacionadas con la antropología, la historia, la arqueología, las ciencias de la tierra, la ingeniería de métodos y la sociología, entre otras”.

Será un centro propio del CSIC abierto a la colaboración con el Sistema Universitario de Galicia y con otros agentes privados y públicos. El objetivo del centro es fomentar, desarrollar, validar y difundir investigación científica y tecnológica de carácter pluridisciplinar sobre patrimonio cultural, con el fin de contribuir al avance del conocimiento y al desarrollo económico, social y cultural. Además, pretende ser un centro de formación de personal especializado en esta área.

El centro incluye entre sus futuras líneas de investigación el patrimonio cultural, la materia y la tecnología de los bienes patrimoniales, los paisajes culturales, la significación y el valor del patrimonio cultural, la sociología y la economía del patrimonio cultural, y los procesos de patrimonialización. Además, junto a estos estudios, los investigadores del CSIC estudiarán las tecnologías semánticas y de la información para la gestión del patrimonio cultural, así como el desarrollo de metodologías y los estándares para la gestión del patrimonio.

El centro pretende consolidarse como punto de referencia en el marco nacional e internacional en investigaciones sobre patrimonio histórico y gestión integral y sostenible. Entre sus objetivos de investigación se encuentran además el análisis, la evaluación, la conservación y la valorización del medio construido, del ambiente urbano, del patrimonio cultural y del paisaje histórico y cultural. Para ello, se dotará de una estructura científica y tecnológica interdisciplinar.


EL PROYECTO
El 18 de septiembre de 2006 el Ministerio de Educación y Ciencia y el Gobierno de la Xunta de Galicia firmaron un protocolo de colaboración para actuaciones conjuntas en la constitución de centros de investigación científica y tecnológica con participación del CSIC y el Sistema Universitario Gallego. Uno de los centros contemplados es el Centro de Ciencias del Patrimonio Cultural.

A lo largo del 2008 se elaboró el proyecto científico del centro, que se desarrollará como un centro propio del CSIC con la colaboración del Consorcio de la Ciudad de Santiago y otras instituciones. Dicho proyecto ha sido evaluado por una comisión internacional. En agosto de 2009 el Ayuntamiento de Santiago aprobó la propuesta de convenio para la obtención de terrenos sobre los que se construirá el centro.

En el Plan Estratégico del CSIC 2010-2013 se considera la creación de este centro como una de las acciones estrella dentro del área de Humanidades y Ciencias Sociales. Se pretende que a lo largo del año 2010 se realice el diseño arquitectónico, que las obras se inicien un año más tarde y que finalicen en 2013, momento en el que se procederá a la instalación del equipamiento del edificio.


EL CSIC EN GALICIA

El CSIC cuenta en Galicia con una delegación institucional en Santiago de Compostela y con cuatro centros de investigación: Misión Biológica de Galicia (Pontevedra), Instituto de Estudios Gallegos Padre Sarmiento (Santiago de Compostela), Instituto de Investigaciones Marinas (Vigo) e Instituto de Investigaciones Agrobiológicas de Galicia (Santiago de Compostela). Además, el
CSIC participa en el Centro de Supercomputación de Galicia.

Además, el Laboratorio de Patrimonio del Instituto de Estudios Gallegos Padre Sarmiento, del CCSIC, es un grupo de referencia. Dirigido por el investigador del CSIC Felipe Criado Boado, coordina uno de los pocos Proyectos Consolider que existen en el ámbito de las humanidades, y que está dedicado a los estudios sobre patrimonio.


FUENTE:
http://www.csic.es/noticia.do?objectid=0902bf8a8013215b