Páginas

13 nov 2009

Una nueva aplicación permite a los investigadores descargar y almacenar los artículos de la AIP en su iPhone o iPod Touch


Artículos de prensa sobre diversos temas, que van desde la física y química aplicadas a la energía renovable, ya están disponibles en el iPhone de Apple y dispositivos Apple iPod touch. El Instituto Americano de Física (AIP) (http://www.aip.org/), una de las editoriales más grandes del mundo de la información en Ciencias Físicas y un líder en el campo de la edición electrónica, ha anunciado el lanzamiento de su nuevo e-lector móvil, iResearch. iResearch fue desarrollado para proporcionar contenidos de física diarios a los físicos, ingenieros, científicos y estudiantes, con acceso móvil.

iResearch es un e-lector online que permite a los usuarios guardar archivos PDF localmente para su dispositivo y verlos fuera de línea sin una conexión WiFi o conexión móvil.


Los usuarios navegan a través de las revistas y volúmenes para seleccionar el artículo que desea leer.

Cuando el PDF se ha descargado en el dispositivo, el usuario puede seleccionar para guardar el archivo localmente en el iPhone/iPod touch. Una vez que el PDF se guarda localmente el usuario puede leer el artículo fuera de línea.



Una nueva herramienta para 'cazar' planetas


Localizar un planeta puede llevar meses e incluso años de investigación. Sin embargo, esta laboriosa tarea podría agilizarse gracias a un nuevo test de medición de litio ideado por un equipo internacional en el que participa el 'Nature'.

Los resultados del estudio, liderado por el Instituto de Astrofísica de Canarias y en el que también han participado científicos de Suiza, Portugal e Italia, se obtuvieron con una muestra de 500 estrellas.

A través de un sencillo análisis con un telescopio medio (de dos a cuatro metros) se mide la presencia de litio en la estrella. Los investigadores han descubierto que los astros similares al Sol con bajo contenido en este elemento tienen, de media, diez veces más posibilidades de albergar planetas.

"Actualmente, localizar planetas es un trabajo muy lento y que requiere mucha paciencia porque hay que investigar miles de estrellas y realizar medidas muy frecuentes de su velocidad para detectar pequeños cambios, y para ello son necesarios instrumentos de muy alta precisión", afirma Rafael Rebolo, el investigador del CSIC que lidera el estudio.


El litio es la clave

"Después de muchos años investigando la composición química de las estrellas hemos hallado que el litio es la pista". El test, que puede hacerse en unos cinco minutos, no garantiza que la estrella va a tener un sistema planetario pero sí nos determina una que ofrecerá más posibilidades de albergar planetas: "Supondrá ahorrar un esfuerzo importante en las observaciones", asegura Rebolo.

Y es que hallar un planeta como la Tierra alrededor de una estrella como el Sol puede requerir cientos de análisis y medidas. Los científicos calculan que de cada 1000 estrellas parecidas al Sol sólo un 10% tiene sistema planetario.

Sin embargo, más allá de la economía del esfuerzo, lo más importante del estudio es el fenómeno físico que ha podido causarlo: "Nos interesa conocer cómo son las relaciones entre planetas y estrellas, cómo son esos movimientos. Creemos que los planetas gigantes pueden modificar la estructura de los astros, afectar la manera en que los gases se comportan en la zona externa. El Sol tiene una influencia en los planetas pero también hemos observado que éstos pueden influir en las estrellas".





Japón quiere energía solar desde el espacio


Con pocos recursos energéticos propios y dependiente de los insumos energéticos externos, Japón ha sido tradicionalmente un líder en energías renovables, particularmente en energía solar. De hecho, los japoneses manejan la realización de un proyecto de recolección de energía solar bastante poco convencional.

Es que haciendo honor literal a su condición de Imperio del Sol, Japón quiere recolectar energía solar directamente desde el espacio, en un proyecto multi billonario que comenzaría a funcionar en el año 2030: el Space Solar Power System (SSPS)

Básicamente el plan consistiría en el lanzamiento de una serie de paneles fotovoltaicos, los cuales capturarían la energía solar emitida por nuestro astro y tendrían una órbita geoestacionaria, la cual les permitiría rodear a nuestro planeta enviando la energía recolectada. La transmisión de la misma se realizaría a través de rayos láser y microondas.

La gente de JAXA (Agencia Japonesa de Exploración Aeroespacial) está trabajando en ello, y se espera que para el 2020 se lancen los primeros paneles, y que diez años más tarde la maquinaria comience a funcionar, paso que convertirá una vez más a Japón en un modelo a seguir en términos de tecnología.




La Revista española de Documentación Científica acaba de publicar su último número




Estudios

Análisis de la variabilidad de nombres de autores españoles en depósitos digitales universitarios de acceso abierto: un estudio por áreas de conocimiento (9-33)
Enrique Orduña-Malea, Fernanda Peset, Antonia Ferrer-Sapena

La ley de propiedad intelectual y su repercusión en la actividad de las bibliotecas (34-45)
Nieves Lorenzo-Escolar

Evaluación de materiales formativos de acceso público elaborados por bibliotecas universitarias españolas (46-66)
Marta Somoza-Fernández, Ernest Abadal

El uso de metadatos en la administración electrónica española: los retos de la interoperabilidad (67-91)
Tony Hernández-Pérez, David Rodríguez-Mateos, Bonifacio Martín-Galán, María Antonia García-Moreno

Aproximación al documento textual desde la perspectiva de los estudios sobre el discurso (92-105)
Michela Montesi


Notas y Experiencias

La gestión de la información en las empresas de Extremadura (107-132)
Antonio Muñoz-Cañavate, Antonio Pulgarín-Guerrero

Implementación de un servicio de referencia virtual por chat en una biblioteca universitaria argentina (133-143)
Marina Borrell, Evangelina Maciel


Internet

Presencia de las bases de datos del CSIC en las bibliotecas universitarias y científicas españolas: descripciones y materiales didácticos para la formación de usuarios (145-155)
Luis Rodríguez-Yunta, María Jesús Sánchez-González, José Ignacio Vidal-Liy


Noticias

La gestión de documentos y las evidencias en las organizaciones. Del plano operativo al plano estratégico: una propuesta desde la normalización (157-160)
Carlota Bustelo Ruesta

XI Jornadas Españolas de Documentación, FESABID 2009 «Interinformación». Zaragoza 20-22 de mayo 2009 (161-165)
Nicolás Robinson García


Crítica de libros

Pinto, M., Sales, D., Osorio, P., Planelles, E. Alfabetización múltiple desde la biblioteca pública: experiencias y propuestas. ISBN 978-9-8713-0547-6 (167-168)
Rosario Hidalgo-Solera

Villaseñor-Rodríguez, I. Fuentes de Información en Filosofía Jurídica Española (siglos XIX-XX). ISBN 978-84-9849-462-4 (169-170)
Encarnación Pesquero-Franco







Intel Reader, nuevo lector electrónico para ciegos


Alrededor de 55 millones de norteamericanos tienen dificultades de lectura, desde personas invidentes a disléxicos o cortos de vista. Intel, el principal fabricante de chips, ha comercializado un lector electrónico, del tamaño de libro de bolsillo para personas con dificultades de lectura. Se llama Intel Reader, cuesta 1.500 dólares y pesa 450 gramos.

El aparato incluye una cámara de alta resolución para convertir el texto en formato digital y luego transformarlo en voz. Incorpora un zoom para ampliar el tamaño de la letra, más potente que el de los libros electrónicos habituales. En el caso de textos largos, como libros, el Reader se complementa con otro aparato que hace las veces de escáner y que acelerar el proceso de reconversión.

En abril Intel y General Electric llegaron a un acuerdo de colaboración para invertir 250 millones de dólares en cinco años en investigación en la industria de la salud.




¿Por qué nos atraen tanto los giros de argumento de ‘Perdidos’?


El director de cine M. Night Shyamalan ha basado parte del éxito de sus películas en esos finales sorpresa, esos giros de tuerca que todo lo cambian y enriquecen. Si os explicara el final de El bosque, de El protegido o de El sexto sentido, probablemente os estropearía la película. Pero no voy a revelar spoilers, tranquilos.

Del mismo modo, si series como Perdidos, Heroes o la reciente Flashforward gozan de tan buenas audiencias es, en gran parte, porque recurren al ejercicio del cliffhanger (dejar al espectador colgado al final de un capítulo, a la espera del siguiente) y de los giros de tuerca que todo lo redimensionan. Las telenovelas también fundan su éxito en este sistema, llegando hasta límites grotescos.

Pero ¿cuáles son las bases neurológicas que nos inducen a engancharnos a esta clase de artificios? ¿Por qué nos gusta que nos sorprendan y nos descoloquen?

Todo se debe a la dopamina.

La dopamina es una de las mayores responsables del efecto adictivo que tienen en nosotros varias drogas, entre ellas la cocaína. Aunque ésta sólo es una de tantas funciones de la dopamina: al ser un neurotransmisor tan importante se utiliza por todo el cerebro.

La dopamina es una de las mayores responsables del efecto adictivo que tienen en nosotros varias drogas, entre ellas la cocaína. Aunque ésta sólo es una de tantas funciones de la dopamina: al ser un neurotransmisor tan importante se utiliza por todo el cerebro.

Por ejemplo, si al citarnos con nuestra pareja el encuentro genera la recompensa que esperábamos, la dopamina de nuestro sistema permanecerá en su nivel, inalterable. Si nuestra pareja se presenta con un regalo inesperado, siendo así la recompensa mayor de lo que esperábamos, entonces nuestro cerebro segregará dopamina suplementaria para anunciar la buena noticia. Por el contrario, si la cita resulta ser menos de lo que esperábamos o nuestra pareja viene con malas noticias o está especialmente irascible, los niveles de dopamina caerán.

En otras palabra, la normalidad no alterna la dopamina, sólo las sorpresas buenas o malas.

Las películas o las novelas explotan este instinto de novedad para resultar narrativamente atractivos. Los giros de tuerca nos gustan porque nuestro cerebro tiene un interés por la sorpresa biológicamente fundado.


Lo expresa así Steven Johnson:

Unos niveles más bajos de dopamina contribuyen a activar los que Jaak Pankseep denomina circuitos “buscadores” de la mente, impulsándonos a buscar otra recompensa en nuestro entorno. Si estamos esperando una comida de tres platos y nos ponen unos simples canapés, el descenso de los niveles de dopamina hará que nos dirijamos inmediatamente al frigorífico. Unos niveles de dopamina crónicamente bajos pueden inducir el “mono” de la drogadicción o un hambre intensa, y, como vimos en el último capítulo, desempeñar un papel importante en las adicciones sociales. No obstante, en todas esas situaciones, el patrón recurrente clave es la medición del sistema de dopamina de la realidad frente a las expectativas, al estar indeclinablemente centrado en la novedad y la sorpresa.

Por esta razón, algunas personas son especialmente vulnerables a ciertas adicciones o a los hábitos destructivos. Hay personas que prueban la cocaína, les gusta, y sin embargo no vuelven a probarla más. Pero también hay personas que siguen tomándola a pesar de que hace tiempo que ha dejado de procurarles placer.

Estas últimas son más sensibles a la modificación del umbral de expectativas sobre la base de los últimos resultados: si éstos han sido muy buenos, la persona esperará que en otra ocasión hayan resultados parecidos o superiores.

El cerebro contiene sustancias químicas que crean placer y recompensa, y también contiene sustancias químicas que crean apetito de placer y recompensa. Dado que las recompensas raras veces caen llovidas del cielo, el sistema apetitivo está íntimamente unido al deseo de la mente de tener nuevas experiencias. El sistema del placer está anclado en las endorfinas y en ese pariente próximo de la adrenalina que es la norepinefrina; por su parte, el sistema del apetito de novedades está anclado en la dopamina. Estos dos sistemas a menudo trabajan en mutua sintonía, pero, en un individuo cualquiera, un sistema puede ser más fuerte que el otro. Existen hedonistas y buscadores. Estos dos tipos de personalidad no son sinónimos, aunque a veces pueden solaparse.

En mi caso, será por la dopamina, será porque soy curioso por naturaleza, pero… ¡necesito saber cómo termina Perdidos!




Una sonda marina alertará a España de posibles tsunamis


El 1 de noviembre de 1755, Lisboa quedó arrasada por uno de los peores tsunamis de la historia. Murieron 60.000 personas y los daños causados por las enormes olas se extendieron por las costas de España y Marruecos.

Hace dos días, un equipo español colocó el primer laboratorio submarino que será capaz de alertar de sismos como aquel y esclarecer su origen. Se trata de un proyecto europeo que alzará la voz de alarma hasta 20 minutos antes de que las olas lleguen a España, señala el investigador del CSIC Juanjo Dañobeitia, que dirigió el miércoles las tareas de colocación del ingenio.

"No creo que vaya a haber un terremoto en los próximos años, pero al menos ahora tenemos el control para detectarlo", explica. Es difícil que registre un temblor como el de Lisboa, pues ese tipo de fenómenos sólo se producen cada cada 2.000 años. Sin embargo, sí podrá rastrear el golfo de Cádiz en busca de la falla que provocó el tsunami.

El desastre lo originó un terremoto de unos 8,5 grados que comenzó sobre las nueve de la mañana. Ocasionó grandes olas que destruyeron la ciudad y mataron a miles de personas. En poblaciones españolas como Cádiz o Conil, el mar retrocedió cientos de metros y luego regresó con olas de hasta 10 metros que dejaron muchas bajas y daños materiales. El impacto llegó hasta Inglaterra, Finlandia y el Caribe.

"No hay duda de que este laboratorio nos va a ayudar a encontrar la falla", señala Dañobeitia. El origen del terremoto ha sido materia de especulación durante décadas. Se sitúa en una zona de riesgo sísmico en la que confluyen la placa euroasiática y la africana, a más de 100 kilómetros del cabo de San Vicente y en aguas del golfo de Cádiz. Allí está desde el miércoles el GEOSTAR, el primer laboratorio submarino de Europa que vigilará la zona a 3.200 metros de profundidad.


Cientos de fallas

El enclave está surcado por cientos de fallas que podrían provocar un sismo, explica Dañobeitia. Las más peligrosas son las verticales, que pueden hacer que el mar se sacuda con enorme violencia, comenta. Entre estas está la que originó la catástrofe de Lisboa.

El GEOSTAR está dotado de varios instrumentos para medir diferencias de presión en el agua, movimientos de tierra y otros indicadores que pueden alertar de cambios sutiles. Interpreta los datos gracias a algoritmos específicos. Si el resultado indica la posibilidad de un tsunami, la información se envía en unos segundos a una boya que flota en la superficie y de ésta a agencias nacionales de protección civil y organismos como el Instituto Geográfico Nacional.


Corrientes y cetáceos

El laboratorio también medirá las corrientes e intercambios de agua entre el Atlántico y el Mediterráneo, lo que aportará importantes datos sobre la circulación oceánica y sus efectos en el clima. El CSIC y la Universidad Politécnica de Catalunya están desarrollando además otro sensor para seguir el paso de grandes cetáceos y otras especies por el estrecho de Gibraltar.

GEOSTAR es la primera pieza de una red europea con otras nueve estaciones. Ha costado 300.000 euros aportados por España, Italia, Francia, Portugal y Alemania. Estará operativo un año, lo que duran sus baterías de litio. Después se decidirá si es rentable conectarlo al continente con un cable por el que obtendrá energía y enviará la información. La decisión para seguir adelante con el proyecto dentro del programa de grandes infraestructuras científicas se tomará en marzo de 2010, concluye Dañobeitia.




12 nov 2009

Premios SACYR: Hacemos lo imposible.



Los PREMIOS SACYR HACEMOS LO IMPOSIBLE, instituidos por la empresa SACYR, bajo la dirección y auspicio del científico, pensador y divulgador, EDUARDO PUNSET, pretende incentivar y recompesar públicamente a aquellos que a título individual o colectivo, investigan y trabajan en proyectos, desarrollados o ideas innovadoras, creativas, ingeniosas o pioneras, planteadas como ambiciosos retos de superación y mejora del "ESTADO DEL ARTE" o conocimiento disponible hasta el momento en torno a un tema determinado, dentro de cuatro ámbitos:


In vestigación tecnológica

Innovación medioambiental

Periodismo de innovación tecnológica y económica

Gestión de proyectos ciudadanos


El premio para cada una de las cuatro categorías, tendrá una dotación económica de 18.000€ y un diploma acreditativo, además de dotarle de prestigio y de reconociiento profesional a los ganadores.









Wolder Boox, un libro electrónico español con WiFi y pantalla táctil




En un mercado donde predominan los productos extranjeros, los lectores de libros electrónicos patrios brillan con luz propia. Al Papyre 6.1 se suma ahora Boox, un nuevo e-book que firma la empresa española Wolder. El dispositivo cuenta con conexión WiFi y pantalla táctil de seis pulgadas. No confundir con Vook, pese a lo parecido del nombre.



Para hacer frente a la dura competencia, desde Wolder se han decantado por unir dos prestaciones atractivas y de relativa novedad en el sector de los e-books. Nos referimos al acceso inalámbrico a la Red y la tecnología táctil.



La pantalla del Boox de Wolder mide 6 pulgadas y es monocromática, aunque cuenta con una escala de 16 tonos de grises. Los niveles, junto con la ausencia de brillo, evitan la fatiga visual según el fabricante. El panel táctil permite que los usuarios realicen anotaciones sobre él con un stylus, o lápiz electrónico, como se haría con un libro tradicional. El mismo mecanismo lo incorporó el Hexaglot N518.



En cuanto a la conectividad inalámbrica, se basa en el estándar libre WiFi. Así, no se requieren cables a la hora de acceder a Internet para descargar contenidos. Boox viene con la página de inicio de Google Books preconfigurada, aunque los lectores podrán bajar material desde otros sitios web. Wolder no ha especificado cuál es su capacidad interna inicial, pero aclara que está equipado con una ranura para tarjetas de memoria microSD. Admite un máximo de 32 Gb.



En cuanto a los formatos con lo que es compatible, Boox lee PDF, EPUB, TXT, HTML, CHM, RTF… Además de archivos de audio como MP3, o imágenes como JPG, PNG o GIF, entre otros. Dispone además de una salida estándar para auriculares. Por otra parte, según la firma española existirá la posibilidad de descargar de forma gratuita los nuevos formatos de lectura que surjan en el futuro.



La batería le proporciona una autonomía teórica de alrededor de 8.000 páginas. Su precio es de 400 euros y se encuentra disponible en un amplio número de establecimientos.












La NASA reproduce en el laboratorio un componente clave para la vida



Científicos de la NASA han conseguido reproducir en el laboratorio un ingrediente indispensable para la formación de la vida tal y como la conocemos actualmente en la Tierra. Se trata del uracilo, un componente clave en nuestro material hereditario, que puede encontrarse en cualquier criatura viva en el planeta. El descubrimiento puede ayudar a los astrobiólogos a comprender cómo se originó o de dónde llegó la primera esencia animada que colonizó nuestra pequeña bola azul.


«Hemos demostrado por primera vez que podemos crear uracilo, un componente del ácido ribonucleico (ARN o RNA, en sus siglas en inglés) no biológicamente en un laboratorio bajo las condiciones que encontramos en el espacio», ha explicado Michel Nuevo, científico del Centro de Investigación Ames de la NASA en Moffet Field, California.


171 grados bajo cero


Pero, ¿cómo lo lograron? Los científicos descubrieron que al exponer una muestra de hielo que contenía pirimidina -una molécula en forma de anillo hecha de carbono y nitrógeno que también ha sido encontrada en meteoritos- a radiación ultravioleta bajo condiciones similares a las del espacio: en vacío y a temperaturas de -171º C., en lugar de destruirse, la pirimidina tomaba nuevas formas y se producía el uracilo. Eureka. En otras palabras, un ingrediente vital es capaz de originarse y sobrevivir en las infernales condiciones más allá de la atmósfera, lo cual abre la puerta muchas preguntas... y alguna posibilidad que roza la ciencia ficción.


Los investigadores han simulado los entornos que se encuentran en el espacio interestelar y en el Sistema Solar durante años y éste es un importante avance en sus estudios. «Nadie entiende realmente cómo empezó la vida en la Tierra. Nuestros expermientos demuestran que, una vez formada la vida, muchos de los bloques esenciales para su origen estaban presentes desde el inicio. Dado que estamos simulando condiciones astrofísicas universales, es probable que lo mismo suceda cada vez que se forma un planeta», han explicado los especialistas. El estudio ha sido publicado en la revista Astrobiology.








La realidad aumentada



Camina en plena ruta de montaña, rodeado de riscos, y le asalta la duda. ¿Cómo se llama cada cima, cuál es su altitud? Desenfunda el móvil, visualiza el paisaje con la cámara del mismo y, justo encima de cada pico, en la pantalla, una etiqueta le ofrece la información que buscaba. Torre Cerredo, 2.600 metros; Aneto, 3.400 metros. A eso se le llama "la realidad aumentada", una tecnología existente desde hace años, pero que ahora ha descubierto su filón de rentabilidad y utilidad en la telefonía 3G y los móviles inteligentes.


Si en la última década se apostó con escaso éxito por la realidad virtual, por sumergirse en mundos creados artificialmente en videojuegos y simuladores, los próximos años apuntan a la realidad aumentada: superponer contenido (texto, vídeos, animaciones en 3D...) directamente sobre el mundo real.


"Utilizamos el GPS del móvil para determinar la localización de la persona y la brújula para saber hacia dónde está enfocando. Esto permite desplegar en la pantalla puntos de interés encima de la imagen real: restaurantes, cajeros, monumentos... lo que sea", explica Claire Boonstra, cofundadora de Layar, una start-up holandesa que en sólo cuatro meses ha logrado trasladar una idea futurista a un mercado tan masivo como el móvil.


Disponen de 176 capas de información y más de 1.000 desarrolladores independientes creando contenido en su plataforma, como dónde encontrar paradas de metro, museos o gasolineras según caminamos por la calle y desplegar información de la Wikipedia sobre el monumento que contemplamos.


La popularización de los smartphones, que incorporan GPS, acelerómetros, brújula y procesadores cada vez más potentes, está permitiendo a la realidad aumentada aterrizar en las manos del consumidor a un coste cercano a cero. Hoy por hoy, la información añadida a las imágenes reales son iconos y textos, pero habrá vídeos y animaciones en 3D.


La idea tiene todos los ingredientes para convertirse en un hit tecnológico. Eso si sobrevive a las expectativas: start-ups que en meses pasan del anonimato a grandes promesas, inversión de grandes fabricantes, asombro de los consumidores y las primeras predicciones de crecimiento desmesurado en volumen de negocio.


ABI Research calcula que el mercado de realidad aumentada en móviles moverá 233 millones de euros en 2014, un crecimiento del 5.700% respecto a 2008. Aunque todavía existen obstáculos asociados a la inexactitud del GPS, los ingresos por venta de aplicaciones y publicidad, asegura la consultora, se dispararán.


La start-up holandesa Layar, con 10 empleados, ha sido la primera en trasladar con éxito el concepto al móvil. Desde junio, roza las 250.000 descargas de su aplicación para iPhone y Android. La gente ha accedido al servicio más de un millón de veces. Su objetivo es convertirse en una plataforma sobre la que cualquiera pueda desarrollar servicios de realidad aumentada.


"Hay cientos de capas de contenido, las compañías nos pagan por aparecer primero, en la sección de favoritos. También ingresamos por descargas. Si alguien se baja la capa de restaurantes de Madrid por 2,99 euros, nos llevamos una parte", explica Boonstra. En el futuro, ve posible cobrar por descargas de objetos virtuales. "Podrías regalar unas flores en realidad aumentada por cuatro euros. Cada vez que apuntases con el móvil a una mesa, verías en la pantalla tu ramo virtual superpuesto en la realidad".


La gallega Signo, especializada en cartografía y geolocalización, ha sido de las primeras en España en hacerse con una licencia de Layar. Han creado cuatro capas de contenido. Una permite localizar albergues y leer información de los pueblos del Camino de Santiago. Otras dos localizan gasolineras y hoteles en núcleos urbanos. Y Bankinter les ha encargado desarrollar una para visualizar sus cajeros en plena calle, ya disponible.


Wikiaumentada


Layar no está sola. La austriaca Mobilizy ha desarrollado Wikitude. Al apuntar la cámara del móvil hacia un edificio histórico, el GPS reconoce la localización y muestra información de la Wikipedia sobre el monumento. En Japón, Sekai Camera, de la empresa Tonchidot, añade al mundo real los comentarios de la gente acerca de direcciones, tiendas, restaurantes... Acrossair, disponible en siete ciudades, entre ellas Madrid y Barcelona, identifica en la imagen la estación de metro más cercana. Bionic Eye y Yelp Monocle, en EE UU, son ejemplos similares.


Los grandes también quieren meterse. Nokia trabaja desde 2006 en crear aplicaciones de realidad aumentada, aunque hasta ahora sólo ha estrenado una a medio camino, Point & Find.


El fabricante de chips Qualcomm desarrolla Blur, una tecnología propietaria. Y Google ha dado un pequeño paso con Sky Map. "Todos los fabricantes están interesados", dice Boonstra.


Del móvil al ojo biónico


Como en todo sector que despega, la imaginación vuela. Si la realidad aumentada en el móvil es una realidad, en el futuro esta tecnología podría integrarse en el ojo humano.


Lo asegura un grupo de investigadores de ingeniería eléctrónica de la Universidad de Washington, en Seattle. Trabajan en desarrollar lentillas de contacto con circuitos LED integrados, comunicados por radiofrecuencia con un equipo externo. Según el responsable del proyecto, Babak Parviz, en varios años estas lentes podrían contener cientos de LED, que, conectados a Internet, emitirían imágenes, palabras y gráficos superpuestos en la imagen real. Olivier Audouze cree que es posible. "Ahora todo esto está en el laboratorio, pero hay grandes compañías invirtiendo".


Alejandro Escohotado, programador en una agencia que diseña realidad aumentada para marcas como Fiat, ve en las gafas un paso intermedio. "Imagina ir a un concesionario, ponerte unas gafas, y ver aumentadas las piezas del motor, detalles que no apreciarías con sólo subirte en el coche", explica. El precio es el problema: unas gafas así superan hoy los 8.000 euros.











Videojuegos para buscar petróleo



Las compañías petrolíferas encuentran cientos de nuevos yacimientos gracias al uso de tecnologías innovadoras, como los robots submarinos o los chips de consolas.


El año 2009 está siendo especialmente provechoso para las compañías petroleras, que han descubierto más de 200 yacimientos, un número muy por encima de la media. Según datos del IHS Cambridge Energy Research Associates la compañía más importante en asesoramiento energético, estos hallazgos han supuesto un total de 10.000 millones de barriles de crudo en la primera mitad del año, el nivel máximo desde 2000.


Y es que, a pesar de las predicciones catastrofistas que auguraban el fin de los combustibles fósiles (petróleo, gas o carbón), estos seguirán siendo la principal fuente de energía primaria en 2030. El crudo, concretamente, continuará como rey de los carburantes, aunque su proporción como combustible primario disminuirá del 34% actual al 30% en 2030, según el último informe de la Agencia Internacional de la Energía (AIE) difundido el martes.


La demanda de petróleo, de hecho, crecerá un promedio del 1% anual y pasará de los 85 millones de barriles diarios actuales a los 105 millones de barriles al día en 2030. El aumento de la demanda provendrá de los países no pertenecientes a la OCDE, señala la agencia en su informe World Energy Outlook 2009.


Las razones de este boom de la exploración petrolífera se deben, principalmente, al aumento de la inversión en nuevas tecnologías de prospección. Una de las compañías más activas es la española Repsol. Según datos de la empresa, durante el último año se han hecho 15 descubrimientos, y dos de ellos se encuentran entre los mayores del mundo. El último hallazgo se ha producido en las aguas profundas del Golfo de México una zona que alberga reservas de crudo equivalentes a 37.000 millones de barriles y se localizó gracias a una tecnología desarrollada por la propia Repsol en colaboración con el CSIC, el Centro de Supercomputación de Barcelona y la Universidad de Stanford (EEUU), y que se basa en una curiosa tecnología: la de la consola de videojuegos de Sony, PlayStation3.


El proyecto se denomina Caleidoscopio, y desarrolla una tecnología propia basada en el procesador Cell de la PS3. El chip capaz de manejar 200 Gigaflops de información cuenta con más capacidad para procesar datos que los chips tradicionales y permite detectar con mayor precisión reservas de combustible bajo las gruesas capas de sal en aguas profundas (entre 800 y 1.600 metros).


"Necesitábamos una elevada capacidad de computación para manejar los complejos algoritmos que desarrollamos, y necesitábamos procesadores baratos y que consumieran poco. La PS3 se ajustaba a nuestras necesidades", comenta Francisco Ortigosa, director de Geología de Repsol, desde la oficina de la compañía en Houston (EEUU). De esa forma se construyó un superordenador con 600 procesadores Cell de PS3 con una potencia de 120 teraflops, "equivalente a 10.000 procesadores Pentium", explica Ortigosa.


Los datos que analiza el ordenador se recogen desde barcos que arrastran entre 6 y 12 cables de unos 12 kilómetros de longitud. La técnica es muy similar a la utilizada en las ecografías médicas: se envían señales sonoras al fondo, se reflejan y se crea una imagen. "Nuestra tecnología permite obtener mejores imágenes e identificar con mayor precisión las zonas que esconden crudo", afirma Ortigosa, quien realiza, además, una analogía: "Es como si miráramos al cielo con telescopios mientras los demás lo hacen con prismáticos".


Sustratos rocosos


El uso de superordenadores es la técnica más segura a la hora de localizar pozos de petróleo útiles, pero hay otras que pueden complementarla, como la que propone el Real Instituto de Tecnología de Estocolmo (KTH). Allí, un grupo de investigadores ha llegado a la conclusión de que el petróleo no se genera necesariamente a partir de fósiles. "Cualquier sustrato rocoso puede servir como yacimiento", afirma Vladimir Kutcherov, líder de la investigación. "Por eso podemos decir dónde hay petróleo en cualquier parte del mundo".


El sistema consiste en dividir el globo con una cuadrícula que une fisuras llamadas canales de migración bajo la superficie terrestre por donde se distribuye el crudo, que está en constante movimiento en determinadas capas terrestres hasta que llega a alguna zona en la que queda atrapado. De esa forma, allí donde las fisuras se unen es buen lugar para taladrar en busca de petróleo o gas. Kutcherov afirma que este método aumenta del 20% al 70% las posibilidades de éxito a la hora de encontrar yacimientos, que las compañías petrolíferas ahorrarán dinero y que este descubrimiento "es un claro indicio de que el suministro de petróleo no acabará".


Otra técnica es la de los microfósiles. "La micropaleontología es una herramienta de bajo coste pero efectiva y que no debe seguir ausente del proceso de búsqueda de petróleo", afirma Martin Langer, micropaleontólogo alemán de la Universidad de Bonn. El experto explica que el petróleo y el gas sólo pueden formarse en determinadas condiciones en el océano, por lo que conocer los parámetros ambientales a partir de las señales morfológicas preservadas en las conchas de los microfósiles es vital para realizar predicciones exitosas sobre dónde excavar para perforar las reservas de petróleo. En este sentido, Francisco Ortigosa revela que en Repsol, de hecho, "ya se realizan estudios petrográficos para estudiar las rocas y su morfología".


Pero, además, encontrar petróleo bajo el agua podría ser aún más sencillo gracias a unos robots especiales creados por la compañía británica Go Science. Se trata de ingenios submarinos autónomos con forma de anillo capaces de viajar a ocho nudos gracias a una batería eléctrica. Pero la novedad del robot equipado con GPS y señales acústicas es su capacidad para agruparse con hasta 2.500 robots de su misma especie para crear un grupo autónomo coordinado y enviar datos a la superficie.


Sin duda, las nuevas tecnologías echarán por tierra las predicciones sobre el agotamiento de las reservas de petróleo. "Cuando se predice lo que durará el crudo se hace según los datos de los que se dispone hasta ese momento, y ahora se están descubriendo nuevas reservas bajo la sal de las aguas profundas", concluye Ortigosa.








Ciencia contará con 146,5 millones más


El Ministerio de Ciencia e Innovación (MICINN) anunció ayer un incremento de 146,5 millones de euros en su presupuesto respecto al borrador presentado inicialmente por el Gobierno. Este aumento ha sido posible tras un pacto con el PNV y Coalición Canaria. Precisamente por ese motivo, gran parte de ese incremento irá destinado a infraestructuras y proyectos en el País Vasco. Coalición Canaria, por su parte, logró un incremento de tres millones de euros para el Instituto Astrofísico de Canarias. En total, el MICINN contará con 5.438 millones de euros para 2010.

Tras la presentación del presupuesto en septiembre, cuando los científicos mostraron su malestar por los recortes para el ministerio, Garmendia llegó a afirmar que no se habían entendido las cifras. El desconcierto de los investigadores españoles fue compartido incluso por un editorial en una revista del grupo Nature. La presentación de estas últimas cifras no hará más sencilla la comprensión. En la nota posterior a la presentación del borrador, el MICINN afirmaba que su presupuesto aumentaba un 0,2%. Ahora, con 146,5 millones más, vuelve a anunciar el mismo incremento (0,25%).





Descubren la mutación genética clave que permite el lenguaje en humanos


La mutación de un solo gen está detrás de la capacidad humana de comunicarse mediante el lenguaje, una característica que nos diferencia del resto de los primates. Se trata del gen FOXP2, cuya relación con el habla ya se conoce desde los años 90.

Ahora, en una investigación que publica la revista 'Nature', se ha descubierto que la alteración de dos aminoácidos en la cadena de una proteína codificada por este gen cambia la función de ésta y permite encender y apagar más de un centenar de genes, lo que nos otorga la capacidad de expresarnos verbalmente.

El hallazgo no sólo es importante para explicar una mutación que fue fundamental en nuestro pasado evolutivo, sino también para encontrar tratamientos para personas que tienen alterada esa capacidad, como los autistas o los esquizofrénicos.

La investigación, realizada por las universidades de California y Emory (Georgia), partió de una sospecha que ahora se ha confirmado: entre los humanos y los chimpancés hay dos mutaciones que afectan al FOXP2 y que facilitaron que la lengua emergiera en los humanos.

«Nuestro trabajo es el primero que examina los efectos de esos cambios en nuestras células. Comprobamos que las versiones de ese gen en humanos y chimpancés no sólo parecen diferentes, sino que sus funciones también lo son y ello puede explicar porqué los cerebros humanos tienen el circuito del habla y los de otros primates no», explica Daniel Geschwind, uno de los biólogos firmantes de este trabajo.

El biólogo español Carles Lalueza, de la Unidad de Biología Evolutiva (CSIC-Universidad Pompeu Fabra) añade otra conclusión importante: «Esta investigación nos revela que, aunque estamos muy relacionados genéticamente con los chimpancés, el resultado final es que somos muy diferentes porque hay pequeñas mutaciones, como éstas, que dan lugar a cambios muy importantes porque afectan a muchos otros genes».




11 nov 2009

40 años de Barrio Sésamo



En 1969, un ejército de expertos se juntaba en Harvard para complotar un programa educativo para niños sin recursos. Su cumpleaños coincide con el primer presidente ‘nativo de Sésamo’ en la Casa Blanca.


Cualquier usuario de Google familiarizado con los Doodles, las variaciones de su logo, hubiera podido predecir el del pasado lunes 9 de noviembre: estaría dedicado, claro, al muro de Berlín. ¿A qué, si no?


Error. Sí se hizo un Doodle del muro, pero sólo para Alemania. El resto del mundo tiene, a lo largo de toda la semana, algo más importante que conmemorar: los 40 años de Barrio Sésamo. Darwin, Ghandi o Martin Luther King tendrán su día en Google, pero la Rana Gustavo se ha ganado una semana completa.


Puede que se deba a que Larry Page y Sergei Brin, los fundadores del buscador, forman parte de una generación indeleblemente marcada por el programa que, cuando nació, en noviembre de 1969, tenía como uno de sus objetivos educativos que los niños no olvidasen los contenidos que aprendían en el Barrio. Y no son los únicos. De Barack Obama ha dicho la revista Time que más que el primer presidente negro se trata del primer presidente Sésamo. El primero suficientemente joven para haberse educado con el programa.


Su mujer, Michelle Obama, aparece precisamente en el capítulo que marca el 40 aniversario. Cuando lo rodó, la Primera dama aseguró que era lo más excitante que le había ocurrido desde que llegó a la Casa Blanca.


Su creadora, la productora televisiva Joan Ganz Cooney, ideó Barrio Sésamo para niños como Barack y Michelle y menos privilegiados: de orígenes diversos, preferiblemente residentes en zonas urbanas y con ingresos reducidos.


Sin lucro ni tabúes


Cooney convenció al Gobierno, la PBS (la televisión pública estadounidense, un reducto marginal de programas educativos) y una serie de fundaciones para que financiasen el proyecto que empezó a cocinarse en la Universidad de Harvard entre un ejército de psicólogos infantiles, educadores y profesionales de la tele a los que pronto se sumaría el marionetista Jim Henson. Él aportaría los muñecos que hoy asociamos al programa y que desde el principio interactuarían con humanos.


Esas dos características, el ser un producto sin ánimo de lucro y la detalladísima investigación educativa que hay detrás de cada sketch -uno se vetó porque Elmo trepaba sobre una letra "O" y los pedagogos creyeron que podía incitar a los bebés a colarse por el inodoro- se mantienen hasta hoy y explican el carácter del programa. Eso y la intención de que no existieran temas tabú: el divorcio, la homosexualidad y la muerte de los seres queridos se han explicado a sus espectadores, que empiezan al año de edad. Uno de los episodios más memorables en Estados Unidos (y el preferido de Carroll Spinney, el actor que se mete dentro de la Gallina Capo-nata desde 1969) se emitió en 1983, cuando falleció uno de los actores y el programa aprovechó para contar a los niños que cuando alguien muere, no se le vuelve a ver. Ver la cara deBig Bird(en España, conocida como Caponata o Pico Paco para distintas generaciones) intentando comprender esa realidad sigue emocionando a espectadores de cualquier edad. Hace unos meses, se emitió un especial de una hora dedicado a los efectos de la crisis financiera.


Aunque toda esa pedagogía y buenas intenciones hubieran quedado en nada, si Barrio Sésamo no fuese, antes que nada, desternillante para los niños. Ahí es donde entra el gamberrismo de Triqui, el Monstruo de las galletas y el hablar por hablar de Epi y Blas.


Las galletas, por cierto, estuvieron a punto de desaparecer en los noventa. El BarrioSésamo de los últimos años concede mucha más importancia a la obesidad infantil y ahora el Monstruo come también verduras y los muñecos hacen yoga. Así nadie duda de que llegarán a los 80.


EN EL MUNDO


El puercoespín que no quiso Israel


Los espectadores españoles conectaron por primera vez con 'Barrio Sésamo' en 1976, cuando empezaron a traducirse algunos 'sketches' dentro de 'Un globo, dos globos, tres globos'. Aunque, como recuerda el director del canal infantil de RTVE, Yago Fandiño, en aquellos tiempos se explicaba a los niños estadounidenses cómo no perderse en un hipermercado, cosa que les sonaba a chino al 90 % de los espectadores españoles. Ya en 1979 se decidió hacer una adaptación mucho más ambiciosa del formato, con un 50% de contenidos propios. " Profesionales de TVE se desplazaron a Nueva York a aprender en Desame Workshops", explica Fandiño. Llegaban entonces la auténtica gallina Caponata -que era rosa, y no amarilla- y el caracol Perezgil. Espinete, el personaje que probablemente más haya arraigado en España, llegó por casualidad en 1983. En la factoría de Jim Henson no daban abasto con las peticiones. El marionetista Kermit Love había creado un puercoespín, símbolo del estado de Israel, para ese país. Pero las negociaciones fracasaron y Love lo envió a España, por si colaba. Coló y triunfó junto a Don Pimpón hasta que le sustituyeron Yupi y sus mundos, para disgusto de sus fieles. Tras años de ausencia, 'Juega conmigo Sésamo' volvía este año a La 2.


En el resto del mundo, 'Barrio Sésamo' ha alcanzado 120 países. A sus creadores les gusta hablar de la 'diplomacia teleñeca' para describir sus esfuerzos en Palestina o Suráfrica.















Creado un prototipo de ascensor espacial propulsado por láser



La idea de subir al espacio en ascensor parece descabellada, pero cada vez hay más científicos e ingenieros que se la toman en serio. La NASA ha galardonado con 900.000 dólares a la compañía LaserMotive por desarrollar un sistema de transmisión de energía sin hilos necesario para construir un ascensor espacial.


En un concurso celebrado la semana pasada, el prototipo fue capaz de recorrer un cable de un kilómetro de longitud suspendido de un helicóptero en 3 minutos y 48 segundos. Los creadores de la máquina transmitieron la energía desde tierra empleando un láser enfocado a células fotovoltaicas.


Es la primera vez en cuatro años de concurso que un equipo cumple los requisitos fijados para obtener un premio, en este caso el segundo. Para lograr el primer premio, dotado con 1,1 millones de dólares, el robot debería trepar el kilómetro de cable en menos de tres minutos.


El concurso, ideado para crear tecnologías que se podrían utilizar para construir un ascensor espacial, se complementa con una segunda categoría que premiaría con dos millones de dólares a quien cree un cable con una resistencia que supere en un 50% al más resistente del mercado sin superar su peso.


La tecnología desarrollada tiene diversas aplicaciones, como hacer llegar electricidad a lugares que han sufrido desastres naturales o de difícil acceso.








La NASA confirma que el mundo no se acabará en 2012



"El apocalipsis no está previsto para el 21 de diciembre 2012". Así, de forma clara y sintética, la NASA quiere acallar el barullo generado en Internet sobre el inminente fin del mundo surgido a raíz de una campaña de promoción de la película 2012.


En un gesto inusual por parte de la agencia espacial de EEUU, sus científicos han querido disipar el temor generado y responder a las numerosas dudas que los usuarios plantean en su página web. En su sección de "preguntas frecuentes" los científicos aseguran que "el 21 de diciembre de 2012 no se producirá el fin del mundo tal y como lo conocemos". "Sin embargo", aclaran, "una vez más llegará el solsticio de invierno".


Aunque las teorías sobre diferentes apocalipsis han estado presentes en Internet desde su nacimiento, la oleada de nueva información que se ha publicado en diferentes páginas web pseudo-científicas ante la promoción de la película han alarmado a muchos internautas. Pero desde la NASA aseguran que "nada malo va a pasar a la Tierra en 2012. Ninguno de nuestros científicos ni colaboradores conoce amenaza alguna que pueda acabar con nuestro planeta en 2012".


La teoría del fin del mundo en 2012 parte de la idea de que el supuesto planeta Nibiru, descubierto por los sumerios, se dirige hacia la Tierra y acabará chocando contra ella.


Aunque en un primer momento el choque se fechó para 2003, al no ocurrir nada se emplazó este apocalipsis para 2012, coincidiendo con un supuesto fin de ciclo del calendario maya. Para enriquecer la historia, se añadió como complemento de credibilidad que la NASA ha estado siguiendo el viaje de este planeta de forma secreta desde principios de la década de los 80 y se ha encargado de suprimir todas las noticias publicadas sobre su existencia por el bien de la "seguridad global".


Este ha sido otro de los detonantes que ha provocado la reacción de la agencia. La publicación de estas 'respuestas' a internautas deja de manifiesto que si conocieran algún tipo de peligro para nuestro planeta procurarían divulgarlo en todo el mundo. Además, la NASA tiene en su agenda proyectos a largo plazo, cuyo desarrollo se extiende más allá de esa supuesta fatídica fecha.


La NASA aclara que este cuento es absolutamente falso y aporta una extensa documentación e informes para asegurar que se trata una vez más de una ficción para un guión de cine. Ante ello, pide que todos los contenidos sobre esta teoría publicados en Internet sean considerados hoax (bulos).


Al menos, eso es justo lo que esperan que creamos.





FUENTE:
http://www.publico.es/ciencias/tecnologia/268785/nasa/confirma/mundo/acabara






Virgin se prepara para emitir televisión en 3D por fibra óptica



En España aún no tenemos muy claro qué es eso del HDTV que disfrutan en el mundo anglosajón, y en Gran Bretaña precipitan las emisiones televisivas en 3D. Si ya hablamos en su momento de los planes de Sky TV de abrir un canal de contenidos tridimensionales mediante recepción por satélite, ahora el mismo canal, propiedad del imperio Virgin, pretende hacer lo propio valiéndose de la fibra óptica como medio.


Las pruebas que la compañía ha venido realizando en Gran Bretaña han sido calificadas como todo un éxito, con lo que empleando la red que ya tienen instalada en el territorio insular podrían emitir un volumen de información que, a priori, se antojaba limitado para las necesidades que se podrían anticipar.


Respecto a los contenidos, desde Virgin Media barajan la posibilidad de que en un principio las emisiones se centren en series y películas que, previamente, la compañía convierta desde el formato original bidimensional al soporte final en 3D. El cliente de este servicio (que presumiblemente, será contratable en un paquete aparte) recibirá la señal mediante el mismo receptor que usa en estos momentos y podrá visualizar los contenidos. Para ello, será fundamental el uso de gafas polarizadas, ya que las imágenes tridimensionales son difícilmente apreciables sin el uso de ellas.


Por el momento, y después de hacer público el éxito de la operación, Virgin brinda a los residentes en Londres y turistas la oportunidad de echar un vistazo a los resultados de este tipo de emisiones en la tienda que la compañía tiene en Oxford Street.








Nuevo récord eólico al superarse el 40% de la producción eléctrica durante la noche



La eólica ha vuelto a batir sus marcas. Entre las 00.40 de anoche hasta las 6.20 de la mañana, la energía eólica ha aportado más del 40% de la demanda eléctrica del país, según datos de Red Eléctrica, la empresa que gestiona la red. En algunos momentos, ha llegado a alcanzar el 44% de la electricidad. En otras ocasiones ha habido picos parecidos (del 43% el 24 de noviembre de 2008), pero lo relevante es que en esta ocasión la aportación ha sido continuada, durante varias horas, sin que se produjeran apagones ni colapso en el sistema. El pasado 5 de marzo, la eólica aportó el 40% pero sólo durante dos horas.


La aportación eólica ha disparado el bombeo de agua. Cuando hay mucho viento y poca demanda (algo que ocurre generalmente de noche), las empresas bombean agua hacia arriba en las presas reversibles -como la de la Muela, de Iberdrola, en Valencia- como forma de almacenar electricidad. Por el día, ese agua vuelve a caer y a generar electricidad. También durante la noche aumentó la exportación de energía.


Además, entre hoy y mañana está previsto que entren en funcionamiento simultáneamente hasta 11.000 megavatios eólicos, la potencia de 11 reactores nucleares y un 65% de la instalada en España, con lo que se puede batir el récord de producción en un momento. En noviembre de 2008, durante otro temporal una madrugada de domingo, Red Eléctrica tuvo que desconectar un tercio de los molinos porque sobraba producción.


Sistemas de control ante apagones


Las renovables generarán en 2009 un 25% de la demanda eléctrica del país. Para gestionar tal cantidad de energía variable, Red Eléctrica ha desarrollado un sistema pionero en el mundo que le permite conocer en cada momento qué es lo peor que podría pasar si se desconectara un grupo de molinos y cómo lo solucionaría sin que hubiera un apagón. El centro, de obligada visita en el sector, evita así el primer cuello de botella de las renovables, la capacidad de la red para gestionarlas.


La Administración de Barack Obama acaba de anunciar una inyección para renovar la obsoleta red de EE UU, el primer paso para poder aumentar la participación de las renovables. El jefe de la oficina de transición entre Bush y Obama y ex jefe de gabinete de Clinton, John Podesta, declaró en octubre pasado en su visita al sistema de Red eléctrica: "Cuando miras a España y sus sistema eléctrico ves el futuro". También el director de la Agencia Internacional de la Energía, Nobuo Tanaka, calificó en septiembre pasado el centro de control de renovables como "la mejor práctica en el mundo".


Red Eléctrica ha tenido que desarrollar este sistema de control al estar España casi aislada del sistema europeo, lo que limita mucho la importación y exportación de electricidad. Dinamarca tiene más renovables que España, pero si un día no hay viento o sopla demasiado, no tiene problema, puede importar o exportar electricidad del sistema europeo a través de Alemania.


España, mientras, sólo tiene capacidad para exportar o importar de Francia el 3% de la demanda máxima. La línea eléctrica con Francia que duplicaría esa capacidad y facilitaría el acceso de las renovables lleva años de retraso entre otras cosas por las protestas ecologistas en Girona. A medio plazo, los coches eléctricos conectados durante la noche para recargarse podrán sevrir para almacener parte del exceso de la eólica en esas horas.








Un autotrasplante regenera el pene



Un estudio en conejos ha demostrado que se puede trasplantar el tejido cavernoso que hace posibles las erecciones, después de crearlo en el laboratorio a partir de las propias células del receptor.


El logro, conseguido por uno de los equipos más avanzados en medicina regenerativa, ha permitido que los animales tratados recuperen la función sexual y se reproduzcan.


La técnica podría mejorar los tratamientos contra la impotencia en hombres con órganos sexuales dañados por accidentes o enfermedades como el cáncer, señalan los autores. "La escasez de tejido eréctil para trasplantes impide a estos pacientes recuperar la función sexual", detalla el médico Anthony Atala, el experto en medicina regenerativa de EEUU que ha dirigido el trabajo.


Vejigas humanas


En 2006, el equipo de Atala en el Instituto Wake Forest de Medicina Regenerativa fue el primero en trasplantar con éxito un órgano previamente compuesto en el laboratorio a partir de células de un paciente. Se trataba de vejigas para niños con malformaciones congénitas debidas a la espina bífida. Atala reconstruyó los órganos a partir de un trozo de vejiga de cada donante. Extrajo células de la muestra, las cultivó y después dejó que se multiplicasen sobre una estructura tridimensional que reproduce la forma del futuro órgano. Una vez el andamio celular está cubierto con tejido, se implanta de nuevo en el paciente. La técnica puede regenerar multitud de órganos y el equipo de Atala estudia su aplicación para regenerar hasta 20 tejidos especializados.


El caso del pene es muy complejo. El tejido esponjoso que compone sus cuerpos cavernosos permite a este órgano hincharse una vez que sus células dan la señal para la entrada de sangre. Aunque existen varios tipos de implantes que pueden remedar sus funciones, hasta ahora no se ha conseguido devolver a un paciente la capacidad de tener una erección de manera natural, señala Atala en su estudio, publicado ayer en PNAS.


En 2002, su equipo ya logró trasplantes parciales en conejos, pero los animales sólo recuperaban el 50% de la funcionalidad del pene. En esta ocasión se propusieron crear cuerpos cavernosos en el laboratorio para hacer un trasplante completo que permitiera a los animales reproducirse.


Primero, los científicos extrajeron tejido de los cuerpos cavernosos de los conejos y aislaron sus dos pilares básicos: células de músculo liso y endoteliales que tapizan los vasos sanguíneos. Los investigadores dejaron que las células se multiplicasen en un cultivo que reproduce las condiciones corporales y que permite obtener millones de copias en pocas semanas. Después inyectaron las células en una estructura orgánica vacía que sirve de andamio para recrear la forma de los cuerpos cavernosos.


Buen funcionamiento


Doce conejos a los que previamente se habían extraído los cuerpos cavernosos recibieron el implante. Los animales tenían una circulación adecuada en la zona y su tejido respondía bien al óxido nítrico, la sustancia que hace que el músculo de los cuerpos cavernosos se relaje y deje entrar la sangre al pene para permitir una erección.


Los animales comenzaron a copular con hembras un mes después del trasplante. La mayoría consiguió eyacular normalmente y cuatro de ellos lograron dejar preñada a su compañera.


"Son necesarios más estudios, pero estos resultados son prometedores", destaca Atala. "Esperamos que, en el futuro, esta tecnología ayude a pacientes con malformaciones, cáncer de pene, amputaciones y algunos tipos de disfunción eréctil", concluye.








Wolfram|Alpha, el buscador científico definitivo



Pocas páginas web me han sorprendido tanto últimamente como WolframAlpha. Mientras la gente sigue embelesada con productos tan simples como twitter, el lanzamiento de WolframAlpha el pasado mayo pasó casi inadvertido.


¿Por qué es tan especial? Se trata de lo que ellos denominan como ‘buscador de conocimiento’. WolframAlpha puede recibir como búsqueda una frase literal (en inglés, eso sí) e interpretar los cálculos necesarios. Por ejemplo, “weather in Barcelona on the 25th of July of 1992” (“tiempo en Barcelona el 25 de julio de 1992”) da como resultado que la temperatura promedio fue 25 ºC, la mínima 20, la máxima 29, el viento era de 3 m/s y hubo nubosidad intermitente. Nos mostrará además un cronograma con la evolución de la temperatura y la humedad durante las 24 horas.


Podemos realizar cientos de consultas como “life expectancy in Mexico” para conocer la esperanza de vida en México o “GDP per capita Spain, France, Portugal” para comparar la renta per cápita entre España, Francia y Portugal. Pero sin duda, lo mejor llega cuando entramos en las Matemáticas.


Y es que aquí, WolframAlpha (basado en el conocido programa Mathematica) es sencillamente espectacular. Se pueden calcular integrales como “integral(cos x / (1 + (sen x)^2))” y la web no sólo nos devolverá la fórmula de la integral indefinida, sino el desarrollo de los pasos que debemos seguir para calcularla. Si quisiésemos calcular la integral definida entre 0 y π bastaría probar “integral(cos x / (1 + (sen x)^2)) from 0 to pi”.


También podemos realizar cálculos mucho más complejos, como ecuaciones diferenciales. Por ejemplo, “(t2 + 2*t*y)*y’ – y2 = 0” (importante no olvidar los ‘*’ de las multiplicaciones, el algoritmo se suele hacer un lío cuando faltan). Nos puede servir para sumar series infinitas, como “1/2 + 1/4 + 1/8 + 1/16 + ...”, o un sistema de ecuaciones, por poner un ejemplo “3x + y = 2, y^2 – x = 3”.


También valen las preguntas de carácter teórico. Probad por ejemplo con “Prime Number Theorem”, “repunit prime” o “Goldbach conjecture”, tres temas de los que hemos hablado en la serie sobre números primos.


Podemos realizar prácticamente cualquier tipo de consulta relacionada con las matemáticas aplicadas, desde estadística (“normal distribution, mean=40, sd=10, probability x <>

En definitiva, aunque aún está por pulir (aparentemente se pueden hacer ‘búsquedas intuitivas’ pero hay gran cantidad de errores de interpretación con la sintaxis), el potencial de WolframAlpha es enorme. Es como el famoso programa Mathematica pero gratuito, disponible para todo el mundo en Internet, y además añadiendo búsquedas semánticas e impresionantes bases de datos sobre climatología, indicadores socioeconómicos, historia, geografía, etc.


Para mí, lo mejorcito de 2009 en el mundillo de la ‘web 2.0’ sin ningún genero de dudas. Aunque a los ‘mass-media’ sólo llegan noticias sobre la última actualización estúpida del tuenti o el twitter, esta herramienta tiene unas posibilidades infinitas para la enseñanza científica o incluso para el disfrute personal de amantes de la Ciencia como nosotros.








Diseñan líneas de metro que sortean los monumentos



Un equipo de matemáticos de las Escuelas de Arquitectura e Ingenieros de la Universidad de Sevilla (US) ha creado un método de diseño de líneas de metro que no afecta a los edificios históricos de las ciudades. Los resultados del estudio, que se acaba de publicar en el Journal of the Operational Research Society, aportan posibles soluciones para la futura línea 2 del metro de Sevilla.


“La metodología aplicada busca minimizar la longitud de los tramos de metro -con el consiguiente ahorro económico- y maximizar la distancia a los edificios históricos para no dañarlos”, explica a SINC Francisco A. Ortega, coautor del estudio y profesor en la Escuela Técnica Superior de Arquitectura de la US.


En el trabajo, publicado en el Journal of the Operational Research Society, se utilizan los “diagramas de Voronoi”, una herramienta matemática que divide un plano en polígonos creados alrededor de puntos (72 edificios históricos, en este caso), de tal forma que su perímetro equidiste de los puntos vecinos. Estas construcciones geométricas se utilizan, por ejemplo, para establecer las redes de telefonía móvil en un territorio.


Los investigadores han creado un algoritmo que encuentra las rutas más cortas entre dos nodos del diagrama de Voronoi, respetando la distancia de seguridad de los monumentos. Además, las aristas de los polígonos se redondean para suavizar el trazado.


El estudio se aplica al caso concreto de la construcción de la línea 2 del metro de Sevilla, que en los próximos años conectará el Palacio de Congresos de la ciudad, con la estación de ferrocarriles de Santa Justa, el centro histórico y el barrio de Triana.


“La viabilidad de esta obra arroja dudas sobre la seguridad de los edificios cercanos”, comenta Ortega, “por experiencias anteriores, como el hecho de que la construcción de la primera línea del metro de Sevilla se interrumpiera en los años ‘70 por el temor a que pudiera afectar a la catedral, o la más reciente del barrio barcelonés del Carmel (la estructura de algunos edificios sufrió daños por las obras de ampliación del metro)”.


El investigador explica que el nuevo método proporciona “soluciones reales, factibles y eficientes” para la línea 2, y deja un radio medio de seguridad de 80 metros para los edificios históricos. El trabajo ofrece diversas alternativas no agresivas para la construcción de esta línea de metro en Sevilla.


Ortega destaca que la metodología sigue una “optimización multicriterio” en el diseño de las redes de metro, pero reconoce que en la toma final de decisiones intervienen además otros factores (velocidad de ejecución de las obra, orden de apertura de las líneas, integración con otros sistemas de transporte, como los tranvías) y diversos agentes (gobiernos locales, comunidad autónoma, operadores de transporte…).


Para ver el vídeo de la noticia pulsar aquí.




FUENTE:





Google apuesta por investigar en las energías renovables


Google ha decidido ensanchar sus horizontes y subirse decididamente a la revolución energética. El gigante de internet formuló hace dos años una utópica ecuación (RE-C) y ha reclutado cerebros de todo el mundo para avanzar a todo tren hacia la meta: Renovables más baratas que el Carbón.

"Existe una gran posibilidad de llegar a ese punto de inflexión en cinco años", anticipa a EL MUNDO Bill Weihl, el cerebro verde de Google. "Puede que tardemos algo más, pero estamos decididos a apostar por ideas innovadoras en todo el abanico de las renovables".

A través de su rama filantrópica, Google.org, la compañía destinó el año pasado 45 millones de dólares a la investigación en energía solar térmica, eólica y sistemas geotérmicos mejorados (EGS). También ha invertido en 'startups' como eSolar o BrightSolar, y en los últimos meses se ha lanzado al campo de la eficiencia energética con el PowerMeter, un software que permite controlar desde un ordenador portátil (y en el futuro, desde un teléfono móvil) el consumo energético en los hogares en tiempo real.

La reconversión de Google empezó desde dentro. La llegada a Mountain Valley de Bill Weihl, ex profesor del Instituto Tecnológico de Massachussetts, se tradujo en el rediseño del centro de datos (con un ahorro del 50% de la energía) y en la instalación de uno de los mayores tejados solares de EEUU, con placas fotovoltaicas capaces de generar 1,6 megavatios.

El propio Larry Page, cofundador de Google, entró en la dinámica y anunció su intención de "aplicar la misma creatividad e imaginación al reto de generar energía renovable a gran escala". El reto, anunció, es llegar a producir un gigavatio de energía limpia (suficiente para abastecer San Francisco) a un precio más barato que el carbón.

La función de Weihl, elevado a la categoría de zar de energía verde de Google, consiste ahora en acelerar esa búsqueda, con la mirada puesta en la energía termosolar. Su objetivo es reducir un 50% o incluso un 75% el coste de los heliostatos (o espejos) usados para llevar a ebullición el agua y generar electricidad con vapor. Google está experimentando con materiales innovadores e intentando maximizar la eficiencia de otros componentes del sistema para cruzar la frontera de los cinco centavos por kilovatio/hora.

"Se trata de un programa piloto y aún no hay resultados" , advierte Weihl, que no oculta su deseo de ver al Gobierno invirtiendo de 20.000 a 30.000 millones de dólares en ideas de alto riesgo en renovables. "Obama ha dado un primer paso hace 15 días, cuando destinó 137 millones de dólares a 37 universidades y empresas que trabajan en I + D, pero hace falta más dinero si queremos combatir el cambio climático".

Mientras se resuelve la ecuación, Google ha puesto todas las energías en el proyecto PowerMeter, que arranca en unos meses en Estados Unidos, Alemania, India y Canadá. Es un software que, usando dispositivos caseros o las redes inteligentes de las eléctricas, podrá informar del consumo energético de casa minuto a minuto. "La factura eléctrica ha sido siempre un punto oscuro para los consumidores", afirma el padre de la idea, Ed Lu, ex astronauta de la NASA e ingeniero-jefe de Google. «Con el PowerMeter somos capaces de visualizar el gasto y corregir malos hábitos energéticos».

Lu abre de su portátil y hace el chequeo a distancia de las últimas 24 horas de consumo en su propia casa, en Silicon Valley. "La información será una de las claves de la próxima revolución energética", vaticina. "Imagina el efecto multiplicador de millones de hogares ahorrando el 15% de energía todos los meses".

Predicar con el ejemplo

El cuartel general de Google en Mountain View (California) es lo más parecido a un campus universitario, diseñado con los máximos criterios de eficiencia energética, gestión de residuos y aprovechamiento del agua, lugares de esparcimiento y descanso para los trabajadores, zonas de picnic e incluso un huerto de hierbas aromáticas de todo el planeta.

En el tejado del edificio principal está instalada una de las mayores superficies de placas fotovoltaicas en suelo comercial de Estados Unidos, con capacidad para general 1,6 megavatios, suficiente para abastecer unos 1.000 hogares. Las placas solares aportan el 30% de la energía en el edificio. Además, los trabajadores tienen gratis a su disposición una flota de ocho coches híbridos que se recargan en el garaje 'solar'.

La compañía estimula el uso de la bicicleta, con donaciones de cinco dólares diarios a los trabajadores que se desplacen hasta la oficina en dos ruedas (el dinero se destina a una ONG de su elección). Los trabajdores disponen además de una flota gratuita de más de un centenar de bicicletas en el campus.

Para los que prefieren el transporte sobre ruedas hay un flota gratuita de autobuses con biodisel, utilizada por más de 1.500 trabajadores.

El centro de datos también ha sido rediseñado con los máximos criterios de eficiencia y con un ahorro del 50% de la energía. Más de 200 trabajadores participaron en un experimento interno para el ahorro energético usando el PowerMeter. El ahorro per cápita osciló entre el 10% y el 15%. La compañía estimula el uso eficiente de los ordenadores. Según sus cálculos, cada búsqueda en Google libera el equivalente a 0,2 gramos de CO2.