5 mar 2010

Resuelto el enigma de DI Herculis, la estrella que desafiaba a Einstein


DI Herculis, un sistema de dos estrellas que giran alrededor de un centro común, llevaba treinta años poniendo en jaque a Einstein. Según la Teoría de la Relatividad General, una órbita elíptica como la de DI Herculis debería rotar progresivamente en el mismo sentido en el que orbitan sus estrellas, fenómeno que se conoce como movimiento apsidal y que, aunque se produce, ocurre cuatro veces más despacio de lo que debería.

El año pasado se confirmó que la lentitud de giro se debe a que ambas estrellas giran casi tumbadas, pero la observación y la teoría seguían mostrando discrepancias de un 50%. Ahora, un grupo de astrónomos con participación del CSIC ha publicado nuevas medidas del movimiento apsidal, con modelos estelares mejorados y parámetros estelares (masas, radios y temperaturas) más precisos, que reducen las incertidumbres a un 10%. Los resultados han sido publicados en la revista Astronomy & Astrophysics.

Los investigadores han aportado nuevas medidas del tiempo que transcurre entre cada eclipse, o momento en el que una estrella oculta a otra y que equivale a una órbita, y han mostrado que es mayor de lo que se pensaba: un poco más de 10,55 días. También las temperaturas de ambas estrellas han resultado más elevadas. El equipo de astrónomos asimismo ha adoptado modelos actualizados que apuntan a una mayor concentración de masa en las regiones centrales de las estrellas, lo que implica una ralentización del movimiento apsidal.

Así se ha obtenido un acuerdo entre observación y teoría con un error menor del 10%, del 50% de discrepancia que existía hasta el año pasado, lo que encaja dentro de los errores de observación y en pleno acuerdo con la Relatividad General.

El investigador del CSIC y primer autor del artículo, Antonio Claret, que trabaja en el Instituto de Astrofísica de Andalucía, explica: "Curiosamente, el movimiento apsidal de Mercurio fue una de las primeras aplicaciones de la Relatividad General, pero parecía fallar en este caso".


Los ingredientes del enigma

De hecho, trabajos anteriores de Claret, que lleva más de diez años estudiando esta peculiar estrella binaria, demostraron que en otros sistemas la Relatividad General se ajusta perfectamente, lo que acentuaba el problema de DI Herculis, y también ayudaron a descartar algunas hipótesis para explicar la lentitud del giro de su órbita, como la presencia de una nube interestelar en el sistema o una teoría alternativa de la gravitación.

La hipótesis que mejor explica las anomalías de DI Herculis, formulada en 1985 y confirmada el año pasado, apunta a la inclinación de los ejes de rotación de las estrellas. Como ambas giran sobre sí mismas casi tumbadas, algo poco habitual pero posible en un sistema tan joven, se producen tirones gravitatorios que ralentizan el giro de la órbita. "Utilizando estos resultados la discrepancia fue reducida pero todavía presentaba un significativo desacuerdo, quizá debido a errores en la medición del movimiento apsidal, a modelos estelares anticuados o a parámetros estelares imprecisos", apunta el astrónomo.

Este último estudio ha acabado finalmente con el enigma principal de estas dos estrellas. Sin embargo, quedan aún incógnitas con respecto a DI Herculis: las dos estrellas que forman el par, ambas calientes y masivas, deben haberse formado a partir de una única nube de gas y polvo. De este modo, sus ejes de rotación deberían ser casi perpendiculares al plano en el que orbitan, lo que ocurre en la mayoría de sistemas binarios y sobre todo en aquellos con separaciones pequeñas como DI Herculis (las estrellas distan un quinto de la distancia de la Tierra al Sol). Queda, por tanto, resolver por qué las componentes de este sistema muestran una inclinación tan acentuada y poco común.


A. Claret, G. Torres y M. Wolf. DI Her as a test of internal internal structure and General Relativity. New apsidal motion rate and evolutionary models. Astronomy&Astrophysics.



El láser cumple medio siglo como fuente de tecnologías


Este año se celebran dos aniversarios científicos: el del proyecto SETI de búsqueda de vida extraterrestre y el del láser. En ambos casos hay 50 velas, pero ahí se acaban las coincidencias. SETI aún no tiene resultados que enseñar. En cambio, el primer láser, nacido en 1960 en los Laboratorios de Investigación Hughes, en California (EE UU), de la mano de Theodore Maiman, pasó en poco tiempo de ser una curiosidad sin aplicaciones a una fuente de desarrollos tecnológicos en apariencia inagotable. En las últimas décadas se han pedido más de 55.000 patentes relacionadas con él sólo en EE UU, y "lo más sorprendente es que aún se siguen buscando numerosas aplicaciones", ha señalado Thomas Bauer, director del Centro de Investigación en Fotónica de la Universidad de Stanford, en la reunión anual de la Asociación Americana para el Avance de la Ciencia (AAAS) en San Diego (EE UU).

La lista de aplicaciones es enorme. Con el láser se logran altísimas temperaturas, comparables a las del núcleo solar; también bajísimas, 10 veces más frías que la del nitrógeno líquido -lo que ha permitido crear un nuevo estado de la materia, el condensado de Bose-Einstein, en que los átomos están congelados-. Hay láseres de pulsos tan breves que permiten fotografiar el movimiento de los electrones en los átomos. En biología, química, física y medicina, el láser ha sido revolucionario. "Por ejemplo para entender la epidemia del sida", explicó Bauer: "A mediados de los ochenta se perfeccionaron las técnicas para discriminar tipos de células, basadas en el láser; sin ellas no hubiéramos podido descubrir qué células infectaba el virus".

"Claro que sabía que podría servir para las telecomunicaciones y algunas otras cosas, pero jamás podría haber imaginado lo que ha venido después", explica Charles Townes, co-autor del artículo de 1958 que sentó las bases para la construcción del láser, en una entrevista distribuida por Laserfest (ver www.laserfest.org). Desde que Townes obtuvo el Nobel en 1964, más de una docena de estos premios han estado relacionados con el láser (acrónimo en inglés de amplificación de luz por emisión estimulada de radiación), cuya característica es que es una luz coherente, todos sus fotones tienen la misma frecuencia, fase, polarización y dirección.Por ejemplo, concentra gran cantidad de energía en muy poco espacio. También recorre enormes distancias sin que su haz se disperse; un láser de rubí enviado a la Luna en 1969 -que rebotó hacia la Tierra en un espejo colocado por Neil Armstrong- cubría una superficie de apenas nueve kilómetros en el suelo lunar.

El láser de Maiman, el primero, se basaba en la emisión estimulada de átomos de rubí sintético y era tan fácil de construir que en pocas semanas fue replicado en otros laboratorios. La anécdota pone de relieve que la visión de futuro es un don muy escaso: antes de que Nature lo publicara en 1960, el artículo describiendo el primer láser fue rechazado "por una importante revista de física", cuenta Bauer. "En un principio, el éxito de Maiman pasó inadvertido para el público, y ni siquiera obtuvo mucho reconocimiento entre la comunidad científica". En 1971 ya existían las primeras impresoras láser y tres años más tarde los lectores de códigos de barras.

En la AAAS se miró sobre todo al futuro, en el que el láser, si se atiende a Edward Moses, será una auténtica salvación. Moses es responsable del mayor láser en funcionamiento, el NIF (National Ignition Facililty), recién inaugurado en el Lawrence Livermore National Laboratory. Con el NIF, que produce pulsos de casi dos millones de julios de energía, se espera construir "una pequeña estrella", dijo Moses. Se trata de reproducir la reacción de fusión nuclear que genera energía en el núcleo de las estrellas, para así disponer de "una fuente de energía inagotable, sin problemas de geopolítica, limpia y que no emite dióxido de carbono". Lo mismo se busca con el reactor de fusión experimental ITER en construcción en Cadarache (Francia). Aunque, según Moses "no somos proyectos en competencia", él estima que para antes de una década ya se habrá logrado que el NIF genere más energía que la electricidad que hay que invertir en el sistema, mientras que la fecha de ese objetivo para ITER, dice, es "entre 2025 y 2030".

Otros expertos señalan más aplicaciones futuras del láser: análisis del genoma humano completo en unas pocas horas, y aparatos de imagen con resolución como para detectar tumores incipientes.




Confirmado: el impacto de un asteroide en la Tierra acabó con los dinosaurios


Un equipo internacional de 41 científicos, en el que participa la Universidad de Zaragoza (UNIZAR), confirma que la extinción masiva producida hace 65,5 millones de años, que acabó con la era de los dinosaurios, fue provocada por el impacto de un asteroide de 12 kilómetros de diámetro n la Península de Yucatán (México). El estudio aporta nuevas evidencias geológicas que fortalecen esta hipótesis.

En los años ’80 se realizaron los primeros estudios sobre la hipótesis de que un meteorito de grandes dimensiones se había estrellado contra la Tierra hace 65 millones de años, y había afectado a cerca del 70% de las especies animales y vegetales del planeta. En 1991 se descubría en Yucatán (México) el cráter de Chicxulub de más de 200 kilómetros de diámetro que coincidía con las extinciones. A pesar de las evidencias científicas, algunos sectores de la comunidad científica cuestionaban esta hipótesis del asteroide.

Para confirmarla, un grupo de 41 expertos de Europa, EE UU, México, Canadá y Japón presentan en el último número de la revista Science nuevos datos a partir del estudio de las perforaciones submarinas y de sitios continentales, así como del análisis de la literatura científica sobre el tema. Según los investigadores, las hipótesis alternativas no explican la abrupta extinción en masa.

“Tras combinar todos los datos disponibles a partir de diferentes disciplinas científicas, hemos concluido que un asteroide de gran tamaño que colisionó hace más de 65 millones de años en lo que es hoy México fue el principal causante de las extinciones en masa”, confirma Peter Schulte, autor principal del estudio y profesor adjunto en la Universidad de Erlangen (Alemania).

El registro fósil ha demostrado que un evento de extinción en masa, denominado límite K-T, tuvo lugar a lo largo y ancho del planeta hace unos 65,5 millones de años. Los geólogos lo utilizan para marcar el fin del periodo Cretácico y el inicio del periodo Paleógeno (antes conocido como el periodo Terciario).


La aportación española: los fósiles microscópicos

Los tres investigadores de la Universidad de Zaragoza (UNIZAR) que han participado en este estudio son Laia Alegret, Ignacio Arenillas y José Antonio Arz, especialistas en el estudio de fósiles microscópicos (los foraminíferos) que ayudan a datar las rocas sedimentarias marinas que los contienen y a conocer sus ambientes de depósito. Los tres científicos han contribuido a la datación de las unidades sedimentarias relacionadas con el impacto meteorítico en el Golfo de México y el Caribe.

“Nuestra investigación se ha centrado en cuatro líneas: la datación precisa de los sedimentos ligados al impacto de Chicxulub y su correlación con el límite K-T; la intensidad y velocidad de las extinciones en torno al límite K-T (es decir, si la extinción fue catastrófica o gradual); la caracterización ambiental de los depósitos generados por el impacto de Chicxulub; y los bruscos cambios ambientales y climáticos que condicionaron la posterior radiación evolutiva de nuevas especies”, explica a SINC Ignacio Arenillas, uno de los autores españoles e investigador en el Departamento de Ciencias de la Tierra (Paleontología) de la UNIZAR.

Para corroborar la teoría impactista, la investigación española recogió resultados obtenidos en Europa, Sudamérica, el norte de África y en diversos sondeos oceánicos, desde la respuesta de las comunidades marinas a los cambios ambientales desencadenados, incluyendo la intensidad de las extinciones, hasta la radiación evolutiva posterior de nuevas especies.

“El estudio de los foraminíferos nos ha permitido correlacionar el impacto de Chicxulub y la extinción en masa del límite K-T. Además, hemos corroborado que su extinción fue catastrófica, es decir, acontecida en un intervalo de tiempo geológicamente instantáneo, y que por tanto sólo es explicable por la teoría impactista”, señala Arenillas.

Según los científicos españoles, la extinción se produjo “bruscamente” en un intervalo de tiempo 'geológicamente instantáneo' (en menos de uno o dos años). “Los principales cambios ambientales y climáticos, así como las radiaciones evolutivas, se produjeron tras el impacto meteorítico en el límite K-T y no antes, como sugerían algunas de las hipótesis rivales”, afirma el paleontólogo.

Ante la complejidad de demostrar los datos, Alegret, Arenillas y Arz confiesan que se encontraron con ciertos obstáculos como la adecuada interpretación de los datos geológicos y paleontológicos: “Había discrepancias de interpretación entre los partidarios de ambas hipótesis en torno a la naturaleza de los sedimentos ligados al impacto de Chicxulub en el Golfo de México, a su edad y, sobre todo, a la velocidad de las extinciones”.

Los tres micropaleontólogos españoles señalan a SINC que aportar evidencias “inequívocas” y datos clave que confirmaran definitivamente la teoría impactista fue “la labor más difícil”.


Descartar las hipótesis alternativas

A lo largo de la historia la comunidad científica ha propuesto muchas hipótesis que han intentado explicar el evento de la extinción masiva. “La que más eco ha tenido es la de las causas múltiples, que no negaba la existencia de impactos meteoríticos o de otros factores de extinción (por ejemplo, descensos del nivel del mar), y proponía como principal causa el incremento de la actividad volcánica en el área del Deccan (en la actual India), hacia finales del Cretácico”, apunta Arenillas. La hipótesis del impacto de Chicxulub quedaba en un segundo puesto, ya que sugería que habría ocurrido hace 300.000 años antes de la extinción del límite K-T.

Según la hipótesis de causas múltiples, las Trampas de Deccan (volcanes inusualmente activos) provocaron un enfriamiento global y una lluvia ácida, principales causantes de la extinción en masa, y no el impacto de un gran meteorito en Chicxulub (México).

Sin embargo, para el equipo internacional esta teoría no es viable. La caracterización ambiental de los sedimentos producidos por el impacto en Chicxulub ha permitido demostrar que algunos mecanismos propuestos por la hipótesis multicausal, como el descenso de 1.000 metros en el nivel del mar en un corto espacio de tiempo, son "técnicamente imposibles”, asegura el paleontólogo.


Un millón de veces superior a la mayor bomba nuclear

Los modelos sugieren que el impacto en Chicxulub desató una energía un millón de veces superior a la de la mayor bomba nuclear jamás detonada. Un impacto de esta dimensión habría eyectado material a altas velocidades por todo el mundo y provocado terremotos superiores a 10 en la escala Richter, así como el colapso de plataformas continentales, deslizamientos de tierra, corrimientos, movimientos en masa y tsunamis. También habrái creado un secuencia de depósitos gruesa y compleja cerca de Chicxulub.

“Si pretendemos desentrañar la secuencia de eventos en torno al límite K-T, quizás el último lugar del mundo en el que deberíamos buscar sea cerca del sitio del impacto en Chicxulub, pues es allí donde más desordenados están los depósitos de sedimentos”, declaran los investigadores estadounideses.

Los científicos han descubierto que, a pesar de la evidencia de un volcanismo "relativamente activo" en India, los ecosistemas marinos y terrestres sólo han exhibido cambios menores durante el periodo de 500.000 años anterior al límite K-T. En el preciso momento en que se alcanza el límite, se produjo una abrupta e importante disminución en la productividad (una medida de la masa total de los seres vivos) y la diversidad de especies.

Además, lejos de Chicxulub, el registro geológico muestra que un único meteorito de gran tamaño impactó contra la Tierra justo en el límite K-T. Todos los cambios notables en los ecosistemas de la Tierra se produjeron justo en ese límite. Así que el impacto de un gran asteroide contra los sedimentos ricos en azufre presentes en Chicxulub sigue siendo la causa más plausible de la extinción en masa en el límite K-T.

Según Sean Gulick y Gail Christeson, investigadores en el Instituto de Austin de Geofísicas de la Universidad de Texas (EE UU), el asteroide habría aterrizado a más profundidad en el agua de lo que se pensaba hasta el momento, liberando más vapor de agua y aerosoles sulfúricos a la atmósfera.

“Esto podría haber incrementado la letalidad del impacto de dos formas: alterando el clima (los aerosoles sulfúricos en la capa atmosférica superior pueden ejercer un efecto de enfriamiento) y provocando una lluvia ácida (el vapor de agua puede facilitar la liberación de los aerosoles sulfúricos de la capa atmosférica inferior)”, asevera Gulick.





Controlan los monumentos a distancia


Un equipo de ingenieros de la Universidad de Sevilla (US) ha creado un sistema para monitorizar los monumentos históricos por control remoto y detectar posibles daños. Hace cinco años los investigadores colocaron diversos sensores en el Giraldillo, la escultura que corona la Giralda, y ahora publican sus resultados en la revista Structural Health Monitoring.

“El sistema se ha acoplado al Giraldillo para registrar distintas variables asociadas a la respuesta mecánica de esta escultura, como las acciones o las condiciones meteorológicas a las que se ve sometida, pero se podría usar para monitorizar otros monumentos históricos”, explica a SINC Mario Solís, autor principal del estudio y profesor en la Escuela Técnica Superior de Ingenieros de la US.

El Giraldillo, una escultura renacentista que actúa de veleta en lo alto de la Giralda, fue desmontada y restaurada entre 1999 y 2005, momento que aprovecharon los investigadores para poner unos sensores que han permitido realizar un seguimiento hasta ahora.

Los resultados del estudio, publicado en el último número de la revista Structural Health Monitoring, reflejan que la escultura-veleta necesita una velocidad del viento de 10 m/s para moverse y se orienta según este meteoro un 40% del tiempo, la temperatura oscila desde los 0º C registrados en el exterior hasta los 48 ºC medidos por una sonda interna, y no presenta valores anormales en las frecuencias de vibración y la respuesta mecánica.

“El sistema facilita información de gran interés para estudiar el comportamiento y el estado de conservación del Giraldillo”, destaca Solís, que afirma que esta técnica “no sólo se podría aplicar para detectar daños estructurales en otros monumentos del patrimonio histórico, sino también en maquinaria y en componentes aeroespaciales”.


Cómo vigilar al Giraldillo

Para determinar las condiciones ambientales que rodean la estatua los científicos instalaron dos sondas de temperatura y humedad (una exterior y otra en el interior de la bola sobre la que se alza), y una tercera para cuantificar la corrosión de las piezas de bronce que la conforman.

Los cables de los sensores se centralizan en un terminal del que sale un cable de 40 metros hasta el sistema de adquisición de datos. Este se sitúa en el Cuerpo del Reloj de la Giralda, el punto más alto de la torre, al que se puede acceder fácilmente para realizar las tareas de programación y mantenimiento. Desde allí, por una conexión a internet o de control remoto tradicional se puede enviar la información hasta cualquier centro de control.

Las magnitudes que se registran son la velocidad y dirección del viento (es la principal acción mecánica que actúa sobre el monumento), el grado de flexión del vástago que sostiene la estatua sobre la torre (para detectar desviaciones), y la medida de vibraciones, mediante seis acelerómetros y cuatro niveles.




Referencia bibliográfica:
M. Solís, A. Romero y P. Galvín. “Monitoring the mechanical behaviour of the weather vanesculpture mounted atop Seville Cathedral’s Giralda Tower”. Structural Health Monitoring 9 (1): 41-57, 2010.




Un anuncio de seguridad vial arrasa en Youtube


Un anuncio elaborado por la ONG inglesa Sussex Safer Roads Partnership (Asociación para unas carreteras seguras de Sussex) está recorriendo Internet como la pólvora. Durante el mes que lleva colgado en Youtube ha recibido más de dos millones de visitas, la mayor parte de ellas en la última semana.

El spot ha sido creado para intentar concienciar sobre la importancia del uso del cinturón de seguridad en los vehículos. Sussex es un condado del sur de Inglaterra.

Además de estar presente en decenas de foros dedicados a la seguridad vial, blogs, Facebook y Twitter, el corto, titulado Abraza la vida, ha sido emitido en televisiones de varios países del mundo, como el Golfo Pérsico, Estados Unidos o Canadá.

El vídeo está rodado a cámara lenta en el salón de una casa, donde un varón simula que conduce un vehículo, mientras es observado por su hija y su esposa. Cuando el hombre está a punto de estrellarse, ellas se abalanzan sobre él para protegerle con sus manos.

El director del vídeo, Daniel Cox, explica en la página web de la ONG que no querían utilizar la línea de impactar y asustar a la audiencia. "Queríamos crear una metáfora de cómo una sencilla decisión [abrocharse el cinturón] puede influir de forma decisiva en su vida y en la de las personas a las que quiere", señala.

El anuncio, explican sus creadores, está filmado a cámara lenta para que la audiencia tenga tiempo de reflexionar sobre lo que está viendo.







FUENTE:
http://www.elpais.com/articulo/tecnologia/anuncio/seguridad/vial/arrasa/Youtube/elpeputec/20100304elpeputec_6/Tes



La Red nos hace más listos


Quedan sólo diez años para que los seres humanos sean más inteligentes. No sólo eso, también serán mejores lectores, con buena ortografía y habrán ampliado sus capacidades de comprensión. Y todo gracias a Internet. La década traerá otras tres buenas nuevas: la tecnología seguirá sorprendiendo, Internet continuará libre y conservará muchas parcelas donde seguir siendo anónimo. Parece un cuento, pero son los resultados de una encuesta del Pew Research Center de EEUU realizada a 900 expertos, entre profesores universitarios, responsables de empresas tecnológicas o líderes de la Red. La mitad son veteranos: están en Internet desde 1992.

El trabajo forma parte de una serie de encuestas que, con carácter anual, dibujan cómo será la Internet del futuro. Cada año, cambian las preguntas. En la anterior edición presentaron ocho escenarios posibles a los entrevistados. La mayoría eran sobre innovaciones tecnológicas: realidad aumentada, interfaces o redes sociales.

En esta cuarta entrega, las cuestiones son más provocadoras. Dos de ellas plantean la posibilidad de que Internet esté modificando el intelecto humano. Una tercera pregunta, si las innovaciones tecnológicas seguirán sorprendiendo la imaginación de los hombres.

Las dos últimas tienen un cariz más social. Una pregunta por la supervivencia del principio end-to-end (o punta a punta, en inglés). Postulado en 1981, proponía que los protocolos necesarios para la comunicación en la Red se ejecutaran en los extremos de estalos usuarios sin necesidad de intervención del medio, las redes. Pensado por ingenieros, derivó a lo que hoy se llama neutralidad de la Red. La quinta pide a los expertos que imaginen si será posible ser anónimo en 2020 o, por el contrario, se impondrá el control.


¿Seremos más inteligentes?

En julio de 2008, el escritor estadounidense Nicholas Carr escribió un largo artículo en la revista The Atlantic con el título de Is Google Making Us Stupid? (¿Google nos está haciendo estúpidos? ). Sostenía, como dicen algunos neurólogos y psicólogos, que el acceso fácil a datos on-line y la forma propia de navegar, saltando de una página a otra, están limitando la capacidad para concentrarse. De esta manera, la impresión del saber en el cerebro sería mas débil que al leer un libro, haciéndolo deleble.

Pero el 76% de los entrevistados por Pew Internet no está de acuerdo. Al contrario, creen que Internet potenciará las habilidades mentales. Sólo un 21% considera que su impacto será negativo. El propio Carr es uno de estos, cuando afirma: "El precio de moverse rápidamente entre muchos bits de información es la pérdida de profundidad en nuestro pensamiento".

Le responde el profesor de la Universidad de Berkeley y economista jefe de Google, Hal Varian: "Google nos hará más informados. Los más inteligentes del mundo podrían estar tras un arado en China o India. Ofrecerles un acceso universal al conocimiento les permitirá desarrollar todo su potencial".

Sin embargo, para otros, la cuestión está mal planteada. Lo que está provocando Google es una inteligencia diferente. De la misma forma que las calculadoras hicieron innecesario realizar operaciones, la acumulación de saber no tendrá ya sentido. Lo explica el vicepresidente de la Asociación de Investigadores de Internet, Alex Halavais: "Retener en la cabeza información que es fácil de encontrar en Google no será ya una señal de inteligencia. Ser capaz de descubrir de forma rápida y efectiva información y resolver problemas más que hacerlos en nuestra mente será la medida que usaremos".


¿Leeremos mejor?

A la segunda pregunta, el 65% de los entrevistados respondió que, en 2020, Internet habrá mejorado la capacidad de leer y escribir. La mayoría coincide en que la Red está provocando una revolución de tanto o mayor impacto que la que provocó la imprenta.

Los que ven claro el cambio que se está produciendo casi se escandalizan por la pregunta. "La mejora será especialmente grande y evidente porque los nuevos lectores serán comparados con la generación previa, la de la televisión... Pero la vieja generación seguirá diciendo que los jóvenes no pueden leer, a pesar de las evidencias en contra", argumenta Stephen Downes, del Consejo Nacional de Investigación de Canadá.

Ese miedo, casi desprecio, al cambio por parte de los mayores es destacado por muchos. Como explica Mark Edwards, de la Universidad de Harvard, "cuando apareció la escritura, los filósofos temieron que debilitaría la memoria y degradaría la inteligencia... Cuando surgió la imprenta, los maestros despreciaron la nueva tecnología porque propagaría el error y sin embargo el conocimiento floreció. Internet tendrá los mismos efectos".

Eso sí, las formas de leer, escribir y compartir conocimiento serán diferentes. El profesor de la Universidad de Nueva York, Clay Shirky, lo ve así: "La ficción de largo formato sufrirá (aunque viene sufriendo desde la aparición de la radio) mientras todas las formas numéricas, gráficas, de mostrar el saber, desde la creación de bases de datos, hasta todas las maneras visuales de mostrar datos, vivirán una edad de oro".


Las innovaciones seguirán fascinando

De la misma forma que nadie podría haber previsto en el año 2000 la aparición del iPhone o el éxito de Face-book, el 80% de los encuestados sostiene que los avances que vienen no agotarán la capacidad de asombro de los usuarios. El cofundador del medidor de blogs Technorati, David Sifry, lo dice muy claro: "No tenemos ni idea de cuáles serán los aparatos y aplicaciones principales en 2020". El hecho de que la esfera tecnológica aún esté tomando forma no ayuda a hacer de adivino. Varios expertos dicen que el aumento de la banda ancha y la potencia de computación de las máquinas espolearán una nueva oleada de innovación.

Sin embargo, algunos expertos sostienen que la simiente del futuro está en el presente. "La realidad aumentada es el futuro, junto a su prima hermana, la Internet de las cosas", imagina Rich Osborne, de la Universidad de Exeter. Junto a estas dos, también se habla del cibercoche, ambientes llenos de sensores y variados implantes que anticiparán la era de los ciborg.


El peligro vendrá de operadoras y Gobiernos

Aunque la mayoría (un 61%) cree que el principio end-to-end seguirá vivo en 2020, todos reconocen que el peligro de que Internet deje de ser libre y neutral existe. El profesor de las universidades de Stanford y Berkeley Howard Rheingold describe el proceso que teme vendrá: "Las fuerzas del control central, las políticas y económicas, se moverán para volver a centralizar el poder que perdieron cuando Internet estalló". Hablan de China, de Irán, pero también de los gobiernos occidentales y de las grandes empresas como los más interesados en tener la Red bajo control.

Los optimistas confían en el poder de la gente. "Los usuarios de la Red se unirán para mantenerla abierta", asegura el responsable del Centro para la Democracia y la Tecnología, Jerry Berman. "Hay mucho en juego para dejar que los intermediarios controlen el tubo", añade el director del Centro de Investigación para Internet de Singapur, Peng Hwa Ang.


Aún se podrá navegar sin revelar la identidad

La última cuestión dibujaba un mundo lleno de sistemas de identificación (lectores del iris, escáneres de ADN...) con los que poder acceder a los servicios de Internet, a cambio de renunciar al anonimato. Triunfó la división. Aunque el 41% apuesta por esta posibilidad, el 55% no cree que sea para tanto.

"La batalla por las libertades civiles y la privacidad de la próxima década girará en torno a la creciente exigencia de credenciales de identidad. Pero los nuevos sistemas de autenticación traerán nuevos problemas", opina el director de EPIC, un organismo defensor de los ciberderechos.

Pero hay quien sostiene que esto no es necesariamente malo. "Veremos una variedad de opciones de identificación on-line. Los denunciantes necesitan anonimato; los foros de discusión, un modesto nivel de verificación, mientras que la banca en casa exige una fuerte autenticación", dice el fundador del sitio de anuncios Craiglist, Craig Newmark.

Para defensores de la privacidad, como el director del Instituto para el Futuro, la pregunta se ha quedado vieja: "Teniendo en cuenta la cantidad de comunicaciones que ya vigilan los gobiernos, probablemente hemos superado ese punto".

Lo que más ha soprendido al director del Pew Internet, Lee Rainie, no es ni el fin de la privacidad ni las amenazas a la neutralidad de la Red, sino los resultados a la tercera pregunta. "Creía que estos expertos sabrían qué gadgets y aplicaciones surgirían, pero ni ellos confían en su capacidad para predecir el futuro".




Científicos descubren la primera bebida alcohólica que no deja resaca


En un esfuerzo por mejorar las duras condiciones en las que vive la humanidad entera, investigadores coreanos han encontrado una fórmula para fabricar una bebida alcohólica que no deja resaca. Tiene todas las propiedades del alcohol y menos consecuencias.... al día siguiente. El truco consiste en incorporar oxígeno a bebidas como el whisky, la ginebra o el ron conservando su sabor.

Los médicos Kwang-il y Kwon Hye Jeong Gwang, de la Universidad Nacional Chungman, estudiaron las propiedades del alcohol que lleva burbujas añadidas, como el soju, un vino de arroz oxigenado que es una mezcla muy popular en su país. Los científicos querían saber si este tipo de bebidas afecta menos a los consumidores que las convencionales, y la respuesta fue un rotundo sí. Los que toman bebidas oxigenadas se reuperan media hora antes que el resto, una ventaja si luego tienen que conducir, y tienen menos resaca.

A partir de ahí, los investigadores crearon una nueva bebida, que comercializa el fabricante Sunyang bajo la marca O2 Linn. Tiene 20º de alcohol, nada menos, y se anuncia como un brebaje que «ayuda a aclarar tu mente». Los investigadores explican que la introducción de oxígeno en el alcohol permite que nuestro cuerpo funcione «de una forma más rápida y eficiente». El resultado son borracheras más fáciles de superar.




Nokia Terminal Mode presentado en el Salón del Automóvil de Ginebra


La integración total entre nuestro móvil y el resto de elementos del universo está cada vez más cerca. El siguiente paso es hacerlo con el coche, un sector donde Ford o Fiat ya han dado los primeros pasos pero que no han terminado de explotar. Nokia ya ha dado un gran paso ofreciendo navegación GPS gratuita con OVI Maps y ahora quiere ir más allá con Terminal Mode.

Será un servicio que, al margen de su acuerdo con Apline anunciado ayer, cuando esté terminado y perfeccionado permitirá la conexión total entre el vehículo y el teléfono, recibiendo comunicación y servicios por ambas partes. Es decir, el teléfono conectará con el vehículo y será accesible ofreciendo datos y servicios en las pantallas, mientras que el coche también interactuará con el dispositivo conectando de manera recíproca.

Con este Terminal Mode, recién presentado en el Salón del Automóvil de Ginebra, no será ninguna sorpresa encontrarnos con avisos de vías cortadas según nuestra ruta en tiempo real, avisos de poca gasolina y el surtidor más económico varios kilómetros a la redonda o conocer si el estado de las ruedas o su presión es la adecuada en función de la meteorología del momento.




Dr. Nakamts, ¿el inventor más prolífico de la historia?


Yoshiro Nakamatsu, más conocido como el Dr. Nakamats, parece ser el inventor más prolífico de la historia con más de 3.000 inventos a lo largo de su vida, y por lo que además se encuentra en el libro Guinness de los Records. Detalles de este curioso inventor y una entrevista en vídeo tras el riguroso salto.Aunque parezca mentira este japonés de 81 años es el creador del floppy disc, del karaoke y de multitud de cosas que probablemente hayan pasado por tus manos, y otras muchas que no, como los zapatos de salto o la silla que mejora tus habilidades ¿WTF?

En el vídeo a continuación aparecen muchos de esos inventos, y se “mofa” un poco de Edison y de como ha superado sus “ridículos” 1.093 inventos con sus más de 3.000. Que probablemente aumentarán porque según él vivirá 40 años más gracias a su dieta.

Me encanta ese curioso aura de chulería mezclado con locura que le rodea y que desprende tanta ternura y a la vez asombro e incredulidad de que alguien sea capaz de ser tan brillante. Espero que si Gizmodo sigue aquí los próximos 40 años (depende de vosotros) podamos contaros más aventuras de este personaje tan genial.— :Dani Burón [Motherboard]





2011, el año del color en los libros electrónicos


Si este año la tendencia en los libros electrónicos será estabilizar los precios a la baja y añadir mejores procesadores y conectividad a los equipos, además de definir el modelo de negocio y la forma de acceder a los contenidos, el demandado color no llegará hasta 2011.

Esa previsión la han realizado las empresas E-Ink y Qualcomm, afirmando que será el próximo año cuando las pantallas a color con un bajo consumo lleguen de forma masiva al mercado. La tecnología todavía tiene que ir avanzando este año, y en unas semanas lo demostrarán mostrando sus nuevas pantallas de tinta electrónica a color en el SID, donde el mayor avance queda reflejado en el mejor tiempo de refresco.

Esas primeras pantallas a color basadas en la tinta electrónica no podrán ofrecer la calidad de una pantalla con tecnología LCD, sino que será algo similar a lo que ya vemos en periódicos. Si no se apresuran, equipos como el iPad de Apple o los tablets que están por venir, podrían convertirse en serias alternativas aprovechando que, fuera de los libros, el contenido en papel podrá consumirse sin problema en pantalla clásicas y se podrá aprovechar algo de mucho valor: la interactividad y conexión de datos.




4 mar 2010

El genoma de la vida interior humana


Cada persona lleva en sus tripas un zoo microscópico que pesa unos dos kilos y que funciona como un órgano más. Son bacterias que procesan la comida, aportan energía y refuerzan el sistema inmune. Por primera vez, un proyecto europeo ha identificado todos sus genes, que componen el primer metagenoma humano publicado.

"Es algo paralelo a lo que fue la secuenciación del genoma humano", explica a Público Francisco Guarner, médico del Hospital Vall dHebron de Barcelona. Ha liderado uno de los 13 grupos que participan en el proyecto europeo MetaHIT, un consorcio financiado por entidades tan dispares como la UE o la multinacional Danone y que se ha adelantado a otros grupos similares de EEUU o Canadá. Todos intentan secuenciar el conjunto de microbios que viven en el cuerpo y averiguar cómo contribuyen a la salud y la enfermedad.

"Este trabajo es rompedor y será el pilar del estudio de los microbios intestinales durante años", explica Jo Handelsman, investigadora de la Universidad de Yale (EEUU) y creadora de la metagenómica. La disciplina estudia los genes de diferentes formas de vida entendiéndolos como un todo que funciona al unísono.

El trabajo, que publica hoy Nature en su portada, ha analizado la flora bacteriana de 124 personas de Dinamarca y España, en representación de poblaciones nórdicas y mediterráneas. Unos estaban sanos y otros padecían obesidad y enfermedades intestinales, lo que permitirá identificar los genes bacterianos que intervienen en las dolencias.


Análisis de heces

Para adentrarse en el microbioma, los científicos han analizado su resultado más patente: los excrementos de los participantes. El análisis ha desvelado un catálogo de más de tres millones de genes, en su gran mayoría de bacterias, y que suponen "casi el 100% de los genes de la flora intestinal humana", según Guarner.

"No se han identificado grandes diferencias en cuanto al ecosistema microbiano intestinal de españoles y daneses", detalla Guarner. Cada persona lleva más de medio millón de esos genes y al menos 200.000 de ellos son idénticos en la mayoría. Sí se han encontrado diferencias significativas en la flora de las personas sanas y las que sufren colitis ulcerosa o enfermedad de Crohn, aunque se ignora qué genes son los responsables.

"Los microorganismos que se alojan en el tubo digestivo participan de modo importante en la nutrición y en el desarrollo del sistema inmune", explica Guarner. "Conocer cuáles son los que participan nos puede permitir corregir disfunciones o trastornos tales como la obesidad o las enfermedades inflamatorias del intestino", añade. También permitirán a un médico saber cuál es la cantidad y distribución bacteriana saludable.

MetaHIT, en el que participan seis países europeos y China, tiene por delante dos años más de trabajo. Su base de datos servirá a otros equipos. "El resto del mundo agradece a este grupo ese catálogo tan valioso", enfatiza Handelsman.




Primero mega, giga, tera.... ¿Y ahora hella?


Más de 20.000 científicos, estudiantes y ciudadanos anónimos se han unido en una petición online a través de Facebook para que el Sistema Internacional de Medidas (SI, en sus siglas en inglés) reconozca una nueva unidad de medida: el Hella. Este neologismo serviría para designar números como 1.000.000.000.000.000.000.000.000.000, cifras gigantescas que, bautizadas, podrían simplificarse. Esto sería muy útil, por ejemplo, para las mediciones del Universo.

El impulsor de esta campaña es Austin Sendek, un estudiante de Física de la Universidad de California. El objetivo es ofrecer una gran unidad de medida que responda a las necesidades de la ciencia contemporánea, que obligan al SI a retocar su clasificación para números con muchos ceros.

Hasta ahora, el número más largo designado por el SI es el Yotta, que es 10 elevado a la potencia 24. Sin embargo, «en este mundo donde la consciencia física aumenta y mejora la precisión empírica, este numero no es lo suficientemente satisfactorio», explica Sendek. Para ello, apuesta por el 10 elevado a la 27, que tendrá una «importancia crítica» en todos los campos científicos. El Hella podrá representar magnitudes como las distancias intergalácticas o el número de átomos en diversas superficies.


Los actuales prefijos oficiales del Sistema Interncional de Medidas es el siguiente:

10 = deca

100 = hecto

1.000 = kilo

1.000.000 = mega

1.000.000.000 = giga

1.000000.000.000 = tera

1.000.000.000.000.000 = peta

1.000.000.000.000.000.000 = exa

1.000.000.000.000.000.000.000 = zetta

1.000.000.000.000.000.000.000.000 = yotta

1.000.000.000.000.000.000.000.000.000 = sin nombre





Los dinosaurios poblaron la Tierra mucho antes de lo que se creía


Un grupo de paleontólogos ha encontrado una criatura, mitad dinosaurio mitad animal, que ha resultado ser el pariente más lejano de los terribles seres jurásicos. Este especimen, al que han denominado Asilisaurus kongwe, vivió hace 243 millones de años, 10 millones de años antes de que lo hiciera el primero de los dinosaurios conocidos y, aunque comparte con ellos muchas de sus características, los científicos lo sitúan justo en el exterior de su árbol geneaológico. Es decir, que no acaba de entrar en la foto familiar, como los chimpancés tampoco aparecen en la nuestra. El descubrimiento sugiere que los dinosaurios y los reptiles voladores pudieron haber pisado la Tierra mucho antes de lo que se creía.

Los restos del Asilisaurus kongwe (el nombre significa, más o menos, anciano antepasado del lagarto en Swahili), descritos en la revista Nature por Sterling Nesbitt, investigador de la Universidad de Texas, fueron descubiertos al sur de Tanzania. En el yacimiento aparecieron huesos fósiles de 14 individuos, lo que hizo posible la reconstrucción de un esqueleto casi entero, con la excepción de porciones de la calavera y la mano. Los ejemplares medían entre medio metro y un metro de alto y de uno a tres de largo. Pesaban de diez a treinta kilos. Caminaban sobre cuatro patas y lo más probable es que comieran plantas o una combinación de plantas y carne.


Ancestros comunes

El Asilisaurus es parte de un grupo de hermanos de los dinosaurios conocidos como Silesaurus, que comparten muchas de las características de los dinosaurios pero que todavía carecen de un gran número de sus rasgos clave. La relación entre los Silesaurus y los dinosaurios es análoga al estrecho parentesco entre los seres humanos y los chimpancés. A pesar de que los dinosaurios más antiguos descubiertos hasta ahora tienen sólo 230 millones de años, la presencia de sus parientes más cercanos 10 millones de años antes implica que los Silesauros y el linaje de los dinosaurios ya se había separado de ancestros comunes hace 240 millones de años. Los Silesaurus continuaron viviendo junto a los primeros dinosaurios durante gran parte del Período Triásico.

En sendos casos, las ramas evolucionaron de animales que eran originariamente carnívoros y que después optaron por una dieta más saludable. Aunque es difícil de demostrar, los científicos creen que este cambio pudo haberles aportado una ventaja evolutiva, ya que un ecosistema sustenta con más facilidad a los comedores de plantas que a aquellos que se alimentan de carne.

En el yacimiento de Tanzania fueron descubiertos junto al Asilisaurus kongwe una serie de primitivos parientes de los cocodrilos. La presencia de estos animales juntos en el mismo momento y lugar sugiere que la diversificación de los familiares de los cocodrilos y las aves fue rápida y ocurrió antes de lo que se creía. «Todo el mundo ama a los dinosaurios- dice Nesbitt-, pero esta nueva evidencia sugiere que en realidad eran sólo uno de los grandes grupos de animales del Triásico». A juicio del experto, «esto demuestra que hay grupos enteros de animales por ahí de los que aún no hemos encontrado ni siquiera indicios. Es emocionante saber que todavía hay oportunidades de nuevos descubrimientos».




Hallan una «reliquia estelar» casi tan antigua como el Universo


El descubrimiento de una estrella que es casi tan antigua como el Universo apoya la teoría de que la Vía Láctea 'devoró' a otras galaxias más pequeñas para alcanzar su tamaño actual, según un estudio dirigido por el Centro de Astrofísica Harvard-Smithsonian en Cambridge (Estados Unidos) que se publica en la revista 'Nature'.

Los astrónomos han descubierto una estrella que podría encontrarse entre la segunda generación de estrellas que se formaron después del Big Bang. Se localiza en la galaxia enana 'Sculptor' a unos 290.000 años luz y tiene una composición química muy similar a las estrellas más antiguas de la Vía Láctea. Su presencia apoya la teoría de que nuestra galaxia pasó por una fase 'canibal', creciendo hasta su tamaño actual al 'devorar' galaxias enanas y otros bloques galácticos.

Según explica Anna Frebel, directora del estudio, «esta estrella es casi tan antigua como el Universo». Los autores creen que la extremadamente baja cantidad de metales descubierta en la estrella marca un importante paso hacia la comprensión de cómo se formó la Vía Láctea y señalan que la idea original de que su halo se formara mediante la destrucción de muchas galaxias enanas parece ser correcto.


Devorar a las pequeñas

Las galaxias enanas son pequeñas galaxias con unos pocos miles de millones de estrellas en comparación con los cientos de miles de millones de la Vía Láctea. En el modelo de formación de galaxias 'de abajo a arriba', las galaxias más grandes logran su tamaño a lo largo de miles de millones de años al absorber a sus vecinas más pequeñas.

Si las galaxias enanas en realidad fueran los elementos constituyentes de las galaxias más grandes, entonces se encontraría la misma clase de estrellas en las dos clases de galaxias, en especial en el caso de las estrellas viejas 'pobres en metal'. Para los astrónomos, los 'metales' son elementos químicos más pesados que el hidrógeno o el helio. Dado que son productos de la evolución estelar, los metales eran raros en los inicios del Universo y por ello las estrellas antiguas tienden a ser pobres en metal.

Las estrellas antiguas del halo de la Vía Láctea pueden ser extremadamente pobres en metal, con cantidades que son hasta 100.000 veces menores que las del Sol, que es una estrella joven y rica en metal. Sin embargo, las evaluaciones de la pasada década han fallado en su intento de encontrar estrellas muy pobres en metal en las galaxias enanas.

"La Vía Láctea parecía tener estrellas que eran mucho más primitivas que las de las galaxias enanas. Si las galaxias enanas fueran los componentes originales de la Vía Láctea sería difícil comprender por qué no tienen estrellas similares", aclara Josh Simon, de la Institución Carnegie y coautor del estudio.

Los investigadores sospechaban que los métodos para descubrir estrellas pobres en metal en las galaxias enanas estaban sesgados de tal forma que no detectaban las estrellas más pobres en metal. Por ello desarrollaron un método para estimar la abundancia de metales en grandes números de estrellas a la vez.


La prueba original

Entre las estrellas que descubrieron en la galaxia enana 'Sculptor' estaba S1020549. Las medidas espectroscópicas de la luz de la estrella tomadas con el telescopio Magellan-Clay de Carnegie en Las Campanas (Chile) determinaron que tenía 6.000 veces menos metal que el Sol, cinco veces menos que cualquier otra estrella descubierta en una galaxia enana. La presencia de metales se midió a través de elementos como el magnesio, calcio, titanio y hierro.

El patrón global se parece al de las estrellas antiguas de la Vía Láctea, lo que proporciona el primer apoyo observacional a la idea de que estas estrellas se formaron originalmente en galaxias enanas.

Los investigadores esperan que posteriores investigaciones descubran más estrellas pobres en metal en las galaxias enanas, aunque la distancia y la debilidad de estas estrellas suponen un reto para la óptica de los actuales telescopios. La próxima generación, como el Telescopio Magellan Gigante de 24,5 metros y equipado con espectrógrafos de alta resolución abrirá una nueva ventana al estudio del desarrollo de las galaxias a través de la química de sus estrellas.




Científicos confirman la edad del Universo


Por mucho que el Universo se empeñe en ocultar algunos de sus misterios, como su auténtica silueta y su edad definitiva, los científicos no atienden a coqueterías celestiales y están empeñados en desvelarlos. Un equipo internacional de investigadores ha desarrollado un nuevo método para medir el tamaño, los años y la velocidad de expansión del cosmos que utiliza las galaxias como si fueran telescopios para observar todo lo que se encuentra a su alrededor. Los resultados confirman que el Universo tiene la antigüedad que se conocía -13,75 miles de millones de años-, y la existencia de una fuerza notable de la energía oscura, responsable de poner la «quinta marcha» a la expansión del firmamento.

Los científicos, entre los que se encuentran equipos del Instituto Kavli de Astrofísica de Partículas y Cosmología (KIPAC), las universidades de Stanford, Bonn y California, y el Instituto Astronómico de los Países Bajos, publicaron el estudio en la revista Astrophysical Journal. Para ello, utilizaron datos recogidos por el telescopio Hubble de la NASA en combinación con la Wilkinson Microwave Anisotropy Probe (WMAP), la gran misión para medir el Universo.

A partir de ahí, los científicos utilizaron un conocido efecto astronómico denominado «lente gravitacional» para medir las distancias a las que viaja la luz de una galaxia activa a la Tierra por diferentes caminos. Este efecto, que ya había predicho Einstein, se produce cuando la luz procedente de objetos distantes y brillantes se curva alrededor de un objeto masivo, como una galaxia. Conociendo el tiempo que le lleva a la luz viajar por cada vía y las velocidades que toma, los investigadores pueden inferir no sólo a qué distancia se encuentra una galaxia, sino también la escala global del Universo, que los astrofísicos expresan con la constante de Hubble, y algunos detalles de su expansión.


Un atasco galáctico

Según Phil Marshall, de la Universidad de Stanford, este sistema de medición nunca se había utilizado de forma tan precisa. Aunque los científicos no saben cuándo la luz abandona su fuente, sí pueden comparar los tiempos de llegada. Marshall lo asemeja a cuatro coches tomando cuatro rutas diferentes entre lugares en lados opuestos de una gran ciudad. De la misma forma que los automóviles se enfrentan a los atascos, la luz también puede sufrir retrasos debido a la densidad de la masa de las galaxias, «así que una ruta más larga no significa que tarde más tiempo, porque a veces la distancia más corta es la más lenta». La técnica aplicada a hora por los científicos tiene en cuenta todas esas variables y proporciona una mejor idea de cuándo la luz salió de la galaxia y cómo ha sido su viaje. En el pasado, este método estaba plagado de errores.




Crean un buscador multilingüe basado en una interlingua


Un buscador multilingüe basado en una interlingua, que permite lanzar una pregunta en cualquier lengua y obtener una respuesta precisa en la lengua original, ha sido desarrollado por investigadores de la Facultad de Informática de la UPM. Se trata de un sistema de pregunta-respuesta que tiene la finalidad de contestar de forma precisa a preguntas sobre hechos formuladas en la lengua materna del usuario. Por Eduardo Martínez.

Investigadores del Grupo de Validación y Aplicaciones Industriales (VAI) de la Facultad de Informática de la Universidad Politécnica de Madrid han desarrollado un motor de búsqueda multilingüe que permite lanzar una pregunta en cualquier lengua a un repositorio de contenidos escritos en una interlingua y obtener una respuesta de gran precisión en la lengua en la que ha sido formulada la pregunta, informa la citada Facultad en un comunicado.

La interlingua es una representación de contenidos independiente de la lengua. En la actualidad, la única interlingua viva y de propósito general, con estándares, manuales y organizaciones que se ocupan de ella, es el UNL (Universal Networking Language), de la Universidad de las Naciones Unidas, que fue creada para eliminar las barreras lingüísticas en Internet. El VAI es el soporte de UNL para la lengua española.

El buscador multilingüe es un sistema de pregunta-respuesta que tiene la finalidad de contestar de forma precisa a preguntas sobre hechos formuladas en la lengua materna del usuario. Por ejemplo: ¿Quién descubrió América y en qué año? La respuesta obtenida por este sistema sería Cristóbal Colón en 1492.


Información en UNL

La novedad de este sistema es que la pregunta puede ser formulada en cualquier lengua, y la respuesta se obtiene en la misma lengua en que ha sido formulada sin que medie ninguna traducción de una lengua a otra, ya que la base de la información que se busca está en UNL.

El sistema explota las características de la representación en UNL de la pregunta del usuario para encontrar la respuesta, considerando que la respuesta está implícita en la pregunta. Por lo tanto, lo que hace el buscador no es encontrar la respuesta, sino que la deduce de la pregunta.

El motor de búsqueda es el encargado de encontrar la respuesta en la base documental escrita en UNL siguiendo la secuencia: primero busca frases del texto que podrían tener la respuesta, segundo, de ese conjunto de oraciones determina cuál tiene la respuesta y cuál es la respuesta. A continuación, genera la respuesta en la misma lengua en que fue formulada.

Por ejemplo, a la pregunta ¿Por qué Aubert fue galardonado con el premio Caméré?, el buscador encuentra en el repositorio un grafo del que se deduce la respuesta: por un nuevo tipo de exclusa (movable dam). (Ver gráfico).


Resultados prometedores

Para el ejercicio de la pregunta sobre el ingeniero francés Jean Aubert (1894-1984), la investigación utilizó como base la enciclopedia biográfica de la UNESCO, que tiene 25 artículos pasados a UNL, con 101 expresiones UNL y 2.534 palabras universales.

Los resultados obtenidos con esta investigación son muy prometedores: 82% de aciertos precisos. Se han formulado 75 preguntas de diferente tipo (cuándo, cómo, quién…), sabiendo de antemano cuál es la respuesta correcta. También se han formulado preguntas sin respuesta en el repositorio para determinar el comportamiento del sistema en este supuesto.

Los resultados obtenidos confirman la validez de este buscador para el desarrollo de sistemas pregunta-respuesta multilingües.

Los resultados de esta investigación, desarrollada por Jesús Cardeñosa (director del VAI), Carolina Gallardo y Miguel A. de la Villa, fueron presentados en la 8th International Conference FQAS 2009 (Dinamarca, octubre 2009) y se han publicado en Lecture Notes in Artificial Intelligence 5822, Springer, Berlín, september 2009, págs. 500 y ss.




Investigadores muestran una mini célula solar con todo integrado


Unos investigadores de la Universidad de Michigan acaban de desarrollar un avance en lo que a sistemas de captación solares se refiere, de los que te hacen girar la cabeza literalmente. Se trata de una célula solar de apenas 9 milímetros cúbicos, que cuenta con la peculiaridad de tener todo integrado: placa solar, procesador y batería, de manera que funcione de forma totalmente autónoma.

Lo mejor del sistema es que puede funcionar "de forma casi perpetua" y puede ser adaptado para incorporarle la generación de energía mediante el movimiento o incluso el calor, lo que le permitiría su uso en el campo médico.

No se sabe cuándo podremos verlo en funcionamiento en el día a día, pero sus inventores están trabajando duro para comercializarlo. Tienes otra foto más de cerca tras el salto.



Proyectores Optoma HW536 y EX762 llegan vestidos de gala a la fiesta 3D


En poco tiempo deberás tomar una decisión muy importante en la vida de todo friki: adquirir una televisión o un proyector 3D. Para que la decisión sea aún más complicada, Optoma nos presenta dos nuevos proyectores, y nuestros compañeros de Engadget en chino estuvieron presentes durante el anuncio.

A la izquierda de la fotografía superior puedes ver el HW536, que se venderá por alrededor de 1.150 dólares/840 euros. Incluye un puerto HDMI, resolución 1.280 x 800, 2.800 lúmenes, y un cociente de contraste de 3.000:1. A la derecha tenemos al EX762, que con un precio de 2.490 dólares/1.817 euros incluye un puerto Ethernet, además del conector HDMI, resolución 1.024 x 768, 4.000 lúmenes, y el mismo cociente de contraste que el anterior.

Para poder apreciar las imágenes 3D, estos proyectores requieren del uso de las gafas ZD101 (no incluidas), que tienen un precio de 125 dólares cada una, y permiten ver lo proyectado a una distancia de hasta ocho metros, gracias a la tecnología DLP Link de Texas Instruments. Para los más curiosos, tenemos un par de fotos después del salto.


FUENTE:


Seefront SF2223, 3D sin necesidad de gafas en este monitor unipersonal


El Seefront SF2223 es uno de esos ingenios que aunque curiosos y muy interesantes, pierden el interés por su aplicación. Estamos ante un monitor que parte de una diagonal de 22 pulgadas y que tiene como principal atractivo proporcionar al usuario una experiencia de visionado 3D que no requiere del uso de las incómodas gafas polarizadas de las que ya te hemos hablado en alguna que otra ocasión.

Para que esto sea posible, el Seefront SF2223 se vale de una cámara frontal que calcula la posición y comportamientos del usuario, y modifica la emisión en función de estos parámetros para que el espectador reciba un estímulo tridimensional. Y ahí reside el problema: sólo una persona puede disfrutar de la recepción, ya que las imágenes estarán graduadas para el usuario que esté frente a la cámara del Seefront SF2223.

No obstante, según parece, los resultados son óptimos, sea cual sea la fuente de emisión (películas o videojuegos).



Canal+, primer operador de televisión español que emite en 3D


Canal + ha decidido adelantarse a la avalancha de televisores capaces de emitir imágenes en tres dimensiones que nos va a inundar el presente año. Se va a convertir en el primer operador de televisión español que retransmite un programa tridimensional. La cuenta atrás ya ha comenzado. La primera emisión se va a celebrar el 17 de abril, un concierto de Enrique Bunbury dirigido por Paco Plaza y grabado en exclusiva para la casa. El cantante interpretará los temas de su nuevo disco “Las consecuencias”.

Este concierto no va ser un acontecimiento aislado. El operador de televisión reserva la tecnología tridimensional para ofrecer eventos exclusivos del mundo del deporte y de la cultura. A lo largo del segundo semestre del presente año espera ir incrementando las retransmisiones con esta nueva tecnología. El director de Canal+ Miguel Salvat acaba de declarar que “la tecnología 3D es ahora mismo un excelente vehículo para hacer llegar a los hogares de nuestros clientes los contenidos de mayor calidad con las mejores prestaciones técnicas“.

No todo el mundo va a poder recibir la señal correspondiente a este evento. Es imprescindible disponer de una de esas pantallas de última generación compatibles con las gafas de obturador activo. Además hay que contar con el terminal iPlus de la plataforma Digital +.

En cualquier caso, este de Canal + es el primer anuncio de emisiones en 3D, pero no el único. A lo largo de 2010 también va a iniciar emisiones 3DChannel, un canal de televisión con contenidos exclusivos tridimensionales que se está preparando para su emisión en las plataformas IPTV y en el satélite. Por el momento, está en negociaciones con distintos proveedores para lograr contenidos suficientes como para emitir las 24 horas del día con conciertos, deportes, documentales o películas. 3D Pictures, la productora responsable del canal, espera iniciar las emisiones a lo largo de ese mismo año 2010.




3 mar 2010

Identifican un mecanismo que protege al hígado frente a la resistencia a la insulina de la diabetes tipo 2


Un equipo del Consejo Superior de Investigaciones Científicas (CSIC) ha identificado un nuevo mecanismo para proteger al hígado de la resistencia a la insulina, principal síntoma de la diabetes tipo 2, la más común de estas patologías. La investigación, que aparece publicada en el último número de Diabetes, se centra en la proteína tirosina fosfatasa 1B (PTP1B). Según los autores, su inhibición podría constituir una potencial diana terapéutica frente a esta sintomatología.

La investigadora del CSIC Ángela Martínez Valverde, del Instituto de Investigaciones Biomédicas Alberto Sols (CSIC), dirige este estudio que cuenta con la participación de la también científica del CSIC Águeda González‐Rodriguez. Ambas autoras forman parte del Centro de Investigación Biomédica en Red de Diabetes y Enfermedades Metabólicas Asociadas. Asimismo el estudio ha contado con la participación de Deborah Burks, del Centro de Investigación Príncipe Felipe, en Valencia, y Manuel Ros, de la Universidad Rey Juan Carlos, de Madrid.

Los investigadores emplearon ratones modificados genéticamente para que su hígado desarrollase resistencia a la insulina, además de estar afectados por diabetes de tipo 2. Los autores observaron que estos modelos animales tenían altos niveles de expresión y actividad de la PTP1B. Como consecuencia de ello, el hígado experimentaba un bloqueo de fosforilación en el receptor de la insulina, lo que conduce al desarrollo de una resistencia a dicha hormona. Esa resistencia es la que, en último término, genera una producción de glucosa elevada en el hígado, característica principal de la diabetes tipo 2.

“Por tanto, cuando inhibimos la acción de PTP1B en el hígado de estos ratones, su capacidad de metabolizar la insulina queda restaurada”, explica la investigadora. El hígado logra este objetivo, una vez bloqueada la acción de PTP1B, modulando la disponibilidad de los miembros de la familia de las proteínas IRS como mediadores de la señalización de la insulina en el hígado.

Para evitar la acción de PTPB1, los investigadores administraron a los ratones resveratrol, un polifenol presente en alimentos como las uvas o las nueces. “Los resultados de este estudio sitúan a la PTP1B como un nodo crítico de la señalización de la insulina y sugieren que su inhibición podría ser de utilidad terapéutica en el tratamiento de la diabetes tipo 2”, concluye la investigadora del CSIC.

Águeda González‐Rodríguez, Jose A. Mas Gutiérrez, Silvia Sanz‐González, Manuel Ros, Deborah J. Burks y Ángela M. Valverde Inhibition of PTP1B Restores IRS1‐Mediated Hepatic Insulin Signaling in IRS2‐Deficient Mice Diabetes Marzo 2010 59:588‐599; doi: 10.2337/db09‐0796



Investigadores aragoneses participan en una expedición a la Antártida para analizar la contaminación del agua


La Universidad de Zaragoza ha participado en una expedición a la Antártida con un estudio que permitirá cuantificar de forma precisa la contaminación química del agua. La investigación permitirá definir la contaminación real, no sólo mediante niveles globales, como ocurre hasta ahora, sino indicando el nivel de toxicidad, en función de si los metales están disueltos en el líquido o se encuentran asociados a coloides o plantas. Los investigadores compararám el fitoplancton antártico con el de mares cálidos alterados por el ser humano.

El Instituto de Investigación en Ciencias Ambientales de Aragón de la Universidad de Zaragoza, que dirige Juan Ramón Castillo, ha desarrollado una metodología analítica adecuada para determinar la presencia de estos biocatalizadores en el fitoplancton, así como su distribución y su papel en la fotosíntesis.

En concreto, el grupo de investigación Espectroscopía Analítica y Sensores, que a su vez coordina Castillo, comparará los resultados del análisis de las muestras de microalgas recogidas en el Polo antártico con los procedentes de mares cálidos e incluso de agua dulce, más alterados por el ser humano.

El principal objetivo del proyecto es el desarrollo de nueva metodología analítica para la caracterización de especies químicas metálicas (cinc, manganeso, hierro, selenio, cadmio, etc), asociadas al llamado fitoplancton marino y otros tipos de materia orgánica natural, tanto en agua de mar, como sedimentos marinos, y agua dulce que desempeñan un papel fundamental en los procesos bioquímicos de fotosíntesis.

Con el estudio se pretende averiguar cuál es la distribución de estos metales y su papel en la fotosíntesis, proceso con el que se consigue la eliminación de casi el 50% del CO2 que se emite a la atmósfera.

La caracterización de dichas especies químicas resulta de gran importancia también para definir la biodisponibilidad, movilidad y posible toxicidad de las nanopartículas, macromoléculas y biocoloides contenidos en medios acuosos naturales.


Operación Skua

La expedición denominada Operación Skua, coordinada por Castillo y desarrollada en la Antártida desde el 9 de enero al 7 de febrero de 2010, se ha desarrollado a lo largo de dos mil millas por el Archipiélago Palmer, Islas Melchior, Isla Brabant, Archipiélago Wilhelm, Isla Adelaide, Peninsula Arrowsmith y Coast Davis de la península Antártica.

En esta expedición se han recogido muestras de fitoplancton, microalgas, agua de mar y sedimentos, que se conservan en neveras, a una temperatura de 5ºC. Estos ejemplares van a ser estudiados mediante nuevas técnicas de Ionización en Plasma– Espectrometría de Masas, Cromatografía Líquida de Alta Resolución, Ablación láser–Espectrometria de Masas, Electroforesis bidimensional, Isotacoforesis y Técnicas Voltamperométricas.

Este proyecto, denominado “Especiación multielemental química y funcional en nanopartículas, macromoléculas y biocoloides en medios acuosos pseudo-multifase”, cuenta con el respaldo del Plan Nacional del Ministerio de Ciencia e Innovación. Además del grupo aragonés, también participan el grupo de la Universidad de Santiago de Compostela, dirigido por Pilar Bermejo, e investigadores del Departamento de Biotecnología Marina de la Universidad de Las Palmas, encabezados por la doctora M. Benavides.

La expedición ha tenido también un carácter internacional, al participar grupos científicos ingleses y franceses, que trabajan en otros proyectos de magnetismo terrestre y en observaciones sobre biodiversidad.




Invisibilidad: los científicos, más cerca de conseguir el camuflaje perfecto


Un sueño propio del cine, que no escapa a la ciencia. En los últimos cuatro años ha recibido un gran impulso el proyecto de una capa que haga invisible al ser humano o permita comunicaciones sin interferencias.

Simular que un objeto, un animal o una persona desaparece es uno de los trucos más populares y recurrentes de los magos. Para generar esta ilusión recurren a diversas técnicas. Entre las primeras está la capa que cubre algo y que al levantarla, ya no está ahí. Evidentemente, detrás de esto hay truco: el objeto, simplemente, está escondido.

El verdadero manto de invisibilidad no depende de la magia, sino de la ciencia, y no encierra ninguna trampa, sino años de investigación. Su objetivo es hacer desaparecer algo, impedir que sea detectado o crear materiales capaces de desviar la luz o las ondas sonoras para no ser descubiertos. Puede otorgar a quien lo consiga un poder que trasciende las fronteras del espectáculo. No en vano, la idea ha inspirado a novelistas y cineastas que, durante siglos, han recreado con ella novelas y películas, y ha intrigado a científicos que llevan años teorizando la manera de hacerla real.

A pesar de lo difícil de encontrar la receta, sir John Pendry lo consiguió hace sólo cuatro años. El físico del Imperial College de Londres se valió de antiguas teorías para proponer el modo de construir una coraza invisible, y por ello se le considera el padre de la invisibilidad a través de metamateriales: estructuras que permiten manipular la luz de maneras desconocidas en materiales naturales. Su trabajo se publicó en 2006 en la revista «Science» y ya se ha citado más de 500 veces. Pero a pesar de su impacto, todavía tiene un reto por delante: llevarlo del papel a la práctica.La fórmula de Pendry retoma la teoría de las «ecuaciones de Maxwell», que describe el comportamiento de los campos electromagnéticos en presencia de medios materiales, según explica Francisco Javier García de Abajo, investigador del Instituto de Óptica del Consejo Superior de Investigaciones Científicas (CSIC) y miembro de la Sociedad Americana de Física. Gracias a esta teoría se sabe que la luz, en su interacción con la materia, sufre refracción: el efecto que se produce, por ejemplo, cuando una vara parece doblarse al entrar en el agua. Esto sucede porque el índice de refracción es negativo y, como explica García de Abajo, las corazas de invisibilidad requieren materiales con este tipo de propiedades para poder desviar la luz.Es por eso que la refracción negativa ha jugado un papel esencial para hacer reales las hipótesis de Pendry. En 2008, un equipo de investigadores de la Universidad de Berkeley (Estados Unidos), dirigidos por Xiang Zhang, lograron fabricar un material que poseía esta característica. Jason Valentine, miembro del equipo, se lamenta de que todavía no hayan podido usarlo para fabricar el manto de invisibilidad. Sin embargo, en mayo de 2009, su equipo logró diseñar un dispositivo real, cuya creación recogía la revista «Nature Materials». «Para producirlo utilizamos un material –a base de nanoestructuras de silicio–, que nos permitía facilitar su fabricación», indica Valentine. «Es la primera capa óptica que se ha demostrado», asegura el físico.


De la teoría a la práctica

Precisamente, uno de los mayores problemas a los que se enfrentan los investigadores es hacer que estas capas sean realmente invisibles al ojo humano, ya que las desarrolladas hasta la fecha sólo lo son para las microondas. Esto permite, por ejemplo, no ser detectado por los radares, aunque sí por cualquier sistema basado en frecuencias de onda mayores, como los rayos infrarrojos. Para sortear estos obstáculos trabajan también otros equipos de científicos, como el liderado por David Smith. El físico de la Universidad de Duke (Estados Unidos) trabajó con Pendry para desarrollar su idea de capa de invisibilidad y en 2006 consiguieron crear el primer prototipo y demostrar que es posible trasladar ondas electromagnéticas de modo que rodeen a un objeto sin hacerlo visible. Hace poco más de un año, él y sus compañeros desarrollaron un software que acelera el diseño de los metamateriales y que les permitió crear una versión mejorada de la capa. «Ahora continuamos esforzándonos para optimizarla y hemos realizado algunas mediciones que vamos a publicar en breve», asegura Smith.


Herramienta militar

Pero, ¿qué utilidad tiene todo esto? En opinión de García de Abajo, «hacer que un objeto sea invisible a frecuencias de microondas tiene aplicaciones militares claras. La prensa parece estar olvidando la parte práctica de la historia: este tipo de avances está revolucionando las tecnologías de combate de detección y camuflaje», señala el experto del CSIC. No opina así Smith, que asegura que la militar es la más alejada de las utilidades en las que están trabajando. «Esperamos desarrollar aplicaciones de comunicación, entre otras cosas para sortear objetos que interfieran con una señal, para que la información se transmita de manera efectiva de un punto a otro», indica el físico.

Por su parte, Valentine destaca que la capa es más que una herramienta para el ejército. La que su equipo ha creado puede hacer desaparecer los defectos de los espejos. «Esto es importante, por ejemplo, para la industria de fabricación de circuitos integrados, ya que utilizan espejos muy caros para realizar litografía –proyección de patrones– y un pequeño defecto puede arruinarlos. Además, actualmente estamos ampliando la metodología usada en el diseño de la capa, llamada óptica de transformación, para crear otros dispositivos como concentradores de luz para las células solares», comenta Valentine.

Sin embargo, lograr lo que los magos consiguen con sus trucos, una apariencia invisible a todos los efectos, queda todavía lejos. «Es muy posible que el dominio de la invisibilidad para frecuencias de microondas se logre en poco tiempo, pero muchos nos mostramos escépticos sobre la posibilidad de hacerlo en el espectro visible en muchos años», señala García de Abajo. Smith coincide con él, y opina que la invisibilidad perfecta «está muy lejos». Pero es más optimista: «Por ahora no tenemos un mapa de trabajo que nos permita llegar a ella pero no hay ninguna razón fundamental por la cual dicha capa no pueda existir». «Hasta entonces, seguiremos trabajando sin perder la esperanza, y el lector será testigo de los grandes pasos que se den para lograrlo», concluye Smith.




Hemeroteca

Etiquetas