11 dic. 2009

Investigadores del CSIC señalan que el Mediterráneo se llenó en menos de dos años



Hace 5,3 millones de años se produjo la mayor inundación conocida nunca en la Tierra sobre un Mediterráneo desecado. La descarga de agua fue 1.000 veces superior a la del río Amazonas, con una subida de 10 m diarios del nivel del mar.

El mar Mediterráneo llegó casi a secarse hace unos seis millones de años, al quedar aislado de los océanos durante un largo periodo de tiempo, debido el actual levantamiento tectónico del Estrecho de Gibraltar. Cuando las aguas del Atlántico encontraron de nuevo un camino a través del Estrecho, llenaron el Mediterráneo con la mayor y más brusca inundación que ha conocido nunca la Tierra. La cuenca mediterránea, entonces un enorme desierto a 1.500 metros de profundidad, tardó en llenarse de unos meses a dos años, según explican investigadores del Consejo Superior de Investigaciones Científicas (CSIC). Hasta ahora se pensaba que este mar en medio de las tierras había tardado en llenarse de 10 a 10.000 años.

De acuerdo con el artículo que aparece publicado esta semana en la revista Nature, la enorme descarga de agua, iniciada probablemente por el hundimiento tectónico del Estrecho y el desnivel de ambos mares [de unos 1.500 metros], llegó a ser 1.000 veces superior al actual río Amazonas y llenó el Mediterráneo a un ritmo de hasta 10 metros diarios de subida del nivel del mar.

La inundación que reconectó el Atlántico con el Mediterráneo provocó en el fondo marino una erosión de cerca de 200 kilómetros de longitud y varios kilómetros de anchura.

De acuerdo con el artículo que aparece publicado esta semana en la revista Nature, la enorme descarga de agua, iniciada probablemente por el hundimiento tectónico del Estrecho y el desnivel de ambos mares [de unos 1.500 metros], llegó a ser 1.000 veces superior al actual río Amazonas y llenó el Mediterráneo a un ritmo de hasta 10 metros diarios de subida del nivel del mar.

La inundación que reconectó el Atlántico con el Mediterráneo provocó en el fondo marino una erosión de cerca de 200 kilómetros de longitud y varios kilómetros de anchura.

Uno de los responsables de la investigación, el investigador del CSIC Daniel García- Castellanos, que trabaja en el Instituto de Ciencias de la Tierra Jaume Almera, en Barcelona, detalla: "La inundación que puso fin a la desecación del Mediterráneo fue extremadamente corta y más que parecerse a una enorme cascada debió consistir en un descenso más o menos gradual desde el Atlántico hasta el centro del Mar de Alborán, una especie de 'megarrápido' por donde el agua circuló a cientos de kilómetros por hora. Como consecuencia, el canal erosivo que atraviesa el estrecho tiene unos 500 metros de profundidad y hasta ocho kilómetros de anchura, y se extiende a lo largo de unos 200 kilómetros entre el Golfo de Cádiz y el Mar de Alborán".

Cuando hace unos años los ingenieros del túnel que debía unir Europa y África estudiaron el subsuelo del Estrecho de Gibraltar se encontraron con este problema inesperado: un surco de varios cientos de metros de profundidad, rellenado por sedimentos poco consolidados. Los geólogos y geofísicos en los años 90 pensaron que esta norme erosión había sido producida por algún río de gran caudal durante la desecación del Mediterráneo.

"Esperamos que el artículo contribuya, en cierta medida, a planificar las obras del túnel para unir Europa y África. El trabajo se basa en buena parte en los estudios preliminares de ese proyecto, muy condicionado por la presencia de ese canal erosivo que nosotros relacionamos con la inundación. Sería cerrar un bello círculo que nuestra investigación acabara contribuyendo a la construcción del túnel con nuevo conocimiento", apunta García-Castellanos.


GARGANTAS Y SAL

"Durante el periodo de desecación [la llamada crisis salina del Mesiniense, debido a la precipitación masiva de sal en todo el Mediterráneo con acumulaciones de varios kilómetros en algunos lugares de sus zonas más profundas], los principales ríos que desembocaban en el mar estudiado excavaron profundas e impresionantes gargantas en los márgenes del fondo marino, que quedaron expuestos. Los ríos desembocaban entonces en lagos salinos situados en las partes más profundas de la cuenca", explica el investigador del CSIC.

No obstante, a partir del estudio de los perfiles sísmicos realizados en el Mar de Alborán [secciones verticales a través de los sedimentos] y de los cálculos basados en modelos de erosión de los ríos de montaña, los investigadores demostraron que la erosión no fue producida por un río durante la desecación del Mediterráneo, sino por un enorme flujo de agua procedente del Atlántico.

García-Castellanos avanza las implicaciones que pueda tener el estudio: "Un cambio tan enorme y abrupto en el paisaje terrestre como el que hemos deducido pudo tener un impacto notable en el clima de aquel periodo, algo que no se ha estudiado aún con suficiente detalle y a lo que podría ayudar este trabajo. La técnica usada, además, nos puede servir también para estudiar otras inundaciones de las que se desconocen su intensidad o duración".



El día en que la Tierra sobrevivió al mayor ataque estelar


El ataque llegó de improviso, desde la lejana constelación de Sagitario, a más de 50.000 años luz de distancia. Durante un breve instante, apenas un par de décimas de segundo, el 27 de diciembre de 2004 un invisible estallido de energía, equivalente a medio millón de años de iluminación solar, alcanzó la Tierra casi a la velocidad de la luz. Muchos de nuestros satélites dejaron de funcionar al instante, y las capas superiores de nuestro mundo quedaron instantáneamente ionizadas por el súbito impacto de cantidades masivas de rayos gamma.

La fuente de aquel ataque invisible fue un extraño tipo de estrella de neutrones, un magnetar, conocido como SGR 1806-20 y que se encuentra justo en el extremo opuesto de nuestra galaxia, la Vía Láctea. Los magnetares, un tipo de púlsares que periódicamente expulsan enormes cantidades de energía, poseen campos magnéticos de una extraordinaria intensidad (hasta 1.000 veces mayor que la de un púlsar convencional). Tanto, que resultarían letales para cualquier forma de vida a más de mil km. de distancia.

Hasta ahora, los astrónomos han catalogado más de mil púlsares en nuestra propia galaxia, un número muy pequeño si se compara con los más de cien millones de estrellas de neutrones «pacíficas» que se estima que contiene la Vía Láctea. Las estrellas de neutrones son los restos materiales (de una densidad enorme) que quedan tras la muerte violenta de una estrella convencional. Algunos de estos oscuros cadáveres estelares giran sobre sí mismos hasta cientos de veces por segundo, emitiendo a cada giro pulsos de energía (de ahí su nombre), que viajan por el espacio en forma de rayos X o gamma.

Sólo una pequeña fracción de las estrellas de neutrones conocidas son púlsares. Y entre ellos sólo unos pocos pertenecen a la categoría de los magnetares. Se cree que éstos son, precisamente, los despojos que quedan tras la muerte de las estrellas más grandes, supergigantes que, sin embargo, no tenían la masa suficiente como para convertirse, al morir, en agujeros negros.


Esterilizado en un instante

Por fortuna para nuestro planeta, los magnetares más cercanos están lo suficientemente lejos (miles de años luz), como para causarnos graves daños. Si SGR 1806-20 hubiera estado, digamos, a sólo unas decenas de años luz de distancia, aquél 27 de diciembre de 2004 nuestro planeta habría quedado completamente esterilizado en apenas una fracción de segundo.

Sin embargo, no fue ésta la única, ni tampoco la mayor, explosión de energía que los astrónomos han podido observar. Numerosos instrumentos, tanto en tierra como en órbita, escrutan contínuamente el espacio en busca de estos repentinos, imprevisibles y enormemente energéticos estallidos. Y fue utilizando uno de esos instrumentos, el satélite de la NASA Swift, como se detectó, el pasado 19 de marzo de 2008, otra oleada de energía en ruta directa hacia nuestro planeta. De hecho, la mayor que se ha podido ver hasta la fecha. La explosión fue catalogada como GRB 080319B y fue tan intensa y brillante que pudo distinguirse a simple vista desde la Tierra durante cerca de quince segundos.

En un artículo que aparece esta semana en Nature, Judith Racusin, de la Penn State University y otros 92 astrónomos de todo el mundo dan cuenta de sus observaciones, desde 30 minutos antes de producirse la explosión al seguimiento de su brillo durante varios meses después. Y el equipo ha llegado a la conclusión inequívoca de que la oleada de energía que ha provocado se dirige directamente hacia la Tierra al 99,99995% de la velocidad de la luz. Sin embargo, y dada su distancia, no corremos peligro alguno. La estrella responsable de la explosión se encuentra a la increíble distancia de 7.500 millones de años luz de nosotros.

A pesar de ello, cuando los instrumentos del Swift la captaron, quedaron temporalmente cegados por su resplandor. Al principio Racusin creyó que algo había dejado de funcionar en el satélite, y sólo después se dio cuenta de que se encontraba ante el acontecimiento más violento jamás observado por el hombre. Los científicos admiten su consternación ante un fenómeno de tal violencia y luminosidad que pudo verse a ojo desnudo a pesar de estar a una distancia tan enorme. Nadie se atreve a pronosticar qué habría sucedido si si la estrella hubiera estado tan «cerca» de nosotros como la que provocó la oleada energética de diciembre de 2004...





Lumino: tres dimensiones para la Surface de Microsoft


Quizá creas que un sistema de bloques no sea gran cosa para un dispositivo como la Surface de Microsoft. Pero tiene su miga: el reconocimiento de la tercera dimensión, con las consiguientes implicaciones en la interfaz de usuario. Aunque ya se ha visto a la Surface identificar y reaccionar a objetos físicos, es la primera vez que los reconoce en tres dimensiones. Los bloques Lumino se pueden apilar y la Surface se comporta de forma diferente cuando están unidos. La tercera dimensión en interfaces táctiles podría permitir una nueva generación de gestos que aún no se han incorporado. Tienes un vídeo de Lumino después del salto.









Relacionan el Azul de Prusia con el origen de la vida


Un equipo de investigadores del Centro de Astrobiología (INTA-CSIC) ha comprobado que a partir de la sal Azul de Prusia se pueden obtener cianuro de hidrógeno, urea y otras sustancias consideradas esenciales en la formación de las primeras moléculas biológicas. Para realizar el estudio, publicado en la revista Chemistry & Biodiversity, los científicos han recreado las condiciones químicas de la Tierra primitiva.

“Hemos verificado que al disolver el Azul de Prusia en soluciones amoniacales se obtiene cianuro de hidrógeno, una sustancia que pudo desempeñar un papel fundamental en la síntesis de las primeras moléculas bioorgánicas, así como otros precursores relacionados con el origen de la vida, como la urea, la dimetilhidantoina y el ácido láctico”, explica a SINC Marta Ruiz Bermejo primera autora del estudio e investigadora del Centro de Astrobiología (CSIC-INTA).

La urea se considera un reactivo importante en la síntesis de pirimidinas (sus derivados forman parte de los ácidos nucleicos del ADN y ARN), las hidantoinas se han propuesto como precursores de péptidos y aminoácidos (los componentes de las proteínas), y el ácido láctico también tiene interés biológico porque, junto al ácido málico, puede actuar en sistemas donadores-aceptores de electrones.

La investigadora y su equipo han comprobado que éstos y otros compuestos se originan a partir del cianuro que libera la sal Azul de Prusia (nombre que hace referencia al pigmento de los uniformes del ejército prusiano), cuando se la somete durante varios días a pH 12 y a temperaturas relativamente altas (70-150ºC), en un ambiente húmedo con amoniaco y sin oxígeno similar al de la Tierra primitiva. Los resultados del estudio se han publicado recientemente en la revista Chemistry & Biodiversity.

“Además, cuando se descompone el Azul de Prusia en el medio amoniacal y anóxico esta sal compleja –denominada hexacianoferrato (II) de hierro (III)- también resulta ser un excelente precursor de hematite, la forma más estable y frecuente de los óxidos de hierro (III) en la superficie de la Tierra”, destaca Ruiz Bermejo.

El hematite se relaciona con las denominadas ‘formaciones de hierro bandeado’ (BIF, por sus siglas en inglés: Banded Iron Formations), cuyo origen biológico o geológico es motivo de un intenso debate entre los científicos. Las formaciones más antiguas, de más de 2.000 millones de años de antigüedad, se han encontrado en Australia.

Los investigadores han confirmado en otros estudios que se puede obtener Azul de Prusia en condiciones prebióticas (a partir de iones ferrosos y bajo una atmósfera de metano y descargas eléctricas). La síntesis de esta sal y su posterior transformación en hematite ofrece un modelo alternativo para explicar la formación de hierros bandeados en condiciones abióticas en ausencia de oxígeno.

Ruiz Bermejo concluye que el Azul de Prusia “pudo actuar como concentrador de carbono en la hidrosfera prebiótica y que su descomposición húmeda en condiciones anóxicas pudo liberar cianuro de hidrógeno y cianógeno, con la subsiguiente formación de moléculas orgánicas y óxidos de hierro”.


Referencia bibliográfica:

Marta Ruiz Bermejo, Celia Rogero, César Menor Salván, Susana Osuna Esteban, José Ángel Martín-Gago y Sabino Veintemillas Verdaguer. “Thermal wet decomposition of Prussian Blue: Implications for Prebiotic Chemistry”. CHEMISTRY & BIODIVERSITY 6 (9): 1309-1322, 2009.





Más de 40 millones de hogares en los EEUU tendrían TVs 3D para el 2014


Se nos hace difícil pensar en las ventas de televisiones para el año 2014, sin embargo, en Insight Media dicen poseer unos números bastante interesantes. En un documento denominado "Stereoscopic 3D Gaming Report" indican que "más de 40 millones" de hogares (seguramente en los EEUU) tendrán televisiones 3D para el 2014. Su cifra proviene de un estudio que revela que las ganancias por pantalla en las ventas de videos en 3D son mayores a las de los mismos en 2D. Si te interesa, el reporte completo tiene un precio de 5.000 dólares, que por ahora podrías ahorrar para comprar una de esas televisiones en unos pocos años.






Hallan los restos fósiles del cráneo de toro más antiguo del mundo


Un equipo del Instituto Catalán de Paleoecologia Humana y Evolución Social (IPHES) ha descrito una cabeza de toro espectacular, de un millón de años, con dos metros de cuernos. Los investigadores encontraron el fósil fragmentado. Una vez reconstruido, el trabajo ha permitido describir una nueva especie, Bos buiaensis, y confirmar que homínidos y toros se originaron en África del Este hace 2,5 millones de años y luego se dispersaron en paralelo fuera de ese continente.

El yacimiento paleoantropológico de Buia en Eritrea, junto al mar Rojo, donde fue encontrado un cráneo humano de un millón de años en 1995, sigue brindando extraordinarios fósiles para la paleontología.

Así lo revela el hallazgo de un cráneo de toro prácticamente completo, que sitúa el origen de los toros modernos en África. Se trata de una pieza espectacular, con dos metros de cuernos dirigidos hacia fuera, ligeramente apuntados hacia delante, y mucho más grandes que los más grandes toros de lidia actuales. Con este cráneo se ha descrito una nueva especie de toro, el Bos buiaensis

El paleontólogo Bienvenido Martínez-Navarro, profesor de investigación ICREA (Institució Catalana de Recerca i Estudis Avançats) en el IPHES (Instituto Catalán de Paleoecologia Humana y Evolución Social), con sus colaboradores de la Universidad de Florencia, Lorenzo Rook y Mauro Papini, y Yosief Libsekal, director del Museo Nacional de Eritrea, han descrito Bos buiaensis, tomando el nombre de la localidad donde fue hallado. Los resultados se publican en la revista Quaternary International.


Una restauración craneal

“Su estructura craneal, si bien presenta algunos rasgos primitivos de sus ancestros -los correspondientes al linaje de los grandes bovinos llamados Pelorovis, conocidos en la literatura científica como los búfalos de Olduvai en honor al famoso yacimiento tanzano- en general, su anatomía es ya la de un toro básicamente moderno, con el cráneo robusto en comparación con sus antecesores, adaptado a una dieta pastadora, y habitante de espacios abiertos, ya que con su cornamenta difícilmente podría moverse en ambientes forestados”, explica Bienvenido Martínez-Navarro.

El cráneo de toro fue encontrado fragmentado en diversos pedazos, algunos de ellos todavía in situ, mientras se realizaba una prospección en el área de Buia en 2003, a cargo de Lorenzo Rook, y fue extraído por Rook y Martínez-Navarro, quien luego, con el restaurador Francesco Landucci de la Universidad de Florencia, preparó la pieza hasta su reconstrucción definitiva.



La tecnología espacial se alía con la eólica



Con el objetivo de optimizar los molinos de viento, la Agencia Espacial Europea ha creado un sistema basado en tecnología de teledetección que mide la velocidad, la dirección, la turbulencia y la cizalladura del viento.

Un nuevo dispositivo, desarrollado por los ingenieros del Centro de Asuntos de Incubación de la Agencia Espacial Europea (ESA, por sus siglas en inglés) en los Países Bajos, aportará información vital para optimizar la eficiencia energética de los molinos de viento. Y lo hará midiendo la velocidad y dirección del viento, desde el suelo hasta alturas de 200 metros. Se unen así los esfuerzos en tecnología espacial y eólica, tal y como ha publicado la ESA.

El sistema, basado en tecnología de teledetección, mide la velocidad, la dirección, la turbulencia y la cizalladura del viento e indica en qué lugares es preferible construir una turbina para producir electricidad. Funciona con un rayo láser de modo similar al procedimiento del sónar bajo el agua para calcular distancias. El director científico de la investigación, Laurent Sauvage, explica que con este sistema “podemos medir el perfil del viento, a diez alturas de medición programables, desde 40 a 200 metros hasta de 100 a 5.000 metros, en la vertical del punto de medición, dependiendo de las necesidades de nuestros clientes; de modo que ya hemos instalado más de 80 de ellos en 14 países, contribuyendo a la vigilancia regional y mundial de los procesos meteorológicos y el cambio climático".

Sauvage, asegura que el concepto del que parte el mecanismo se asemeja al que la ESA utilizará en 2011 con el lanzamiento de la Misión de Dinámica Atmosférica del Aeolus Earth Explorer, que pretende recabar observaciones mundiales de los perfiles del viento desde el espacio "para mejorar la calidad de los pronósticos meteorológicos y avanzar en nuestra comprensión de la dinámica atmosférica y de los procesos del clima". En este sentido, y para Sauvage, la experiencia espacial adquirida fue clave para lograr "el mejor diseño posible". “Enviamos pulsos de láser para medir las características eólicas que capturan el movimiento de las partículas en la atmósfera y, que a través de cálculos matemáticos, llegan a determinar la velocidad y la dirección absoluta del viento”, explica. Recordó también que para que los nuevos parques eólicos sean rentables, es fundamental conocer las condiciones locales del viento con el fin de determinar la mejor posición para cada aerogenerador.





Los dinosaurios carnívoros eran suramericanos


Los primeros dinosaurios carnívoros posiblemente surgieron hace más de 230 millones en una región de lo que es ahora América del Sur, según un estudio publicado hoy por la revista Science.

En ese momento de la historia del planeta su masa terrestre era una sola llamada Pangea, que se separó creando los actuales continentes.

Las claves de esa teoría fueron proporcionadas por restos fósiles de un nuevo tipo de dinosaurio, llamado Tawa hallae, además de otros ejemplares del período Triásico analizados por científicos del Museo de Historia Natural de la Universidad de Utah, y de las universidades de Texas y de Chicago.

En el Triásico, hace entre 250 millones y 201 millones de años, surgieron otros animales, como los cocodrilos, los primeros mamíferos, los pterosauros, las tortugas, los sapos y los lagartos.

Los especímenes del estudio, que incluyen un esqueleto casi completo de un ejemplar juvenil del Tawa hallae, fueron descubiertos en 2004 en una cantera del estado de Nuevo México en una zona conocida como Ghost Ranch.

Según el informe, el esqueleto fosilizado de Tawa hallae muestra un dinosaurio de unos dos metros de largo, una altura de unos 70 centímetros y una larga cola.

"Tawa hallae modifica lo que sabíamos de la relación entre los primeros dinosaurios y proporciona fantástica información sobre cómo evolucionó el esqueleto de los primeros dinosaurios carnívoros", dijo Randall Irmis, del Museo de Historia Natural de Utah.

Los científicos afirman en su investigación que los primeros dinosaurios surgieron en una zona de Pangea que es ahora Sudamérica y que después evolucionaron hasta convertirse en varios tipos de esos animales, incluyendo el Tyrannosaurus rex y los triceratopos.

"Cuando analizamos la relación evolutiva de estos dinosaurios descubrimos que era muy distante y que cada especie tenía parientes muy cercanos en América del Sur", agregó Irmis.

Esto implica, a su juicio, que "cada especie carnívora de dinosaurios descendió de una línea diferente antes de llegar a la zona de Pangea que es ahora América del Norte, en vez de tener un solo antepasado local".

Ese desplazamiento de dinosaurios, incluyendo reptiles, llevó a los científicos a determinar que durante la última parte del Triásico no había grandes barreras geográficas, como cadenas montañsas, que pudieran obstaculizar la migración de algunos de esos animales.

Los grupos de dinosaurios más importantes, entre ellos los carnívoros, tuvieron la capacidad de llegar a la parte de Pangea que ahora es Norteamérica a finales del Triásico donde aparentemente el clima permitió su supervivencia, según los científicos.

El estudio de los esqueletos mostró que los animales tenían huesos huecos y aire en la zona craneana y en el cuello, una caractrística evolutiva también vinculada a los pájaros.





Los monos hablan un lenguaje ancestral


Los gritos de los monos Campbell (Cercopithecus campbelli campbelli) en los bosques de Costa de Marfil esconden la forma de lenguaje vocal no humano más compleja que se conoce, según un estudio publicado en PNAS. Estos primates articulan un repertorio de gritos distintos para formar frases con significados específicos que alertan de la presencia de un depredador o de la llegada de congéneres de grupos rivales.

Hace un mes, Klaus Zuberbühler, de la Universidad de St. Andrews (Reino Unido), junto a investigadores de Francia y Costa de Marfil, publicó un estudio que aseguraba que los monos Campbell usan un repertorio de seis gritos con significados concretos. Hok se relaciona con un águila y krak con un leopardo, sus dos depredadores naturales en los bosques del país africano.

En el nuevo estudio, publicado en PNAS tras dos años estudiando a los monos en el Parque Nacional de Taï de Costa de Marfil, señalan que los machos articulan esos seis gritos en secuencias de 20 o más términos usando una forma primitiva de sintaxis. Los monos emiten distintas secuencias que comienzan con boom, seguido de otros gritos para diferenciar una pelea entre monos de otra especie o la llegada a su territorio de congéneres rivales. También gritan secuencias distintas dependiendo de si se acerca un águila o un leopardo y si lo ven o sólo lo escuchan. En el caso del leopardo, cuanto mayor es la alarma, más kraks contiene la frase.


Conexión con humanos

Los investigadores aún ignoran si este lenguaje es un ancestro del que usa el ser humano. Los resultados podrían indicar que, antes de hablar como lo hace hoy, el hombre usó un lenguaje básico de kraks, booms y haks similar al que usan los monos Campbell.

También hay grandes diferencias. Se trata de un código lineal basado en la repetición y no en la contraposición de términos. Los monos podrían aumentar considerablemente el número de mensajes si el orden de dos gritos alterara su significado, por ejemplo, hak boom, o boom hak. Pero sólo parecen unir gritos en un hilo en el que cada adición matiza el significado de los anteriores. Además, el lenguaje de estos primates sólo nombra cosas que están presentes, algo que cierra la puerta a conceptos abstractos o imaginarios, como hace el hombre.

Lo que sí implica el estudio es que, probablemente, el lenguaje no es exclusivo de los humanos, sino una capacidad compartida con otras especies. Otros estudios anteriores han encontrado formas básicas de comunicación entre muchos animales. Desde finales de la década de 1990, se ha demostrado que monos, ballenas y pájaros combinan sonidos para formar una especie de lenguaje, aunque su significado se desconoce. Otros trabajos indican que algunos primates emiten sonidos diferentes relacionados con tipos de alimento y depredadores.

El nuevo protolenguaje de los monos Campbell es el más complejo descrito hasta ahora, pero tal vez sea por falta de estudios más completos de otros primates. Los autores destacan que esta forma de comunicación nació mucho antes de la aparición de los homínidos y posiblemente esté más desarrollada en especies que viven en bosques con poca visibilidad y un gran número de depredadores.


Breve diccionario español-Campbell
Seis Palabras
‘Boom’, ‘krak’, ‘hok’, ‘hokoo’, ‘krakoo’, ‘wakoo’.
“Venid”‘Boom boom’.
“Se va a caer una rama”
‘Boom boom krakoo krakoo’.“Vienen monos rivales”‘Boom boom krakoo krakoo hakoo’.“Viene un leopardo”‘Krak krakoo’. El número de ‘kraks’ es mayor cuanto mayor es el nivel de alarma. Cuando sólo se oye al leopardo, aumenta el número de ‘krakoos’.“Viene un águila”‘Wakoo krakoo hok hokoo’. Cuanto mayor es la alarma, más ‘hoks’ y ‘hokoos’ se pronuncian.



Descubren la estrella número veinte de la Osa Mayor


Un equipo internacional de científicos ha descubierto la estrella número veinte de la Osa Mayor, denominada Alcor B. Se trata de una de las luces que forman la cola de la osa y tiene en su órbita una pequeña enana roja. El hallazgo cambiará los libros de texto, ya que, hasta ahora, se creía que esta constelación estaba formada por sólo 19 estrellas, que resultan siete a simple vista.

Según el estudio, publicado en The Astrophysical Journal, este cuerpo estelar ha sido detectado por miembros del proyecto 1640, un equipo internacional que incluye a astrofísicos del Museo Americano de Historia Natural, la NASA, el Instituto Tecnológico de California y la Universidad de Cambridge.

El equipo utilizó una innovadora técnica para su descubrimiento, el «movimiento paraláctico común», un método que permite sacar de la oscuridad a estrellas «escondidas» detrás de otras observando su movimiento en relación a otras estrellas más lejanas, y que representa un «homenaje a Galileo», ha explicado Ben R. Oppenheimer, del Museo Americano de Historia Natural.

«Galileo sentó un tremendo pronóstico. Hace 400 años, estableció que si Copérnico estaba en lo cierto -que la Tierra orbitaba al Sol - podría demostrarlo mediante la observación del «movimiento paraláctico» de las estrellas más próximas. Increiblemente, Galileo recurrió a Alcor para comprobarlo, pero no dispuso de la precisión necesaria para conseguirlo», ha indicado Oppenheimer.

Alcor es una estrella relativamente joven con dos veces la masa del Sol. Este tipo de estrellas son relativamente raras, de corta vida y brillo. Alcor y sus parientes de la Osa Mayor se formaron de la misma nube de materia hace unos 500 millones de años, algo inusual para una constelación, ya que otras similares están compuestas de estrellas no relacionadas entre sí. Alcor comparte una posición en la Osa Mayor con otra estrella, Mizar. De hecho ambas fueron utilizadas en la antigüedad para realizar un test de agudeza visual -distinguir el caballo del jinete-.


Imperceptible al ojo humano

Ahora, Alcor nos ha presentado a su compañero, Alcor B. En marzo pasado, miembros del Proyecto 1640 instalaron su coronografía y óptica adaptiva en el Telescopio Hale del Observatorio Monte Palomar y lo dirigieron a Alcor. «Justo allí, pude localizar un tenue punto de luz próximo a la estrella», ha dicho Neil Zimmermann, miembro del equipo. «Nadie había informado de este objeto antes, y estaba muy cerca de Alcor, así que llegamos a la conclusión de que probablemente se trataba de una estrella asociada desconocida».

El equipo retornó meses después y volvió a observar estas estrellas, esperando probar que eran compañeras determinando el casi inapreciable movimiento de ambas en relación con otras estrellas más lejanas cuando la Tierra se mueve en torno al Sol, en otras palabras, calibrando su movimiento paraláctico. Si la supuesta compañera era una estrella asociada se movería junto con Alcor, y asi se comprobó.

Alcor y su nueva compañera se encuentran a unos 80 años luz y orbitan entre sí al menos cada 90 años. A lo largo de un año, la pareja se mueve en una elipse sobre el cielo a lo largo de 0, 08 arcosegundos de la órbita que describe la Tierra en torno al Sol.

Este movimiento es alrededor de mil veces más pequeño que lo que el ojo humano puede discernir, pero una fracción de este movimiento pudo ser fácilmente medida por la tecnología de los científicos del Proyecto 1640.





¿Se ha encontrado, por fin, una partícula de materia oscura?


Algo gordo se mueve en el mundo de la Física. Por ahora es sólo un rumor que recorre los blogs de los científicos como un reguero de pólvora encendida pero, de ser cierto, podríamos estar ante uno de esos descubrimientos que lo cambian todo. De hecho, lo que está en el candelero es el (posible) descubrimiento de la primera partícula de materia oscura jamás observada. Y además no en algún punto lejano del Universo sino aquí mismo, en la Tierra. El hallazgo podría ser publicado en apenas un par de números por la prestigiosa revista Nature.

Antes de centrarnos en el descubrimiento en sí, repasemos un poco los conceptos. La materia «ordinaria», la normal, ésa de la que está hecho todo lo que podemos ver, desde nosotros mismos a los planetas, las estrellas y las galaxias, sólo da cuenta de un pequeño porcentaje (apenas el 4%) de la masa total del Universo. Lo cual nos deja ante un incomodísimo 96% de... ¿De qué?. Pues precisamente de materia y de energía oscuras, llamadas así porque nada, o muy poco, sabemos de ellas hasta la fecha. La imagen que aparece sobre estas líneas es un mapa de la distribución de materia oscura en el Universo, a partir de datos de varios telescopios.

Los cálculos de los físicos y las observaciones de los astrónomos indican que de ese enorme 96% de Universo desconocido, cerca del 23% corresponde a materia oscura y el resto, el 73%, a un concepto aún más vago y misterioso, que es el de la energía oscura, una misteriosa fuerza que se cree que está detrás del hecho de que nuestro Universo se está expandiendo de forma acelerada, esto es, cada vez más deprisa.

Nunca, nadie, ha sido capaz de observar ni la materia ni la energía oscuras. Su presencia se infiere a partir de los efectos (en su mayor parte gravitatorios) que ambas provocan sobre lo que sí podemos ver, esto es, sobre la materia ordinaria. Así, determinados movimientos de estrellas y galaxias no podrían explicarse sin la presencia de «algo» cuya fuerza de la gravedad les estuviera obligando a moverse precisamente de esa forma.

Pero todo eso seguirán siendo simples teorías hasta que alguien, en alguna parte, consiga «capturar» un fragmento de materia oscura y analizarlo como es debido. Y eso es precisamente lo que parece ser que se ha conseguido.


En busca y captura

Durante los últimos años, se han construido un buen número de detectores para «capturar» materia oscura. Uno de los más sofisticados es el CDMS (Cryogenic Dark Matter Search), construido en lo más profundo dela mina Soudan, en Minnesota, y especialmente diseñado para detectar la «firma» de la materia oscura cuando alguna de sus partículas pase a través de él. Algo ciertamente muy complicado, ya que hasta la fecha nadie sabe a ciencia cierta cómo son, ni de qué están hechas, esas partículas, a las que los físicos llaman WIMPS.

Sí se conocen, sin embargo, algunas de las características que deben poseer los WIMPS para comportarse de la forma en que lo hacen. Por ejemplo que, a diferencia de las partículas de materia ordinaria, los WIMPS sólo reaccionan ante dos de las cuatro fuerzas de la naturaleza, la gravedad y la fuerza nuclear débil, que es responsable de la radiación (las otras dos fuerzas son el electromagnetismo y la fuerza nuclear fuerte, que hace posible la cohesión del núcleo atómico). Por eso, los detectores de WIMPS están diseñados para medir los efectos que provocan cuando pasan a través de la materia ordinaria.

Sin embargo, hasta la fecha no ha habido suerte, y ningún resultado positivo. A principios de este año se publicaron en Physical Rewiew Letters dos artículos basados en dos series de experimentos (realizados con el CDMS entre octubre de 2006 y julio de 2007) y en los que no se consiguió encontrar nada. Ahora, tras recalibrar los instrumentos, parece ser que el mismo grupo de investigadores ha logrado, por fin, su objetivo. Y parece ser también que sus resultados han superado los duros filtros que impone la revista Nature y que han sido aceptados para su publicación inminente.

Nature no suele ser el lugar habitual para publicar hallazgos en el campo de la física de partículas, que aparecen por norma en revistas mucho más especializadas. A no ser, claro, que se trate de un descubrimiento excepcional. Como podría ser el caso.

Habrá, pues, que esperar para confirmar la noticia. Si es cierta, se habrá abierto todo un nuevo universo de conocimiento para el ser humano. Y si no, pues habrá que seguir esperando. Además del CDMS, que intenta capturar partículas de materia oscura en la Tierra, están el LHC, el superacelerador que acaba de arrancar en Suiza y una de cuyas misiones es precisamente revelar los secretos de la materia oscura. O el satélite Fermi, de la NASA, que sigue buscando materia oscura en el espacio exterior.




10 dic. 2009

Lanzan la primera campaña en España de fomento de la lectura en el móvil


El objetivo de esta iniciativa es fomentar entre los jóvenes la lectura de contenidos literarios (relatos, cuentos, poesía, primeros capítulos de libros, etc.) a través del móvil, ya que este dispositivo se ha convertido en la principal herramienta de acceso a la información.

A lo largo de las dos próximas semanas (del 10 al 27 de diciembre), los jóvenes lectores podrán descargarse gratuitamente en su móvil una amplia relación de cuentos, relatos y primeros capítulos de los libros aportados por las diferentes editoriales e instituciones que colaboran en esta campaña. La plataforma tecnológica de descargas de libros para móviles ha sido desarrollada por Digital Jokers y Dosdoce.

Con la irrupción de Internet en la sociedad los hábitos de consumo cultural están experimentando una transformación histórica: leemos en pantalla todo tipo de medios digitales, visitamos museos y exposiciones en nuestros portátiles gracias a las tecnologías virtuales, nuestros jóvenes escriben más que nunca en blogs, comparten vídeos y fotografías en redes sociales, etc. En este contexto de transformación, el sector del libro andaluz (editoriales, librerías y bibliotecas) entiende que debe testar nuevas herramientas y enfoques en sus campañas de fomento de la lectura si quiere atraer el interés de los lectores más jóvenes.


Contenidos de la campaña “Lectura en Móviles”

A través de la web del Pacto Andaluz por el Libro (PAPEL), los jóvenes lectores podrán descargarse en su móvil la siguiente relación de cuentos, relatos y primeros capítulos de los libros aportados por las diferentes editoriales e instituciones que colaboran en esta campaña:

1. Doce relatos de “Vivir Adrede”, de Mario Benedetti (Editorial Alfaguara)
2. Primeros dos capítulos de “La mecánica del corazón” de Mathias Mathieu (Random House Mondadori)
3. Primeros dos capítulos de “El nombre del viento”, de Patrick Rothfuss (Editorial Plaza & Janés)
4. Primeros dos capítulos de “Bel”, de Care Santos (Editorial SM)
5. Primer capítulo de “Perdona si te llamo amor”, de Federico Moccia (Editorial Planeta)
6. Primer capítulo de “Tormenta sobre Alejandría”, de Luis Manuel Ruiz (Editorial Alfaguara)
7. Primer capítulo de “El espíritu eterno”, de Elena Jiménez (inédito)
8. Selección de diez “Rimas”, de Bécquer. Edición de Luis García Montero (Editorial Renacimiento)
9. Selección de 20 “Fábulas en verso castellano”, de Samaniego (Biblioteca Virtual Cervantes)
10. Primeros capítulos de “La isla de los espejos”, de Miguel F. Villegas (Editorial Aljibe)
11. Selección de “Cantes flamencos”, de Antonio Machado Álvarez (Editorial Extramuros)
12. Dos primeros capítulos de “Juanita la Larga”, de Juan Valera (Biblioteca de Andalucía)


Operativa: Cómo descargarse un libro en un móvil

1) A través de la web del PAPEL, los lectores podrán acceder a los contenidos de la campaña.
2) Al pinchar en la cubierta de cada uno de los doce títulos seleccionados los lectores podrán leer un breve resumen del libro, así como información sobre el autor, la editorial a la que pertenece esa obra y el contenido seleccionado para esta campaña.
3) Para proceder a su descarga, los lectores tendrán que escribir en un recuadro su número de móvil.
4) Existe un listado en la plataforma en el que aparecen todos los terminales de móviles compatibles para realizar la descarga sin problemas.
5) Al cabo de unos segundos, los lectores recibirán en su móvil un SMS con un enlace a una dirección de Internet para proceder a la descarga del contenido seleccionado.
6) En esta dirección es donde tiene lugar la descarga del contenido seleccionado.
7) La descarga de dicho contenido es gratuita, pero puede existir un coste de conexión a Internet dependiendo del contrato que tenga el usuario con cada operadora. Recomendamos consultar a los lectores los costes de conexión de su móvil a Internet antes de proceder a la descarga.
8) Sólo se permitirá una descarga por número de móvil.


La Consejería de Cultura de la Junta de Andalucía y el Pacto Andaluz por el Libro (PAPEL) quieren agradecer la colaboración prestada por las editoriales e instituciones que han hecho posible la puesta en marcha de esta innovadora campaña de fomento de la lectura.




El primer aerogenerador flotante en mar abierto empieza a girar


Un gran molino de viento destaca en el horizonte, flotando en el mar, a unos 12 kilómetros de la costa suroeste de Noruega. Es el Hywind, el primer aerogenerador flotante que se instala en el mundo en mar abierto. De momento es un prototipo para verificar la tecnología. "Está calculado para aguantar olas de hasta 30 metros de altura", explicó Oistein Johannessen, de la empresa StatoilHydro, en el barco que se ha aproximado a la instalación. "Aquí el fondo del mar está a unos 220 metros, pero puede instalarse en aguas de hasta 700 metros de profundidad. El aerogenerador está flotando y amarrado con tres tensores al fondo", añade. El molino, según los ingenieros, se balancea en el mar, pero no se hunde: su línea de flotación siempre está en el mismo nivel.

El Hywind es un cilindro de 200 metros, con la mitad emergida y tres palas de 42 metros de longitud en su extremo más alto y otros 100 metros sumergidos, con ocho de diámetro, que hace de lastre. El enorme molino, de 5.300 metros cúbicos y 138 toneladas de peso, está amarrado con tres cables al fondo marino. Se instaló en el mar del Norte el pasado verano, y en otoño se ha empezado a tomar datos de su funcionamiento, generando 2,6 megavatios, añade Johannessen, durante una visita al Hywind patrocinada por el Gobierno noruego. Las futuras instalaciones operativas de este tipo estarán unidas a tierra por cables submarinos para transportar la electricidad generada.

En medio del mar, sin puntos de referencia, no se aprecia el tamaño del molino de alta tecnología hasta que el barco no se coloca a su lado. Alrededor no hay más que agua. "Ésa es su gran ventaja, al no estar cerca de la costa no plantea problemas medioambientales a la fauna, ni estorba a los pescadores de la zona ni a los vecinos que puedan protestar por el impacto visual o el ruido de los aerogeneradores convencionales", destaca el representante de StatoilHydro. Además, los vientos son más fuertes y más constantes en mar abierto que en la costa.

El Hywind es producto de una alianza tecnológica entre la empresa alemana Siemens, que aporta el aerogenerador, y la experiencia noruega en el desarrollo y explotación de plataformas de gas y petróleo flotantes en mar abierto, comenta Borge Rygh Sivertsen, responsable de los proyectos de nuevas energías de StatoilHydro, en su sede de Stanvanger (suroeste de Noruega). La botadura de la turbina en el mar fue una compleja operación realizada a principios del verano con buques y grúas que fueron montando las grandes piezas que la componen (los varios segmentos del cilindro primero y las palas después).

Antes de pasar a la turbina real a escala ya industrial, los ingenieros diseñaron y probaron un modelo de tres metros de alto en un estanque de ensayos para estudiar factores esenciales como su flotabilidad y su respuesta al oleaje.

Desde luego es más costoso este aerogenerador (el Hywind ha costado unos 40 millones de euros) que uno convencional en tierra o fijado en aguas costeras, pero los expertos recuerdan que éste es un prototipo y que si los ensayos validan esta tecnología, se abaratará y ofrecerá muchas ventajas para producir energía eólica. De momento, está previsto tomar todos los datos posibles del funcionamiento del molino noruego durante dos años. Si todo sale como está previsto, el siguiente paso, afirman los expertos, será crear parques eólicos de molinos flotantes en el océano.




Playmobil de museo


Bautizada Érase una vez playmobil, una retrospectiva en el Museo de Artes Decorativas de París presenta, a partir de mañana y hasta el 9 de junio de 2010, miles de estos muñecos articulados con sonrisa perenne, que creó el alemán Hans Beck en 1974.

"Esta exposición busca mezclar épocas", dice la comisaria de la exposición, Dorothée Charles, quien agrega: "Vamos a reunir tres generaciones" en alusión a "los padres que regalaban los primeros playmobil a sus hijos, y que ahora son quienes los compran a los suyos".

Charles recuerda que estos muñequitos de 7,5 centímetros de altura son "los juguetes más mixtos" que existen, pues "el hermano mayor le pasa sus playmobil a su hermana pequeña".

Tres universos

Además del circo, la exhibición ofrece tres universos míticos de Playmobil: "los combatientes", con caballeros medievales,fortalezas, piratas tuertos y vikingos; "explorar el mundo", con indios, vaqueros y exploradores polares; y "la vida en la ciudad", que refleja la evolución de la casa, desde mansiones victorianas hasta el chalet unifamiliar.

2009 ha sido un año agridulce para la compañía, con sede en Alemania, que en enero tuvo que decir adiós a Hans Beck, "padre" del célebre juguete, mientras celebra el 35 aniversario de la creación de las primeras figuritas -el obrero, el indio y el caballero-, todas masculinas.

La representación femenina en esta particular sociedad tuvo que esperar dos años más, en 1976, y los niños y los bebés no llegaron hasta 1981 y 1984, respectivamente.

FUENTE:
http://www.adn.es/cultura/20091209/NWS-1628-Paris-escaparates-playmobil-vitrinas-saltan.html

Encuentran la huella literaria de los escritores


Un equipo de físicos suecos ha descubierto una fórmula para detectar una "huella" literaria que permita distinguir los textos de los escritores. La técnica, cuyos detalles se publican esta semana en el New Journal of Physics, se basa en el análisis estadístico de las palabras nuevas que van introduciendo los autores en sus obras.

Un grupo de investigadores del Departamento de Física de la Universidad de Umeå (Suecia) ha analizado las obras de Thomas Hardy (autor de Jude el oscuro), D. H. Lawrence (El amante de Lady Chatterley) y Herman Melville (Moby-Dick) para desarrollar una formula estadística que permite encontrar las huellas literarias que los distinguen.

Los científicos publican hoy en el New Journal of Physics un estudio en el que introducen un nuevo concepto denominado “meta-libro”, en el que usan la frecuencia con la que los escritores emplean palabras nuevas en sus obras para encontrar patrones diferenciadores en sus estilos de escritura.

Hasta ahora, y desde hace más de 75 años, se tomaban como referencia los postulados del filólogo estadounidesnse George Kingsley Zipf que, en base al análisis de una compilación de textos en inglés americano denominada Brown Corpus, sugirió la existencia de un patrón universal en la frecuencia con que los autores usan palabras nuevas. La ley de Zipf señala que el ranking de frecuencia de una palabra es inversamente proporcional a su aparición, es decir, que un pequeño número de palabras se utilizan mucho, mientras que un gran número apenas se emplean.

Pero las nuevas investigaciones sugieren que la frecuencia de las palabras es menos universal que lo que indica Zipf, y que tiene más que ver con la habilidad lingüística del autor que con cualquier otra regla del lenguaje.

Los físicos suecos encontraron que la aparición de nuevas palabras en los textos de Hardy, Lawrence y Melville decrecía a medida que sus libros eran más largos, y a pesar de que describieran nuevos escenarios o hubiera giros en el argumento. Además descubrieron que la disminución de la tasa de palabras únicas variaba entre los diferentes autores, y lo que era más significativo, esto sucedía en las obras completas de cualquiera de los tres.

El análisis estadístico se aplicó tanto a las novelas enteras como sólo a partes, así como a trabajos completos o recopilaciones de varias obras realizadas por estos autores, y en todos los casos aparecía una huella única con las frecuencias de las palabras.

El meta-libro, el gran libro madre

A partir de las evidencias que mostraron los modelos estadísticos los investigadores han introducido la idea del meta-libro, un código para cada autor que podría representar toda su obra, completa o que tuviera en mente.

Los científicos concluyen que este descubrimiento “nos dirige hacia un concepto de meta-libro en el que la escritura de un texto puede considerarse como un proceso donde el autor extrae un fragmento de texto de un gran libro madre (el meta-libro) y lo pone en el papel. Este meta-libro sería un infinito libro imaginario que representaría las frecuencias de las palabras de todo lo que un determinado escritor podría pensar jamás en escribir.

FUENTE:
http://www.plataformasinc.es/index.php/Noticias/Encuentran-la-huella-literaria-de-los-escritores

Un proyecto con el mando de la Wii ayuda a personas con movilidad reducida a manejar un ordenador


José Miguel es una persona totalmente dependiente. La parálisis cerebral que padece le impide controlar de forma voluntaria cualquier parte de su cuerpo, excepto la cabeza, que puede mover de arriba hacia abajo. Desde hace apenas unas semanas, este chico del centro de Apace (Asociación de Padres de Personas con Parálisis Cerebral) tiene absoluta autonomía para manejar un ordenador y navegar por internet sin realizar más esfuerzo que dirigir los movimientos de su cabeza. Esto es posible gracias al Proyecto Wiimo, una tecnología desarrollada por dos alumnos de la Universidad de Burgos, Álvaro Arbaizar y Fernando Ibeas, como proyecto de fin de carrera.

“Estos estudiantes han demostrado el vínculo que puede establecerse entre lo científico y lo social”, comenta Beatriz Nuñez, directora del centro de Apace Burgos. “Lo habitual es que estos proyectos, por muy brillantes que sean, terminen archivados en una estantería. Pero el Wiimo tiene un destinatario claro que lo valida y lo dota de utilidad”, señala Pedro García Ortega, profesor de la Universidad y director del proyecto.

El Wiimo es un software que aprovecha las tecnologías inalámbricas del mando de la consola Wii y lo conecta, a través de infrarrojos y bluetooth, a una pegatina de aproximadamente un centímetro cuadrado y con un peso similar al de una cartulina. Esta pegatina se coloca en la parte del cuerpo que el usuario sea capaz de mover; puede ser una mano, un hombro o incluso un pie, ya que una de las principales ventajas del Wiimo es que no necesita que la pegatina esté frente al software, ni tampoco frente a la pantalla del ordenador. “Esto es importante para reducir el grado de fatiga de los chavales, ya que los fisioterapeutas del centro nos estaban advirtiendo del cansancio muscular de algunos de nuestros chicos debido a posturas forzadas ante las computadoras”, indica Beatriz.

La tecnología inalámbrica es la principal diferencia respecto a otros dispositivos que ya existían, y al no haber cables, no se sobrecarga al usuario con más peso. Asimismo, el Wiimo le permite desplazar el puntero por toda la pantalla y acceder a cada una de las ventanas sin necesidad de hacer click, porque basta con detenerse unos segundos en el icono al que se desea acceder.

Primeras aplicaciones

Por otra parte, tampoco es muy voluminoso, así que su transporte resulta sencillo. El primer perfil de aplicación del Wiimo han sido personas con parálisis cerebral que tienen una discapacidad motora muy alta, poseen inteligencia conservada y también restos de movilidad voluntaria, aunque sea mínima. Por ahora han sido dos alumnos del centro de Apace los que lo han probado: José Miguel y Lourdes, que sólo mueve ligeramente una mano, pero lo suficiente para manejar una silla de ruedas eléctrica y la pegatina del Wiimo.

En definitiva, este proyecto transforma la pantalla en una superficie táctil, pero por la que el cursor puede manejarse desde la distancia para adaptarse a una persona con movilidad reducida, ya que alguien en silla de ruedas, tiene que mantener cierta lejanía respecto al ordenador. El centro de Apace Burgos dispone ya de un Wiimo y sus creadores lo prueban ahora con todo tipo de programas para garantizar su correcto funcionamiento. También comprobarán que responde a las necesidades y expectativas de las personas con movilidad reducida.







Ya se pueden hacer búsquedas por Internet con el móvil, usando sólo imágenes


Google acaba de lanzar una nueva aplicación bautizada como “Google Goggles” que permite hacer búsquedas por Internet con móviles Android a partir de imágenes tomadas con la cámara del teléfono, y sin necesidad de introducir palabra alguna. Así, si uno quiere saber algo sobre un monumento, basta sólo con poner el teléfono frente a éste para que en la pantalla del móvil aparezca toda la información disponible sobre él. El sistema está basado en el novedoso concepto de visión computerizada. Por Yaiza Martínez.

El pasado siete de diciembre, la compañía Google, presentó en California la novedosa aplicación Google Goggles, con la que se pueden realizar búsquedas visuales a través de teléfonos móviles que cuenten con el sistema operativo Android.

La idea es tan sencilla como brillante: si se quiere hacer una búsqueda por Internet con el teléfono no hace falta introducir palabra alguna, sino sólo hacer una foto del objeto con la cámara del móvil Android (libro, cuadro, monumento…) y a partir de esa imagen, Google proporciona toda la información disponible, relacionada con ella.

Decenas de millones de objetos

Según explica la compañía en un comunicado, esta nueva aplicación de búsqueda visual para dispositivos Android permite así, por ejemplo, determinar donde se encuentra un lugar que nos interese, profundizar en la información que encontramos en un periódico o conocer más a fondo un monumento, entre otras posibilidades.

El sistema funciona haciendo coincidir la imagen de la foto con el archivo de imágenes de Google. Cuando se encuentra una coincidencia, Google Goggles facilita los resultados de la búsqueda a través de la pantalla del teléfono.

Actualmente, Goggles puede reconocer ya decenas de millones de objetos, incluyendo lugares, piezas artísticas y logos.

Según explica Marissa Mayer, vicepresidente para productos de búsqueda y experiencia del usuario de Google, para lugares específicos la aplicación es aún más sencilla de usar si cabe: ni siquiera hay que sacar la foto del lugar, sino que basta sólo con abrir Google Goggles y sostener el teléfono frente al monumento en cuestión.

Luego, utilizando el GPS y la brújula, el sistema reconoce cuál es el lugar y su nombre aparece en la pantalla de la cámara. Posteriormente, se puede escribir ese nombre y realizar una búsqueda más completa a través de la web del buscador.

Sin palabras

Shailesh Nalawad, gerente de producto para Google Goggles afirma que la idea se basa en que, para muchas búsquedas, realmente es más fácil utilizar una imagen que una serie de palabras, especialmente si las búsquedas se realizan desde un dispositivo móvil.

Este desarrollo es posible gracias al concepto de visión computarizada, una disciplina que, aunque todavía se encuentra en los estadios iniciales de su desarrollo, ya está demostrando un enorme potencial de reconocimiento.

A mediados de este año, Jay Yagnik, director de investigaciones en visión computerizada de Google, explicaba en un comunicado que este concepto podría tener beneficios potenciales tremendos para los consumidores.

Los investigadores de Google presentaron ya los resultados de sus trabajos en este terreno en la conferencia Computer Vision and Pattern Recognition (CVPR), celebrada en Miami en junio.

Entonces, se demostró que esta nueva tecnología permitía a los ordenadores identificar rápidamente imágenes de más de 50.000 monumentos de todo el mundo, con una exactitud aproximada del 80%.

Este reconocimiento es posible gracias a las vastas cantidades de imágenes existentes en la Web, la capacidad de realizar búsquedas para esas imágenes, y los avances en reconocimiento de objetos y técnicas de agrupamiento.

Los investigadores generaron en primer lugar una lista de monumentos a partir de dos fuentes: 40 millones de fotografías con GPS, y páginas web sobre tours online. Después, encontraron imágenes para cada monumento utilizando dichas fuentes y el sistema Google Image Search, que luego clasificaron utilizando técnicas de agrupamiento. Finalmente, se desarrolló un sistema altamente eficiente de indexación para el rápido reconocimiento de imágenes.

Búsquedas naturales

Este desarrollo se encuentra ahora disponible para móviles con Android, y los usuarios pueden ya descargarse Google Goggles desde cualquier parte del mundo, en inglés, en el Android Market.

Con Google Goggles, se pueden realizar búsquedas a partir de un lugar o de un objeto sin necesidad de conocer su denominación. Cuando se hace una consulta de búsqueda visual, Google Goggles descompone la imagen en varias partes y las contrasta con otras de su base de datos para hallar coincidencias.

Una vez encontradas éstas, el sistema devuelve términos de búsqueda relevantes para esa imagen. Según sus creadores, en un futuro cercano este sistema de búsqueda visual será algo tan natural como señalar con el dedo.




Vídeo: Photoelastic touch, el paraíso de los dibujantes


Investigadores de la universidad Electro-communications de Tokio han presentado una tecnología que han bautizado como "mult-táctil 3D" y que emplea objetos de goma transparentes a modo de pinceles. El secreto residen en que entre las manos del presunto dibujante y la pantalla hay una cámara con un filtro que captura la luz polarizada que emite el LCD, y así la cámara detecta cuándo cambia de forma el objeto de goma. Tienes un par de vídeos tras la pausa.





La Universidad de Stanford se recrea en sus baterías de papel


Ya hace tiempo que te venimos hablando de los nanotubos de carbono y sus posibles utilidades, aunque gran parte de esta tecnología aún se encuentra en periodo de prueba. La Universidad de Stanford se está ganando a pulso su buena fama en los experimentos energéticos y vuelve a ser noticia por sus pilas de papel.

El proceso consiste en humedecer un trozo de papel normal con tinta, en la que previamente se han sumergido nanotubos de carbono y nanofilamentos de plata. Como resultado obtenemos un papel "magnetizado" capaz de almacenar electricidad incluso estando arrugado.

Dichas baterías pesan hasta un 20% menos que las normales y como puedes imaginar, ya se estudian algunas propuestas para su explotación en la industria del automóvil. Podrás continuar ilustrándote sobre este tema con el vídeo explicativo que encontrarás tras el salto, es más sencillo de lo que parece.




Philips Skin, piel cambiante para nuestros gadgets


Imagina un teléfono que pueda cambiar su color según la ropa que llevemos cada día. Deja de soñar y escucha lo que Philips ha llamado e-skin, un desarrollo de su division de papel electrónico que nos promete pieles nuevas para nuestros gadgets según el entorno en el que se encuentren.

Philips Skin es el proyecto con el que la sorprendente compañía holandesa nos vuelve a mostrar su apuesta por las tecnologías más cercanas a las personas. Esta nueva tecnología de papel electrónico de color será capaz de cambiar la apariencia de un reproductor MP3 con solo tocar un botón. En el futuro la idea es que esas superficies personalizables formen parte de nuestro hogar.

e-skin, un avance en el mundo del papel electrónico
Para el futuro personalizable con pieles que Philips nos propone se trabaja con papel electrónico. El desarrollo de Philips no usa luz trasera sino que se vale de la luz ambiente para darle color al objeto, tal y como ocurre con lo que nos rodea, que necesita de la luz ambiente para manifestarse ante nuestros ojos.

La tecnología con la que trabaja Philips coloca todos los colores en una capa, pero de manera que puedan controlarse de forma separada y determinar cuál/es se mostrarán cuando incida la luz en ellos. Este tipo de papel lo han bautizado como e-skin.

Esa no dependencia de energía para funcionar hace que sea adecuado para dispositivos en los que el consumo de energía es un problema.

Esta idea de piel para los gadgets y el entorno de las personas se está mostrando en el International Display Workshops 2009 de Japón que ha comenzado hoy y que se extenderá hasta el viernes 11 de diciembre. Philips tiene pensamiento de licenciar esta tecnología para que se pueda aplicar en otras áreas, tales como los libros electrónicos.



9 dic. 2009

Stradivari, un genio sin ingredientes secretos


La marca de un genio está en el barniz de los violines Stradivarius, los que construyó Antonio Stradivari en Cremona (Italia) desde 1665 hasta 1737. Los científicos que han hecho un análisis del legendario barniz que ha fascinado a músicos y lutieres, a historiadores y químicos, desde hace dos siglos, han encontrado que no existe ningún ingrediente secreto o misterioso. Los materiales que utilizó Stradivari eran los normales en las artes decorativas y los cuadros del siglo XVIII, según explican en la revista Angewandte Chemie.

El equipo formado por el especialista en instrumentos musicales Jean-Philippe Echard y el físico Loic Bertrand examinó cinco violines Stradivarius de distintos modelos que llevan al menos un siglo en la colección del Museo de la Música de París. Los investigadores tomaron pequeñas muestras, cada una de ellas de la madera y el barniz que la cubre, y las sometieron a exámenes espectroscópicos y microscópicos.

"Aunque los cinco instrumentos fueron producidos a lo largo de tres décadas, los barnices eran muy similares", explica Erchard. "Stradivari aplicaba primero una capa de un aceite similar a los utilizados por los pintores de la misma época, sin rellenos ni pigmentos para sellar la madera. No encontramos una capa rica en minerales, como sugieren algunos estudios anteriores. Luego aplicaba una capa de aceite y resina tintados. No hemos encontrado nada que sugiera la utilización de materiales proteicos, gomas o resinas fósiles".

En uno de los modelos no encontraron pigmentos de en la capa externa, mientras que en otro confirmaron el hallazgo anterior de pigmentos rojos. El trabajo de investigación fue muy complejo técnicamente y hubo que utilizar un elevado número de técnicas distintas.

La conclusión es que Stradivari utilizó materiales que se podían obtener fácilmente. El uso de varios pigmentos rojos diferentes le permitió dar diversos tintes a los instrumentos, que siguen manteniendo un bello aspecto.




Un estudio no halla pruebas de que los teléfonos móviles causen tumores cerebrales


Un miedo profundamente instalado ha sido rebatido por un estudio danés: los teléfonos móviles no favorecen la aparición de tumores cerebrales. El Danish Cancer Society ha realizado un estudio sobre más de 59.000 personas que han sido diagnosticadas con cáncer cerebral entre 1974 y 2003. Sobre una muestra de 16 millones de aultos de 20 a 79 años de edad. El estudio demuestra que los porcentajes de la enfermedad no aumentaron tras la introducción de los teléfonos móviles.

Aunque los autores del trabajo admiten que deben proseguir las investigaciones, en el trabajo aseguran que no han identificado ningún mecanismo que pueda permitir afirmar que los campos electromagnéticos emitidos desde un móvil son un factor de riesgo. La única cautela que introducen en sus conclusiones se debe a que este tipo de tumores se desarrollan en un plazo largo de tiempo, cerca de 10 años, por lo que se necesitarán estudios sobre periodos posteriores para confirmar estos primeros datos.

El estudio lo publica el Journal of the National Cancer Institute y se centra en dos tipos de tumores, los llamados gliomas, que presentaron un crecimiento del 0,5% por año entre hombres y un 0,2%, entre mujeres. En el caso de los meningiomas la ratio de crecimiento fue del 0,8% entre hombres en los años noventa y del 3,8% en las mujeres.





El robot planeador submarino que cruzó el Atlántico llega hoy a Galicia


El ministro de Fomento, José Blanco, y el representante de la Oficina de Ciencia y Tecnología de la Casa Blanca de EEUU, Jerry Miller, presidirán hoy en Baiona (Pontevedra) el acto institucional de recibimiento al robot planeador submarino -glider- 'Scarlet Knight' ('El Caballero Escarlata'), tras cruzar el Océano Atlántico desde New Jersey y recorrer más de 7.400 kilómetros en 225 días.

El acto tendrá lugar a partir de las 11.30 horas en el Real Club de Yates de la localidad de Baiona, en el que el ministro entregará el robot a la delegación americana.

La travesía del 'Caballero Escarlata', impulsado por la Universidad de Rutgers (New Jersey) con la colaboración el Gobierno de España, supone, según resaltó Fomento, un "hito" en la historia de la navegación. Este pequeño artefacto ha atravesado el Océano Atlántico sin motor, con la única energía de sus baterías, lo que le permite "planear" por debajo del agua y aprovechar las corrientes del océano.

En el acto participarán también Gary Richard, de la Administración Nacional Oceánica y Atmosférica (NOAA) de Estados Unidos; Dean Goodman, de la Universidad de Rutgers; el presidente de Puertos del Estado, Fernando González Laxe; la conselleira do Mar, Rosa Quintana; y el alcalde de Baiona, Jesús Vázquez Almuiña; así como técnicos involucrados en el proyecto.


Proyecto pionero

El 'glider' tiene como misión recoger datos del océano como la densidad del agua, la salinidad, la temperatura, contribuyendo, entre otras cuestiones, a un mejor conocimiento del papel del océano en el cambio climático y su impacto en las infraestructuras portuarias.

Se trata de un artefacto "limpio", que no gasta energía contaminante, por lo que, según los investigadores, podría ser el primer paso para utilizarlos de forma frecuente para los estudios oceanográficos y tal vez, en el futuro, para desarrollar un nuevo sistema de transporte marítimo.

El robot submarino ha tenido que superar las derivas obligadas por las corrientes y las tormentas, llegando a registrar olas de más de 9 metros. Su rumbo se corrige cada vez que sale a la superficie, que es cuando, además, transmite a través de satélite todos los datos recogidos en cada una de las inmersiones.


Un 'desafío' para los investigadores

La misión "ha sido un desafío", según resaltaron, tanto para los investigadores como por las técnicas hasta ahora desarrolladas en su cometido. El hito de este pequeño artefacto ha consistido en atravesar el Océano Atlántico sin motor, con la única energía de sus baterías, lo que le permite "planear" por debajo del agua y aprovechar las corrientes del océano. La velocidad media del planeador ha sido de 15 centímetros por segundo y ha consumido apenas el 60% de la carga de las baterías.

El planeador, después de Baiona, será recibido en Washington, donde está previsto que lo recoja el presidente, Barack Obama. Posteriormente, quedará depositado en uno de los museos de la institución Smithsonian. Allí tendrá su lugar permanente al lado del 'Spirit of St. Louis', el mítico avión que fue el primero en cruzar el Atlántico sin escalas, y del módulo de mando del Apolo XI.





Crean plantas de energía eléctrica que no contaminan


Nuevas plantas de generación eléctrica alimentadas con gas natural, que utilizan células de combustible de óxido sólido y que producen energía sin emisiones contaminantes, han sido desarrolladas por Ingenieros del MIT. El original sistema, más barato que la infraestructura tradicional y con otros beneficios ambientales complementarios, no requiere ninguna nueva tecnología, ya que lo que hace es una combinación original de componentes ya existentes, o que se encuentran en fase de desarrollo. Por Pablo Javier Piacente.

Una investigación desarrollada por ingenieros e investigadores del MIT (Massachusetts Institute of Technology) plantea la creación de nuevas plantas de generación eléctrica alimentadas con gas natural pero con un sistema que utiliza células de combustible de óxido sólido, produciendo energía sin quemar combustible. Esto permitiría obtener electricidad sin emisiones de dióxido de carbono a la atmósfera.

Además, el costo del nuevo sistema sería igual o menor al que registran las plantas tradicionales de producción eléctrica en base a gas natural, siendo incluso más económico que el utilizado en las plantas de combustión de carbón. Para obtener un avance en este tipo de plantas resulta vital que los gobiernos del mundo establezcan aranceles punitorios por la emisión de dióxido de carbono y otros gases de efecto invernadero, lo que transformaría a esta nueva alternativa en la más conveniente a nivel económico, al no registrar emisiones contaminantes.

El sistema desarrollado en el MIT no requiere ninguna nueva tecnología, sino que se trata de una combinación original de componentes ya existentes, o algunos que se encuentran en fase de desarrollo. Esta configuración novedosa, y el hecho de funcionar con gas natural, son las principales ventajas de la innovación en cuestión.

El gas natural es una fuente de combustible relativamente abundante, existiendo reservas probadas a nivel mundial que permiten garantizar el suministro, de acuerdo al consumo actual, para los próximos 60 años. Asimismo, esta alternativa se considera más ecológica que el carbón o el petróleo.


Amplias ventajas ecológicas y económicas

Asimismo, las actuales centrales eléctricas en base a gas emiten un promedio de 1.135 libras de dióxido de carbono por cada megavatio-hora de electricidad producida, una cifra que supone la mitad o un tercio de las emisiones registradas por las plantas de carbón, por ejemplo. En tanto, el avance fue publicado en un artículo del Journal of Power Sources, además de haber sido difundido mediante una nota de prensa del MIT.

Los principales responsables de este trabajo son los especialistas Thomas Adams y Paul Barton, del Department of Chemical Engineering del MIT, que lograron el financiamiento de sus actividades gracias al proyecto de investigación en conversión energética BP-MIT. Las pruebas fueron efectuadas en el MIT Process Systems Engineering Laboratory.

Teniendo en cuenta que el gas natural representa ya el 22 por ciento de toda la energía utilizada para la producción de electricidad en los Estados Unidos, y que ese porcentaje podría aumentar en los próximos años si se estipulan aranceles para las emisiones de dióxido de carbono, un sistema capaz de producir electricidad a partir de gas natural a un precio competitivo y sin ningún tipo de emisiones de gases de efecto invernadero podría resultar ampliamente atractivo.

La nueva alternativa se convertiría en una interesante opción frente a las centrales convencionales que utilizan combustibles fósiles. Vale destacar que el sistema propuesto por Adams y Barton no emite hacia la atmósfera ninguno de los gases considerados responsables del calentamiento global, sino que produce un flujo de dióxido de carbono puro.


Beneficios adicionales

Esta corriente podría aprovecharse y almacenarse bajo tierra con relativa facilidad, en el marco de un proceso conocido como captura y secuestro de carbono (CCS). El CCS consiste en separar el dióxido de carbono de otros gases en el escape de la planta, y luego inyectarlo en formaciones geológicas profundas (por ejemplo, en pozos agotados de petróleo) para evitar que llegue a la atmósfera.

Se trataría de una ventaja adicional del sistema propuesto que, además, y a diferencia de una planta convencional de gas natural en la cual se aplica CCS, no insumiría el consumo de grandes cantidades de agua. Es que la pila de combustible sobre la cual está basado el nuevo sistema produce agua limpia, la cual podría ser fácilmente tratada para abastecer de agua potable a la planta y zonas aledañas, como un beneficio colateral de la producción energética.

Aunque aún no existen antecedentes en plantas a gran escala que utilicen el nuevo sistema, los principios básicos que se han demostrado en distintas pruebas y que se están aplicando en una serie de unidades más pequeñas, incluyendo una planta de 250 kilovatios, podrían desembocar en que el nuevo sistema esté listo para su comercialización en 2012.

Por otro lado, el empleo del nuevo sistema a mayor escala no sería un gran inconveniente, incluso en plantas de energía en el orden de los 500 megavatios, porque las células de combustible utilizadas, a diferencia de los generadores de turbina convencionales, son completamente modulares. Esto significa que una vez que el sistema ha sido probado en un tamaño pequeño, el mismo puede ampliarse fácilmente, al no necesitar unidades grandes sino cientos o miles de pequeños dispositivos que trabajan en conjunto.





Hemeroteca

Etiquetas