Páginas

9 jul 2010

Digital CSIC ranking 45 repositorio mundial institucional


El objetivo de este ranking es el de apoyar las iniciativas "Open Access", y por lo tanto el acceso gratuito a las publicaciones científicas en formato eléctronico y a otro tipo de materiales de caracter académico. Los indicadores web utilizados en este ranking miden la visibilidad e impacto de los repositorios científicos.

Nosotros promovemos la publicación en la Web como un medio para comunicacar material académico tanto formal como informal, manteniendo los elevados estándares de calidad del proceso de revisión por pares (peer review). Las sedes Web alcanzan audiencias potencialmente mayores, ofreciendo acceso al conocimiento científico a los investigadores e instituciones de paises en desarrollo así como a terceras partes (representantes del mundo económico, industrial, político o cultural) dentro de sus propias comunidades.

Pretendemos motivar tanto a instituciones como a académicos a tener una presencia en la Web que refleje de forma precisa sus actividades. Si el rendimiento web de una institución se encuentra por debajo de lo esperado de acuerdo a su excelencia académica, los dirigentes de esa institución deberían reconsiderar su política Web, promoviendo el incremento substancial del volumen y la calidad de sus publicaciones electrónicas.

El Ranking de Repositorios debe de ser considerado en conjunto con los rankings de Universidades, Centros de Investigación y Hospitales.



Doc. Digital CSIC:


Así ejerce su inmenso poder un agujero negro


El Very Large Telescope del Observatorio Europeo Austral (ESO, por sus siglas en inglés) y el Telescopio de rayos X Chandra de la NASA han permitido a los astrónomos el descubrimiento del más poderoso par de chorros nunca antes visto saliendo desde un agujero negro estelar, es decir, han podido fotografiar la imagen de un agujero negro estelar soplando una enorme burbuja de gas caliente de mil años luz de extensión.

Este hallazgo, publicado en la revista 'Nature', destaca especialmente porque el objeto descubierto, también conocido como un 'micro quasar', es el doble de grande y decenas de veces más poderoso que otros del mismo tipo conocidos hasta ahora.

"Hemos quedado asombrados por cuánta energía es inyectada en el gas por el agujero negro. Este agujero negro tiene sólo unas pocas masas solares, pero es una versión en miniatura de los más poderosos quásares y radio galaxias, que contienen agujeros negros con masas de unas millones de veces la del Sol", dice el autor jefe Manfred Pakull.

Los agujeros negros son conocidos por liberar una cantidad extraordinaria de energía cuando engullen materia. Así, se creía que la mayor parte de la energía era emitida en forma de radiación, predominantemente rayos X.

Sin embargo, los nuevos descubrimientos muestran que algunos agujeros negros pueden liberar la misma cantidad de energía, y quizás aún más, en forma de chorros colimados de partículas de alta velocidad. En esta imagen, los rápidos chorros chocan con el gas interestelar que los rodea, calentándolo y forzándolo a expandirse.

La burbuja que se infla contiene una mezcla de gas caliente y partículas ultra rápidas a diferentes temperaturas. Las observaciones realizadas en varias bandas de energía (óptica, radio, rayos X) ayudan a los astrónomos a calcular la velocidad total a la que el agujero negro calienta lo que le rodea.

De esta forma pudieron observar los sitios donde los chorros chocan con el gas interestelar ubicado alrededor del agujero negro y revelar que la burbuja de gas caliente está inflándose a una velocidad de casi un millón de kilómetros por hora.

"La longitud de estos chorros en 'NGC 7793' es increíble, comparada con el tamaño del agujero negro del cual provienen. Si el agujero negro se hubiese reducido al tamaño de una pelota de fútbol, cada chorro se extendería desde la Tierra hasta más allá de la órbita de Plutón", dice el coautor Robert Soria.


AGUJEROS NEGROS

Esta investigación ayudará a los astrónomos a comprender las similitudes entre los agujeros negros pequeños formados a partir de explosiones estelares y los agujeros negros súper masivos ubicados en los centros de las galaxias.

Este tipo de chorros muy poderosos han sido observados en agujeros negros súper masivos, pero se pensaba que eran menos frecuentes en la variedad menor de micro quásares.

El nuevo descubrimiento sugiere que muchos de éstos pueden simplemente haber pasado desapercibidos hasta ahora. El agujero negro que sopla el gas está ubicado a 12 millones de años luz de distancia, en los alrededores de la galaxia espiral 'NGC 7793'.

A partir del tamaño y expansión de la burbuja, los astrónomos han descubierto que la actividad de los chorros debe haber sido continua por al menos 200.000 años, aunque de momento no poseen ningún medio para medir el tamaño del agujero negro.

El menor agujero negro estelar que se haya descubierto hasta ahora posee un radio de unos 15 kilómetros. De promedio poseen unas diez masas solares y un radio de cerca de 30 kilómetros, mientras que un agujero negro estelar "grande" tendría un radio de hasta 300 kilómetros. Esto es aún mucho menor que los chorros, que se extienden hasta varios cientos de años-luz para cada lado del agujero negro, lo que equivale a varios miles de millones de millones de kilómetros.


FUENTE:
http://www.europapress.es/sociedad/ciencia/noticia-asi-ejerce-inmenso-poder-agujero-negro-20100708105921.html


Liberan una tortuga verde con un transmisor


La Fundación para la Conservación y Recuperación de Animales Marinos (CRAM) ha liberado en el Mediterráneo la tortuga verde que apareció varada hace seis meses en la playa del Trabucador del Delta del Ebro, tras colocarle un transmisor vía satélite que permitirá su seguimiento durante un año.

Según ha informado esta entidad, el velero científico de la Fundación CRAM, el Vell Marí, zarpó el miércoles desde el puerto de Premià de Mar (Barcelona) con el ejemplar de tortuga verde (Chelonia mydas) con el objetivo de liberarlo en aguas del Mediterráneo.

A la tortuga, que se le ha bautizado con el nombre de Bella, se le ha adherido en el caparazón un transmisor vía satélite que permitirá conocer su posición en todo momento y su evolución en el medio salvaje, después de ser reintroducida en el mar.

"Existen muy pocos precedentes de marcaje por satélite de tortugas verdes en el Mediterráneo. Éste será el primero que se llevará a cabo en el Mediterráneo Occidental, y el primero, en todo el Mediterráneo, realizado a un ejemplar juvenil", han señalado estas fuentes.

El tiempo estimado de emisión del transmisor es de unos 12 meses, el equivalente a la vida útil de las baterías. Pasado este período y siguiendo la descamación natural que se da en los escudos del caparazón, el transmisor se desprenderá sin dejar secuelas en el animal, han añadido los responsables de CRAM.

Durante el tiempo en el que Bella tenga el transmisor, su ruta puede ser seguida a través del sitio de Seaturtle.org, donde puede ser apadrinada por empresas o particulares.

La población de tortuga verde en el Mediterráneo es muy escasa, de unas 300 hembras reproductoras. Además, suele habitar en la parte Oriental, donde encuentran aguas más calientes, y es muy raro localizarlas en la zona Occidental.

En los 15 años de acciones de rescate y recuperación de la Fundación CRAM, ésta es la segunda vez que un ejemplar de tortuga verde llega a su centro, y el primero con vida.

Bella, que mide 41 centímetros de longitud de caparazón y pesa 10,2 kilos, es un ejemplar juvenil de tortuga verde que apareció varado el 21 de diciembre de 2009 en la playa del Trabucador del Delta del Ebro con claros signos de hipotermia y debilitamiento.

Una vez trasladada al CRAM en Premià de Mar, el equipo de veterinarios confirmó que la hipotermia fue la principal causa de varamiento del animal, causada seguramente por el temporal que azotaba el país en aquellas fechas.

Como el resto de tortugas marinas, está considerada amenazada a nivel global en la lista roja de la UICN (Unión Internacional para la Conservación de la Naturaleza) y en peligro crítico en el Mediterráneo.

También está protegida por el Convenio para el Comercio Internacional de Especies Amenazadas (CITES).


FUENTE:
http://www.elmundo.es/elmundo/2010/07/08/barcelona/1278602145.html


Nokia Bicycle Charger Kit


La compañía finlandesa Nokia sigue haciendo méritos en su faceta verde, esa que este año le ha vuelto a valer los aplausos de Greenpeace. En esta ocasión, el último accesorio que ha presentado busca suministrar energía a las baterías de sus móviles a través del sano ejercicio que supone moverse en bicicleta. Para ello, el Nokia Bicycle Charger Kit se vale de un sistema de obtención energía por fricción gracias a una dinamo que roza la rueda delantera, de forma que produzca electricidad con la que abastecer al móvil que, además, podremos tener instalado en el manillar de la bici.

El sistema recuerda al de los pequeños faros que podemos tener incorporados en la estructura de nuestra bicicleta, en el caso de que seamos aficionados a hacer algunas rutas con poca luz. Sabemos que este Nokia Bicycle Charger Kit estará disponible para su compra a partir de finales de este año, y que tendrá un coste aproximado de unos quince euros. Parece que el mercado de países en vías de desarrollo será el preferencial para la venta de este Nokia Bicycle Charger Kit.

Y es que el Nokia Bicycle Charger Kit no se ha sido presentado en Nairobi por casualidad. Las regiones en desarrollo tienen suministros irregulares de electricidad, en el mejor de los casos, algo que choca con la presencia de móviles de gama económica que la propia finlandesa desarrolla para estos países.

Es por ello que el lanzamiento de un accesorio como este ofrece esa doble utilidad: la de servir como fuente energética limpia para recargar el móvil, y la de favorecer la independencia del usuario, que no tendrá que recurrir a los erráticos suministros que puedan darse en su país.

No obstante, para determinados usuarios, la utilidad del Nokia Bicycle Charger Kit como cargador principal va a estar supeditada a su forma física y su resistencia.

Decimos esto porque para que un móvil de a gama económica de Nokia pueda recargarse por completo con este cargador, será necesario un pedaleo constante durante un par de horas y media a una constante de quince kilómetros por hora. En cualquier caso, a partir de unos minutos a seis kilómetros por hora se activa el sistema de recarga, que aportará mínimos suministros útiles para el terminal.


FUENTE:
http://ecoinventos.wordpress.com/2010/06/13/nokia-bicycle-charger-kit/


Ascensor “cero emisiones” funciona con sol y agua


En los Juegos Olímpicos de Londres, además de nuevas construcciones y estadios, los visitantes podrían tener que acostumbrase a los nuevos ascensores que el arquitecto Matthew Lloyd ha diseñado para salvar los desniveles de la ciudad. Estos días se está celebrando, precisamente, el London Festival of Architecture, el lugar donde se ha presentado el primer ascensor del mundo con cero emisiones de carbono.

Se trata de un artilugio inteligente que utiliza el agua y la energía solar para elevar las sillas de ruedas y sus ocupantes, también acompañantes, para que puedan salvar un desnivel de escaleras que existe en la plaza de la Columna del Duque de York, junto al Instituto de Arte Contemporáneo, un monumento de casi 40 m que es visita obligada por los turistas que acuden a Londres.

La estructura del elevador está fabricada en acero y metacrilato y el conjunto pesa cerca de 3 toneladas, por lo que hubo que pedir permiso al Royal Engineers Corps para instalar el dispositivo, al tratarse de una escalinata monumental protegida.

Aún con los problemas que le ponía la municipalidad, Matthew Lloyd se buscó las formas para convencer a los ingenieros reales y lograr que todo el mundo pudiera admirar el que posiblemente sea el concepto que pueda guiar al ascensor ecológico del futuro.

Aunque sólo sea durante las cuatro semanas que dura el festival (luego se le buscará una ubicación definitiva).

El ascensor funciona gracias a dos paneles solares en su parte superior, que son los que dotan de energía a un motor que controla una serie de peceras llenas de agua con función de contrapesos, para contrarrestar el empuje gravitatorio de la cabina de pasajeros y salvar las diferentes cotas de una escalera.

Los tanques de agua se llenan, cuando llegan arriba de su recorrido, con un sorprendente efecto cascada (mejor chorro de grifo) que se puede visualizar desde el interior o el exterior, pues todas las entrañas mecánicas se ven al descubierto a través del metacrilato.

El propio Lloyd describe este diseño como “verdaderamente sostenible”, ya que el uso de energías renovables no sólo aborda la necesidad de desvincularse de los combustibles fósiles; también permite que el ascensor pueda utilizarse en sitios sin acceso a la red eléctrica.

Y gracias a la buena voluntad y el entusiasmo de algunos especialistas en ascensores y a los proveedores de las placas solares, el ascensor ecológico sólo cuesta cuesta alrededor de 12.000 € en costes de producción, un precio muy ajustado que encantará a todo presidente de comunidad o concejal de urbanismo.

Precisamente fue el Festival de Arquitectura londinense el que donó los dos millones de las antiguas pesetas para materializar el proyecto, el cual fue inspirado, según afirma Matthew Lloyd, por las experiencias de su padre cuando la enfermedad le confinó en una silla de ruedas.

La primera vez que fue a pasar por el monumento se encontró con que no recordaba las insalvables escaleras, al igual que otros muchos turistas que había por allí, lo que le obligó a dar un rodeo de cientos de metros a través de Trafalgar Square para atravesar el obstáculo. En cuanto llegó a su casa, llamó a su hijo y le dijo aquello de “tienes que diseñar algo que salve esas dichosas escaleras”.

Dicho y hecho. Y de una forma tan brillante que puede sentar cátedra en el mundo de los ascensores y elevadores.


FUENTE:
http://www.cookingideas.es/el-primer-ascensor-de-cero-emisiones-funciona-con-sol-y-agua-20100701.html


Electricidad sin cables


Hace unos años investigadores del MIT hicieron una demostración pública de "un sistema rudimentario que prueba que la transmisión de energía es posible". La presentación de lo que vinieron a llamar WiTricity (o Witricidad, electricidad inalámbrica) mantuvo encendida una bombilla convencional situada a dos metros de distancia del enchufe más cercano.

La posibilidad de transmitir electricidad a través del aire -sin necesidad de cables- fue una de las obsesiones del genial inventor del Nikola Tesla (1856 – 1943). Sus primeros intentos son casi tan antiguos como la electricidad de corriente alterna -la que se utiliza en los enchufes convencionales- o la radio, otro de sus inventos.

Su gran aspiración era que la electricidad fluyera por el aire, disponible de forma libre y gratuita para todos.

Sin embargo, un siglo después el eléctrico es aún el único cable que sigue atando numerosos dispositivos electrónicos: ordenadores, portátiles, teléfonos móviles, impresoras e incluso televisores o discos duros. Cualquier dispositivo susceptible de comunicarse por radio (WiFi y Bluetooth, principalmente) pueden funcionar sin ningún tipo de conexión física. Excepto, de forma temporal o permanente, por el, de momento, insustituible cable de alimentación eléctrica.

Lo más parecido a la electricidad sin cables se puede encontrar por ejemplo en los cepillos de dientes eléctricos con carga por inducción, que se cargan al colocarlos en su base. Algo parecido ofrecen algunos fabricantes para la carga de teléfonos móviles, que se cargan al colocarlos sobre una superficie específica. Pero en ambos casos la base de carga también va enchufada a la red.

La transmisión de electricidad sin cables busca, sin embargo, que en ningún momento sea necesario conectar un aparato eléctrico a la red, ni que haya que colocarlo en una base o superficie específica.

La resonancia magnética

La resonancia es el principio utilizado para la transmisión de energía sin cables. Básicamente consiste en acoplar dos bobinas de cobre con la misma frecuencia de resonancia.

Una de ellas, la fuente, se alimenta con energía eléctrica que se transfiere como un campo electromagnético a la otra, donde de nuevo parte de ella se convierte en electricidad.

Los objetos cercanos ajenos a tal frecuencia de vibración en principio no se ven afectados por el campo magnético, y las bajas frecuencia utilizadas, del orden de MHz, en teoría al menos no son dañinas y no interfieren con otros elementos cercanos.

Obtener electricidad "del aire"

Hace unos meses el Nokia Research Center de Cambridge anunció que estaba investigando cómo aprovechar la energía electromagnética que fluye por el aire para mantener la batería del teléfono en un estado casi continuo de carga.

La idea que explora Nokia no es nueva. Pero tiene se diferencia de los intentos de Tesla y de cómo funcionan algunos microdispositivos -como los chips RFID pasivos y ciertos tipos de sensores utilizados sobre todo allí donde por su aplicación o entorno hace inviable el uso de baterías o tomas eléctricas- en que trata de aprovechar los campos electromagnéticos ya existentes de forma natural u originados por antenas de telefonía, radio y televisión. Es decir, sin necesidad de generar campos electromagnéticos específicos para la ocasión.

Sin embargo de momento los resultados obtenidos por el Nokia Research Center están lejos de tener una aplicación práctica. La potencia obtenida del aire es demasiado escasa: apenas unos 5 milivatios. Esto es unas diez veces menos que el mínimo necesario para empezar a considerar ésta como una opción. Un reproductor de MP3 típico, por ejemplo, requiere unos 100 milivatios de potencia.

La posibilidad de poder transmitir electricidad sin cables no es ya sólo una cuestión de comodidad. Es además una cuestión práctica sobre todo teniendo en cuenta que las baterías son actualmente el punto más débil para los dispositivos móviles por la escasa capacidad de almacenamiento que ofrecen.

La fabricación de baterías de alto rendimiento además es costoso económica y medioambientalmente y requiere el uso de materias primas no renovables, algunos de los cuales no son especialmente abundantes.

Entre otras cosas, la electricidad sin cables facilitaría el desarrollo de los vehículos eléctricos, que podrían obtener energía por inducción directamente de bobinas instaladas bajo el asfalto tanto mientras circulan como cuando se dejan estacionados.

La witricidad no es sólo la asignatura pendiente de la tecnología moderna, sino que, como anticipó Nikola Tesla hace de cien años, es cada vez más una necesidad para el desarrollo justo y sin obstáculos de una sociedad basada en -y dependiente de- la tecnología.


FUENTE:
http://www.microsiervos.com/archivo/tecnologia/electricidad-sin-cables-asignatura-pendiente-tecnologia-moderna.html


Libros gratis para leer en el eReader, el pc o el móvil


En la era del libro digital muchos fabricantes se han preocupado por desarrollar dispositivos que faciliten este tipo de lectura. Pero también para que exista un buen número de libros en formato digital entre los que el lector tenga facilidad de elegir. Lo cierto es que poco tiempo después de haberse desatado la fiebre del libro digital, existen muchas páginas con libros digitales descargables de forma totalmente gratuita. Una de estas tiene que ver con FeedBooks, un portal que aglutina libros en distintos idiomas para descargar y leer en el Kindle, en el ordenador o hasta en un teléfono móvil.

Don Quijote de la Mancha, La metamorfosis o el Diccionario del Diablo son sólo algunos de los clásicos literarios que están a disposición del gran público sin que tengamos que pagar ni un céntimo. Basta pinchar sobre el enlace ‘Download’ para acceder a la descarga del archivo en formato ePub. La página es un auténtico hervidero de obras literarias célebres firmadas por autores tan importantes como Stevenson, Kafka, Bierce, Allan Poe, Miguel de Unamuno, Karl Marx, Quevedo, Dickens, Lope de Vega, Pérez Galdós, Pío Baroja o Tolstoy, por citar tan sólo algunos nombres a disposición del más avezado lector.

Pero esta no es la única página que nos permitirá descargar libros sin tener que abonar ni un céntimo. En el propio apartado bautizado como ‘Biblioteca’ del Aleph tenemos la oportunidad de descargar obras literarias célebres como “Los cuatro jinetes del Apocalipsis” de Blasco Ibáñez o “La ridiculez” de Gustavo Adolfo Bécquer. Otro recurso interesante es el Proyecto Gutenberg, una página que nos permite descargar libros en varios formatos, especialmente referidos a los clásicos de la literatura española. Aunque si lo tuyo es el PDF, dispones de una biblioteca interesante llamada LibroDOT, en la que previo registro puedes acceder a centenares de lecturas en dicho formato.


FUENTE:
http://www.tuexperto.com/2010/07/06/libros-gratis-para-descargar-y-leer-en-el-kindle-el-ordenador-o-el-movil/#more-52335


Anzuelos para pescar una vacuna del sida


El año pasado se demostró por primera vez la eficacia de una vacuna contra el VIH, pero la comunidad científica es consciente de que aún hay que realizar muchos esfuerzos para conseguir una inmunización que proteja ampliamente contra un virus que infecta cada año a más de dos millones de personas en todo el mundo. Hoy, un equipo de investigadores del Instituto Nacional de Alergia y Enfermedades Infecciosas (NIAID) de EEUU ha dado un importante paso hacia la consecución de dicha vacuna, salvando precisamente el escollo más importante al que se enfrenta su diseño: la generación de anticuerpos que sean capaces de bloquear el virus.

Como exponen en la edición de hoy de Science, los científicos liderados por el subdirector del Centro de Investigación en Vacunas del NIAID, John Mascola, han identificado tres nuevos anticuerpos que neutralizan el virus, gracias a una estrategia muy novedosa. Con un procedimiento similar a lo que se conoce como vacunología reversa, han rediseñado la envoltura del VIH y la han utilizado para pescar los nuevos anticuerpos. "En vez de partir de inyectar una sustancia y procurar que se produzcan nuevos anticuerpos [contra ella], se buscan dichos anticuerpos y se estudia qué antígenos [proteínas que inducen la producción de anticuerpos contra ellas] son capaces de inducirlos", explica el especialista del Servicio de Infecciones del Hospital Clínic de Barcelona Felipe García. "Lo que hacen es buscar activamente los nuevos anticuerpos", resume.


Un avance para el futuro

Sin embargo, este significativo avance no implica una protección inmediata frente al virus. Los anticuerpos localizados se han encontrado en pacientes ya infectados por el VIH, que los han desarrollado años después de la infección.

Lo que dice la teoría es que, si se consiguiera que el sistema inmunológico de una persona sana generara esos anticuerpos, estos protegerían frente a la infección cuando el virus intentara entrar en el organismo, aunque los autores no descartan que puedan también utilizarse como tratamiento: "Potencialmente, los nuevos anticuerpos podrían usarse para tratar a los infectados con el VIH y también para prevenir la infección. Nuestro nuevo conocimiento de los anticuerpos y de su estructura cuando se adhieren al VIH podría ser útil para el diseño de una vacuna", explica Mascola en un correo electrónico.

El especialista cree que, incluso si no se llegara a desarrollar una vacuna a partir de sus hallazgos, los anticuerpos podrían administrarse directamente en la sangre o se podría diseñar una técnica de terapia génica para enseñar a las células a fabricar anticuerpos similares. "También podríamos fabricar un microbicida [un gel vaginal de aplicación tópica] que contuviera los anticuerpos", comenta.

Después de descubrir los nuevos anticuerpos, los investigadores del NIAID están diseñando proteínas que reaccionen al anticuerpo, en las que se basaría el efecto preventivo o terapéutico. "Las probaremos lo más rápido posible", afirma Mascola.

Los especialistas españoles coinciden en la importancia del hallazgo de los estadounidenses. El jefe de la Unidad de Inmunopatología del Sida del Instituto de Salud Carlos III, José Alcamí, explica que la meta en la lucha por encontrar una vacuna es inducir anticuerpos que neutralicen el virus. "Hasta la fecha no lo hemos logrado; sí generamos anticuerpos, pero la estructura del virus esconde las zonas donde el anticuerpo tiene que atacar", señala. Por fortuna, hay excepciones: hasta ahora, se ha localizado una decena de anticuerpos neutralizantes. "Si comprendemos cómo funcionan estos anticuerpos, podremos saber a qué parte del virus van dirigidos y sus características", comenta Alcamí.

En la misma línea se expresa la investigadora del Centro Nacional de Biotecnología (CNB) Carmen Gómez. "Una de las limitaciones a la hora de buscar una vacuna contra el VIH es que no somos capaces de inducir respuesta humoral [la que se basa en la producción de anticuerpos]. Esta es la que impide que el virus entre en la célula, mientras que la respuesta celular sería la que emplearía el organismo para matar a las células ya infectadas", explica. Todavía no se conoce cuál de los dos tipos de respuestas se "correlaciona con protección", pero se sabe que ambas estrategias deben combinarse para tener éxito en el desarrollo de una vacuna.

Esta científica cree que el hallazgo del equipo de Mascola se podrá combinar con otros éxitos en el campo de las vacunas, como el logrado por los que desarrollaron la primera vacuna eficaz contra el VIH, también del NIAID y del Programa de Investigación sobre VIH del Ejército de EEUU . Gómez cree que los autores de este nuevo hallazgo "no tardarán demasiado" en desarrollar una vacuna candidata combinando los conocimientos disponibles.


Misiles contra el virus

Alcamí utiliza un símil militar para explicar el hallazgo de Science: "Una vez encontrados los misiles, que equivaldrían a los anticuerpos, tenemos que diseñar las proteínas que los induzcan, que serían los antígenos". Para esa fase es para lo que es un gran avance el descubrimiento de Mascola.

"Lo que han hecho estos investigadores es analizar los datos que había de los distintos anticuerpos ya identificados para diseñar una proteína modificada para ser reconocida por esos anticuerpos, para encontrarlos. Se trata de un anzuelo para pescar anticuerpos", resume Alcamí.

Pero el estudio publicado hoy tiene una relevancia adicional. Con el nuevo método, los investigadores han localizado dos anticuerpos llamados VRC01 y VRC02 que son más especiales que ninguno de los neutralizantes identificados anteriormente. Y es que, según han demostrado, responden a una amplia gama de cepas del VIH, más del 90% de las conocidas y en distintas regiones geográficas.

Esto acabaría con otra de las numerosas dificultades a la hora de diseñar una vacuna contra el VIH, la variabilidad del virus. Esta característica hacía difícil predecir el desarrollo de una única vacuna frente al virus, por lo que muchos investigadores apuntaban a la posibilidad de tener que definir distintas estrategias para prevenir la infección en diferentes zonas del planeta.

La explicación de por qué los anticuerpos identificados responden a tantas cepas diferentes la ofrece otro estudio publicado en Science, que analiza la estructura de uno de los nuevos anticuerpos neutralizantes, el VRC01. Así, los autores descubrieron que el anticuerpo se centra en una parte del virus que es igual en las distintas cepas, lo que explicaría sus amplia capacidad de bloqueo. Esto sugiere que los nuevos anticuerpos pueden liderar el camino hacia vacunas novedosas y eficaces.


FUENTE:
http://www.publico.es/ciencias/326866/anzuelos/pescar/vacuna/sida


8 jul 2010

Blu nos muestra el origen de la vida [VIDEO]


Aunque nuestro conocimiento sobre la evolución de la vida en la tierra esta sujeto a permanentes actualizaciones, existe suficiente información como para tener un panorama básico de como se dio todo el proceso.

Por el eso el artista conceptual BLU y sus ayudantes han decidido recrear como sucedió todo, empleando según sus propias palabras “muchos meses de trabajo y cientos de baldes de pintura” y espacios abandonado. El resultado es magnífico al recrear desde el Big Bang pasando por las primeras formas de vida unicelulares y llegando hasta el hombre como lo conocemos hoy en día”.

La labor es admirable por su atención al detalle y su paciencia, convirtiéndose en una excelente ayuda visual para educadores y entusiastas de la ciencia de todo el mundo que deberían tener más representaciones del origen de la vida como estas.







Sistema para localizar plazas de aparcamiento en la calle


Un equipo de investigadores del Departamento de Telecomunicación e Ingeniería de Sistemas de la UAB , en la Escuela de Ingeniería, dirigido por José López Vicario y Antoni Morell, ha participado en el desarrollo de un nuevo sistema que localiza plazas de aparcamiento libres en la calle y guía al usuario hasta la más cercana. El sistema, llamado XALOC (Xarxes de sensors per a la gestió d’Aparcaments públics i LOCalització), ha sido desarrollado por un consorcio en el que también participan la empresa WorldSensing (líder del consorcio), y el Centro Tecnológico de Telecomunicaciones de Catalunya (CTTC), financiado por la Agència de Gestió d’Ajuts Universitaris i de Recerca (AGAUR) de la Generalitat de Catalunya.

El consorcio del proyecto ha desarrollado una plataforma basada en una red de sensores sin hilos capaz de realizar tareas de detección de plazas libres de aparcamiento en exteriores, y tareas de localización de vehículos con un sistema alternativo al GPS, y más preciso que éste en zonas urbanas. Con esta plataforma es posible localizar y guiar a los conductores hacia las plazas de aparcamiento disponibles dentro del área de interés.

Los sensores de la red se sitúan en el pavimento de la calle, justo en el centro de las áreas azules y verdes. Estos sensores detectan si la plaza está o no ocupada, y transmiten la información, mediante Internet, a un servidor central. Este servidor las procesa y las envía a paneles indicativos situados en la calle que muestran la información del estado de ocupación de la zona en tiempo real. Se han utilizado técnicas de comunicación avanzadas para llevar a cabo el guiado de los datos de la red.

Al mismo tiempo, la plataforma de sensores localiza a los usuarios que buscan aparcamiento, de modo que se puede ofrecer un servicio personalizado. En concreto, los investigadores de la UAB han diseñado un navegador portátil para el usuario, llamado ARID Navigator, que aprovecha las señales de comunicaciones, propias de la red de sensores, para posicionarse en el entorno urbano. Una vez se localiza el vehículo, el navegador se comunica con el servidor central de XALOC para conocer el número de aparcamientos libres en la zona y su ubicación, y muestra toda esta información al usuario.

La tecnología de posicionamiento y de localización es totalmente nueva y ofrece grandes ventajas respecto a los navegadores convencionales, basados en GPS, como son una localización más precisa en entornos urbanos, un tiempo de posicionamiento más reducido y mejor cobertura del servicio.

El sistema XALOC mejorará la gestión del tránsito en entornos urbanos, disminuyendo lo que los expertos llaman “tránsito de agitación”, es decir, el tránsito de vehículos que circulan sin rumbo específico buscando un lugar donde aparcar. Una disminución del volumen del tránsito de agitación permitirá mejorar la fluidez de la circulación de manera substancial en entornos urbanos, para contribuir a una reducción efectiva de la contaminación y a un aumento de la satisfacción del ciudadano.


FUENTE:
http://www.plataformasinc.es/index.php/esl/Noticias/Desarrollan-un-sistema-para-localizar-plazas-de-aparcamiento-en-la-calle


Energía eólica offshore [VIDEO]


El desarrollo de opciones para producir energía eólica offshore, o sea en locaciones ubicadas en aguas profundas, es uno de los pasos más importantes para lograr incrementar la trascendencia de la energía eólica en la matriz energética. La empresa Marine Innovation and Technology ha diseñado nuevas turbinas de viento capaces de obtener una mayor eficiencia en zonas marítimas alejadas de las costas, que podrían suponer un gran avance en esta tecnología. Por Pablo Javier Piacente.

La energía eólica offshore o en aguas profundas podría alcanzar un mayor desarrollo gracias a unas nuevas turbinas de viento flotantes, diseñadas por la firma Marine Innovation and Technology. De esta manera se lograría un importante avance en una de las áreas con mayores posibilidades para agilizar el desarrollo de la energía eólica, teniendo en cuenta que en aguas profundas es posible lograr una mayor producción energética que con las turbinas ubicadas en cercanías de las costas.

Hasta el momento, el desarrollo de la energía eólica marina se ha centrado mayormente en el diseño de infraestructuras ubicadas cerca de las costas, donde las turbinas pueden anclarse directamente en el fondo del mar. Esto significa que los más de 2.000 megavatios producidos en Europa mediante energía eólica marina se obtienen a través de turbinas ubicadas a alrededor de 50 metros de las costas.

Por ejemplo, el esperado proyecto Cape Wind en Nantucket Sound (Estados Unidos) se concretará en aguas de escasa profundidad, y así sucede con otras iniciativas similares en relación a la energía eólica marina. Sin embargo, gran parte de los especialistas en la materia coincide en que el potencial de la energía del viento obtenida en el mar es mucho mayor en grandes profundidades.

Si con turbinas ubicadas en cercanías de las costas se obtienen rendimientos energéticos consistentes y se logran aprovechar fuertes vientos, al desarrollar infraestructuras en alta mar esas condiciones pueden mejorar aún más. Para aprovechar el viento que sopla sobre las aguas más profundas, la última tendencia es diseñar turbinas eólicas flotantes, que evitan la necesidad de insertar estas estructuras en el fondo marino.


Nueva tecnología y distintos proyectos

De acuerdo a la empresa Marine Innovation and Technology, su plataforma WindFloat posee las mayores turbinas eólicas flotantes disponibles en la actualidad, que además logran importantes índices de efectividad. Los avances obtenidos en esta plataforma fueron reseñados en un reciente artículo de la revista especializada Journal of Renewable and Sustainable Energy.

Además, una nota de prensa de Marine Innovation and Technology y un informe de IEEE Spectrum también desarrollan las características de esta nueva tecnología. Según la firma encargada, la plataforma WindFloat es capaz de incluir gigantescas turbinas eólicas de 5-MW.

La plataforma flotante que integra a las nuevas turbinas eólicas está diseñada para soportar los rigores de un clima tormentoso continuado “durante cien años”, según explican los responsables de la empresa. La firma Principle Power ha adquirido esta tecnología, y podría tener funcionando en aguas profundas varias de estas turbinas en 2011 ó 2012. En el video adjunto pueden observarse las características de su proyecto.

Junto a los beneficios que supone aprovechar la mayor fuerza del viento en aguas profundas, estas turbinas eólicas flotantes eliminarían otro de los impedimentos que han frenado un mayor desarrollo de la energía eólica marina, por ejemplo en Estados Unidos: los trastornos visuales generados por las estructuras colocadas en cercanías de las costas.


Retos a superar

Según el artículo publicado en Journal of Renewable and Sustainable Energy, deben mejorarse todavía varias características de diseño de la plataforma WindFloat para garantizar su correcto funcionamiento en las condiciones más difíciles, más allá de la efectividad lograda por las turbinas eólicas flotantes.

Los retos asociados con el diseño y el funcionamiento de las turbinas eólicas flotantes son significativos. Es que se trata de estructuras flotantes que deben transportar una carga de gran tamaño y muy por encima de la superficie del agua, algo que resulta complejo de acuerdo a los principios básicos de la arquitectura naval.

Al mismo tiempo, los criterios de estabilidad estática y dinámica son difíciles de conseguir, especialmente en el contexto de la producción de energía eólica marina, donde las características de las operaciones a realizar requieren obligatoriamente que el peso del casco sea mínimo.

Otras compañías también han dado importantes pasos para aprovechar en mayor medida la energía eólica offshore, como por ejemplo la petrolera noruega Statoil, que recientemente completó la construcción de su primera turbina flotante. Esta estructura estará ubicada a varios kilómetros de la costa de Noruega.



Imágenes 3D sobre pantallas de agua [VIDEO]


Científicos del Robotics Institute de la Carnegie Mellon University de Estados Unidos, han desarrollado una tecnología que permite generar imágenes en tres dimensiones sobre capas de agua, y con alta resolución. Bautizado como AquaLux 3D, el sistema consiste en generar líneas coordinadas de gotas, sobre las que incide de manera alternante la luz de un proyector. Las imágenes aparecen así en tres dimensiones sobre una pantalla flotante. Por Yaiza Martínez.

n equipo de científicos del Robotics Institute de la Carnegie Mellon University de Estados Unidos, ha desarrollado una tecnología de proyección con la que se puede hacer incidir la luz sobre gotas de agua individuales y entre éstas, para producir imágenes móviles.

La tecnología, que ha sido bautizada como AquaLux 3D, se diferencia de otras tecnologías ya existentes para la proyección de imágenes sobre superficies acuosas, en que las imágenes que genera son en tres dimensiones.

En un comunicado emitido por la Carnegie Mellon University, uno de los creadores del sistema, el profesor de robótica Srinivasa Narasimhan, explica que usando de forma combinada las gotas de agua es posible crear efectos 3D únicos, y proyectarlos en diversos entornos, como parques temáticos o exposiciones.

El sistema podría usarse asimismo para la creación de juegos interactivos, con los que podría jugarse sin necesidad de usar gafas especiales para ver en tres dimensiones.

En este sentido, un aspecto único de AquaLux 3D es su potencial para la interacción física, porque la gente puede tocar las gotas de agua y alterar la apariencia de las imágenes, algo que dará lugar a experiencias interactivas que aún no pueden predecirse, según sus creadores.

Narasimhan afirma, por otro lado, que “lo mejor de las gotas de agua es que éstas refractan la mayoría de la luz que incide sobre ellas, por lo que sirven como unas excelentes lentes”.

El investigador ha desarrollado este dispositivo en colaboración con Takeo Kanade, profesor de ciencias computacionales y robótica, y con Peter Barnum, un estudiante de robótica, todos de la misma universidad.


Cómo funciona

Para conseguir proyectar imágenes 3D sobre el agua, los científicos crearon en primer lugar diversas láminas de cascadas de gotas, con el fin de fabricar un dispositivo computacional de múltiples capas. Estas “pantallas” de agua se colocaron posteriormente unas detrás de otras, para darle profundidad a las imágenes.

Cada lámina estaría compuesta por gotas de agua que caen desde 50 agujas de acero inoxidable que las liberan de forma coordinada entre sí, y que generan 60 líneas de gotas cada segundo.

Según publica la revista NewScientist, una cámara se encarga de registrar la información sobre las gotas y de enviarla a un proyector, que hace incidir pulsos lumínicos sobre el agua.

Finalmente, el ojo humano integra la información que le llega a partir de todos estos elementos, lo que permite que se genere la ilusión óptica de las imágenes 3D en movimiento, proyectadas en una pantalla flotante.


Mayor resolución

Narasimhan y sus colaboradores utilizaron cuatro conjuntos paralelos de agujas que, dirigidos por un ordenador, liberan las líneas de gotas en momentos ligeramente distintos, de manera que las gotas de las diversas capas no se oculten unas a otras.

La liberación ordenada de las gotas permite usar cada una de éstas como un voxel (pixel volumétrico, unidad cúbica que compone un objeto tridimensional), susceptible de ser iluminado para crear la imagen tridimensional.

El proyector se encarga de alternar rápidamente el objetivo de incidencia de la luz que emite, para proyectarla en diferentes capas y en momentos diversos.

De esta forma, “puede proyectar cualquier cosa sobre el agua: imágenes, textos, películas o juegos interactivos”, explican los investigadores.

Aunque ya existían otros sistemas de proyección en agua, Narasimhan y sus colaboradores afirman que esta novedosa solución multicapas requiere menos operaciones manuales y ofrece una resolución más alta que la alcanzada hasta ahora.

El sistema AquaLux 3D será presentado en el congreso de computación gráfica SIGGRAPH, que se celebrará en la ciudad de Los Ángeles a finales de julio.


Sin límites

Narasimham afirma que esta tecnología de proyección ha surgido a partir del esfuerzo por desarrollar un sistema de faros LED para automóviles, que permitiera conducir de noche bajo la lluvia de manera segura.

Los científicos pretendían eliminar los reflejos de los faros de los coches, que pueden aumentar la dificultad de los conductores para ver bien mientras conducen y está lloviendo.

Con este fin, analizaron formas de controlar la luz, intentando hacer pasar los rayos entre las gotas. Así, se dieron cuenta de que era mucho más fácil proyectar la luz sobre las gotas directamente e idearon el resto del sistema de proyección.

Hasta ahora, AquaLux3D ha funcionado con cuatro capas lineales de gotas y un solo proyector, pero Narasimham y sus colaboradores afirman que no existe límite en el número de capas y de proyectores que pueden emplearse, y que las gotas pueden ser ordenarse en patrones no lineales.







Sistema informático descifra la antigua lengua ugarítica


Un equipo de investigación formado por Regina Barzilay, profesora asociada del Laboratorio de Informática e Inteligencia artificial del MIT, Ben Snyder, estudiante de posgrado en su laboratorio y Kevin Knight, alumno de la Universidad del Sur de California, ha desarrollado un nuevo sistema informático que, en cuestión de horas, consigue descifrar gran parte de la antigua lengua semítica ugarítica. Según un comunicado publicado en el MIT, el trabajo del equipo norteamericano no sólo ayudará a los arqueólogos a descifrar las lenguas más antiguas del mundo, sino que además podría ampliar el número de lenguas que los sistemas de traducción automática como Google Translate puede manejar.

El centro de la investigación es la ugarítica, una lengua que pertenece a la familia semítica (parte de la macrofamilia de lenguas afroasiáticas que se desarrollaron sobre todo por Oriente Próximo y el norte y este de África). Fue la lengua de Ugarit, un centro comercial en la costa mediterránea de Siria con una extensión aproximada de 2.000 kilómetros cuadrados. Se trata de la única lengua bien atestiguada de todas las nativas de la franja fenicia en el segundo milenio a. C.

Su escritura, cuneiforme consonántica, ya ha sido descifrada, por lo que el sistema americano ha podido comprobar el rendimiento de su programa. De las 30 letras que conforman el alfabeto ugarítico, el software ha asignado correctamente 29 de ellas a sus homólogas hebreas. Pero además, de un tercio de las palabras en hebreo que tienen cognados ugaríticos (aquellos términos con un mismo origen etimológico, pero con distinta evolución fonética) el sistema ha identificado correctamente el 60%. "De los que son incorrectos, a menudo lo son sólo por una sola letra, por lo que sirven como muy buenas conjeturas", apunta Snyder. Pero ¿cómo se ha llegado a este nivel de exactitud?


Similitud entre lenguas

La investigación parte de tres supuestos: el primero es que toda lengua está íntimamente relacionada con otra (en el caso de la ugarítica, los científicos eligieron el hebreo); el segundo es que hay una manera sistemática para asignar el alfabeto de un idioma al alfabeto de otro; y el tercero asume que existe una correlación estructural (número de partes) en las palabras compuestas de los idiomas comparados.

En el plano de la palabra, el software parte de un supuesto similar: los dos idiomas relacionados deben tener al menos algunos cognados o palabras con raíces comunes, como “main” y mano en francés y español, o “homme” y hombre. Y, por último, el sistema supone una asignación similar para partes de palabras. Por ejemplo, un término como “sobrecarga”, tiene un prefijo “sobre” y un sufijo “carga”. El sistema podría anticipar que otras palabras en la lengua contarán con ese prefijo y sufijo y que el cognado de la palabra “sobrecarga” existirá en otro idioma, como sucede con “surchargeant” en francés.

Sobre estas premisas el sistema construye mapas de símbolos que se repiten con frecuencia en un idioma y lo compara con los mapas de símbolos de otra lengua. A partir de ahí, modelos estadísticos comunes en las investigaciones de Inteligencia Artificial determinan cuál de las asignaciones parece haber identificado un conjunto coherente de sufijos y prefijos.

A continuación, el sistema podría buscar las correspondencias en el plano de la palabra, lo que, a su vez, podría ayudar a refinar aún más el mapa alfabético. Esto supone un trabajo de revisión continua, como admite uno de sus creadores, Ben Snyder: "Tenemos que recorrer los datos miles de veces, y cada vez, nuestras conjeturas tendrán mayor probabilidad, porque en realidad estamos acercándonos a una solución con la que conseguimos más coherencia. Finalmente, el sistema llega a un punto en el que alterar sus asignaciones no implica mejorar la consistencia".

A pesar de los buenos resultados obtenidos, los padres del invento no pretenden eliminar la figura humana del traductor, ya que, reconocen que su sistema no utiliza actualmente toda la información de contexto para resolver ambigüedades. Por ejemplo, las palabras ugarítica de "casa" e "hija" se escriben de la misma manera, pero sus contrapartes hebreas no lo hacen. Aunque el programa de vez en cuando pueda mezclarlas, una persona podría fácilmente decidir cuál es la correcta dependiendo del contexto.


Voces disonantes

Sin embargo, no todo el mundo comparte el optimismo del equipo norteamericano. Andrew Robinson, que fue editor literario del suplemento de educación superior del diario Times en 2002, ya advertía entonces (con su libro Lost Languages) que "el éxito de los desciframientos arqueológicos requería una síntesis de la lógica y la intuición que los ordenadores no poseen". Ocho años después, y con esta investigación sobre la mesa, Robinson sigue siendo escéptico. Opina que el nuevo sistema supone que está claro dónde termina un carácter o palabra y empieza otra, lo que no sucede en muchas lenguas con alfabetos ya descifrados.

Ante este argumento, Regina Barzilay contesta que probablemente el sistema requerirá adaptarlo a las características de cada lengua, y añade que "el desciframiento de la lengua ugarítica se basó en algunas coincidencias felices, como el descubrimiento de un hacha en la que estaba tallada la palabra "hacha" en ugarítico".

De hecho, Snyder y Barzilay no creen que su sistema pueda nunca sustituir a los descifradores humanos, pero sí lo consideran como un instrumento poderoso que puede ayudarlos. Además, una variante del modelo podría ampliar la versatilidad de los software de traducción automática como Google Translate, que en la actualidad sólo opera con 57 idiomas. El equipo norteamericano presentará su trabajo en la Reunión Anual de la Asociación de Lingüística Computacional que se celebrará en Suecia del 11 al 16 de julio.



FUENTE:
http://www.20minutos.es/noticia/757505/0/descifrar/lengua/ugaritica/



El gran mercado de las aplicaciones para móviles


El éxito de los smartphones y las tarifas planas de datos han conseguido crear una nueva fuente de ingresos para empresas y programadores en las tiendas de aplicaciones para móviles. Los llamados teléfonos inteligentes, que suponen ya un 15% de las ventas, no lo serían si no fuera por el sistema operativo que incluyen, que determina los programas que pueden instalarse en él. El año pasado se descargaron más de 3.600 millones de aplicaciones para móviles según la consultora Futuresource, que augura que en 2013 esa cifra superará los 16.000 millones. Con esas previsiones, los fabricantes de móviles están perfeccionando las tiendas que les permitan no quedarse atrás en un mercado en el que Apple, con más de 250.000 programas, ha sabido construir el mayor ecosistema. Le sigue Android de Google, con unas 65.000. Ovi, la tienda de Nokia, dispone de más de 9.500 y tras ella se sitúa Vodafone 360, que ronda las 8.500.

Google, Nokia o Microsoft son algunas de las alternativas, pero no son las únicas. Las operadoras también han observado las ventajas de adentrarse en este mercado, que se prevé generará 4.000 millones de dólares (unos 3.600 millones de euros) este año. Orange, que ya disponía de una apuesta en este sentido, está rediseñando su tienda para competir con MStore de Movistar o Vodafone 360.

El fabricante del terminal y, en consecuencia, su sistema operativo, determina cuál es la tienda de la que debe surtirse el usuario si desea más aplicaciones de las que se incluyen por defecto. La operadora con la que ha contratado la tarifa plana le ofrecerá una tienda adicional (MStore, Vodafone 360 u Orange World) desde la que descargar más programas, gratuitos y de pago. Un móvil HTC con Android y contratado con Vodafone permitirá acceder al Android Market y a la tienda de la operadora. Lo mismo sucede con un teléfono Nokia, su tienda Ovi y la operadora con la que se adquiere.

El iPhone es la nota discordante, ya que sólo permite la instalación de aplicaciones desde su App Store. "Dentro de la tienda de Apple hay aplicaciones que también pueden encontrarse en la tienda MStore de Telefónica, pero el iPhone es el único terminal [que se comercializa en exclusiva con Movistar] en el que no se puede acceder a la tienda en sí", explican fuentes de Movistar. Esto se debe a que Apple ejerce un control absoluto sobre las aplicaciones que se instalan en su terminal y sólo ella decide qué programas son adecuados, aunque los realice una empresa externa. El usuario sólo puede salirse del camino marcado si opta por hackear el sistema operativo de su iPhone, algo que le permitiría contar con aplicaciones de terceros, pero anularía la garantía del terminal y le impediría instalar las actualizaciones.


La meca de los creadores

Telefónica, Vodafone y Orange fueron algunas de las 24 operadoras que anunciaron a principios de año, junto a fabricantes como LG, Samsung o SonyEricsson, un acuerdo para una plataforma abierta y común para el desarrollo de aplicaciones móviles. Pero, mientras estas compañías trabajan en ello, Apple acaparaba a finales del año pasado el 70% del total de las aplicaciones descargadas.

Los analistas otorgan un papel vital al desarrollo de la tienda de Nokia (la compañía obtuvo una cuota de mercado del 38% en 2009 y este liderazgo no se ve correspondido en el número de aplicaciones que se crean para su tienda) y a Blackberry, que intenta mantener la imagen empresarial a la vez que captar al usuario para hacer frente a Apple.


Aplicaciones hechas por otros

La mayoría de los fabricantes y operadoras ha optado porque sean otros los que realicen la mayor parte de las aplicaciones que se venden en sus tiendas. "Dentro de las aplicaciones de pago, la categoría de juegos es la más demandada", detalla Fernando Kanacri, responsable de Ovi Tienda. Las operadoras han seguido el ejemplo de los fabricantes: "La gran mayoría de las aplicaciones de Mstore son proporcionadas por terceros. Sin embargo, existe un número muy reducido que permiten contratar los servicios más demandados por nuestros clientes", explican fuentes de Movistar.

Android es el sistema que más aplicaciones gratuitas incluye en su tienda, con un 57%, según un informe de la consultora Distimo. Los terminales Palm ocupan el segundo puesto (34%), seguidos de la App Store del iPhone con un 28%. Los programas de la plataforma de Google se sitúan, junto a las de Nokia y Palm, entre las más baratas, con un 50% de ellas a un precio inferior a dos dólares. En el caso de los programas de pago, tanto las operadoras como los fabricantes consultados por Público hablan de un "sistema de remuneración estándar", con un 70% del precio de venta para el creador y un 30% para la tienda, un sistema que ha animado a diferentes empresas a lanzarse a desarrollar aplicaciones y juegos para móviles. "Es el proveedor de contenidos quien decide a qué precio quiere vender las aplicaciones", destaca Kanacri.

Los expertos apuntan a que, mientras Apple ha construido un negocio floreciente en la venta de aplicaciones de pago, propuestas como la de Google están centradas en ampliar su plataforma. La estrategia de Google con Android está centrada en repetir el modelo ya puesto en marcha en internet: ofrecer servicios de calidad que incluyen publicidad. Las previsiones apuntan a que el éxito puede repetirse. Según IDC, Android pasará a ser el segundo sistema operativo para móviles más utilizado en el mundo en 2013 tras Symbian. Que Google no haya apostado por un único móvil para instalar su sistema puede ser responsable de ello, aunque por el momento, cuando falta menos de un mes para el lanzamiento del iPhone 4, todos los ojos miran a Apple.



FUENTE:
http://www.publico.es/ciencias/326661/aplicaciones/moviles/atan/usuario



Medios españoles captan lectores usando redes sociales


El uso masivo de las redes sociales es conocido por los medios online españoles, que aprovechan esta circunstancia para atraer nuevos usuarios, en un momento en que el internauta no se fideliza a ningún medio. Esa es la conclusión que se desprende del estudio «Los medios españoles de información diaria en Internet», publicado por la compañía Vector SF, y que muestra que el 75% de las cabeceras de información diaria apuestan por Facebook y un 76% por Twitter para difundir sus contenidos.

Con el objetivo de fidelizar usuarios, los medios comparten sus contenidos de forma gratuita a través de sus perfiles en estas redes sociales. Además promueven la conversación y el intercambio de opiniones, bien entre medio y lector, bien entre los propios usuarios.

El estudio, que se ha llevado a cabo entre casi un centenar de páginas web, muestra que los medios tradicionales online cuentan con más presencia que los medios nativos digitales en el uso de Twitter y el desarrollo de aplicaciones para el iPhone o de blogs propios. Esto se debe a que cuentan con más recursos para desarrollarlos, pues están respaldados por grupos de comunicación asentados.


Accesos para compartir contenidos

Además de estar presentes en Twitter y Facebook, los medios intentan facilitar el acceso a otros servicios de la Web 2.0 donde los usuarios comparten enlaces y los valoran. Así, el 73,75% de ellos tienen un icono que vincula directamente a Menéame, mientras un 68,75% está en Del.i.cious.

Curiosamente, menos medios tienen enlace directo a Facebook (66,25%) y Twitter (53,75%) en sus noticias para facilitar la difusión de informaciones. Muy lejos de estas cifras se encuentran MySpace (20%) y Google Buzz (7,5%).


Menor desarrollo de aplicaciones tecnológicas

Estos datos tan buenos en el uso en redes sociales contrastan con los del desarrollo de aplicaciones de entrada a dispositivos como el iPhone o el iPad: tan sólo el 43,75% dispone de un acceso directo para estos productos de Apple, mientras que un escaso 35% tienen un portal WAP propio.



FUENTE:
http://www.abc.es/20100707/medios-redes/medios-espanoles-usan-redes-201007071743.html


Primer vuelo nocturno propulsado sólo por energía solar


El avión "Solar Impulse" ha conseguido realizar el primer vuelo nocturno de la historia propulsado únicamente por energía solar y ha logrado mantenerse en el aire más de 26 horas seguidas.

"Por la primera vez, un avión solar vuela un día y una noche seguidas sin carburante", dijo esta mañana a la prensa el promotor del proyecto, Bertrand Piccard.

La duración del vuelo encumbra a este prototipo de avión solar como el protagonista de la travesía aérea más larga de esta naturaleza, al superar la marca obtenida por otro aparato solar ultraligero con un piloto a bordo, que en 1981 logró volar de Francia a Inglaterra en cinco horas.

En los controles de la nave de amplias alas está el ingeniero y ex piloto de la Fuerza Aérea suiza Andre Borschberg, co-fundador del proyecto Solar Impulse con Piccard, quien viene de una familia de exploradores y aventureros.

Solar Impulse, que tiene 12.000 células solares dentro de sus alas de 64,3 metros, es un prototipo para una aeronave que sus creadores esperan realice la primera circunnavegación del planeta en el 2012.

Con un ala del mismo tamaño que la de un Airbus A340 y con 1.600 kilos de peso, apenas similar al de un automóvil mediano, el avión funciona con cuatro motores eléctricos y está diseñado para guardar energía de sus celdas solares en baterías de alto rendimiento.

Con seis años en desarrollo, el avión ya realizó dos vuelos de prueba cortos y exitosos, con el último sobre Payerne en abril, cuando pasó 87 minutos en el aire y alcanzó una altura de 1.200 metros.

"La intención de esta misión es demostrar el potencial de la energía renovable y las tecnologías limpias", dijo Piccard, cuyo padre Jacques fue pionero de la exploración submarina en un batiscafo.


FUENTE:
http://www.elmundo.es/elmundo/2010/07/08/ciencia/1278567948.html


7 jul 2010

Resumen Workshop eBooks [VIDEOS]



El pasado 18 de mayo se celebró en el salón de Actos del Instituto de Química Física Rocasolano, un workshop sobre libros electrónicos organizado por Swets en colaboración con el CSIC. El interés que suscitó este evento fue grande, se consiguió reunir a un total de 150 personas de diferentes partes del país, pertenecientes a 57 entidades tanto estatales como privadas, principalmente profesionales de ámbito de las bibliotecas, documentación y usuarios.

Los temas tratados fueron abordados desde los puntos de vista del editor / productor de ebooks, del agente de subscripciones, del punto de vista de la biblioteca y la problemática de adquisición centralizada de ebooks, así como las tendencias futuras de las ebooks, los eReaders, los formatos, las plataformas, las estadísticas, las aplicaciones de la Web 3.0, etc.

Os dejamos los videos y presentaciones del workshop:

Elsevier Science
Javier Arenas - Gerente para Instituciones.
[VIDEO] - [PDF]

Springer
Wouter Van der Velde - eProduct Management & Innovation
[VIDEO] - [PDF]

Wiley-Blackwell eBooks: Presente y futuro
Carlos Jimeno - Accont Manager para España
[VIDEO] - [PDF]

Oxford University Press
Annaig Gautier - Regional Manager
[VIDEO] - [PDF]

Experiencia Biblioteca Iqfr
Esperanza Iglesias - Directora Biblioteca Iqfr
[VIDEO] - [PDF]











Experiencia Biblioteca Tomas Navarro
Mª Jesus Morillo - Responsable Depto. Gestión Colección
[VIDEO] - [PDF]

Swets en España
Libros electrónicos: El punto de vista del editor de contenidos
Juan Carlos Martín - Director de Swets en España
[VIDEO] - [PDF]


Reportaje Gráfico:
http://www.facebook.com/album.php?aid=2039527&id=1377566002&ref=mf



120 millones de conexiones de banda ancha móvil en 2015


Según un estudio llevado a cabo por la consultora Analysys Manson, la banda ancha móvil en Europa alcanzará los casi 120 millones de conexiones en 2015. Tanto es así que, según la Unión Internacional de Telecomunicaciones (UIT) a lo largo del presente año habrá más de 1.000 millones de abonados a esta tecnología en todo el mundo, y sólo en 2009 se llegó a los casi 600 millones de abonados. La evolución de banda estrecha a banda ancha se está convirtiendo en el cambio más radical al que se enfrenta la industria móvil en los próximos diez años. Por Gloria Navas.

La banda ancha móvil en Europa pasará de los 8 millones de conexiones que se produjeron en 2007 a alcanzar los casi 120 millones en 2015. Así se pone de manifiesto en un nuevo estudio que ha llevado a cabo la empresa Analysys Manson , en el que se hace un análisis de lo que sucederá entre los años 2010 y 2015. En Europa continuó creciendo a un buen ritmo en 2009, impulsado principalmente por segmentos de consumidores de prepago y servicios complementarios. Tanto es así que si los ingresos de voz tradicionales disminuyen o los servicios de mensajería se estancan, la banda ancha móvil se convertirá en uno de los motores principales de ingresos para los operadores europeos en los próximos cinco años, lo que supondrá casi el 10 por ciento del total de ingresos por servicios móviles para el año 2015.

La Unión Internacional de Telecomunicaciones, UIT apuntó en esta misma dirección en el Congreso Mundial de la GSMA celebrado en Barcelona en febrero de este año y aportó nuevos datos. Según este organismo se prevé que a lo largo del presente año haya más de 1.000 millones de abonados a esta tecnología en todo el mundo. Sólo en 2009 se llegó a los casi 600 millones de abonados.

Según Analysys Manson el mercado de teléfonos móviles está cada vez más saturado en los países europeos. El número total de tarjetas SIM en teléfono es probable que caiga en la mayoría de los mercados y, de hecho, esta tendencia es ya evidente en algunos países. De esta forma, señalan, el mercado de suscriptores crecerá únicamente por la implantación de la banda ancha móvil. En el estudio también se detalla que en la mayoría de los países, el mercado de banda ancha móvil se desarrollará con picos de crecimiento rápido, seguido de periodos de más estancamiento. Sin embargo, estos ciclos se producirán en momentos diferentes en Europa.

En la investigación se desgranan todos los obtenidos desde 2007. Antes de ese año, el segmento de los negocios fue el que dominó la banda ancha móvil, por lo que fue el causante de la primera etapa de crecimiento. Sin embargo, el mercado experimentó una transformación significativa entre 2008 y 2009, y fue entonces cuando el segmento de consumo adquirió más importancia. De hecho, representó el 68 por ciento del total de conexiones de banda ancha móvil a finales de 2009.

El grado de intención de los consumidores a sumarse a esta conexión varía significativamente entre todos los países europeos. Por ejemplo, en Irlanda los consumidores representan más del 80 por ciento de las conexiones móviles de banda ancha, mientras que en Lituania, donde son los usuarios de negocio los que siguen dominando, representa el 53 por ciento.

La cuota de consumo del total de conexiones de banda ancha en la telefonía móvil también sirve como un buen indicador del avance de los distintos mercados. Los países con una alta proporción de usuarios de los consumidores, como Irlanda y Suecia, por lo general disfrutan de altos niveles de penetración.



Un cambio radical

Lo que queda claro en el estudio es que la evolución de banda estrecha a banda ancha está siendo el cambio más radical al que se enfrenta la industria móvil en los próximos diez años. De hecho, según la consultora la forma que adquirirá en un futuro la industria de las telecomunicaciones estará determinada por el grado de compromiso que las empresas de telecomunicaciones móviles, los proveedores de infraestructuras, y otros de este mismo sector presenten ante este cambio radical.

Las oportunidades presentadas por la rápida evolución del mercado de banda ancha móviles han impulsado a los actores de la industria de las telecomunicaciones a que se centren en asegurar rápidamente su cuota de mercado. Sin embargo, tendrán que cambiar su enfoque hacia una mayor gestión y el mantenimiento de una base de abonados, y luego a descubrir cómo se tiene que animar más a los usuario a pagar más por servicios adicionales.

En este sentido, Analysys Mason puede ayudar a los clientes de todo el sector de las telecomunicaciones a obtener beneficios en este mercado competitivo. Su programa de investigación de banda ancha móvil ofrece una buena penetración en el tamaño del mercado, la estructura y la dinámica, las tendencias y estrategias de clientes del operador, así como en el asesoramiento estratégico para ayudar a las empresas aaprovechar las mejores oportunidades de negocio.


Ingresos por servicios móviles

Por otra parte, según otro estudio realizado también por Analysys Manson los ingresos por servicios de telefonía móvil en Europa se redujeron por primera vez en 2009, a pesar de que hubo un crecimiento de dos dígitos en ingresos por datos móviles en muchos países. Esta disminución general fue de todas formas pequeña, pero es un hito importante. Estos mismos resultados fueron ligeramente mejores en el mercado de los EEUU, donde el crecimiento de los ingresos de datos móviles fue dos veces mayor que el de Europa.


FUENTE:
http://www.tendencias21.net/Europa-tendra-120-millones-de-conexiones-de-banda-ancha-movil-en-2015_a4641.html

Investigadores españoles hallan restos de agua en Marte


El agua esencial para la vida fluyó en Marte mucho más tiempo del que se pensaba hasta ahora, gracias al impacto de enormes meteoritos. Los choques abrieron fuentes similares a los volcanes submarinos de la Tierra, donde se piensa que pudieron surgir las primeras células terrestres. Así lo explica un estudio liderado por investigadores españoles y que ha aportado la prueba más concluyente hasta la fecha de que hubo abundante agua líquida en Marte durante cientos de millones de años.

Las pruebas, publicadas hoy en PNAS, se basan en los filosilicatos, unos minerales que sólo se forman en abundancia de agua líquida. Los expertos los han hallado en un cráter próximo al ecuador marciano llamado Toro, en honor a la localidad homónima de Zamora.

"En aquel momento, hace unos 3.600 millones de años, la zona era un extenso páramo volcánico que cubría sedimentos anteriores formados por ríos y lagos", explica a Público el español Alberto Fairén, primer autor del estudio e investigador del Centro Ames de la NASA en California. "Al impactar el meteorito, desenterró sedimentos ricos en filosilicatos e inyectó la energía suficiente en el subsuelo como para generar un entorno de aguas hidrotermales de cerca de 100 km2, donde se sintetizaron nuevos filosilicatos", detalla.

A partir de 2006, se descubrieron las primeras pruebas de filosilicatos en Marte gracias a las imágenes obtenidas por la sonda de la ESA Mars Express y la de la NASA Mars Reconnaissance Orbiter. Los minerales abundaban, sobre todo en el interior de los cientos de cráteres que abrieron los meteoritos en la superficie del planeta rojo. Los primeros estudios concluyeron que estos minerales fueron desenterrados por el impacto y datan de épocas cercanas al nacimiento del planeta, hace unos 4.600 millones de años. Sin embargo, hasta ahora no se ha podido confirmar que fuera así.

El equipo de Fairén, que ha trabajado con otros españoles como el investigador del Centro de Astrobiología de Madrid Ricardo Amils, así como con expertos europeos y estadounidenses, ha confirmado esa hipótesis, pero también la ha contradicho. Por un lado, su trabajo asegura que la mayoría de los silicatos que se extienden por los cráteres son de origen antiguo. Pero también han demostrado que, en el centro del boquete, donde la temperatura fue mayor, los silicatos antiguos desaparecieron y se formaron otros, por lo que tuvo que haber un flujo de agua más reciente.



Temperatura límite

"Nuestra investigación demuestra que existen filosilicatos de edades diferentes, lo que implica que hubo agua líquida abundante en lugares concretos de Marte mucho más tarde de lo que se pensaba hasta ahora", explica Fairén. La manera de probarlo ha sido calentar filosilicatos hasta temperaturas como las que se alcanzaron en el interior de Toro, unos 600 ºC. El equipo comprobó así que hasta esa temperatura los minerales permanecen intactos, por lo que los filosilicatos que no están en el centro del boquete provienen de capas de terreno más antiguas. Usando imágenes de las dos sondas marcianas, los expertos observaron que también hay filosilicatos en el centro del cráter que tuvieron que formarse tras el impacto del meteorito, lo que retrasa la presencia de agua líquida en el planeta unos 600 millones de años, según los autores.

"La presencia de agua líquida más reciente implica que las temperaturas no eran tan frías y que la acidez de las aguas era neutra, lo que facilitaría la aparición de vida", explica Ricardo Amils. El experto señala que habrá que observar qué sucede en otros cráteres. Ahora comienza la batalla entre los diferentes grupos investigadores, o como señala el científico español, "un juego entre caballeros para descubrir los filosilicatos más recientes de la historia de Marte".


FUENTE:
http://www.publico.es/ciencias/326474/hallados/restos/agua/liquida/reciente/marte


Dos mujeres, premios de Física por primera vez en 52 años


Dos mujeres hacen historia al incluirse entre los galardonados de los 'Premios de Física' este año. La Real Sociedad Española de la Física (RSEF) no había otorgado estos galardones hasta hoy a ninguna mujer desde su primera edición, hace 52 años.

Entre los diez premiados se encuentran las físicas Elvira Moya y María Amparo Tórtola, dos investigadoras de vanguardia que han desarrollado su carrera con 30 años de diferencia.

La RSEF y la Fundación BBVA entregarán esta tarde la máxima distinción de la sociedad a Elvira Moya por toda su trayectoria en el campo de la física nuclear. Tórtola, por su parte, es la joven promesa ganadora de la modalidad teórica y autora del artículo más citado de la comunidad española de física de partículas de los últimos cinco años.

'Ahora no se cuestiona la valía de una mujer si está en un puesto académico o investigador. Antes sí', asegura la profesora y científica Elvira Moya, una mujer atípica para su época que consiguió investigar en los centros más prestigiosos del mundo como el Instituto Tecnológico de Massachussets (MIT).



Física y sociedad
La primera mujer presidente de la RSEF en sus 107 años de historia, M. Rosario Heras, ha felicitado a las dos investigadoras y a sus compañeros varones por la 'excelente calidad' de la Física en España y ha reflexionado sobre el presente de la disciplina y la profesión en nuestro país.

'No sabemos transmitir a la sociedad las investigaciones físicas que se aplican en el día a día', analiza Heras. De ahí que, desde hace dos años, la Real Sociedad Española de Física otorga un premio de 'Física, Innovación y Teconología' que reconoce investigaciones aplicadas que impulsen la innovación tecnológica.

'Aunar universidad e industria no es tarea fácil', afirma el premiado Jose A. de Saja. Y continúa: 'La formación en las facultades de Física no contempla la carrera industrial como una alternativa a la académica'. Tanto Heras como Saja apuestan por convertir la investigación teórica en aplicaciones reales para acercar la física a la sociedad.


Aplicaciones
Todo es física a nuestro alrededor y los años de investigación de estos científicos se traducen en aplicaciones para sensores y alarmas, motores, ordenadores, plásticos espumados, aislantes térmicos y tratamientos médicos, entre muchas otras.

La física magnética es clave para la producción de energía, y la física nuclear 'tiene una mala fama por su aplicación bélica', lamenta Elvira Moya, también primera catedrática de física nuclear de España. Sus aplicaciones pacifistas son mucho mayor, como en la datación de fósiles y en el diagnóstico de cánceres. O en la 'controvertida' producción de energía. 'La civilización es demasiado infantil para entender y utilizar la energía nuclear', concluye.


FUENTE:
http://www.elmundo.es/elmundo/2010/07/06/ciencia/1278417620.html