9 oct. 2009

Parada Solar Informativa del IED


Se trata de la primera parada de bus solar informativa del territorio español totalmente autosuficiente, ya que usa sus propios recursos energéticos para abastecerse y no necesita cableado. Gracias a un diseño ligero, innovador y funcional, ofrece las máximas prestaciones optimizando el uso de los materiales, recursos y espacio. Estas son sus ventajas:

  • La PSI es un ejemplo de diseño sostenible, calidad, uso de las nuevas tecnologías y de eficiencia energética.
  • Los costes de instalación se reducen de 15.000 € a 3.000 €
  • La Entitat Metropolitana de Tranport (EMT) instala 100 paradas en el área metropolitana de Barcelona
Gerard Lorente, Rubén Oya, Erik Simons y Jaciel Reyes son los estudiantes del Istituto di Design de Barcelona que han desarrollado el proyecto, junto con la empresa Capmar SL y la EMT.

La PSI dispone también de un panel con la información de las líneas, una pantalla de papel digital que indica los tiempos de llegada y que se actualiza cada 30 segundos, un panel con información estática y un pulsador de luz nocturna.

El diseño se basa en una estructura de dos postes de hierro tubulares de sección cuadrada de 8×8cm, con una altura de 3,5m de alto y 67 cm de ancho. En la parte superior dispone de un panel fotovoltaico de 67×72cm. El sistema consume sólo 72 Vatios al día con una autonomía de 2 días y medio en caso de no obtener ninguna radiación solar.



¿Quien era Hipatia de Alejandría?

Fotografía del rodaje de "Agora" en la Biblioteca de Alejandría por Amenabar.


Nace: alrededor de 370 en Alejandría, Egipto
Muere: Marzo 415 en Alejandría, Egipto


Hipatia de Alejandría fue la primera mujer que hizo contribuciones sustanciales al desarrollo de las matemáticas.


Hipatia era hija del matemático y filósofo Teón de Alejandría y es casi seguro que estudió matemáticas bajo la guía e instrucción de su padre. Es notable que Hipatia haya llegado a ser directora de la escuela platónica de Alejandría hacia el 400 d. C. Allí impartía clases de matemáticas y filosofía, enseñado particular en particular la filosofía neoplatónica1. Hipatia basaba sus enseñanzas en las de Plotino, el fundador del Neoplatonismo, y de Iámblico, uno de los desarrolladores del Neoplatonismo alrededor del 300 d. C.


Plotino enseñaba que hay una realidad última que está más allá del alcance del pensamiento o del lenguaje. El objetivo de la vida era apuntar a esta última realidad, la cual nunca podía ser descrita con precisión. Plotino enfatizaba que las personas no tenían la capacidad mental para entender completamente la realidad última en sí misma ni tampoco las consecuencias de su existencia. Iámblico distinguía más niveles de realidad en una jerarquía de niveles por debajo de la realidad última. Había un nivel de realidad correspondiente a cada pensamiento distintivo de los que es capaz la mente humana. Hipatia enseñó estas ideas filosóficas con un énfasis científico mayor que los seguidores anteriores del Neoplatonismo. Todos los comentaristas la describen como una maestra carismática.


Hipatia llegó a simbolizar aprendizaje y ciencia, lo que los primeros cristianos identificaban con paganismo. Sin embargo, entre los alumnos a los que enseñó en Alejandría había muchos cristianos importantes. Uno de los más famosos es Sinesio de Cirerne, quien después sería obispo de Temópolis. Se conservan muchas de las cartas que Sinesio escribió a Hipatia y vemos a alguien que estaba lleno de admiración y respeto por las habilidades científicas y de aprendizaje de Hipatia.


En el 412, Cirilo (después San Cirilo) se convirtió en patriarca de Alejandría. Sin embargo, el prefecto romano de Alejandría era Orestes y ambos se convirtieron en acérrimos rivales políticos en la lucha por el control entre iglesia y estado. Hipatia era amiga de Orestes y esto, junto con los prejuicios contra sus posiciones filosóficas que eran consideradas paganas por los cristianos, hicieron que Hipatia se convirtiera en el punto central de las luchas entre cristianos y no-cristianos.


Hipatia, escribe Heath en:
... por su elocuencia y autoridad ... logró una influencia tal que la cristiandad se sintió amenazada ...


Algunos años después, de acuerdo con un reporte, Hipatia fue brutalmente asesinada por los monjes Nitrianos que eran una secta de seguidores fanáticos de Cirilo. Según otro relato (de Sócrates Escolástico), Hipatia fue asesinada por una muchedumbre alejandrina bajo el liderazgo de Pedro el Lector. Lo que definitivamente parece indisputable es que fue asesinada por cristianos que se sentían amenazados por su erudición, sabiduría y la profundidad de sus conocimientos científicos. Este acontecimiento parece ser un momento decisivo como se describe en:


Cualquiera que haya sido el motivo preciso del homicidio, la partida poco después de muchos estudiosos marcó en inició del declive de Alejandría como un importante centro de aprendizaje de la antigüedad.


No hay evidencia de que Hipatia haya hecho investigación original en matemáticas. Sin embargo, asistió a su padre, Teón de Alejandría, a escribir las once partes de su comentario al Almagest de Ptolomeo. También se cree que lo ayudó a producir una nueva versión de los Elementos de Euclides que se ha convertido en la base para todas las ediciones posteriores. Heath escribe sobre la edición de Teón e Hipatia de los Elementos:


... aunque hace solamente adiciones poco importantes al contenido de los 'Elementos', él se esforzó por eliminar las dificultades que podrían encontrar los estudiantes en el libro, como haría un editor moderno al revisar un libro de texto clásico para ser usado en las escuelas; y no han duda alguna de que su edición fue aprobada por sus alumnos en Alejandría, para quienes fue escrita, así como por griegos posteriores quienes la usaron casi exclusivamente...


Además del trabajo en conjunto con su padre, Suidas nos informa que Hipatia escribió comentarios sobre la Arithmetica de Diofanto, las Cónicas de Apolonio y sobre los trabajos astronómicos de Ptolomeo. El pasaje en Suidas no es muy claro y casi todos los historiadores dudan que Hipatia haya comentado otras obras de Ptolomeo aparte de los que escribió con su padre.


Toda la obra de Hipatia se ha perdido excepto por sus títulos y algunas referencias a ella. Sin embargo, no se conoce ningún trabajo puramente filosófico, solamente en matemáticas y astronomía. Basado en esta pequeña cantidad de evidencia, Deakin, arguye que Hiparia era una excelente recopiladora, editora y preservadora de obras matemáticas anteriores.


Como se mencionó arriba, existen algunas cartas de Sinesio a Hipatia. Estas piden su consejo sobre la construcción de un astrolabio y un hidroscopio.


Charles Kingsley (más conocido por su novela Los niños del agua, 1863) la hizo la heroina de una de sus novelas: Hipatia, o los últimos esfuerzos del paganismo en Alejandría. Como escribe Kramer en:


Trabajos como este han perpetuado la leyenda de que no era solamente una intelectual sino también bella, elocuente y modesta.


Artículo de: J J O'Connor y E F Robertson
MacTutor History of Mathematics Archive


Noticias Relacionadas:
Entrevista al astrofísico del IAC Antonio Mampaso, asesor científico de ‘Ágora’




Un tratamiento por Internet ayuda a dejar de fumar en un mes


Desarrollado por la Facultad de Psicología de la UNED, hace uso del correo electrónico y los mensajes a móviles como ayuda.

La Facultad de Psicología de la Universidad Nacional de Educación a Distancia (UNED) ha desarrollado en internet un programa de tratamiento gratuito de auto-ayuda para dejar de fumar en el plazo teórico mínimo de un mes, financiado por el Ministerio de Ciencia e Innovación como proyecto de I+D+i. Los interesados pueden acceder al programa, presentado hoy, que se complementa con comunicaciones a través del correo electrónico y mensajes de móvil.

Esta terapia de "asistencia psicológica on-line" (apsiol) se caracteriza por el anonimato del paciente, que no debe estar siguiendo ningún otro tratamiento para dejar la adicción, en un tratamiento y seguimiento individuales de cada uno de ellos y sin recurrir a fármacos. Una vez registrado, el programa evalúa la situación socio-demogáfica y personal del fumador por medio de un cuestionario, en que se pregunta la edad, el sexo, cuántos cigarrillos fuma y si consume otras sustancias adictivas y drogas, entre otros datos.

A la vista de las respuestas se aplica un tratamiento adecuado a sus circunstancias; si se considera oportuno, se recomendará que acuda a los servicios de la sanidad pública. Cada tratamiento está estructurado en cuatro módulos, que duran una semana cada uno de ellos, cuyos resultados se evaluarán para poder pasar de uno a otro y abandonar así el hábito progresivaente.

Habrá controles posteriores durante 18 meses para comprobar si el paciente ha vuelto a fumar; en caso de recaída, podrá seguir los módulos de nuevo. Los tratamientos consisten en indicaciones sobre cómo actuar cuando aparecen las ganas de fumar, cómo controlar la ansiedad y técnicas de relajación. El usuario podrá también calcular cuánto gasta en tabaco y cómo disminuye el consumo.

El profesor de Psicología e investigador Guillermo Mañanes ha destacado que se trata de un sistema automatizado, gratuito y de acceso libre, sin horarios ni desplazamientos, ni contactos "cara a cara", y es un programa "contrastado científicamente". Ha matizado, no obstante, que puede ayudar a mucha gente pero "no es un programa milagroso", así que uno mismo debe imponerse una disciplina y una responsabilidad.

En esta línea, el catedrático de Psicología Miguel Ángel Vallejo ha reiterado como "fundamental" la fuerza de voluntad, que el paciente quiera dejar de fumar, así que recibirá recordatorios para que efectúe los módulos y las evaluaciones.


FUENTE:


La realidad aumentada llega a la publicidad en prensa.


La primera necesidad de la publicidad es llamar la atención y ser vista. Sin eso, mal vamos. Por eso cada vez hay que exprimirse más el coco en dar un paso adelante y hacer que la audiencia se implique en el proceso. Primero fue la sencilla y efectiva vía de interacción basada en manipular el soporte (un anuncio publicado a revés apropósito, por ejemplo) y ahora esta disciplina tira de lo que se ha llamado realidad aumentada para hacer que el producto sea recordado y atractivo.

Técnicamente, la realidad aumentada consiste en la incorporación de elementos tecnológicos sobre lo que vemos y nos rodea sin sustituirlo (frente a lo que hace la realidad virtual, que copia o emula una realidad concreta). En este caso, se ha tratado de un anuncio publicado en un diario, en el cual se invitaba al lector entrar en la web del anunciante, conectar la webcam y apuntarla a una parte concreta de la publicación. Una vez hecho eso, el resultado resulta muy llamativo, ya que la impresión cobra vida y se traduce en una sencilla animación, como si de un GIF se tratase.

¿Magia? En absoluto. El sistema arranca con un software que interpreta una imagen codificada (la que se ha impreso en el periódico), que es la que da la orden de que salte la animación que se verá en la web del anunciante y en la que (y ahí sí está la magia de la publicidad) el lector está inmerso de lleno. En el vídeo de demostración, la redactora del periódico que sirve de modelo, mueve el periódico en varias direcciones para demostrar que la animación no permanece estática en un punto de la pantalla.

Esto es porque el propio software situa una imagen (la animación flash que acompaña al anuncio) en el marco que contiene la información responsable de que comience la rutina que percibimos como pieza publicitaria. Una idea aparentemente sencilla que se desarrolla con éxito si el lector hace caso a las instrucciones del anuncio (lo que le lleva a la web del cliente, finalidad última de toda la película).




FUENTE:

James Lovelock: Las renovables no son la alternativa


No hay vuelta atrás en el proceso de calentamiento global planetario, ya que "es como si hubiéramos puesto la pistola en la sien y apretado el gatillo". El británico James Lovelock, uno de los científicos más polémicos del siglo XX, pionero en el desarrollo de la conciencia medioambiental en el mundo, ha esbozado en Santiago de Compostela sus teorías, según las cuales el cambio climático es "irreversible"

Tras mostrar una visión "apocalíptica" del futuro que espera a la humanidad "si tengo razón, puede que sólo mil millones de personas, una sexta parte de la población, puedan sobrevivir a finales de este siglo", aseguró sin perder la sonrisa, insistió pese a todo en que "no es cuestión de sentirse culpable". "El ser humano no se ha puesto a destruir el planeta deliberadamente, ya que cuando empezó a hacer fuego no podía imaginar las consecuencias", añadió.

Creador de la controvertida teoría de Gaia, según la cual la tierra es un organismo vivo que se autorregula, Lovelock quiso dejar claro que el ser humano sólo es un elemento planetario, "un experimento de la evolución", que interactúa pero que no puede ser juzgado desde una perspectiva moral.

El científico británico hizo hincapié asimismo en la importancia de invertir más en energía nuclear y menos en renovables para que la humanidad pueda "sobrevivir". "No hay alternativa. Las energías renovables nunca generarán suficiente electricidad", sentenció Lovelock, que ha sido distinguido con el II Premio Fonseca de divulgación científica que concede la Universidad de Santiago.

Acompañado por su esposa, que asentía con la cabeza en un discreto segundo plano, Lovelock abogó además por que, en la cumbre del clima prevista para diciembre en Copenhague, los líderes mundiales adopten medidas para que "al menos la mitad del dinero y la energía se invierta en la adaptación a la supervivencia", en detrimento de las energías renovables, que para él son "un negocio beneficioso" para las empresas interesadas en "comerciar con CO2" y en obtener subvenciones de los gobiernos, "pero que no dan respuesta al problema".



Gyrowheel, la rueda tecnológica que acabará con las rueditas de aprendizaje


La mayor parte de los niños hemos aprendido a montar en bici gracias a esas ruedecitas auxiliares que se sujetaban a la rueda de atrás y nos ayudaban a ir aprendiendo a mantener el equilibrio sin dar con nuestros huesos en el suelo. Pues bién, aquellas rueditas pueden pasar a la historia gracias a Gyrowheel, una rueda de alta tecnología que se sostiene en vertical por sí sola.

El secreto de este mecanismo reside en el interior de la propia rueda, donde una serie de giroscopios alimentados por baterías ayudan a mantener la rueda en pie por pura física. El mecanismo tiene tres posiciones de velocidad para que el niño que la use pueda ir bajando la intensidad a medida que vaya aprendiendo a mantenerse por sí mismo. Las baterías de la rueda duran tres horas y se recargan conectandose a cualquier toma eléctrica. A continuación podeis ver un vídeo del invento en movimiento.

La empresa que ha diseñado esta rueda futurista empezará a comercializar las primeras ruedas, en tamaños de 12 y 16 pulgadas, en diciembre de este año a un precio que rondará los 100 dólares (unos 68 euros al cambio) cada rueda. Si todo va bién, en 2010 también comenzará a vender bicicletas completas con esta tecnología. Desde luego es un avance que evitará a muchos niños la verguenza de llevar rueditas pero también la satisfacción de quitarlas cuando ya has aprendido.







Científicos españoles fabrican un chip que detecta la "huella" metabólica de microbios


Aunque no se sepa lo que hay dentro de un tubo de ensayo, si lo que contiene está vivo se puede conocer su huella metabólica, las miles de reacciones bioquímicas de genes y enzimas en una célula o una comunidad de microbios.

Un nuevo chip, fruto de cinco años de trabajo de un equipo internacional liderado por el Consejo Superior de Investigaciones Científicas (CSIC) lo permite, según publica Science.

Los investigadores demostraron la utilidad del chip para analizar organismos cuyo genoma no se conoce reconstruyendo el metabolismo global de tres comunidades microbianas sacadas de un estanque volcánico ácido, de agua marina profunda muy salada y de agua marina contaminada por hidrocarburos.

La investigación ha sido dirigida por Manuel Ferrer, del Instituto de Catálisis (CSIC), y han colaborado científicos del Centro Nacional de Biotecnología (CSIC) y la Universidad de Oviedo, junto con laboratorios de Alemania, Italia y Reino Unido.

Ferrer explica las implicaciones del proyecto: "El chip nos permite reconstruir el atlas metabólico de cualquier tipo de célula e identificar cientos de enzimas, muchas de las cuales podrían ser indicadores de actividades biológicas desconocidas y con aplicaciones todavía por determinar".

El metabolismo es el conjunto de miles de reacciones bioquímicas interconectadas y procesos físico-químicos que ocurren en una célula o conjunto de células. Estos complejos procesos interrelacionados son la base de la vida a nivel molecular y permiten las diversas actividades de las células: crecer, reproducirse y mantener sus estructuras.

Dado que el chip puede analizar cualquier tipo de célula, sin necesidad de conocer su genoma, será de gran ayuda para futuras pruebas de diagnóstico y para el tratamiento de enfermedades, creen los científicos. El estudio abre también nuevas expectativas para el tratamiento de bacterias patógenas causantes de enfermedades infecciosas, así como para identificar alteraciones metabólicas causantes, por ejemplo, de cáncer.




8 oct. 2009

Unas líneas que cambiaron el mundo.


El código de barras, esa colección de líneas extendida por todo el mundo y que permite reconocer rápidamente un artículo, está estos días de aniversario. Hace 57 años, Joseph Woodland, Jordin Johanson y Bernard Silver lo idearon para reconocer automáticamente los vagones de tren.

Poco después comenzó su vida comercial y en los 80 las rayitas ya eran todo un éxito. Cambiaron la forma de relacionarnos con el mundo, ya que se utilizan no sólo en el comercio, sino también en la industria farmacéutica, los boletos de lotería, cheques, instituciones financieras... Un total de 1,3 millones de compañías de un centenar de países llevan los códigos de barras en sus productos, por lo que en cada segundo se llevan a cabo en todo el mundo 100.000 lecturas de un código de estos códigos. En la actualidad hay 130 millones de artículos codificados en los cinco continentes. Es tan popular que incluso se ha convertido en sí mismo en un logo y se repite como motivo decorativo o incluso en tatuajes. Incluso algunos han querido ver en él la marca de la bestia.

Para celebrar el aniversario, el popular buscador Google ha cambiado hoy su símbolo habitual por un montón de líneas negras.

El código de barras es en realidad un sistema muy sencillo. Está formado por barras y espacios que forman un sistema de código binario. Las barras tienen valor 1 y los espacios valor 0 que describen el producto. Lo imprimen los fabricantes en los envases, embalajes o etiquetas de los productos, generalmente en negro y blanco, aunque también existe en otros colores.

En cuanto a Google, no es la primera vez que cambia su logo. El buscador ha dedicado su símbolo en ocasiones especiales y por diversos motivos: aniversarios de personajes importantes como Picasso, para conmemorar acontecimientos como la llegada del hombre a la Luna o con motivo de los Juegos Olímpicos.



El mundo se prepara para observar el choque de dos naves en la Luna


Una nave espacial cruza el cielo nocturno como si fuera un meteorito, impacta contra la superficie de la Luna y explota. El choque genera una columna de desechos que se eleva varios kilómetros.

Cuatro minutos después, la escena se repite, como si se tratara de un espectáculo apocalíptico.Esto es lo ocurrirá el viernes, cuando la NASA provoque el caída y el choque de la sonda de detección y observación LCROSS contra nuestro satélite natural para comenzar a buscar agua en la Luna, un ambicioso proyecto que podría ser vital para el desarrollo de las próximas misiones espaciales y para el futuro de las migraciones humanas más allá de la Tierra. El objetivo es el cráter Cabeus, en el polo sur selenita. Primero golpeará el cohete Centaur y después la nave nodriza, la LCROSS. Para que nadie se pierda el espectáculo, la agencia espacial emitirá las imágenes en su web (13.30, hora penisular). La parte de la humanidad a la que le toque el show por la noche será más afortunada, ya que los aficionados podrán contemplar la nube de desperdicios con un telescopio medio. Si se tiene la oporturnidad, es aconsejable no perdérselo.


Primero, Centaur
El programa será como sigue. En el primer acto aparecerá en escena el cohete Centaur, transformándose en un flash brillante de luz y calor. El violento golpetazo levantará una polvareda de 10 kilómetros de altura. Muy cerca, la LCROSS fotografiará la colisión para la NASA TV y enviará los datos obtenidos a la Tierra. De inmediato, cruzará la nube de desperdicios y se empotrará ella misma contra el suelo. Antes, sus espectómetros deberán haber analizado la nube de partículas iluminada por el Sol, en busca de signos de agua (H2O), fragmentos de agua (H2), sales, arcillas, minerales hidratados y moléculas orgánicas mezcladas. «Si existe agua ahí, o cualquier otra cosa interesante, vamos a encontrarla», ha asegurado Tony Colaprete, responsable del proyecto en el centro de investigación Ames de la NASA en Moffett Field, California.


Luego llegará el segundo acto:
La caída de la LCROSS, de 700 kilos de peso, provocando otra nube de escombros, ésta más pequeña. El telescopio espacial Hubble, la sonda LRO y cientos de telescopios desde la Tierra apuntarán a la Luna en ese momento. «Esperamos que las nubes de desperdicios sean visibles a través de telescopios de tamaño mediano», ha explicado Brian Day, también del centro Ames. El Océano Pacíficio y la parte oeste de América del Norte serán las zonas privilegiadas para la observación, especialmente Hawaii y la costa del Pacífico.


En Cabeus
La NASA decidió cambiar el punto exacto donde impactará la sonda. En vez del cráter Cabeus A, escogido en un principio, la máquina se estrellará contra otro cráter situado en el polo sur selenita, denominado Cabeus, de 98 kilómetros de ancho, en el que las posibilidades de encontrar hielo parecen mayores. Los datos ofrecidos por la sonda de reconocimiento lunar LRO muestran en la zona «una gran cantidad de hidrógeno, las mayores concentraciones en el polo sur».

El espectáculo será seguido masivamente en Estados Unidos. Incluso la Casa Blanca preparará el viernes su propia «fiesta lunar», en la que astrónomos profesionales y aficionados desplegarán más de 20 telescopios. El evento coincide con el 400 aniversario del primer vistazo de Galileo a los cielos a través de un telescopio. Los expertos están inquietos por cómo saldrán las cosas. «Recuerden que nunca hemos hecho esto antes. No estamos 100% seguros de lo que ocurrirá y podremos tener sorpresas», ha indicado Day.



Disponibles JCR Science 2008


Ya os podeís descargar los indices de impacto JCR del 2008



Saludos
Ángel Alonso.

Científicos japoneses devuelven la movilidad de las extremidades a ratones con células madre humanas


El experimento logra reparar el tejido nervisoso y superar daños en la espina dorsal La técnica podría aplicarse en humanos dentro de cinco años.

Un equipo de científicos de la Universidad japonesa Keio, en Tokio, ha logrado mejorar con éxito los daños en la espina dorsal de ratones, permitiéndoles recuperar la movilidad de sus extremidades con la implantación de células madre humanas.

Esta es la primera vez que se consigue trasplantar con éxito a ratones células madre neuronales obtenidas a partir de células humanas, las cuales pueden dar origen a diferentes tejidos, aseguró el jefe del equipo investigador, Hideyuki Okano.

Okano espera que, si las pruebas son positivas, pueda aplicarse en seres humanos dentro de al menos cinco años.

A pesar de los daños que los roedores sufrían en el sistema nervioso central y que causaban la parálisis de sus extremidades, éstos pudieron recuperar la movilidad gracias a la implantación de estas células conocidas como iPS (Induced Pluripotent Stem Cells).

Anteriormente, el equipo del profesor Okano consiguió que células madre de ratones surtieran efecto en lesiones similares, pero esta es la primera vez que células madre de origen humano consiguen reparar el tejido nervioso de otra especie.

Cuatro semanas después de haberse aplicado el tratamiento, los roedores recuperaron la movilidad y fueron capaces de mantenerse sobre sus patas e incluso correr.

Las células utilizadas en la investigación provenían de piel humana y fueron implantadas en 29 ratones tras ser transformadas en células del sistema nervioso.

No obstante, el éxito de este innovador tratamiento no podrá ser totalmente confirmado hasta que pasen varios meses, ya que en este tipo de casos los ratones pueden desarrollar tumores aunque, tras mes y medio, los científicos no han detectado ningún brote.

Según el profesor Okano, si se confirma la viabilidad de esta técnica el próximo paso será su aplicación en pruebas de laboratorio con simios, para posteriormente iniciar los análisis en casos humanos.

Según Okano, el tratamiento con células madre iPS tiene un gran futuro en la medicina regenerativa, ya que permite la obtención de diversos tipos de tejidos y órganos. La técnica primigenia fue desarrollada por el profesor Shinya Yamanaka, de la Universidad de Kioto, destacado investigador en el campo de las células madre.


Estándares de libros electrónicos


Epub, un estándar libre, constituye una alternativa a los formatos propietarios de Amazon y Sony, entre otros.

Un lector de libros electrónicos es similar a un reproductor de música digital. Mientras el primero permite disfrutar de una obra escrita, el segundo deleita a los melómanos. Pero tanto en uno como en otro los contenidos se empaquetan en distintos formatos y, según cuál se aplique, la obra se podrá reproducir o no en un determinado aparato. En la música, el MP3 resiste como el estándar más popular, pero en el ámbito de la literatura electrónica varios sistemas se disputan la primacía, con Epub como el mejor situado por su carácter no propietario.

Los diferentes formatos de libros electrónicos intentan reproducir con fidelidad todos los aspectos que representa un libro tradicional (maquetación, pies de página, imágenes...). A la vez, deben trasladar la flexibilidad que supone el acceso desde aparatos tan diferentes como un "e-book reader", un ordenador tradicional o un teléfono móvil.

Igual que en otros ámbitos informáticos, los distribuidores de literatura electrónica pueden decantarse por formatos libres, que se utilizan sin restricción y se adaptan a cualquier dispositivo. Otra posibilidad es optar por su alternativa cerrada, que les abre la puerta para exigir una contraprestación económica a quien utilice esa tecnología en la creación de una determinada obra.


Epub
Epub es un estándar libre promovido por el International Digital Publishing Forum. La mayor parte de los lectores, tanto de hardware como de software, lo soportan (con excepciones como el Amazon Kindle). Es la actualización de un formato más antiguo denominado Open eBook (de extensión .opf). Desde un punto de vista técnico, consiste en un documento XML que se adapta a las características físicas de distintas pantallas y libros electrónicos y se comprime en un archivo ZIP para ocupar menos espacio.

Entre los promotores de este modelo se encuentra Google, que a través de su servicio Google Books ofrece los libros en descarga. Proyecto Gutenberg, que digitaliza libros que han pasado a dominio público, también los ofrece desde marzo en este formato, aunque de modo experimental.

Mobipocket
Mobipocket es un formato creado en un principio para el programa homónimo Mobipocket Reader, con extensión ".mobi" o ".prc". Se diseñó tanto para libros electrónicos como para dispositivos móviles (PDA o teléfonos) y para el sistema operativo Windows. Amazon, la librería más popular de la Red, compró a la empresa que lo creó en 2005 y se ha basado en éste para desarrollar el AZW característico de sus lectores Kindle.

La diferencia fundamental entre ambos estriba en que el AZW incorpora un sistema de gestión de derechos de autor para evitar su copia posterior. Antes que una tienda de aparatos lectores, Amazon es una librería y le interesa capitalizar al máximo este mercado, por lo que siempre optará por un formato propietario que obligue a quienes tengan Kindle a comprar en Amazon sus libros electrónicos.

Plucker
Otro formato veterano es Plucker. Consiste en un lenguaje HTML, pero con todos los elementos necesarios para la visualización unidos en un archivo, a diferencia de la Web. A partir de esta idea, Microsoft desarrolló otro formato denominado LIT, que incluye gestión de derechos de autor y que se lee en su programa Microsoft Reader. Una de sus bazas es el uso de la tecnología de pantalla ClearType para una mejor visualización de los caracteres en las pantallas planas.

Entre otros estándares disponibles en el mercado, también destacan: TomeRaider, cuyo programa homónimo se encuentra extendido en muchas plataformas móviles distintas y que cuenta con unos 4.000 libros, muchos de los cuales no se han pasado a otros formatos; eReader, el elegido por la librería Barnes/Nobles para distribuir en digital sus libros; o LRF, el propietario de Sony que caracteriza a sus lectores.

PDF
Algunos formatos con más funciones también sirven para mostrar literatura electrónica, como el PDF, muy popular en la Red para asegurar una impresión idéntica de un documento sin preocuparse del sistema operativo o del navegador que se utilice. Esta característica, en cambio, le quita flexibilidad para adaptarse a pantallas de diferentes tamaños. Para permitir esta opción, Adobe facilita al autor, en las últimas ediciones de su programa de creación de PDF, que fije un ancho variable del documento si desea.

El Proyecto Gutenberg también proporciona libros en HTML, el lenguaje de las páginas web que permite leerlos a través de cualquier navegador, o en formato de texto (.txt), el más básico pero que garantiza su lectura en cualquier dispositivo electrónico y ocupará menos espacio porque no se define ningún estilo tipográfico.


Herramientas para convertir formatos

Si se adquiere una obra que se haya publicado en un formato distinto a los soportados por el lector de libros electrónicos del usuario, o el software de lectura, se debe recurrir a los programas de conversión. Calibre convierte documentos a gran cantidad de formatos. Es un software de código libre y disponible en los sistemas operativos más populares.

También se pueden usar aplicaciones específicas como ABC Amber LIT Converter, un programa gratuito que traslada los archivos LIT de Microsoft a PDF, HTML o el .doc de Microsoft Word entre otros. ConvertLIT transforma los archivos LIT en HTML, mientras que muchas aplicaciones de creación de libros electrónicos permiten guardar en diversos formatos e importar los contenidos desde otros como PDF.



Los televisores 3D llegarán en 2010


Los espectadores que asistieron, en 1953, a los primeros estrenos comerciales de cine 3D tuvieron una sensación sorprendente. En películas como Bwana Devil o Los crímenes del museo de cera vieron imágenes en movimiento que se salían de la pantalla convencional. La tecnología se ha abaratado mucho desde entonces, y los fabricantes de equipos y estudios de cine han decidido que ha llegado el momento de dar el salto de las salas de proyección al salón. La feria Ceatec, que se está celebrando esta semana en Tokio, es el escenario escogido para presentar los prototipos de unos televisores que, según los fabricantes, cambiarán la manera en la que se produce y se ve la televisión.

Sony y Panasonic, las dos compañías que están apostando más fuerte por los contenidos y soportes 3D, planean lanzar sus primeros televisores en 2010. El primero ha presentado en Ceatec un modelo 3D que se incorporará a su gama Bravia, mientras que Panasonic ha mostrado un televisor 3D de 50 pulgadas. Pero también hay otros fabricantes implicados que están a la espera de comprobar la demanda de los consumidores. Hitachi, Sharp o Philips están preparados para realizar sus lanzamientos, pero Sony y Panasonic se han adelantado porque tienen otros intereses: la creación de soportes y equipos 3D. Sony, fabricante de la consola PlayStation 3 y de los discos Blu-ray, prevé un futuro de videojuegos 3D. Por su parte, Panasonic tiene un acuerdo con Twentieth Century Fox y Lightstorm Entertainment para Avatar, para la promoción de la película en 3D de James Cameron que se estrenará en diciembre.


Dos canales
La grabación 3D de estas imágenes requiere de dos filmaciones, una para el ojo derecho y otra para el izquierdo. La versión avanzada del actual Blu-ray, en la que se distribuirán las películas grabadas con esa técnica, emite las imágenes en dos canales separados que tanto el lector como el televisor están preparados para interpretar. Las gafas completan el efecto 3D.

Los contenidos 3D requieren también de un estándar HDMI capaz de transmitir imágenes tridimensionales. El formato, bautizado como 3D Full HD, tiene detrás a la Asociación Blu-ray, con más de 200 miembros, incluidas compañías tecnológicas y productoras de cine.

El despegue definitivo de esta tecnología en el hogar depende de la disponibilidad de contenidos 3D. El apoyo de los estudios de cine con Columbia Tristar, propiedad de Sony, a la cabeza, es fundamental. "Los televisores se venderán porque están preparados no sólo para reproducir contenidos 3D sino también imágenes convencionales en 2D", destaca Jordi Rincón, jefe de producto de las televisiones Viera de Panasonic. Rincón también puntualiza que el precio, tanto del televisor como del lector Blu-ray, será decisivo, aunque ni Panasonic ni Sony han ofrecido aún cifras.

La utilización de gafas para ver esos contenidos es uno de los escollos más importantes para el espectador. Tanto la apuesta de Sony como la de Panasonic requieren de este accesorio y, aunque el sistema no es precisamente el más cómodo, los fabricantes insisten en que, por ahora, es la única forma de lograr la sensación inmersiva que se busca con este tipo de imágenes.


Un formato que requerirá cambiar la TV y el reproductor

¿Las películas en 3D se podrán ver con cualquier reproductor?
No. Para este tipo de contenidos los fabricantes están apostando por los discos en formato Blu-ray, lo que requiere de un reproductor capaz de leer este formato. Ya se comercializan lectores de este tipo, pero la incorporación de los contenidos 3D necesita de un reproductor Blu-ray preparado, capaz de interpretar las dos imágenes.

¿Será compatible con contenidos en alta definición?
Imágenes en 3D y alta definición son dos conceptos que van unidos. Los fabricantes implicados en el desarrollo de estos sistemas trabajan en la estandarización de un formato denominado 3D Full HD.

¿Podrán las cadenas españolas emitir en 3D?
La emisión de contenidos 3D, al tratarse de alta definición, emplearía dos de los cuatro canales que tendrán asignados los operadores de TDT, debido a que ‘pesan’ más porque su calidad es mayor . Esto las obligaría a renunciar a alguno de los que emplean ahora, con la consiguiente pérdida de publicidad.

¿Servirá cualquier televisor?
Los fabricantes están recomendando televisores de plasma especialmente diseñados para este tipo de contenidos, aunque las pantallas LCD especiales para 3D también pueden reproducirlos. La diferencia entre unas y otras está en la velocidad de refresco de la imagen, que es mayor en el caso de los televisores de plasma. Las imágenes 3D requieren de un televisor con una frecuencia de refresco de al menos 100 hercios a una resolución de 1.920 x 1.080 píxeles para poder reproducir las tomas más rápidas a un ritmo adecuado.

¿Se podrán ver los contenidos sin gafas?
Algunos fabricantes están experimentando con pantallas 3D que no necesitan gafas, pero los contenidos tienen que adaptarse a un software para ese monitor. Las gafas son imprescindibles con los televisores que se lanzarán en 2010.



La NASA descubre un anillo gigante en Saturno


El telescopio Spitzer de la NASA ha descubierto un anillo gigante, compuesto de partículas de polvo y hielo alrededor de Saturno. En su parte más cercana se encuentra a 6 millones de kilómetros del planeta y se extiende hasta una distancia de unos 12 millones. Febe, una de las lunas más lejanas de Saturno, orbita dentro de este anillo y, según la NASA podría ser la fuente del material que lo compone, como consecuencia del impacto de cometas sobre su superficie.

El nuevo halo de Saturno es ancho y su altura es 20 veces mayor que el diámetro del planeta. Según los investigadores, podría dar cabida a mil millones de tierras. El Spitzer consiguió detectar el brillo del polvo frío gracias a su telescopio infrarrojo. Lanzado en 2003, este observatorio espacial se halla en la actualidad a 107 millones de kilómetros de la Tierra orbitando alrededor del sol.

Hasta ahora, el mayor anillo de este planeta -y también del Sistema Solar- era el denominado 'E' (los anillos de Saturno están clasificados alfabéticamente según el orden en que fueron descubiertos), que rodea al planeta a una distancia de 240.000 kilómetros.

El hallazgo de este nuevo anillo también es importantes porque puede ayudar a explicar Cassini Regio, la misteriosa región oscura que cubre parte de Jápeto, otra de las lunas de Saturno, y cuyo material es desconocido. "Los científicos sospechaban que había una conexión entre Febe y el oscuro material de Jápeto", afirma Douglas Hamilton de la Universidad de Maryland, "este hallazgo prueba esta relación".

El nuevo anillo circula en la misma dirección que Febe, mientras que Jápeto, como la mayoría de lunas y anillos de Saturno, lo hace en dirección contraria. De acuerdo con científicos de la Agencia Espacial norteamericana, parte del materia procedente de diferentes anillos rebota contra la superficie de Jápeto, golpeando la superficie del planeta "como mosquitos en un parabrisas".

A pesar de su gran tamaño, el anillo 'supergigante' es prácticamente indetectable con telescopios de luz visible, y por eso ha tardado tanto tiempo en descubrirse. El motivo es que las partículas que lo componen se encuentran muy separadas, con grandes distancias entre ellas.

"Las partículas se encuentran tan separadas que si te encontraras dentro del anillo, ni siquiera te darías cuenta de su existencia", asegura Anne Verbiscer, una astrónoma de la Universidad de Virginia que ha participado en la investigación.



Infinite Book, un concepto para un ePeriódico


Aún no hemos tenido tiempo de acostumbrarnos a las tecnologías asociadas a la tinta electrónica (o e-Ink), tales como los libros electrónicos o sus variables con funciones cromáticas, y ya nos empiezan a mostrar conceptos de versiones avanzadas de los principios con los que han sido posibles los eBooks. Sorprendidos nos hemos quedado con esta idea, que ni siquiera llega a ser un prototipo, llamado Infinite Book. A pesar de su nombre, no nos equivoquemos: no estamos ante un nuevo modelo de libro electrónico, sino ante lo que podría llegar a ser un periódico electrónico en soporte físico.

En algunos lugares, el Infinite Book ya ha sido bautizado como el periódico de goma, y no es para menos. Este singular proyecto de dispositivo podría estar fabricado en un material flexible que le llegaría a conferir un aspecto plástico con vistas a facilitar su manipulación. La idea de crear un artefacto como Infinite Book sería no desterrar las costumbres vinculadas a la lectura de prensa, de forma que los contenidos de la edición digital de un periódico (entendida como la versión consultable por internet), podrían leerse en este soporte.

Además, y con el objetivo de precisamente no abandonar el hábito de hojear el diario, el Infinite Book incorporaría un diseño que emularía el pasar de páginas, tal y como lo hacemos habitualmente al echar un vistazo a la actualidad entre las líneas de un periódico. Por lo demás, este concepto se vale de un aspecto atractivo y muy futurista para hacer que el curioso se interese aún más por lo que puede dar de sí el Infinite Book, que podría hacer uso de él mediante una interfaz táctil acompañada de botones de navegación.

De posibles fechas de producción, o del interés que algún fabricante habría demostrado por la idea, no sabemos absolutamente nada. Desde luego, el camino de hacer un dispositivo llamativo ya lo han recorrido. Ahora faltaría lo más importante: contenidos y producción.



7 oct. 2009

Las emisiones de CO2 podrían cerrar 2009 con la mayor caída en 40 años.


Las emisiones de de dióxido de carbono (CO2) se podrían reducir este año hasta en un 3% este año. Las causas se derivan en un 75% por la crisis económica y en un 25% por los esfuerzos de los países por recortar sus emisiones, señala un estudio de la Agencia Internacional de la Energía.

La caída supone la mayor en 40 años, según ha avanzado el director del organismo, Faith Birol, y rompe la media de aumento del 3% que se ha venido registrando en los últimos años.

"Al reducir las emisiones, la crisis económica y financiera ha creado una oportunidad para la transición del sistema energético mundial. Es una ocasión única pero hay que actuar ahora", coincide el más alto responsable de cuestiones climáticas en la ONU, Yvo de Boer, en un prólogo al informe de la AIE.
La energía, que representa dos tercios de las emisiones globales de gases de efecto invernadero, es "el núcleo del problema y por lo tanto debe ser clave en la solución", afirma la AIE.

Frenar el aumento de temperaturas La organización presentó un escenario que permitiría limitar la concentración de gas de efecto invernadero en la atmósfera a 450 ppm (partes por millón), lo que según los científicos, permitirá limitar el alza de la temperatura mundial a + 2 grados.

"Sin tratar de recetar una solución ideal en las negociaciones, refleja un conjunto de compromisos y de políticas plausibles que podrían ser válidas", explica el texto.

La caída de las emisiones que se espera en 2009 debido a la crisis significa que "es menos difícil de alcanzar el objetivo de 450 ppm este año, que lo que lo era el año pasado", explica Birol.

La caída de las emisiones que se espera en 2009 debido a la crisis significa que "es menos difícil de alcanzar el objetivo de 450 ppm este año, que lo que lo era el año pasado", explica Birol.



UPnPGrid, transmisión de archivos sin necesidad de internet


Compartir todo tipo de archivos (vídeo, audio, fotografías, archivos de texto…) entre equipos informáticos sin la necesidad de una conexión a internet. Esta es la filosofía de trabajo de UPnPGrid, una nueva tecnología desarrollada por un grupo de investigadores españoles que pretende echar un pulso en toda regla a la todopoderosa red de redes.

Sin lugar a dudas, esta propuesta habrá hecho salivar la insaciable voracidad de las operadoras de telefonía, que podrían desplegarla en su futuro no muy lejano esta nueva aplicación informática en su listado de servicios. De hecho, Telefónica I+D aparece como uno de los colaboradores de este nuevo software, desarrollado por el Grupo de Ingeniería Ontológica de la Facultad de Informática de la Universidad Politécnica de Madrid. ¿Casualidad?

Según señalan sus creadores en un comunicado de prensa, esta nueva herramienta supera alguna de las limitaciones inherentes a las ya tradicionales transmisiones por internet (gestión de derechos de autor o privacidad, entre otras), ya que permite a una persona, por ejemplo, enviar una fotografía familiar desde su casa y que aparezca instantáneamente en el televisor de otros familiares o amigos. Todo ello, independientemente del lugar geográfico de ubicación de sus respectivos hogares, a través de la línea telefónica, y con total privacidad, ya que el archivo sólo será visible para las personas a las que se transmita el paquete de datos en cuestión.

El UPnPGrid, que se gestiona con total sencillez desde un ordenador a través de una arquitectura de software abierta, comenzó a fraguarse en el mes de enero de 2008. Un proceso de desarrollo e investigación que culminará, apuntan sus responsables, en el mes de junio del próximo año. De hecho, su fase de pruebas (situación actual del proyecto) ha terminado con éxito varios test que han demostrado la viabilidad técnica de esta herramienta, a la que se agregarán una vez finalizada nuevas funciones.






Maravillosa luz.


Durante el año 2010 se va a celebrar oficialmente el 50 aniversario de la construcción del primer láser. Para muchos, la celebración ya ha empezado al cumplirse medio siglo del descubrimiento paulatino de los ingredientes necesarios.

Inicialmente el láser parecía ser lo que algunos llaman "una solución perfecta en busca de un problema". En estos 50 años el escenario ha cambiado completamente: la luz láser se ha establecido como una de las herramientas tecnológicas de uso más universal en todo tipo de sectores.

Charles Townes, Nikolay Basov y Alexander Prokhorov compartieron el Premio Nobel de Física en 1964 por sus contribuciones al láser. Townes y su cuñado Arthur Schawlow, quien fue galardonado también con un premio Nobel en 1981, habían abierto la senda con la invención del máser, dispositivo idéntico al láser pero que emite microondas en lugar de luz. Theodore Maiman construyó el primer láser en los Hughes Research Labs de Malibú que empezó a funcionar el16 de Mayo de 1960. La historia, larga y, a ratos, desafortunada, incluye también a Gordon Gould y sus largas disputas legales respecto a la invención de láser y a las correspondientes patentes.

La palabra láser es el acrónimo de "Light Amplification by Stimulated Emission of Radiation" (amplificación de luz mediante emisión estimulada de radiación), un fenómeno revolucionario que ya intuyó Albert Einstein en 1917 y que produce una luz muy especial: La luz láser puede ser extremadamente pura (contiene únicamente una frecuencia o color), totalmente coherente (todas los fotones que forman el haz de luz actúan en sincronía, como los interpretes de una orquesta), y altamente directiva (el haz de luz se propaga en una dirección muy bien determinada).

Actualmente, la luz láser se usa para cortar, pegar, soldar, agujerear, fundir, pulir, marcar, etiquetar, imprimir, borrar o moldear piezas industriales; para detectar y analizar sustancias químicas, contaminación o humedad; para corregir la miopía, eliminar pecas, vello o tatuajes en la piel; para diagnosticar y tratar un número creciente de enfermedades; y un interminable etcétera. Sus aplicaciones afectan directamente a la vida cotidiana: Internet, los CDs, las impresoras, las consultas médicas y los hospitales, incluso algunos rayos de luz de los conciertos. No obstante, mirando al futuro, lo más importante es que la luz láser constituye una de las herramientas más poderosas de la que disponen los científicos para avanzar la frontera de lo conocido. Así pues, lo mejor está todavía por llegar.



Las fronteras que tienen a la luz láser como herramienta de progreso son numerosas:

Nanopinzas ultradelicadas: A escalas de la millonésima o milmillonésima fracción de un metro, la luz tiene la capacidad de ejercer fuerzas extremadamente delicadas. Gracias a esta propiedad, se pueden construir pinzas ópticas, unos sistemas que utilizan la luz láser para atrapar y manejar objetos minúsculos, como células o partes de células, vivas, sin dañarlas.

Nanoantenas ultrapequeñas: Una nanoantena mide tan solo unas decenas de nanómetros y es capaz de captar luz emitida por moléculas individuales. Estos diminutos objetos permiten visualizar moléculas una a una. Asimismo, la capacidad de orientar la emisión de luz en una dirección concreta se usa para convertir moléculas en fuentes de luz ultrapequeñas.

Comunicaciones ultraseguras: Por medio de dispositivos de comunicaciones cuánticas basados en última instancia en luz láser se pueden obtener canales de comunicaciones ultraseguras. Uno de los proyectos más fascinantes en este campo, financiado por la Agencia Europea del Espacio, busca comunicar la Estación Espacial Internacional y estaciones en tierra. España participa en él de manera muy destacada, tanto desde en punto de vista académico como industrial.

Temperaturas ultrafrías: Es conocido que la luz láser sirve para quemar y para calentar. Es menos conocido que también es una de las herramientas necesarias para todo lo contrario: Enfriar hasta las temperaturas más bajas del Universo, tan solo unas millonésimas por encima del cero absoluto.

Detectores ultrasensibles: La luz láser se usa en nanosensores que permiten detectar la presencia de sustancias en cantidades extremadamente pequeñas. Detectar varias sustancias a la vez, identificar moléculas y llevar a cabo multianálisis rápidos son algunos de los puntos clave de esta tecnología que revolucionará la detección de enfermedades en estadios muy incipientes.

Sensores ultrarresistentes: La luz láser se usa en sensores de propiedades ambientales en entornos extremadamente hostiles, tales como incendios, tormentas eléctricas, tempestades o inundaciones. Se pueden medir temperaturas extremas, presencia de humo, fugas de sustancias tóxicas o explosivas, presiones o torsiones muy elevadas, en condiciones ambientales que serían demasiado adversas para otras tecnologías.


La lista continúa con las fronteras de lo ultraintenso, ultrarrápido, ultrapreciso, extremadamente poco invasivo y un largo etcétera.

Charles Townes, que sigue activo a sus 94 años en la Universidad de California en Berkeley, insiste con pasión en que la historia del láser es el ejemplo típico del proceso, a veces contra-intuitivo, que siguen muchos de los grandes descubrimientos científicos. Para obtener una nueva fuente de luz, el camino adecuado para algunos hubiera sido encargar el trabajo a un experto en bombillas, jamás a un tipo que se dedicaba a una cosa tan poco sexy y sin aparente relación como la llamada "espectroscopía molecular de microondas". Un ejemplo paradigmático del papel clave que desempeña la investigación de frontera en el progreso técnico y económico de la Humanidad, asunto en el que el camino más corto raramente resulta ser el bueno.

Lluis Torner es director del ICFO-Instituto de Ciencias Fotónicas



La investigadora del CSIC Ángela Nieto, miembro de la Academia Europea.


La investigadora del Consejo Superior de Investigaciones Científicas (CSIC) Ángela Nieto se ha incorporado a la Academia Europaea, una institución que promueve el aprendizaje, la educación y la investigación en Europa y que reúne a destacados investigadores del continente, entre ellos, 38 galardonados con el Premio Nobel.

Para ingresar en esta organización, compuesta por 2.000 miembros, es precisa una invitación formal del Comité de la Academia, después de una nominación y el estudio de la carrera y logros del investigador. Con su ingreso, Nieto eleva a 60 el número de investigadores españoles que integran la academia y compartirá membresía con Luis Oro, Margarita Sala, Antonio García-Bellido, Francisco Rubio-Llorente, Jesús Mosterín y Carlos Martínez, entre otros.

Angela Nieto (Madrid, 1960) se doctoró en Ciencias por la Universidad Autónoma de Madrid en 1987 por su trabajo en interacciones de proteínas con ácidos nucleicos realizado en el Centro de Biología Molecular Severo Ochoa (centro mixto del CSIC y la Universidad Autónoma de Madrid). Tras una estancia postdoctoral en el Instituto de Investigaciones Biomédicas de Madrid (CSIC-UAM), se trasladó al National Institute for Medical Research, en Londres, donde caracterizó genes importantes en el desarrollo del sistema nervioso de los vertebrados.

En 1993 regresó a España a dirigir un grupo de investigación en el Instituto Cajal del CSIC, en Madrid y, en 2004, se trasladó con su equipo de investigación al Instituto de Neurociencias (CSIC-UMH) en Alicante. Su principal contribución ha sido el aislamiento y caracterización de la familia génica Snail, fundamental para la de distintos tejidos en el embrión y cuya activación aberrante en el adulto da lugar a distintas patologías, incluyendo la progresión del cáncer, la fibrosis y defectos en el crecimiento y la mineralización de los huesos.

Su carrera ha sido merecedora, entre otros galardones, del Premio de la Fundación Carmen y Severo Ochoa (2004), del Premio Fundacion Francisco Cobos a la Investigación Biomédica (2005), del Premio Alberto Sols a la mejor labor investigadora en Ciencias de la Salud (2007) y más recientemente, del Premio Rey Jaime I de Investigación Básica (2009). Nieto es, además, miembro electo de la European Molecular Biology Organization (EMBO) y del Board of Directors de la Sociedad Internacional de Diferenciación.



FUENTE:
http://www.csic.es/noticia.do?objectid=0902bf8a80134d3c



El Instituto Fraunhofer también propone un sistema de 3D


La reproducción de contenido en 3D sin necesidad de usar gafas especiales para visualizarlo es uno de los terrenos en los que todavía queda mucho trecho por recorrer. Hemos visto como 3M proponía una solución para los móviles y el instituto Fraunhofer hace lo propio con el Free2C kiosk.

Evidentemente, las fotos no pueden hacer justicia al resultado, pero según parece estos son espectaculares para no usar gafas. Eso sí, la cosa tiene un pequeño truco y no es otro que solo un usuario puede percibir el efecto 3D al mismo tiempo, ya que utiliza una cámara para detectar los ojos de quien está delante.

De este modo, es capaz de calcular como se deben mostrar las imágenes para crear la sensación de profundidad. A cambio, esta misma cámara le sirve para poder controlar la pantalla mediante gestos, de modo que podemos mover la imagen, rotarla,... simplemente moviendo un dedo frente a la pantalla.

Como hemos dicho, aún le queda un buen recorrido a este tipo de tecnologías, pero desde luego resulta interesante que los fabricantes trabajen en ellas y esperamos poder disponer del 3D en nuestros dispositivos en un futuro no demasiado lejano.



Ciencia e Innovación destina 50 millones de Euros del PlanE a 22 Campus españoles.


Esta iniciativa permitirá a las universidades especializarse en determinadas áreas de investigación y transferencia. Se han seleccionado 22 Campus que combinan las capacidades de más de una universidad, 28 en total, además de centros públicos y privados de investigación y empresas.

El Ministerio de Ciencia e Innovación va a destinar, después de que el pasado jueves se resolviera la primera convocatoria Campus de Excelencia Internacional, 50 millones de euros entre 22 Campus, en los que participan 28 universidades, después de que éstos recibieran la distinción Campus Excelente en Investigación y Transferencia, en determinadas áreas científico tecnológicas.

Se han seleccionado 22 Campus que combinan las capacidades de más de una universidad (28 en total), centros públicos y privados de investigación y, empresas. Todas ellas proponen actuaciones singulares para incrementar significativamente sus capacidades científicas y tecnológicas. Asimismo, estos 22 Campus proceden de áreas de investigación diferentes y en muchos casos complementarias.

Campus de Excelencia Internacional es una convocatoria conjunta entre el Ministerio de Educación y el Ministerio de Ciencia e Innovación. Las ayudas se otorgan a través de dos subprogramas: El subprograma para el Desarrollo y Concreción de un Plan Estratégico (3 millones de euros en subvenciones y 150 millones en créditos), del Ministerio de Educación, y el Subprograma de I+D+i y Transferencia (50 millones de euros en subvenciones procedentes del fondo especial del Estado para el Estímulo de la Economía y el Empleo, PlanE), del Ministerio de Ciencia e Innovación. Una Comisión Técnica con representación de ambos ministerios, ha sido la encargada de esta primera fase de selección de proyectos.

Concretamente, al Subprograma de I+D+i y Transferencia gestionado por el Ministerio de Ciencia e Innovación, se han presentado 44 proyectos, representando a 46 universidades, por lo que aproximadamente el 60% de las presentadas van a poder disfrutar de subvenciones para mejorar sustancialmente sus actuaciones en investigación y transferencia de tecnología. Estas capacidades son estratégicas para desarrollar a medio plazo un Campus de Excelencia Internacional.

Según las bases de la convocatoria Campus, sólo son candidatas para recibir la subvención del Ministerio de Ciencia e Innovación, aquellas que previamente han pasado la primera fase, y que por lo tanto hayan sido seleccionas por el comité, como candidatas a Campus de Excelencia Internacional, o que explícitamente, hayan recibido una mención de calidad.Los 15 proyectos seleccionados para convertirse en Campus de Excelencia Internacional, presentaron su candidatura para los dos subprogramas, por lo que, en función de lo que señala la convocatoria, esas 15 han recibido financiación además de por el Ministerio de Educación, por el Ministerio de Ciencia e Innovación, por sus respectivos subprogramas. Además, tras evaluar el resto de propuestas, el comité ha seleccionado otros 7 Campus, hasta alcanzar los 22 que van a recibir subvenciones por parte de Ciencia e Innovación y puedan de este modo especializarse en determinadas áreas de investigación, y transferencia.

El subprograma I+D+i y Transferencia, pretende conseguir fraguar alianzas estratégicas entre las propias universidades y empresas, organismos, institutos y centros de investigación, hospitales, centros tecnológicos y otras instituciones. La relación de entidades que plantean asociarse con las universidades en esta estrategia de incrementos de la calidad científica y tecnológica es muy extensa y reúne a los actores principales en la I+D nacional, incluyendo a muchas de las empresas más importantes del país.

El programa Campus de Excelencia Internacional pretende ayudar a nuestras universidades españolas a situarse, en el horizonte 2015, entre las mejores de Europa y promover su reconocimiento internacional.

PROYECTOS SELECCIONADOS POR CCAA PARA EL SUBPROGRAMA DE I+D+i y TRANSFERENCIA:
http://web.micinn.es/01_Portada/01-Ministerio/031Prensa/00@Prensa/051009.pdf






6 oct. 2009

Bluenergy solarwind, generación conjunta de energía eólica y fotovoltaica.


Lo último que podemos emplear en nuestro hogar es Bluenergy SolarWind, un generador eólico recubierto de placas solares. Es decir, obtiene energía por partida doble. Una gran idea si el clima de tu ciudad es muy cambiante.

Otras ventajas son que es silencioso, absorbe luz desde cualquier ángulo y no supone una amenaza para los pájaros (lo sentimos por quienes detesten a las palomas, Bluenergy Solar Wind no es la solución). Lo puedes colocar en tu terraza o balcón o bien en el tejado.




Impulso a la red de fibra por parte de un proyecto comunitario


El Instituto Nacional Tyndall del University College de Cork ha realizado una demostración de la red de fibra más avanzada del mundo, según se anunció recientemente. Este avance se logró mediante el proyecto PIEMAN («Red de acceso y metropolitana extendida, integrada y fotónica»), financiado con 2,2 millones de euros mediante el área temática «Tecnologías de la Sociedad de la Información» (TSI) perteneciente al Sexto Programa Marco (6PM) de la UE.

El Ministro de Ciencia, Tecnología e Innovación, Conor Lenihan, hizo unas declaraciones a Tech Central en referencia al proyecto: «Los proyectos vanguardistas como PIEMAN fomentan el desarrollo de la próxima generación de redes, herramientas clave de la "Economía Inteligente" del futuro.»

El Sr. Lenihan indicó que Irlanda precisa de una red de comunicación sólida, fiable y dinámica que haga posible la Economía Inteligente. «Los nuevos e interesantes avances demostrados en el Instituto Nacional Tyndall confirman que podemos lograr una masa crítica de innovación que nos permita competir en el mercado global de las telecomunicaciones», declaró el ministro a Tech Central. «Este proyecto también demuestra claramente los importantes beneficios que obtienen Irlanda y su comunidad científica gracias a su participación en Europa.»

El político irlandés señaló que este adelanto posee una gran relevancia por lo que se refiere a los programas comunitarios de investigación y puede impulsar el desarrollo empresarial en Irlanda.

Por su parte, el profesor Paul Towsend del «Centro de Investigación Fotónica de Tyndall» declaró que: «Las redes de acceso de fibra óptica de alta capacidad se muestran cada vez más como la mejor solución para ofrecer en un futuro servicios de banda ancha a particulares y empresas. Mediante el proyecto PIEMAN hemos ampliado los límites del diseño de redes de acceso para crear un nuevo tipo de red de alta velocidad a gran escala que ofrece ventajas significativas si se compara con los métodos actualmente en uso.»

Según el profesor Towsend, entre los planes del equipo de investigación se encuentra la ampliación de la red para que pase de los veinte kilómetros actuales hasta alcanzar los cien. «El nuevo sistema evita tener que instalar gran parte de los repetidores e interruptores electrónicos utilizados en las redes actuales. En consecuencia, la gestión de estas nuevas redes podría ser mucho más simple y fácil, con lo que se lograría reducir los costes de explotación y de equipo.»

Chris Clark, Director General de BT Irlanda, filial del Grupo BT (Reino Unido), afirmó que esta moderna red puede superar a las redes de acceso de fibra óptica actualmente en el mercado.

«Además de abarcar más espacio, el método multiplica por diez tanto la cantidad de usuarios que pueden conectarse como la amplitud de banda disponible en comparación con las soluciones existentes», según declaraciones del Sr. Clark. «También utiliza distintos colores de luz que permiten compartir fibra óptica y componentes en varias subredes. De esta forma, más de 16.000 clientes pueden utilizar el mismo nodo. Esto podría suponer una simplificación importante de la red y un abaratamiento de los costes.»

Los socios de PIEMAN afirmaron que, cuando se comercialice, esta tecnología brindará a los consumidores y empresas europeos un acceso barato y efectivo a una banda ancha asimétrica instantáneamente y en el momento en el que lo soliciten. También se lograría mantener la competitividad europea en las tecnologías de comunicación por banda ancha, según los investigadores.

Además del University College de Cork, PIEMAN cuenta como socios con el Grupo BT (coordinador), Alcatel-Lucent Deutschland AG (Alemania), Siemens Networks GmbH (Alemania), Interuniversitair Micro-Electronica Centrum vzw (IMEC) (Bélgica) y el Centre for Integrated Photonics Ltd. (Reino Unido).




Crean un sistema de refrigeración más efectivo para motores híbridos y eléctricos.


Un nuevo sistema de refrigeración desarrollado por ingenieros de la Universidad de Purdue, en Estados Unidos, podría colaborar en la optimización del funcionamiento de los coches eléctricos e híbridos, principalmente, además de aviones, computadoras y otros dispositivos similares. La innovación sería vital en el diseño de estos sistemas para enfriar los accesorios electrónicos de alta potencia que intervienen en los mecanismos indicados.

Hasta el momento, el fuerte aumento de calor y los líquidos que entran en ebullición son uno de los principales condicionantes para un desarrollo más efectivo de los motores híbridos y eléctricos. El sistema creado por los especialistas de Purdue sería capaz de solucionar justamente esos inconvenientes al facilitar y agilizar el proceso de refrigeración necesario.

Los resultados de este trabajo fueron publicados en un comunicado de prensa de la Universidad de Purdue. La investigación recibió 1,9 millones de dólares de subvención del Fondo de Investigación y Tecnología “Indiana's 21st Century”. Al mismo tiempo, la firma Delphi Corporation colabora en la comercialización del sistema de refrigeración, que empleando microcanales de componentes electrónicos en los coches híbridos y eléctricos favorece el funcionamiento de sus motores. La investigación también está financiada por la National Science Foundation y el Cooling Technologies Research Center, un consorcio de empresas, universidades y laboratorios gubernamentales que trabajan en el desarrollo de nuevas tecnologías de enfriamiento compactas aplicadas a distintas áreas de la industria.

Un gran avance para el funcionamiento de los motores híbridos y eléctricos
El nuevo sistema de refrigeración tiene un amplio campo de aplicación en el sector mecánico, ya que permite prevenir el sobrecalentamiento de distintos dispositivos en los motores utilizados en los vehículos híbridos y eléctricos. Estos dispositivos son imprescindibles para concretar la aceleración de un vehículo de 0 a 60 Km/h en 10 segundos o menos.

Además, son imprescindibles para el sistema de frenos, para la generación de la energía empleada al recargar la batería o para convertir la corriente eléctrica necesaria para hacer funcionar los distintos accesorios del vehículo, entre otras funciones. Los dispositivos de alta potencia utilizados producen cerca de cuatro veces más de calor que un chip de computadora convencional.

Atendiendo a esto, la optimización de los dispositivos de refrigeración resultaba trascendental para un mejor funcionamiento de los motores. Los investigadores estudiaron para ello un líquido dieléctrico que no conduce la electricidad, una característica que le permite ser utilizado directamente en los circuitos sin causar cortocircuitos eléctricos.

A su vez, este desarrollo se vale de dispositivos en miniatura que, a diferencia de los sistemas de enfriamiento convencionales, los cuales emplean un ventilador para hacer circular aire, permitirían incrementar en gran medida la cantidad de calor eliminable de los sistemas, tanto en los motores como en ordenadores y equipos informáticos.



3M ya tiene lista una solución sencilla para tener 3D en los teléfonos móviles


El fabricante 3M ya tiene lista una nueva tecnología asequible y sencilla para llevar las tres dimensiones a las pantallas de los teléfonos móviles sin necesidad de que tengamos que usar gafas especiales.

La película óptica que ha creado 3M se colocaría en la parte de retroiluminación de las pantallas LCD y se lograrían imágenes tridimensionales con una frecuencia de refresco de 120 Hz. Lo interesante de este neuvo desarrollo es que las pantallas se pueden seguir fabricando de la forma tradicional, y solamente hay que cambiar la parte que 3M ha desarrollado de nuevo. Así, el coste no tiene por qué subir.

El secreto de la nueva capa que 3M añade a las pantallas es que incorporan tecnología de retroiluminación direccional, lo que deja enviar imágenes a los dos ojos de forma separada, consiguiendo llevar toda la resolución de la pantalla a cada uno de ellos

Es siguiente paso esperamos que sea la incorporación de la misma tecnología de 3M pero a paneles más grandes como los de los televisores. El cine en 3D viene a su máxima velocidad y necesita que el resto de elementos del juego estén ya listos.



La NASA inicia la exploración aérea de la Antártida.


A comienzos del siglo XX, una sucesión de aventureros y científicos se convirtieron en los pioneros de la exploración antártica. Un siglo después, un equipo de modernos exploradores sobrevolarán la región más meridional del planeta para estudiar cambios en el hielo marino, las plataformas heladas y los glaciares de la Antártida. Aunque parezca mentira, se trata de la primera exploración aérea del continente blanco.

La impulsora del proyecto, llamado «Ice Bridge» (Puente de hielo) es la NASA, que utilizará para ello el mayor avión de la flota científica de la agencia espacial, el DC-8, de 157 metros de largo, y que transporta un completísimo laboratorio con un sinfín de instrumentos de medida.

El avión tiene previsto despegar de California el próximo 12 de octubre y volar a Punta Arenas (Chile), donde se instalará el campamento base de la tripulación y los investigadores. Durante seis semanas, el equipo de «Ice Bridge» atravesará el océano Austral en 17 vuelos sobre la Antártida Occidental, la Península Antártica y las zonas costeras donde el hielo marino es frecuente. Cada vuelo de ida y vuelta dura aproximadamente 11 horas, dos terceras partes de ese tiempo se tarda sólo en ir y volver desde Punta Arenas.


Una campaña de seis años
Esta operación se enmarca dentro de una campaña de seis años de vuelos anuales a las regiones polares de la Tierra. Dos operaciones anteriores, en los meses de marzo y abril, llevaron a los investigadores a sobrevolar Groenlandia y el océano Ártico.

Los datos que se recojan en la campaña de este otoño en la Antártida, dirigida por el investigador Seelye Martin, de la Universidad de Washington, ayudarán a los científicos a llenar el vacío que dejará el satélite ICESat de la NASA (Ice and Land Elevation Satellite), que está operando con el último de sus tres láser y previsiblemente «morirá» a finales de este año, hasta que entre en órbita en 2014 el ICESat-II.

Estos vuelos ayudarán a los científicos a mantener un registro de los cambios del hielo marino y de las plataformas de hielo recogidos por ICESat desde 2003 y su destino específico serán sitios inaccesibles para los satélites. «Los instrumentos de ICESat, como sus láser, son los únicos que pueden captar el cambio que ocurre en plataformas de hielo como la Antártida», indicó Tom Wagner, científico del programa de la criosfera de la NASA en Washington.

«Estas misiones aéreas nos permitirán realizar estudios todavía más detallados y tomar mediciones que son cruciales para determinar el aumento del nivel del mar», añadió. Los instrumentos también medirán el grosor del hielo y realizarán un estudio cartográfico del terreno que hay por debajo de la capa helada. Uno de los láser medirá la forma de las cavernas que existen por debajo de los glaciares y otro permitirá a los científicos distinguir con precisión la nieve del hielo.



Hemeroteca

Etiquetas