Páginas

6 ago 2010

Moto eléctrica con recarga solar y manual [VIDEO]


Por todos es sabido que el sector de la energía solar se está diversificando a toda velocidad y, para muestra, aquí nos llega una nueva propuesta de dos ruedas. Puede que la "Solar Bike Fujin" no sea precisamente el paradigma de la modernidad, pero sin lugar a dudas logrará atraer alguna que otra miradas por culpa del panel solar abatible de su parte trasera. Gracias a él, podrás sentir el viento en la cara a una velocidad de 72 km/h durante unos 220 km por recarga.

Según reza su vídeo explicativo, lo ideal sería aparcar este juguete de Hama Zero al sol, para que mientras atiendes tus quehaceres diarios el invento pueda alimentarse tranquilamente. Sin embargo, si te preocupa quedarte en la cuneta con la aparición de los primeros nubarrones, tal vez te interese saber que puede conectarse al primer enchufe que encuentres.

Por si todo esto fuera poco, además incluye unas ruedas especiales capaces de mantenerse en movimiento unos 20 minutos con sólo girarlas manualmente una vez; ya sabes qué hacer si quieres ver con tus propios ojos el proceso de recarga manual en acción.











Robonaut 2, el astronauta robot que usa Twitter [VIDEO]


Una de las cargas más peculiares que va a ir a bordo del Discovery en la misión STS-133 es un robot bautizado como Robonaut 2, o R2 para abreviar, diseñado como un proyecto conjunto de la NASA y General Motors.

Aún a pesar de su apariencia humanoide -al menos de cintura para arriba, ya que consta de cabeza, torso, y dos brazos- no se trata de un robot en el sentido asimoviano del término, sino de un robot que se controla en remoto, igual que los brazos robot de los propios transbordadores espaciales o el de la Estación Espacial Internacional.

Si se le ha dotado de este diseño humanoide es porque ha sido creado para usar las mismas herramientas y trabajar en los mismos entornos que los astronautas; de hecho, R2 es un debilucho comparado con los brazos robot ya citados, ya que los suyos apenas tienen una capacidad de carga de 20 kilogramos, aunque claro, siendo una máquina, son capaces de sostener cualquier carga que esté dentro de su capacidad de manipulación en el sitio que se le diga durante el tiempo que sea necesario.

En principio R2 iba a servir como plataforma de estudio para ver en qué forma un robot puede ser de ayuda a los astronautas y no estaba previsto ponerlo en órbita, pero dado que hoy por hoy es ya el robot más diestro jamás construido, algo en lo que influyen los 350 sensores que incorpora, al final se ha decidido enviarlo a la ISS para ver qué tal le va allí arriba.

Desde hace unos días R2 está usandohttp://twitter.com/AstroRobonaut, para ir contando los preparativos para su lanzamiento y, más adelante, el desarrollo de su misión en la ISS. Su primer tweet incluyó, como es de rigor, un Hello World!:

Además de lo que cuenten R2 y los integrantes de su equipo, se le pueden enviar preguntas utilizando la etiqueta #4R2 en Twitter, a las que irá respondiendo a partir de esta tarde a las 19:00 horas (UTC +2): NASA's First Robotic Crew Member To Tweet From Space Station, Available For Interviews.

El mes que viene R2 será enviado desde el Centro Espacial Johnson, donde ha sido creado, l Centro Espacial Kennedy para sus últimas pruebas antes de ser embalado para su viaje a la ISS.











Observan una explosión estelar en 3D [VIDEO]


Astrónomos del Observatorio Europeo Austral (ESO) han obtenido por primera vez una visión tridimensional de la distribución del material interno expulsado por una estrella que estalló recientemente, la supernova 1987A. La explosión original no sólo fue muy potente, sino que se concentró más hacia una dirección, lo que indica que la supernova debe haber sido muy turbulenta y refuerza la validez de los últimos modelos computacionales.

uevas observaciones realizadas con el instrumento SINFONI del Very Large Telescope (VLT) de ESO en Chile han proporcionado nuevos datos sobre la explosión de la supernova 1987A (SN 1987A), permitiendo a los astrónomos obtener la primera reconstrucción en 3D de las partes centrales del material en explosión.

Detectada en 1987, esta supernova situada en la Gran Nube de Magallanes, fue la primera observada a simple vista en 383 años. Debido a su relativa cercanía, los astrónomos pudieron estudiar la explosión de una estrella masiva y sus secuelas con más detalle que nunca. A diferencia del Sol, que morirá de forma más bien tranquila, las estrellas masivas que llegan al final de sus cortas vidas explotan como supernovas, arrojando una amplia cantidad de material.

SN 1987A ha permitido conseguir notables “primicias” a los científicos, como la detección de neutrinos desencadenando la explosión en el inestable centro estelar, la identificación de la estrella en placas fotográficas de archivo antes de su explosión, los signos de una explosión asimétrica, la observación directa de los elementos radiactivos producidos durante el estallido, la observación de la formación de polvo en la supernova, así como la detección de material circunestelar e interestelar.

La visión tridimensional obtenida ahora muestra que la explosión fue más fuerte y rápida en algunas direcciones que en otras, provocando una forma irregular que en ciertas partes se extienden aún más hacia el espacio. Los detalles de la investigación se publicarán en Astronomy & Astrophysics.

El primer material eyectado de la explosión viajó a 100 millones de kilómetros por hora, cerca de 100 mil veces más rápido que un avión de pasajeros. Incluso a esta enorme velocidad, tardó 10 años en alcanzar el anillo de gas y polvo generado por la estrella moribunda antes de la explosión. La imagen demuestra además que otra ola de material está viajando diez veces más despacio y está siendo calentada por elementos radioactivos creados en la explosión.



Dirección preferida predicha por los modelos

“Hemos establecido la distribución de velocidad del material interior eyectado de la Supermova 1987A”, dice la autora principal Karina Kjær. “No se comprende muy bien cómo explota una supernova, pero la manera en que lo hizo está grabada en este material interno. Podemos ver que este material no fue eyectado simétricamente en todas direcciones, sino que parece haber tenido una dirección preferida. Además, esta dirección es diferente a la esperada a partir de la posición del anillo”.

Tal comportamiento asimétrico fue predicho por algunos de los más recientes modelos computacionales de supernovas, que descubrieron que ocurren inestabilidades a gran escala durante la explosión. De este modo, las nuevas observaciones son las primeras confirmaciones directas de tales modelos.

El instrumento SINFONI ha permitido alcanzar el nivel de detalle necesario para llegar a estas conclusiones. Su sistema avanzado de óptica adaptativa hizo posible contrarrestar los efectos distorsionadores causados por la atmósfera terrestre, mientras que una técnica llamada espectrografía de campo integral permitió a los astrónomos estudiar muchas partes del caótico centro de la supernova, llevando a la reconstrucción de la imagen en 3D.

“La espectrografía de campo integral es una técnica especial que permite obtener, por cada píxel, información sobre la naturaleza y velocidad del gas. Esto significa que, además de la imagen normal, obtenemos también la velocidad a lo largo de la línea de visión. Como conocemos el tiempo que ha transcurrido desde la explosión y sabemos que el material se está moviendo libremente hacia el exterior, podemos convertir esta velocidad en una distancia. Esto nos proporciona la imagen del material interno eyectado como si lo viéramos de frente y de costado”, explica Kjær.













Los plásticos pueden causar cáncer testicular


Un grupo de investigadores británicos han desarrollado un modelo que les permitirá averiguar si algunas de las sustancias químicas en nuestro entorno, como las utilizadas en la fabricación de plásticos, son responsables del aumento del número de casos de cáncer de testículos.

El cáncer de testículos es el más común entre los jóvenes de 20 a 30 años. Los científicos tienen la sospecha que la exposición a estas sustancias químicas en el útero materno puede explicar porque este tipo de cáncer ha aumentado su incidencia en el doble durante los últimos 35 años.

Desde hace años los científicos han sabido que es en los primeros meses de desarrollo del feto que se producen los cambios anormales que llevan en la manifestación de la enfermedad. Hasta ahora había sido imposible estudiar el desarrollo de los testículos durante el embarazo en humanos pero todo eso esta por cambiar.


Creado por científicos de la Universidad de Edimburgo, en Escocia, el nuevo modelo permitirá por primera vez analizar las etapas iniciales de una enfermedad que tarda de entre 20 a 40 años en manifestarse. Se sabe que ese tipo de cáncer se origina debido a un desarrollo anormal de las células germinales y que esto lleva a la formación de un tumor en la etapa adulta de la juventud.

Los investigadores están sostienen que debe existir un factor ambiental que explique la razón por la que este tipo de cáncer ha aumentado su incidencia forma tan rápida.

“Hay una evidencia aplastante de que el crecimiento y el desarrollo de la vida fetal juega un papel fundamental a la hora de determinar el riesgo futuro de una amplia gama de enfermedades más tarde en la vida”, declaró el profesor Richard Sharpe, principal investigador del estudio.

De acuerdo con Sharpe, quien pertenece a la unidad de Ciencias Reproductivas Humanas del Consejo de Investigación Médica Británico, una de las teorías que se maneja es que los cambios se producen debido a que las embarazadas están expuestas a elementos químicos como el ftalato, que se utiliza para hacer el plástico flexible y se encuentra en alfombras, muros, tablones, tapicería del coche y en ciertos cosméticos y medicamentos farmacéuticos.

El nuevo modelo permitirá estudiar el desarrollo de los testículos y manipularlos experimentalmente para ver si la exposición a ciertos componentes químicos es la responsable de la enfermedad.

Para ello, el equipo del profesor Sharpe ha injertado tejido de fetos humanos abortados bajo la piel de ratones. En el modelo, las células germinales en los testículos también se encuentran en un estado crítico para saber si hay algún fallo en el desarrollo que pueda convertirlas en pre-cancerígenos.

Los científicos utilizarán el ftalato y otras sustancias químicos presentes a nuestro alrededor y observarán si predispone a los ratones a desarrollar cáncer.

Pero los científicos no están seguros de si los efectos del ftalato en animales pueden ser traducidos o no a humanos. Los investigadores sostienen que podrán saber si las sustancias químicas afectan a las células fetales en un período de un año. Los investigadores también explicaron que debido a que los componentes plásticos son parte integral de los tejidos de la sociedad moderna, no pueden ser eliminados sin que esto altere radicalmente nuestras vidas. Por eso el estudió buscará zanjar la cuestión de si un componente es dañino o no y abrir la puerta a más estudios.









Los transgénicos saltan la valla


Un equipo de científicos presenta hoy la que, aseguran, es "la primera evidencia" de que las plantas transgénicas se escapan de los cultivos y se asientan en el medio natural en el primer productor de organismos modificados genéticamente del mundo, EEUU. Si se confirman los datos, recibidos con escepticismo por la comunidad científica, se convertirían en munición para las organizaciones antitransgénicos en su batalla contra las multinacionales que dominan el mercado, como Monsanto.

Los científicos, entre los que se encuentran dos miembros de la Agencia de Protección Ambiental de EEUU, recorrieron durante el mes de julio unos 5.400 kilómetros de carreteras en Dakota del Norte, recogiendo muestras de colza silvestre en las cunetas. En este estado se encuentra la mayor parte de las más de 600.000 hectáreas de colza cultivadas en EEUU. Y más del 90% son variedades cuyos genes han sido modificados para que sean resistentes a los herbicidas. Según los investigadores, que anuncian hoy sus conclusiones en Pittsburgh en el congreso anual de la Sociedad de Ecología de EEUU, de las 406 plantas silvestres recolectadas, 347 presentan genes de resistencia a los herbicidas. Más del 86% posee en su genoma contaminación genética procedente de los vecinos cultivos de colza transgénica.

En España, donde está prohibido el cultivo de esta especie modificada genéticamente, empleada para elaborar aceite o para fabricar biocombustibles, sí está permitida su importación desde EEUU. La colza transgénica ha superado todas las evaluaciones sobre sus posibles efectos sobre la salud o el medio ambiente.


Llamada a la cautela

"También encontramos dos muestras silvestres en las que había varios transgenes [los genes incorporados a las plantas transgénicas] acumulados en un solo ejemplar", ha explicado en un comunicado una de las responsables del estudio, Cynthia Sagers, de la Universidad de Arkansas. "No se ha comercializado todavía ninguna variedad con varios genes incorporados, así que este hallazgo sugiere que las poblaciones asilvestradas se están reproduciendo y se han establecido fuera de los cultivos", añade. A su juicio, "estas observaciones tienen importantes implicaciones para la ecología y la gestión de especies nativas y malas hierbas, además de para la gestión de los transgénicos en EEUU".

Pese al alarmismo de sus conclusiones, los investigadores consultados piden cautela. De entrada, el estudio aún no se ha publicado en una revista científica, un requisito esencial para que los expertos puedan aceptar los datos y discutirlos. "En los congresos se dicen 300.000 cosas, hay que esperar a que se publique en una revista científica", cree el investigador del CSIC Pere Puigdomènech, miembro del Grupo Europeo de Ética de las Ciencias y Nuevas Tecnologías durante casi una década.

En su opinión, la colza es "un caso muy específico". A diferencia de otras especies, como el maíz, hay muchas plantas silvestres similares con las que se puede cruzar. En EEUU, la colza hibrida de manera espontánea con una decena de especies nativas o naturalizadas. La contaminación genética es sencilla. "Si hay una especie en la que es esperable ver estos resultados, es esta", afirma el investigador.

Sin embargo, Puigdomènech asegura que, si se confirma que el estudio científico es riguroso y los genes de las plantas transgénicas han saltado la valla de los cultivos, los genes "están destinados a desaparecer al cabo de un cierto tiempo, porque estas plantas silvestres resistentes a los herbicidas no tendrían ninguna ventaja sobre las demás, porque no reciben herbicidas". La fuga no supondría en ningún caso un riesgo para la salud. En España, se permite un 0,9% de maíz transgénico en el maíz no modificado, porque la contaminación genética entre cultivos es habitual.

La anunciada hoy no es la primera demostración de fugas en los cultivos de colza transgénica. En 2008, científicos canadienses de la Universidad de Manitoba publicaron en la revista Weed Science la primera evidencia de que el flujo genético provocaba la acumulación de resistencias a diferentes herbicidas, procedentes de diferentes cultivos transgénicos, en los mismos ejemplares de colza escapados de las fincas. Y en 2009, en Japón, un equipo de la Universidad de Yokkaichi constató que la colza transgénica se había extendido accidentalmente alrededor de los 13 puertos a los que llegan las importaciones de este producto con destino a las fábricas de aceite. El estudio intentaba mostrar "la importancia de otro camino de transferencia de genes modificados a especies emparentadas y no transgénicas a través del transporte de semillas".


La amenaza es "un mito"

La compañía estadounidense Monsanto, que controla el mercado mundial de semillas transgénicas, es propietaria de la patente de algunas de las variedades de colza que han escapado de los cultivos. La multinacional considera que la creencia de que el flujo genético de los cultivos biotecnológicos amenaza la biodiversidad es "un mito".

Según la multinacional, "un estudio de diez años de duración llevado a cabo por un respetado ecologista británico encontró que los cultivos biotecnológicos resistentes a los herbicidas no sobreviven bien en un entorno natural y no es probable que puedan invadir otros hábitats que no sean cultivos de plantas de peor calidad". Además, "las plantas no mostraron capacidad de reproducción autónoma, ni de automantenimiento y no se extendieron en el área circundante". El estudio que se presenta hoy, no obstante, sí ha observado que las poblaciones asilvestradas se han reproducido.


Según el investigador del CSIC Casacuberta, "No hay ningún tipo de riesgo"

El científico del CSIC Josep Casacuberta ha recibido con escepticismo el nuevo trabajo sobre la contaminación genética de los organismos transgénicos. El investigador, miembro del Panel de Organismos Modificados Genéticamente de la Autoridad Europea de Seguridad Alimentaria, muestra su sorpresa por el alarmismo "irresponsable" que rodea este estudio, presentado en el congreso de la Sociedad de Ecología de EEUU junto a grandes desastres medioambientales.

¿Qué aporta el nuevo estudio?
La primera observación que hay que hacer es que los resultados que se presentan en un congreso no tienen validez científica hasta que no se publiquen en una revista. Y, dicho esto, si los datos son ciertos, no me sorprenden en absoluto. Cualquier colza tiene posibilidades de cruzarse con las especies silvestres, eso ya lo sabíamos. En el caso del maíz, son nulas, porque no hay variedades silvestres que se crucen con el maíz.

¿Esto supone un riesgo?
No hay ningún tipo de riesgo ambiental. La nueva especie no puede desplazar a las demás. El futuro de esos genes es extinguirse. No hay riesgo ni para las personas, ni para la naturaleza, ni para nada.

¿Esto podría ocurrir en España?
En España sólo se autoriza el cultivo del maíz MON810, de Monsanto, para consumo animal y humano, aunque ninguna empresa se ha decidido a ofrecerlo para consumo humano. En la UE no se permite plantar colza transgénica, porque hay más preocupación de que escape al medio ambiente, aunque sí se importa de EEUU. Pero allí hablamos de estados con muy poca vegetación silvestre. Dakota del Norte es un gigantesco campo de cultivo.








Europa creará una base de datos sobre grandes incendios


En los últimos años, los incendios forestales han aumentado en muchos países de Europa y el norte de África, con especial incidencia en la zona mediterránea, donde constituyen una grave amenaza. Un total de 33 equipos de investigación, de 17 países y cuatro continentes distintos, se ha embarcado en un macroproyecto (FUME) de cuatro años que pretende analizar cómo ha afectado el cambio climático, las transformaciones en el uso del suelo y los cambios socioeconómicos a la evolución del régimen actual de incendios y poder así predecir los escenarios de riesgo futuros.

El proyecto FUME, en el que participa el Consejo Superior de Investigaciones Científicas (CSIC), generará, entre otros materiales, la primera cartografía histórica de incendios forestales de Europa e identificará los factores que inciden en este fenómeno, sobre todo en el caso de los incendios de grandes dimensiones, dado que las imágenes de satélite a partir de las que se elaborarán los mapas sólo permiten discriminar los grandes incendios.

Para la geógrafa Pilar Martín, que dirige al equipo del CSIC involucrado en el proyecto, “se trata de obtener la primera base de datos homogénea sobre incendios europeos. Hasta ahora sólo se cuenta con las estadísticas nacionales de cada uno de los países, con parámetros muy dispares”. Un mapa de riesgos de incendio y el análisis de las amenazas para la regeneración de los ecosistemas afectados, en especial bajo condiciones climáticas extremas, completarán los resultados del proyecto.

El equipo del CSIC que participa en FUME está centrado en evaluar los factores socioeconómicos de los incendios, el impacto de la acción humana, uno de los aspectos más desconocidos en este ámbito. “Es muy probable que los incendios forestales continúen incrementándose en el futuro como resultado de los continuos cambios socioeconómicos que contribuyen al aumento del riesgo, debido al abandono de tierras y también al aumento de actividades recreativas en zonas forestales y a la expansión de la zona de contacto entre áreas urbanas y forestales”, concreta la investigadora del CSIC.

Este grupo de investigación ya realizó en 2009 una cartografía de los grandes incendios acontecidos entre 2001 y 2006 en la Península Ibérica, a partir de las imágenes del satélite TERRA-MODIS.


Episodios climáticos extremos

El cambio global o cambio climático también contribuirá, según los investigadores, a aumentar el riesgo de incendios. “El previsible aumento de los episodios extremos de sequía y olas de calor son amenazas que debemos considerar y para las que debemos estar preparados en los próximos años y décadas”, advierte la investigadora del CSIC.

El proyecto se centrará sobre todo en las regiones mediterráneas del Sur de Europa (España, Portugal, sur de Francia, Grecia e Italia) y del norte de África, aunque también se realizarán estudios en otros ecosistemas mediterráneos vulnerables ante el cambio climático en Australia y América.

Nota de prensa (pdf 160k) [Descargar]


FUENTE:







5 ago 2010

¡¡¡Salvemos el Mediterraneo!!! [VIDEO]


Sobreexplotación, pérdida de hábitat, contaminación, llegada de especies invasoras o aumento de temperaturas debido al cambio climático son algunas de las amenazas que hacen de la biodiversidad del Mar Mediterráneo esté fuertemente amenazada. Así se desprende de un trabajo coordinado por el Consejo Superior de Investigaciones Científicas (CSIC) que ha revisado las estimaciones de la biodiversidad de la zona, así como su distribución espacial y temporal y los riesgos que la acechan.

“Probablemente estas amenazas crecerán en un futuro, especialmente las asociadas al cambio climático y la degradación de hábitat” explica Marta Coll, investigadora del CSIC en el Instituto de Ciencias del Mar y coordinadora del estudio sobre el Mediterráneo. El trabajo, que se publica esta semana en un número especial de la revista Plos One, forma parte del proyecto Censo de Vida Marina, constituido por una red global de investigadores que persigue caracterizar la biodiversidad de los océanos, así como su distribución y abundancia, para lo que lo ha dividido en 25 zonas de estudio.

Los investigadores del Censo han elaborado una tabla en la que se asignan diferentes puntuaciones según el grado de amenaza: el Mediterráneo resulta ser el ecosistema más amenazado, seguido de cerca por el Golfo de México y la plataforma continental de China. En general, los mares más cerrados son los más amenazados.

El Mediterráneo es, además, la región con mayor número de especies invasoras, 637, aproximadamente un 4% de todas las que habitan la zona. La siguiente en la lista, la zona europea del Océano Atlántico, tiene 245. Los investigadores piensan que la mayoría de estas especies proceden del Mar Rojo y entraron al Mediterráneo a través del canal de Suez.

El trabajo también pone de manifiesto que el Mediterráneo es uno de los mares con más diversidad marina del planeta. De hecho, es el cuarto en la lista tras las aguas australianas, japonesas y chinas y cuenta con unas 17.000 especies marinas descritas hasta la fecha. Asimismo, tiene zonas de elevada concentración de especies con importancia ecológica, como el estrecho de Gibraltar, el Mar de Alborán, el mediterráneo español y la zona africana asociada, y el norte de los mares Adriático y Egeo. Estas regiones muestran también una alta concentración de especies en peligro, amenazadas y vulnerables.

Aún así, “el conocimiento total sobre las especies del Mediterráneo y sus patrones de distribución son incompletos, ya que quedan muchas especies por descubrir y el conocimiento que tenemos sobre las descritas es limitado. Las estimaciones de la comunidad bacteriana están infravaloradas y gran parte del mar profundo y de las regiones del sur y del este permanecen prácticamente inexploradas”, explica Coll. De hecho, la proporción de especies no descritas para el Mediterráneo profundo se estima en un 75%, según un segundo estudio dedicado especialmente a esta zona. En general, los expertos calculan que por cada especie que se conoce quedan otras cuatro por descubrir.

Ambos trabajos, al igual que todos los publicados en este último número de Plos One y englobados en el proyecto Censo de Vida Marina, han combinado el análisis de datos bibliográficos con la opinión y el conocimiento de expertos para actualizar las estimaciones sobre la biodiversidad marina, al tiempo que se han revisado y actualizado numerosos listados de especies.

Así, la visión de conjunto elaborada por el Censo de Vida Marina aporta además datos curiosos, como que los crustáceos son, de media, la especie más presente en el océano o que el organismo más omnipresente es un pez llamado Chauliodus sloani, presente en más de un cuarto de las aguas mundiales. Otras especies muy repartidas son las algas microscópicas y los protozoos y, por otro lado, las que realizan largas migraciones, como mamíferos marinos y aves costeras.








Marta Coll, Chiara Piroddi, Jeroen Steenbeek, Kristin Kaschner, Frida Ben Rais Lasram, Jacopo Aguzzi, Enric Ballesteros, Carlo Nike Bianchi, Jordi Corbera, Thanos Dailianis, Roberto Danovaro, Marta Estrada, Carlo Froglia, Bella S. Galil, Josep M. Gasol, Ruthy Gertwagen, Joao Gil, François Guilhaumon, Kathleen Kesner-Reyes, Miltiadis-Spyridon Kitsos, Athanasios Koukouras, Nikolaos Lampadariou, Elijah Laxamana, Carlos M. López-Fé de la Cuadra, Heike K. Lotze, Daniel Martin, David Mouillot, Daniel Oro, Sasa Raicevich, Josephine Rius-Barile, Jose Ignacio Saiz-Salinas, Carles San Vicente, Samuel Somot, José Templado, Xavier Turon, Dimitris Vafidis, Roger Villanueva, Eleni Voultsiadou. The Biodiversity of the Mediterranean Sea: Estimates, Patterns, and Threats. PLOS ONE. August 2010 Volume 5 Issue 8 e11842.

Roberto Danovaro, Joan Batista Company, Cinzia Corinaldesi, Gianfranco D’Onghia, Bella Galil, Cristina Gambi, Andrew J. Gooday, Nikolaos Lampadariou, Gian Marco Luna, Caterina Morigi, Karine Olu, Paraskevi Polymenakou, Eva Ramirez-Llodra, Anna Sabbatini, Francesc Sardá, Myriam Sibuet, Anastasios Tselepides. Deep-Sea Biodiversity in the Mediterranean Sea: The Known, the Unknown, and the Unknowable. PLOS ONE. August 2010 Volume 5 Issue 8 e11832.

Mark John Costello, Marta Coll, Roberto Danovaro, Pat Halpin, Henn Ojaveer, Patricia Miloslavich. A Census of Marine Biodiversity Knowledge, Resources, and Future Challenges. PLOS ONE. August 2010 Volume 5 Issue 8 e12110.



FUENTE:
http://www.csic.es








El tamaño de las arañas y la evolución


Los hallazgos de un equipo de la Estación Experimental de Zonas Áridas de Almería, del CSIC, arrojan nueva luz sobre el fenómeno, conocido como dimorfismo sexual.

Los investigadores españoles dicen que la evolución favorece a los machos más pequeños y ligeros, porque esto les permite desplazarse más fácilmente utilizando sus telarañas, lo que a su vez redunda en un mayor número de parejas.

Mientras, en el caso de las hembras, son aquellas de mayor tamaño las que se reproducen más abundantemente.

Con la ayuda de un túnel de viento, los científicos españoles estudiaron la técnica de puenteo de arañas machos y hembras.

Esta técnica le permite a los arácnidos que viven en zonas con abundante vegetación movilizarse utilizando sus telas, aprovechando la fuerza del viento para formar con las mismas una especie de puente que les permite salvar diferentes obstáculos.

Y entre más pequeña la araña, encontraron los científicos, mayor la distancia que puede recorrer de esta manera.

La hipótesis vendría a aclarar una pregunta presente desde los tiempos de Darwin, ya que en la mayoría de las especies animales la presión evolutiva ha hecho a los machos mayores que las hembras.


FUENTE:
http://www.ojocientifico.com/2010/08/04/el-tamano-de-las-aranas-y-la-evolucion/








Nueva especie fósil de cocodrilo con dientes de mamífero


Un equipo internacional de científicos ha descubierto en la cuenca del Rift Rukwa, al suroeste de Tanzania, los fósiles de un antiguo cocodrilo (Pakasuchus kapilimai) que tenía dientes similares a los de los mamíferos. El estudio, que publica esta semana la revista Nature, sugiere que estas criaturas eran abundantes en lo que es hoy la África subsahariana durante el Cretácico medio (hace entre 80 y 110 millones de años).

Si sólo miras los dientes, no piensas que es un cocodrilo. Te preguntas qué tipo de extraño mamífero o reptil parecido a un mamífero es”, apunta Patrick O'Connor, autor principal del estudio, y profesor adjunto de Anatomía en el Colegio Universitario de Ohio (EE UU).

Según los investigadores estadounidenses, sudafricanos, australianos y tanzanos, la nueva especie de cocodrilo era un animal pequeño, cuya “cabeza cabría en la palma de tu mano”, asegura O'Connor. Además, los análisis demuestran que no estaba tan bien acorazado como otros cocodrilos, salvo por su cola, y era una criatura de tierra, que “probablemente se alimentaba de insectos y otros animales pequeños para sobrevivir”.

Al primer ejemplar completo hallado en 2008 se unen los restos fósiles de otros siete individuos descubiertos al suroeste de Tanzania. El rasgo más característico es estos cocodrilos es la fila de dientes parecidos a molares, ya que en general los reptiles modernos, o incluso otros más antiguos, poseen dientes simples y cónicos que utilizan para capturar y desgarrar a la presa y tragarse la carne en grandes trozos.


Una anatomía peculiar

“Cuando logramos ver de cerca los dientes, supimos que estábamos ante algo novedoso y muy emocionante”, señala el investigador estadounidense. Los molares de Pakasuchus kapilimai contaban con bordes afilados para procesar los alimentos, similares en forma a los dientes de algunos mamíferos carnívoros.

Según el estudio, que se publica en el último número de Nature, estos antiguos reptiles eran muy ágiles y se movían mucho, como sugieren la cola “fuertemente” blindada y un cuerpo “relativamente” desarmado con miembros gráciles. A diferencia de los cocodrilos cuyo principal hábitat es el agua, Pakasuchus podía alimentarse activamente en la tierra.

Los científicos demuestran que la nueva especie no es un pariente cercano de los cocodrilos modernos, sino que “es miembro de una rama lateral con gran éxito del linaje cocodriliforme que vivió durante la Era Mesozoica”, explica O'Connor. A pesar de la excepcionalidad del hallazgo de las muestras fósiles, la investigación determina que estos reptiles eran abundantes hace entre 80 y 110 millones de años.

Los Pakasuchus vivieron junto a grandes dinosaurios herbívoros saurópodos y depredadores terópodos, otros tipos de cocodrilos, tortugas y varias clases de peces. “Estos reptiles tuvieron mucho éxito en el hemisferio sur, ya que estaban explotando un nicho ecológico determinado en el que fueron capaces de competir con éxito con otros animales terrestres de cuerpo pequeño”, confirma el investigador, quien añade que era “un entorno muy diferente” al de los cocodrilos actuales.

Los análisis sedimentológico de la cuenca del Rift Rukwa demuestra que “el paisaje estaba dominado por un sistema fluvial amplio, persistente, con múltiples y entrecruzados canales y tierras vegetadas de bajo nivel que, al parecer, sostenían una fauna de vertebrados relativamente abundante”, señala Eric Roberts, co-autor del estudio y profesor de Geología en la Universidad James Cook (Australia).


Habitante del supercontinente

Durante gran parte del período Cretácico, África, Arabia, India, Madagascar, Antártida, Australia y América del Sur, estaban unidas: era el supercontinente del sur Gondwana. Los investigadores han encontrado pocos restos de mamíferos del Cretácico en esta parte del mundo, y los que se han descubierto no parecen estar relacionados con los mamíferos modernos.

Por ello, Pakasuchus kapilimai podría haber establecido su residencia en un “nicho mamífero” en Gondwana durante este periodo. “Es posible que, simplemente, no hayamos encontrado aún los mamíferos”, concluye O'Connor.



Referencia bibliográfica:
Patrick M. O’Connor, Joseph J. W. Sertich, Nancy J. Stevens, Eric M. Roberts, Michael D. Gottfried, Tobin L. Hieronymus, Zubair A. Jinnah, Ryan Ridgely, Sifa E. Ngasala, Jesuit Temba. “The evolution of mammal-like crocodyliforms in the Cretaceous Period of Gondwana” Nature Vol 466, 5 de agosto de 2010 doi:10.1038/nature09061



FUENTE:
http://www.plataformasinc.es/index.php/Noticias/Descubren-una-nueva-especie-fosil-de-cocodrilo-con-dientes-de-mamifero







Los malos contenidos 3D provocan dolores de cabeza


Muchos espectadores de cine 3D y de televisión 3D se quejan de molestias oculares y de dolores de cabeza. No aguantan estar con las gafas 3D puestas toda la sesión, y deben andar quitándoselas y poniéndoselas cada dos por tres. El visionado no resulta nada satisfactorio. No es sólo una cuestión de funcionamiento de la propia tecnología de imágenes tridimensionales, sino también un asunto de deficiente producción de los contenidos 3D.

En un reciente seminario celebrado en la sede de la BBC en Londres, el formador jefe del Sony 3D Technology Center de California, Buzz Hays, ha explicado que los contenidos en tres dimensiones pueden causar esas molestias: “Es fácil hacer 3D, pero es difícil hacerlo bien. Bien significa asegurarse de que no va a producir fatiga visual”. Los realizadores 3D todavía son bastante inexpertos y suelen cometer algunos errores que afectan negativamente a la experiencia de visionado.

Entre los errores más comunes que causan incomodidades, Buzz Hays, ha destacado los planos mal compuestos donde la distancia interaxial (entre las dos cámaras) es demasiado amplia. Controlando esa distancia entre los dos ejes de las cámaras es cómo se consigue la profundidad del efecto 3D. A la hora de planificar el rodaje de esas escenas 3D, el director debe pensar en composiciones similares a las de la fotografía, sugiere Hays.

Otra equivocación habitual está relacionada con los ajustes de la convergencia, esto es, el ángulo de la cámara izquierda y de la derecha. Cuando un objeto se aproxima, nuestros ojos convergen hacia el centro según lo estamos mirando. El problema es que durante el montaje, el objeto está a una distancia ligeramente distinta del espectador. Eso obliga a forzar los músculos de los ojos para no perder de vista el objeto. El esfuerzo puede resultar mareante, si el montaje es muy rápido. Buzz Hays, recomienda efectuar los ajustes de convergencia durante la postproducción, en lugar de durante el rodaje, porque entonces todavía se desconoce la sucesión de los planos del montaje final.

Finalmente, Hays recomienda a los realizadores que vean los contenidos en una pantalla grande en lugar de en un monitor. Así evitarán los problemas de divergencia, cuando el espectador se ve obligado a rotar el ojo hacia fuera para fusionar la imagen, algo poco natural para un humano, que sólo funciona con peces y caballos.

Vía: PCPro


FUENTE:
http://www.tusequipos.com/2010/08/04/3d-son-los-malos-contenidos-3d-y-no-las-gafas-3d-los-que-provocan-dolores-de-cabeza/

ZONA 3D:
http://biqfr.blogspot.com/search/label/3D






Cristal más resistente y flexible [VIDEO]


Últimamente estamos viendo que los fabricantes están optando por proteger las pantallas de sus dispositivos con cristales y ya no con plástico. La ventaja de las pantallas protegidas con cristal es que son más resistentes a las rayaduras y ofrecen mejor nitidez, lo malo que es no son muy resistentes a los golpes.

Gorilla Glass nació para ofrecernos mayor resistencia en el cristal que protegerá la pantalla de nuestros productos. Dell Streak y el Motorola Milestone ya son portadores de este material, por ahora sólo se encuentra implementado en dispositivos móviles pero se espera que pronto de el salto hacia los HDTV, buena falta que hace para poder jugar tranquilos con la Wii todo el día sin preocuparnos de que el sudor nos traicione y nuestro mando termine incrustado en la pantallas de TV.

Otra de las ventajas de Gorilla Glass, además de ser más resistente a los golpes y las rayaduras, es que puede ser fabricada más delgada que los cristales comunes, muchísimo más ligera y lo mejor de todo, sería más económicas. Pero lo realmente interesante es que posee una resistencia de dos a tres veces mayor a la de un cristal convencional sin afectar su transparencia.

Corning es la empresa que ha desarrollado estos nuevos cristales y al parecer podria llegar a los HDTV a principio de 2011. No dejes de ver vídeo que hemos dejado al final donde se pone a prueba la resistencia de Gorilla Glass y la de un cristal convencional.












Un juego en red para resolver un problema biológico


Miles de jugadores en red, la mayoría no especializados, han demostrado resolver mejor la forma que adoptan las proteínas que los programas informáticos más avanzados, han hallado científicos de la Universidad de Washington (en Seattle). Averiguar cómo se pliegan las largas cadenas de aminoácidos de las proteínas en la naturaleza -su estructura en tres dimensiones- es uno de los grandes problemas de la biología actual, al que numerosos equipos dedican enormes recursos informáticos.

La estructura en tres dimensiones de una proteína es clave para comprender su función biológica y para diseñar fármacos que interactúen con ella. Sin embargo la predicción por ordenador de la estructura de una proteína representa un desafío muy grande porque hay que analizar un gran número de posibilidades hasta alcanzar la solución, que se corresponde con un estado óptimo de energía. Es un proceso de optimización.

En la Universidad de Washington David Baker y sus colegas decidieron en 2005 iniciar un proyecto de computación distribuida para aprovechar los tiempos muertos de los ordenadores de los voluntarios que se apuntaran. Se llamaba Rosetta@home y fue todo un éxito, como era de esperar tras el primero de este tipo, lanzado en 1999 por la organización SETI de búsqueda de vida extraterrestre. Sin embargo, pronto empezaron a llegar comentarios de algunos usuarios, que creían que podían hacer el trabajo más deprisa de lo que lo hacía el ordenador. De hecho, los humanos todavía disponen de un talento mucho más evolucionado para la manipulación espacial que los ordenadores, recuerda Eric Hand en un comentario en la revista Nature, donde se comunica este experimento.

El caso es que Baker se apoyó en informáticos para crear en 2008 un juego en red asociado a Rosetta@home(http://boinc.bakerlab.org/rosetta/), que llamaron Foldit (pliégalo, en inglés). En él los jugadores compiten, colaboran, desarrollan estrategias, acumulan puntos y escalan niveles, mientras manipulan proteínas simplificadas con herramientas intuitivas pero según las reglas de la bioquímica.

Para los jugadores que no saben nada de biología molecular se prepararon unos niveles de introducción, y se ha demostrado, según los científicos, que los mejores jugadores son en su mayoría, ajenos a la bioquímica.

Para comprobar su pericia, los científicos plantearon a los jugadores 10 problemas concretos de estructuras de proteínas que conocían pero que no se habían hecho públicas. Encontraron que en algunos de estos casos, concretamente cinco, el resultado alcanzado por los mejores jugadores fue más exacto que el de Rosetta. En otros tres casos las cosas quedaron en tablas y en dos casos ganó la máquina.

Además, las colaboraciones establecidas entre algunos de los jugadores dieron lugar a todo un nuevo surtido de estrategias y algoritmos, algunos de los cuales se han incorporado ya al programa informático original. "Tan interesantes como las predicciones de Foldit son la complejidad, la variedad y la creatividad que muestra el proceso humano de búsqueda", escriben los autores del trabajo, entre los que figuran, algo insólito en un artículo científico, "los jugadores de Foldit".

"La integración de la resolución de problemas visual y la capacidad de desarrollar estrategias de los humanos en los algoritmos de computación tradicionales a través de juegos en red interactivos constituye un enfoque nuevo y poderoso para resolver problemas científicos para los que existen limitaciones computacionales", aseguran los autores. "Estamos en el inicio de una nueva era, en la que se mezcla la computación de los humanos y las máquinas", dice Michael Kearns, un experto en el llamado pensamiento distribuido.


FUENTE:
http://www.elpais.com/articulo/sociedad/humanos/ganan/ordenadores/elpeputec/20100804elpepusoc_5/Tes





4 ago 2010

El reloj del consumo de Internet móvil


Al ver el gráfico del uso de Internet desde teléfonos celulares que ha sacado la gente de Nielsen, no puedes más que sorprenderte. Por un lado tienes una explicación muy completa y compleja, resumida en algo que todos conocemos muy bien: una reloj, una hora. Pero también, por otro lado, tienes el mejor análisis estadístico que he visto sobre las tareas que realizan las personas cuando se conectan a Internet desde sus teléfonos en los Estados Unidos.

El primer lugar indiscutible se lo lleva el correo electrónico. Una herramienta que se resiste a desaparecer, año tras año, en las preferencias de las personas. Sigue siendo una de las formas más baratas y económicas de establecer comunicación fluida con otras personas, hacer negocios y compartir información. Incluso entre personas que son asiduas a las redes sociales, entre ellas Twitter, el email sigue siendo muy importante y forma parte de su ritual diario al conectarse.

En tercer lugar tenemos un crecimiento importante en el tiempo en que pasan las personas navegando y usando redes sociales y leyendo blogs. En total son unos 6 minutos con 18 segundos por hora, lo que representa un crecimiento del 40% con respecto al año anterior. Lo que seguramente continuará incrementándose años tras año, a la par del crecimiento en el uso de teléfonos inteligentes. Puedes ver el estudio completo en Nielsen, no tiene perdida.


FUENTE:
http://alt1040.com/2010/08/el-reloj-del-consumo-de-internet-movil




Un sistema para recargar automóviles sin cables [VIDEO]


Muchísimas compañías en todo el mundo están tratando de desarrollar la mejor tecnología de cargadores de automóviles porque en un futuro muy cercano esto se tratará de uno de los campos más importantes ya que cada vez las empresas están fabricando más y más vehículos que tienen potencia a partir de la energía eléctrica.

Esta vez la gente de Evatran reveló una tecnología llamada Plugless Power que, como su nombre lo indica, se trata de un cargador de carros que no necesitará estar conectado. Por este motivo las personas en vez de estar preocupándose de andar conectando el largo cable deberán simplemente estacionarse en frente de la central y el proceso comenzará a funcionar solito.

Fue desarrollado por la gente del MTC Transformers en el 2009 y lo que trataron de hacer los científicos e ingenieros involucrados es crear una manera conveniente, universal y confiable para cargar vehículos eléctricos. El carro para funcionar en conjunto con el Plugless Power tiene que estar diseñado especialmente para poder encastrarse con la torre central.

Cuando un automóvil esté diseñado para esta torre lo que hará cuando se estacione enfrente será reconocerlo y adaptarlo automáticamente. Para funcionar el sistema utiliza inducción magnética pero todavía hay que mejorarlo porque actualmente pierde alrededor del 20% de la energía durante el proceso. Pero según comentaron cuando el sistema sea presentado (para el 2011) este problema estará completamente solucionado.












Autobuses que irán por encima del tráfico [VIDEO]


Los problemas de tráfico en las ciudades con mayor población en todo el mundo es un verdadero problema. Las autopistas en las horas que las personas salen o entran al trabajo son un verdadero colapso y en muchos sitios para hace algunos pocos kilómetros se tardan horas. En Buenos Aires sucede, en México DF también, lo mismo en Madrid o en Los Angeles entre otros cientos de lugares.

China tiene algunas de las ciudades más habitadas de todo el mundo y para las personas que viven allí transportarse es un verdadero martirio. Por ese motivo tanto el gobierno del país como diferentes compañías privadas están viendo cómo hacer para solucionar este inconveniente.

La empresa Shenzhen Hashi Future Parking Equipment tiene en mente crear “autobuses tridimensionales rápidos” que, como se puede observar, se tratan de un híbrido entre tren y autobús que lo que hará es ir por encima del tráfico sosteniéndose de rieles. Los automóviles irán por las carreteras convencionales y estos autobuses futuristas colgados de rieles. ¿Cómo harán para subirse los pasajeros? Muy simple. Habrá algunas estaciones elevadas cada determinada cantidad de cuadras a las cuales los usuarios podrán subir a través de elevadores o escaleras mecánicas.


Lo bueno es que funcionará con energía eléctrica y solar para contaminar lo menos posible el medio ambiente, podrán transportar entre 1200 y 1400 pasajeros y andarán a unos 60km/h. Además una de las cosas que más llaman la atención es que fabricar un tramo de 40km para que se transporte cuesta solamente un 10% de lo que cuesta construir un tren subterráneo.

Si bien me parece una solución completamente potable para realizar soy de esas personas que no les gusta mucho que sigan construyendo cosas para arriba. Hoy en día en las metrópolis que llegué a conocer del mundo hay lugares donde tienes que hacer fuerza para ver el cielo. Este tipo de construcciones nos lo complicará cada vez más.












Mejoran la eficiencia de las placas solares al doble [VIDEO]


Cualquier avance en la mejora de energías alternativas es un avance importante para todos, y el sistema que han ingeniado un grupo de científicos para mejorar la eficiencia de los paneles solares a casi el doble de la actual es algo que nos va a beneficiar a todos.


Ingenieros de la universidad de Stanford han encontrado un sistema por el cual aprovechando tanto la luz como el calor en los paneles solares se mejora su eficiencia a un sorprendente 55% usando materiales baratos y fáciles de adquirir.

El proceso, llamado “emisión termoiónica mejorada de fotones” (PETE) consiste en recubrir un material semiconductor con una fina capa de cesio, lo que le permite aprovechar tanto la luz como el calor. De esta manera, al contrario que los paneles solares normales que disminuyen su eficiencia cuanto más se calienta, estos mejoran cuanto más calientes.

Gracias a este sistema la energía solar se hace tan barata que es capaz de competir con los combustibles fósiles. Además el sistema se puede adaptar a otros sistemas solares fácilmente.

Me pregunto si llegará el día en el que la propia tapa de nuestros portátiles tendrá un panel solar que proporcione suficiente energía para todo el día sin tener que enchufarlo…— :Dani Burón [Stanford]













WikiLibros, libros de texto de contenido libre


Sin duda uno de los proyectos que ha tenido más impacto en el mundo de internet en los últimos tiempos ha sido la Wikipedia, tanto por su forma de organización como por la concepción y trabajo de los editores. Pues bien, esa misma idea trasladada al mundo de los libros de texto es Wikilibros, un proyecto que pretende ser la Gran Biblioteca de Alejandría de los libros de texto de contenido libre.

Se trata de organizar una gran biblioteca que reúna todos los recursos disponibles en textos de distintas temáticas, organizadas a la manera de una biblioteca tradicional, donde disponemos de una gran variedad de contenidos a nuestra disposición para su consulta.

Los libros de los que disponen se clasifican también según su nivel de desarrollo. Así por ejemplo depende de la temática que elijamos tendremos manuales más o menos completados. Los niveles de desarrollo en los que se clasifican varían desde el inicial o nivel de esbozo hasta el nivel completo, pasando por inicio, madurando o abundante según se van completando los temas.

El libro con el que deberíamos empezar a movernos por esta gran biblioteca es el Manual wiki, que más que nada es un mapa de navegación para saber todo lo necesario acerca del entorno, cómo usarlo, editarlo y las principales diferencias con otros proyectos de Wikimedia. Sin duda es un buen punto de apoyo para comenzar a movernos por este proyecto.

A la hora de buscar libros siempre podemos hacerlo por temáticas, es decir, si necesitamos un libro sobre “La Catedral de Sevilla”, podremos buscarlo dentro de la categoría de arte o alfabéticamente o ya buscar por su grado de finalización, es decir, podremos buscar si ya están finalizados o si los tenemos listos para imprimir.

En este sentido las opciones que tenemos a la hora de acceder a un libro, es decir de imprimirlo o exportarlo podremos buscar un libro que ya tenga una versión prepara da para imprimir. También podemos solicitar la creación de un libro por parte de la comunidad, opción esta muy demandada sobre todo en algunas temáticas. Es otra de las opciones que existen a la hora de ver distintos manuales y crear obras que sobre todo sean útiles a la comunidad. De nada sirve tener un libro de texto sobre una materia que no despierta interés.



FUENTE:
http://www.anexom.es/servicios-en-la-red/herramientas/wikilibros-libros-de-texto-de-contenido-libre-para-todos/

ZONA EBOOK:
http://biqfr.blogspot.com/search/label/ebook







Los 'e-books' de las guías de viaje Lonely Planet


Lonely Planet, la popular editorial de guías de viaje, ha lanzado libros electrónicos interactivos llamados e-books para el iPad con los destinos europeos más famosos.

Así, los 'e-books' para Italia, España, Francia, Gran Bretaña e Irlanda, cada uno con más de 3.000 enlaces y puntos de interés, serán vendidos en las tiendas iBook de Apple. "El e-book en la tienda iBook fue una nueva frontera para nosotros, la cual crea un nivel de actividad interior para una guía que no existía anteriormente", dijo John Boris, vicepresidente ejecutivo de Lonely Planet. "Creemos que es el mejor e-book que existe para los viajes", agregó.

Los primeros cinco libros electrónicos serán seguidos por guías interactivas para Japón, Tailandia y Australia. "Nos enfocamos en los países más visitados por estadounidenses durante la temporada de verano (boreal). Europa es el destino número uno para ellos durante este periodo del año", explicó Boris.

Los aparatos electrónicos de lectura están cambiando la cara de las editoriales y ganando popularidad entre los consumidores. Forrester Research, una compañía independiente de tecnología e investigación de mercado, estimó el año pasado que 10 millones de lectores electrónicos serían vendidos en Estados Unidos al término del 2010.


Serie Discover


Inspirados en su propia serie Discover de libros de viajes con preparados itinerarios, mapas y datos de viajes, Boris dijo que los e-book permitirán a los lectores organizar su paseo, marcar páginas, tomar notas, buscar puntos de interés y encontrar contenidos precisos.

"Es para cualquier persona que este buscando el corazón de un lugar y desee encontrar los sitios imperdibles de ese lugar", explicó Boris, agregando que los 'e-books', a pesar de que fueron diseñados específicamente para los iPad, también pueden ser utilizados mediante un iPhone con un programa 4.0.

Boris cree que los e-books, que serán vendidos por 14,99 dólares (11,3 euros), llegarán a un grupo de personas que de otra forma no compraría una guía de viajes.



FUENTE:
http://www.lavanguardia.es/internet-y-tecnologia/noticias/20100803/53976265384/lonely-planet-lanza-e-books-para-ipad-con-los-destinos-europeos-mas-famosos-boris-australia-tailandi.html

ZONA EBOOK:
http://biqfr.blogspot.com/search/label/ebook






3 ago 2010

El primer eReader de menos de $100


Los precios están bajando brutalmente en estos meses en lo que a eReaders se refiere. Amazon ya los bajó y esta teniendo un éxito espectacular y esta baja de precios definitivamente beneficia a todos ya que siempre hay alguien que quiere ir más allá y lo consigue, como en esta ocasión.

Copia quiere dejar huella en este sector del mercado y al menos por ahora lo está haciendo ya que acaba de presentar su eReader que tiene una pantalla de 5″, así que como el Novel, puede ser un híbrido entre tablet y lector de libros digitales. Este lector fue bautizado con el nombre de Ocean Reader.

El nuevo Ocean Reader tendrá una dura competencia con el nuevo Kindle WiFi que solo cuesta $139, ya que mucha gente se podría inclinar a pagar $40 por un producto con “renombre”. Desgraciadamente no especifican sobre que sistema operativo se apoya este lector, pero me atrevo a decir que debe ser una versión a medida de Android o quizá alguna variante Linux que también es algo válido.

Yo creo que por $99 tener un eReader que tenga pantalla táctil, WiFi y pueda leer todos los formatos más populares me basta y hasta me sobra. Yo creo que la gente detrás de Copia va a sobrevivir a esta “guerra de los eReaders”.



FUENTE:
http://gizmologia.com/2010/08/copia-presenta-el-primer-ereader-de-menos-de-100

ZONA EBOOK:
http://biqfr.blogspot.com/search/label/ebook

Videocámara 3D hogareña


Panasonic pretende ser el primer fabricante en poner sobre las manos de sus usuarios la primera videocámara 3D. Con la popularidad que están teniendo la películas en tercera dimensión, los HDTV, era sólo cuestión de un poco de tiempo para que saliera al mercado la primera videocámara con capacidad de grabar en tres dimensiones.

Desde hace unas semanas Panasonic nos viene entusiasmando con una videocámara 3D hogareña, primero fueron unos rumores hasta que por fin se hicieron un hecho sus especificaciones. Pues hoy, para seguir por el mismo camino de las tres dimensiones, Panasonic ha comenzado recibir pre-compras para su nueva videocámara compacta 3D. Los pedidos se han comenzado a aceptar a través de Hammacher Schlemmer a partir de $599.95.


La nueva DXG-5D7V de Panasonic, es también capaz de grabar 3D y 2D con una resolución máxima de 800×480 y 640×480 respectivamente, es decir, nada de alta definición. Por otro lado y para justificar que no grabe en alta definición, el paquete por comprar la videocámara incluye una pantalla de 7” con altavoces y un mando a distancia para apreciar los vídeos que grabemos en 3D sin necesidad de utilizar las molestas gafas.

Desde ya es posible realizar el pedido y se espera que este disponible el 6 de agosto.


FUENTE:
http://gizmologia.com/2010/08/dxg-5d7v-panasonic-ya-acepta-pre-compra-para-su-videocamara-3d

ZONA 3D:
http://biqfr.blogspot.com/search/label/3D






Nuevas televisiones con tecnología 3D laser


Si recordáis el final de “Trainspotting” el bueno de Renton se despedía de nosotros diciendo “elige la vida, elige un trabajo, elige un televisor grande que te cagas“.

Es una máxima de la filosofía occidental cada vez más extendida. Y en esa carrera por llenar una pared de casa con imágenes en movimiento, las tecnologías se suceden como especies extintas. Los viejos televisores “de culo” (CRT, tubo de rayos catódicos) dieron paso a los plasmas (que ahí siguen, aguantando el tirón como campeones), los LCD y últimamente los LED. Encima este año se ha puesto de moda lo tridimensional.

Pero el desfile tecnológico no acaba ahí, y mucho menos la batalla por el tamaño. Mitubishi acaba de presentar un televisor 3D de 75″ con tecnología laser. ¿Deseas saber más?

El modelo, conocido por el código 75-LT1, hace uso de la tecnología Laser Vue TV, capaz de conseguir el doble de rango de color que un televisor normal de Alta Definición, a la vez que reduce significativamente el consumo de energía.

Mitusbishi explica que la pantalla conseguida con este modelo equivale en tamaño a las de cuatro televisores de 37″, que consumirían 572 W. El 75-LT1 consume solo 270 más 35 del sintonizador. La tecnología laser, además, consigue un amplio registro de colores vívidos, complejos, de una gran claridad y con una profundidad de campo auténticamente inmersiva.

Como pega hay que referirse al tamaño, no solo a la superficie sino al grosor, dado que esta tecnología laser funciona de modo similar a la retroproyección, por lo que estamos ante un aparato que tiene 38 cms. de fondo. A partir del 12 de agosto estará disponible en tiendas de Japón (en Estados Unidos ya está disponible) por 750.000 yens, unos 6.500 € de nada. ─Antonio Rentero [Mitsubishi]


FUENTE:
http://www.gizmodo.es/2010/08/02/%c2%bfcrt-plasma-lcd-led-paparruchas-mitsubishi-tiene-teles-laser-3d-de-75.html

ZONA 3D:
http://biqfr.blogspot.com/search/label/3D






Benefícios de la electricidad obtenida a partir de biomasa


Científicos del Instituto Nacional de Investigación y Tecnología Agraria y Alimentaria (INIA) han demostrado que los usuarios de electricidad están dispuestos a engordar su factura de la luz a cambio de los beneficios asociados a su producción a partir de la biomasa forestal. Los usuarios valoran beneficios como la reducción del riesgo de incendios forestales y la creación de puestos de trabajo en toda España, entre otros.

La biomasa es una fuente de energía alternativa poco conocida que consiste en el aprovechamiento de residuos vegetales procedentes del monte. "La gestión “activa” de los arbustos, matorrales y ramas secas en regiones como Galicia puede ser una solución al acúmulo incontrolado de este material, origen de muchos incendios forestales en verano", señala Mario Soliño, autor del trabajo y científico del INIA en el Centro de Investigación Forestal (CIFOR).

Para Soliño, la biomasa es la gran desconocida de todas las energías renovables, sobre todo si se compara con la eólica o la solar. Su explotación, que tiene asociado un coste “directo” de combustible, podría reemplazar al menos el diez por ciento de la electricidad generada a partir de combustibles fósiles en Galicia.

“La utilización de este recurso supone un descenso en la emisión de gases de efecto invernadero a la atmósfera, contribuye al mantenimiento del bosque y a no agotar las fuentes energéticas no renovables como el carbón o el petróleo. Desde el punto de vista social sus beneficios se asocian a la creación de empleo y de riqueza, sobre todo en zonas rurales degradadas”, destaca Soliño.

Los resultados, procedentes de encuestas realizadas en colaboración con científicos de la Universidad de Vigo a cerca de mil usuarios de electricidad gallegos en 2006, muestran que los ciudadanos son cada vez más sensibles a los cambios medioambientales. El trabajo supone un argumento para el diseño e implementación de programas de ayuda al abastecimiento de biomasa para la producción de electricidad.

“El consumidor está dispuesto a pagar más porque el cambio supone una mejora de bienestar. Las autoridades políticas deberían tomar buena nota y reformar el sistema de biomasa a la producción de electricidad en el régimen especial actualmente vigente”, señala Soliño

La biomasa, una fuente de energía con gran futuro en España

España es un país con un gran potencial para la explotación de la biomasa, debido a la gran cantidad de superficie forestal del país, y así se recoge en el Plan de Energías Renovables 2005-2010 elaborado por el Gobierno.

De hecho, existen varias instalaciones importantes como la de Puente Genil (Córdoba), que produce energía eléctrica a partir de subproductos del olivar o la central de cogeneración de Helechosa de Montes en Badajoz. En Galicia la única planta que produce electricidad a partir de biomasa para su vertido en la red está situada en Allariz (Orense) y existen varios proyectos para construir nuevas instalaciones en la región.



Referencia bibliográfica:
Soliño M. (2010). “External benefits of biomass-e in Spain: an economic evaluation“. Bioresource Technology, DOI: 10.1016/j.biortech.2009.09.086.



FUENTE:
http://www.plataformasinc.es/index.php/esl/Noticias/Los-consumidores-espanoles-pagarian-mas-por-la-electricidad-obtenida-a-partir-de-biomasa

ZONA ECO:
http://biqfr.blogspot.com/search/label/Eco

Geotermia, la mina de energía bajo el suelo


El edificio QuercusIP, en Santiago de Compostela, se ha convertido en el primer centro de negocios gallego que aprovecha las ventajas de la energía geotérmica, acumulada en forma de calor bajo la superficie de la Tierra. Con una inversión de un millón de euros, la instalación geotérmica consta de tres kilómetros de tubería y ha precisado 32 perforaciones de hasta 60 metros de profundidad.

No se trata de la primera experiencia en Galicia. El edificio del Parlamento gallego extrae de la geotermia el 22% de la energía necesaria para climatizar sus 15.000 m2 con diez kilómetros de tuberías. Tampoco es algo inédito en otras comunidades autónomas. Sin embargo, España aún sigue a la cola en la utilización de esta energía, pese a que prácticamente no emite gases contaminantes y ofrece un enorme rendimiento: se estima que la energía almacenada en un kilómetro cúbico de roca caliente a 250°C equivale a 40 millones de barriles de petróleo.

Su escasa implantación se debe en gran medida a que, a pesar de ser una fuente renovable, no es muy conocida. Esta energía, ligada a volcanes, aguas termales, fumarolas y géiseres, tiene diversas aplicaciones dependiendo de su temperatura. Así, cuando esta es superior a los 100-150ºC fuentes denominadas de alta entalpía es posible la producción de electricidad, recurriéndose a otros usos térmicos para sectores industriales, de servicios y residencial cuando se sitúa por debajo de los 100ºC. En esos casos se precisa una bomba de calor geotérmica, tanto para calefacción como para refrigeración, y más aún cuando la temperatura se sitúa por debajo de los 25ºC.

A pesar de que en las décadas de los setenta y ochenta el Instituto Geológico y Minero de España (IGME) realizó muchos estudios en esta materia, las barreras económicas han sido el gran freno para los proyectos en el país. Por ejemplo, la perforación en los de baja temperatura puede llegar a suponer el 60% del coste total. A esto se suma el poco apoyo institucional, puesto que en el último Plan de Energías Renovables (PER) 2005-2010, que establecía el objetivo de que las fuentes renovables cubrieran como mínimo el 12% de la demanda total de energía primaria, la geotermia fue la gran olvidada.

A falta de definir objetivos, el Ministerio de Industria sí quiso fomentar de algún modo esta energía e incluyó el Programa Geocasa, dotado con 3 millones de euros, a través del cual se abría la convocatoria para la habilitación de empresas de energía geotérmica en edificios.


El potencial de España

España cuenta con un mapa geotérmico dominado por el rango de temperaturas por debajo de los 100ºC, con la excepción de las islas Canarias. Sin embargo, el aprovechamiento geotérmico de muy baja temperatura mediante bomba de calor, al igual que sucedió años atrás en Europa, está comenzando a ser una realidad. La coordinadora de Geoplat (Plataforma Tecnológica Española de Geotermia), Margarita de Gregorio, llama la atención sobre "las nuevas tecnologías que permiten que en yacimientos geotérmicos secos sea posible inyectar agua para conseguir las condiciones de un recurso de alta entalpía".

Madrid cuenta con recursos de 80ºC entre 2.000 y 2.500 metros de profundidad. La meseta del Duero, a unos 1.500 metros y con algo menos de calor. Cuenca y Albacete disponen de recursos similares a los de Madrid. Ourense, Pontevedra, El Vallés y Penedés, Granada, Murcia, Mallorca o Catalunya son algunas de las áreas en las que podrían encontrarse recursos a profundidades inferiores a los 1.000 metros con temperaturas entre los 40 y los 80ºC.

En cuanto a los recursos geotérmicos de temperaturas en el rango medio (entalpía media/alta), se concentran fundamentalmente en las cordilleras Béticas, Galicia y Catalunya, sin descartar Aragón y Madrid, a la luz de algunas prospecciones de hidrocarburos. Sin embargo, los yacimientos de alta temperatura, los únicos que no requieren inyección, se limitan en principio a las Canarias, dado su origen volcánico.

En este sentido, el Instituto Tecnológico y de Energías Renovables (ITER) del Cabildo de Tenerife acaba de finalizar la primera fase de exploración geotérmica en la zona sur de la isla, en el dominio minero conocido como Garehagua (municipios de Arona, San Miguel, Granadilla y Vilaflor). En esta primera fase se han estudiado 600 puntos con tomas de medidas de diversos gases y volátiles (vapor de mercurio, radón, sulfuro de hidrógeno y flujo de dióxido de carbono), dejando para una segunda los estudios de geología de detalle y trabajos de prospección geofísica para seleccionar las áreas más idóneas con vistas a realizar sondeos geotérmicos.

Mil megavatios en 2020

En opinión del jefe de Proyectos de Investigación Geotérmica del IGME, Celestino García de la Noceda, el interés por la geotermia está renaciendo con la aparición de nuevos agentes en el sector, retomándose actuaciones que llevaban aparcadas cerca de 20 años y poniendo en marcha investigaciones como el análisis que se está realizando del impacto térmico, hidráulico e hidroquímico generado por los pozos de climatización en las aguas subterráneas de Zaragoza.

En la misma dirección, Geoplat apuesta por la I+D en esta área, con una base de datos pública y única para todo el sector, tal y como expone en su último informe Visión a 2030. "Ya es un paso muy importante", señala De Gregorio, "el hecho de que en el próximo PER 2011-2020 contaremos con un mapa de recursos para cada una de las energías renovables, incluida la geotermia, no sólo para la eólica como sucedía con el anterior plan".

Según las estimaciones de Geoplat, se prevé que se salte de los actuales 80 megavatios (MW) de potencia instalada a unos 1.000 MW eléctricos y 300 MW térmicos en el año 2020, y a unos 3.000 MW y 1.000 MW, respectivamente, en 2030.


FUENTE:http://www.publico.es/ciencias/330544/geotermia/minade/energiabajoel/suelo

ZONA ECO:
http://biqfr.blogspot.com/search/label/Eco