sábado, 31 de marzo de 2012

El cambio climático se aceleró entre 2001 y 2010

El cambio climático (causado por de máximos y mínimos de temperatura, inundaciones, precipitaciones, sequía, desastres naturales), ya evidente, que se está produciendo en todo el mundo y que llevamos sufriendo y vamos a sufrir los siguientes años está afectando directamente al deshielo del océano Ártico, esto tendría unas consecuencias negativas para la la Tierra.

El cambio climático se aceleró durante la década de 2001 a 2010, un periodo caracterizado por las precipitaciones, las temperaturas extremas y numerosos fenómenos meteorológicos extraordinarios, según la Organización Meteorológica Mundial (OMM).

Estas son algunas de las conclusiones preliminares del "Informe de la década 2001-2010 sobre el Clima Mundial", que la OMM dio a conocer hoy con motivo del Día Meteorológico Mundial, informa Efe.

Según el documento, elaborado a partir del análisis de los datos meteorológicos de 102 países, durante esta década se produjeron inundaciones en el 63% de los países que participan en el estudio, mientras que en el 43% se registraron problemas de sequía.

En grandes zonas del hemisferio norte el volumen de precipitaciones se situó por encima de la media de los años anteriores, especialmente en el este de Estados Unidos, el norte y este de Canadá, Europa y Asia central, Colombia, el norte y el sur de Brasil, Uruguay y la zona norte de Argentina.

Por el contrario, en el oeste de Estados Unidos, el suroeste de Canadá, Alaska, el sur y el oeste de Europa, el sur de Asia, Centroamérica, África central y la zona de la Amazonía las precipitaciones se situaron por debajo de la media.
En cuanto a las temperaturas, la citada década fue la más cálida desde que se dispone de registros (1850), con unas temperaturas que se situaron en torno a 0,46 grados centígrados por encima de la media de temperaturas máximas que hubo entre 1961 y 1990.

Asimismo, nueve de los años de esta década se situaron entre los 10 más cálidos desde 1850 y para el 90% de los países encuestados esta década fue la más cálida.

Los fenómenos meteorológicos extremos, como inundaciones, sequías, ciclones y olas de calor y de frío, afectaron prácticamente a todas la regiones del planeta, si bien el informe recoge dos olas de calor"excepcionales" que azotaron Europa y Rusia en los veranos de 2003 y 2010, respectivamente, y que tuvieron como consecuencia "miles de muertes e incendios".

El director de la OMM, Michel Jarraud, expresó su satisfacción por el hecho de que en los últimos 50 años "se ha mejorado la calidad de las previsiones meteorológicas a largo plazo", aunque lamentó que en ese mismo periodo "se han incrementado los fenómenos meteorológicos extremos".


Cumbre de Durban de 2011

El pasado mes de noviembre se presentaron, con motivo de la XVII Conferencia de Cambio Climático de la ONU celebrada en la ciudad sudafricana de Durban, las primeras observaciones del Informe Anual de 2011 sobre el Estado del Clima Mundial, que concluía que ese fue el décimo año más cálido desde 1850.

Jarraud explicó hoy que no fue el décimo año más cálido, sino el undécimo, ya que al incluir en las estadísticas todos los datos de 2011 -en el informe de noviembre faltaban los dos últimos meses- varió su posición.

La disminución de la superficie del océano Ártico cubierta por hielo -que se observa desde 1960- continuó ocurriendo entre 2001 y 2010, y el nivel histórico más bajo de extensión de hielo sobre el Ártico se registró en septiembre de 2007.

El secretario general de la OMM agregó que 2011 fue el segundo año en el que el hielo del Ártico registró su nivel más bajo -por detrás de 2007- y el primer año en el que tanto el paso noroccidental como el nororiental estuvieron libres de hielo.

Finalmente, se refirió al agujero de la capa de ozono, y celebró que se ha logrado reducir mucho la emisión de sustancias que la destruyen, aunque explicó que se "tardará entre 50 y 70 años en reducir la concentración de éstas en la atmósfera y volver a la situación anterior al agujero".

Agencia Europea de Medio Ambiente

Por otra parte, la Agencia Europea de Medio Ambiente asegura que el cambio climático es ya es una "realidad evidente" en Europa, según aseguró la directora ejecutiva de la Agencia Europea del Medio Ambiente, Jacqueline McGlade, durante la presentación de Climate Adapt, una nueva herramienta de formulación de políticas sobre la adaptación al clima.

Sobre los efectos que ya son visibles del cambio climático en Europa, la Agencia Europea del Medio Ambiente precisa que en los países del sur de Europa está aumentando el riesgo de sufrir sequías y está disminuyendo la disponibilidad del agua, lo que se combina con la creciente demanda de este recurso por parte de la agricultura, el turismo y el uso residencia.

Además, añade que estos países también están experimentando una pérdida de biodiversidad, aumento de incendios forestales y de olas de calor, lo que está afectando a la salud humana y a una menor disponibilidad de agua para la energía hidroeléctrica y temperaturas más altas que afectan al turismo.



Fuentes: Periódico, El Mundo

viernes, 30 de marzo de 2012

Crean una Torre Eólica para la integración de energías renovables en la ciudad

La creación de un edificio con una función especial para las energías alternativas y su avance ha tenido grandes beneficios y ventajas, no solo por el aprovechamiento de estas energías (geotérmica, solar, eólica y fotovoltaica) en un único edificio, sino que han conseguido los objetivos propuestos: el bajo nivel sonoro, seguridad de personas y fauna...
La Universitat Politècnica de Valencia (UPV), el Instituto Tecnológico de la Energía (ITE) y el Estudio Fran Silvestre Arquitectos han desarrollado un edificio que, mediante nuevos avances tecnológicos y la integración de energías renovables --eólica, geotérmica, fotovoltaica y solar térmica-- contará con un sistema capaz de producir 3.600 megavatios-hora anuales.

La 'Torre Eólica' proyectada mide un total de 170 metros y está diseñada para ubicarse en cascos urbanos, de forma que cuenta con la gran ventaja de no tener que transportar la energía, ya que se consume allí donde se produce.

Otro de los aspectos positivos es que los edificios adyacentes a los que se suministre esta energía no necesitarán ninguna adaptación especial para utilizarla.

El edificio, con un presupuesto de siete millones de euros, está diseñado para combinar usos públicos y privados, como una sala de conferencias u oficinas y un café-restaurante en la planta 50, con el sistema de generación de energías renovables.

Proceso de construcción

La integración de las energías renovables en el edificio se ha logrado de diferentes formas. En el caso de la energía geotérmica, ésta se ha desarrollado a partir de la cimentación profunda por pilotes, propia de este tipo de construcciones en altura, que aprovechan la gran diferencia de temperatura entre el exterior del edificio y la cimentación del mismo.

En cuanto a la energía solar, el volumen del edificio hace que existan grandes superficies de contacto con el exterior en las que las zonas rectas verticales son el soporte de placas fotovoltaicas que se benefician de la radiación solar.

También se aprovecha térmicamente mediante colectores solares instalados sobre la superficie horizontal en la planta baja del edificio, que proporcionan calefacción y refrigeración mediante un sistema de absorción, así como agua caliente sanitaria.

La transformación de la energía eólica en energía eléctrica se consigue en esta 'Torre Eólica' mediante más de 400 aerogeneradores instalados en distintas plantas. Con este objetivo se ha diseñado un edificio que permita alcanzar la máxima altura y perímetro de superficie para el máximo aprovechamiento.

Los beneficios de este tipo de aerogeneradores, desarrollados por el ITE, evitan problemas de ruido y el traspaso de vibraciones al edificio. Además, su diseño es óptimo para las condiciones de viento que se dan en las azoteas de los edificios.

Aerogeneradores poco ruidosos

A diferencia de los aerogeneradores de eje horizontal, los de eje vertical no requieren estar orientados en la dirección del viento, lo que proporciona una mayor libertad de ubicación dentro del edificio. Además, necesitan una menor velocidad de viento para empezar a girar, lo que permite un mejor aprovechamiento de la energía eólica disponible.

En este edificio, el Instituto Tecnológico de la Energía (ITE) se ha encargado también del diseño de los sistemas de generación energética. Además, ha realizado la configuración de las plantas donde se instalan los aerogeneradores, para conseguir los objetivos de bajo nivel sonoro,seguridad para las personas y la fauna y reducción de las interferencias aerodinámicas en su operación para conseguir una elevada eficiencia energética.



Fuentes: La Flecha 

jueves, 29 de marzo de 2012

Células solares en 3D duplican la producción energética de los paneles

Este avance en la energía alternativa solar, las células solares tridimensionales, han conseguido una mayor producción de energía y que estas placas sirvan tanto en verano como en invierno y las tardes, es decir, en los países nórdicos también serían válidas.

Una nueva etapa en el desarrollo en la actualidad de la energía solar podría ser protagonizada por el aprovechamiento de células solares fotovoltaicas con diseño 3D, una innovación que permite obtener más del doble de la producción energética conseguida con los dispositivos planos utilizados. El avance ha sido realizado por un grupo de ingenieros e investigadores del MIT.

Hasta el momento, la investigación intensiva en todo el mundo relacionada con la energía solar se ha centrado mayormente en mejorar el rendimiento de las células solares fotovoltaicas y en disminuir su coste. Sin embargo, se ha prestado muy poca atención a la optimización de las formas de organización y diseño de las células solares, que normalmente presentan formas planas.

Pero un equipo de ingenieros e investigadores del MIT ha partido de un enfoque muy diferente, y ha desarrollado células solares con configuraciones tridimensionales, con disposición cúbica o en forma de torres. Sorprendentemente, los resultados de las estructuras que se han probado muestran una potencia de salida que puede ser hasta 20 veces mayor que la obtenida con los paneles planos.

Asimismo, la producción energética por área logra como mínimo duplicarse, si se la compara con la generada en los paneles tradicionales, con cifras que superan estos indicadores. El avance ha sido difundido a través de una nota de prensa del MIT, y también en un artículo publicado en el medio especializado Energy and Environmental Science.


Modelos informáticos y pruebas experimentales


Los mayores incrementos en el potencial energético de las células solares se advirtieron en aquellas situaciones donde precisamente las mejoras son más necesarias: en lugares alejados de la línea ecuatorial, en los meses de invierno y en días nublados. Los resultados que dan sustento a esta investigación están basados en modelos informáticos y pruebas de los módulos reales al aire libre.

Según Jeffrey Grossman, líder del grupo de trabajo del MIT, el nuevo concepto podría convertirse en un sector primordial de desarrollo dentro del futuro de la energía solar fotovoltaica. En principio, los ingenieros e investigadores utilizaron un algoritmo informático para explorar una enorme variedad de configuraciones posibles para los paneles y células solares.

De esta forma se creó un software analítico, capaz de probar cualquier configuración dada en virtud de una amplia gama de parámetros, como por ejemplo la latitud geográfica, las estaciones del año o el clima imperante en el lugar donde se operarían las células solares.

Posteriormente, para confirmar las predicciones del modelo informático, se construyeron y probaron tres diferentes disposiciones de las células solares, ubicándolas en el techo de un edificio de laboratorios del MIT durante varias semanas. Es así que se lograron combinar los resultados obtenidos con los modelos teóricos y los alcanzados en la fase experimental.

Aunque el coste de la energía generada por estos módulos 3D es mayor que el registrado en la producción energética de los paneles planos convencionales, el gasto se lograría equilibrar gracias al incremento en la generación de energía por área utilizada, además de la obtención de una potencia de salida mucho más uniforme, tanto a lo largo del día como en las diferentes estaciones del año o frente a variaciones climáticas.

Al mismo tiempo, al obtener una potencia de salida más predecible y uniforme, la integración con la red eléctrica de los paneles solares sería mucho más sencilla que la obtenida actualmente con los sistemas convencionales. La razón básica para la mejora en la producción de energía es que las superficies de las estructuras 3D pueden recoger en mayor medida la luz solar en los momentos más complejos, como por ejemplo en las tardes o durante el invierno.

Según los especialistas, este tipo de innovaciones presenta actualmente un escenario favorable, ya que las células solares se han vuelto más económicas que las propias estructuras de soporte y cableado y que los procesos de instalación. A medida que el coste de las células continúe disminuyendo más rápidamente que los restantes procesos, las ventajas de los sistemas 3D se incrementarán en la misma magnitud.

En la actualidad, hasta un 65% del coste de la energía solar fotovoltaica está asociado a la instalación de los sistemas, el permiso para el uso de la tierra y otros componentes y estructuras, además de las propias células. Las opciones de diseño 3D en los dispositivos fotovoltaicos podrían proporcionar beneficios significativos en términos de captación de la luz solar en diferentes ángulos. El reto, sin embargo, es llegar a producir en masa estos elementos de una manera rentable.



Fuentes: La Flecha

Un estudio confirma el vínculo entre comida rápida y depresión

Se ha hecho un estudio sobre el consumo de la comida rápida y la bollería industrial. Los resultados, desde un punto de vista científico, a parte de la obesidad y diversas enfermedades y trastornos que causan, estos alimentos implican un riesgo de depresión alto.

El consumo de bollería industrial (magdalenas, cruasanes, rosquillas y similares) y comida rápida (hamburguesas, salchichas y pizza) ha sido relacionado con el diagnóstico médico de la depresión a partir de los resultados arrojados por una investigación reciente, liderada por científicos de la Universidad de Las Palmas de Gran Canaria y de la Universidad de Navarra.

Estos resultados, publicados en la revista Public Health Nutrition, revelan que los consumidores de comida rápida presentan, respecto a aquellos con un consumo mínimo o nulo de este tipo de alimentos, un incremento del 51% en el riesgo de desarrollar depresión.

Además, en el transcurso del estudio se observó una relación dosis-respuesta, es decir, que "cuanta más comida rápida se consume, mayor es el riesgo de depresión", según ha explicado a SINC Almudena Sánchez-Villegas, primera autora del estudio.

El trabajo expone que los participantes con mayor ingesta de comida rápida y bollería industrial son más propensos a estar solteros, ser menos activos y a tener un patrón dietético peor, con un consumo menor de fruta, frutos secos, pescado, verduras y aceite de oliva. Fumar y trabajar más de 45 horas semanales son otras de las características prevalentes en este grupo.

Características de la investigación

Con respecto al consumo de bollería, los datos son igualmente concluyentes. En este caso, "incluso pequeños consumos se asocian con un riesgo significativamente mayor de desarrollar depresión", apunta la investigadora de la universidad canaria.

La muestra del estudio, perteneciente al proyecto Seguimiento Universidad de Navarra (SUN), estuvo constituida por 8.964 individuos que nunca habían sido diagnosticados de depresión ni habían referido consumo de antidepresivos.

Estas personas fueron evaluadas durante una media de seis años, periodo en el que 493 de ellas fueron diagnosticadas de depresión o comenzaron a tomar antidepresivos.

Los datos obtenidos a partir de este análisis corroboran resultados anteriores, arrojados por el proyecto SUN en 2011 y publicados en PLoS One.

En aquella ocasión, fueron analizadas 12.059 personas durante más de seis años, y aparecieron 657 casos nuevos de depresión. Entonces se detectó un incremento del riesgo asociado a la comida basura del 42%, menor que en el trabajo actual.

"Aunque son necesarios más estudios, debería controlarse el consumo de este tipo de alimentos debido a su implicación en la salud tanto física (obesidad, enfermedad cardiovascular) como mental", concluye Sánchez-Villegas.

Los beneficios de la dieta en la salud mental

La depresión afecta a 121 millones de personas en el mundo, lo que la convierte en una de las principales causas globales de discapacidad ajustada por años de vida y la principal causa en países con ingresos altos y medios.

Sin embargo, poco se conoce sobre el papel de la dieta en el desarrollo de los trastornos depresivos. Anteriores estudios sugieren un papel preventivo de ciertos nutrientes, como las vitaminas del grupo B, los ácidos grasos omega-3 y el aceite de oliva. Asimismo, un patrón dietético saludable, como la dieta mediterránea, se ha relacionado con un menor riesgo de depresión.






Fuentes: La Flecha

miércoles, 28 de marzo de 2012

Los humanos, bípedos para llevar su comida a cuestas

Gracias al paso del tiempo y la evolución hemos podido desarrollar capacidades que en tiempos remotos de la evolución ni se imaginaban, el bipedismo es una de ellas.

Transportar cosas de aquí para allá, llevarse las propiedades a buen recaudo, acumular. Hace entre seis y tres millones de años, unos primates se pusieron de pie con la intención de tener las manos libres para acarrear cosas de un lado a otro. Fueron unos primeros pasos que comenzaron a transformar su organismo y su mente, hasta llegar a ser humanos.

Esta es la hipótesis que mantiene un equipo de investigadores de Estados Unidos, Inglaterra, Japón y Portugal, que han realizado un estudio con chimpancés de los bosques de Bossou, en Guinea Conakry.

Los antropólogos han estudiado chimpancés que viven en libertad en el bosque de Bossou, en Guinea Conakry. Durante 44,5 horas de observación de este laboratorio natural, contabilizaron hasta 742 ocasiones en las que 11 individuos transportaban cosas de un lugar a otro.

"Estos chimpancés proporcionan un modelo de las condiciones ecológicas bajo las cuales nuestros antepasados más tempranos pudieron haber comenzado caminar en dos piernas", ha declarado Brian G. Richmond, de la Universidad George Washington (EE.UU) a 'ScienceDaily'. "Algo tan sencillo como trasladar cosas, en condiciones adecuadas, puede estar en el origen de nuestra especie", apunta.

El trabajo realizado en Bossou confirma lo que ya sugería Gordon Hewes en un estudio previo de hace 60 años: los chimpancés, dijo, se ponen de pie para llevar alimentos. Lo que no supo precisar Hewes entonces es que lo hacen, especialmente, cuando se trata de algo que no es abundante a su alrededor, por lo que se esfuerzan por apropiárselo por si no vuelven a encontrar ese manjar en mucho tiempo. Al ponerse sobre dos piernas, liberan las manos, y así tienen mucho más fácil el traslado.

Por las fechas que se manejan del ADN y los fósiles y por los datos paleo-ambientales, se sabe que el bipedismo surgió en un momento de cambio climático, en el que los bosques estaban en retroceso y comenzó a extenderse la sabana. Ello podría haber provocado, mantienen los investigadores, que las explosiones de actividad bípeda se sucedieran ante la escasez de alimentos, una presión que fue generando cambios anatómicos fruto de la selección natural.

El artículo se fundamente en dos estudios. Uno es el realizado en la Universidad de Kyoto. En este caso, Ttsuro Matsuzawa permitió el acceso de los chimpancés salvajes a varias combinaciones diferentes de nueces: de palma de aceite (muy común) y de cola (escasas y más preciada por ello).

Supervisó el comportamiento de los simios en tres situaciones: con muchas nueces de palma, con pocas nueces de cola y con muchas de estas últimas. Y quedaron claros sus gustos: las de cola eran las preferidas y competían por hacerse con un gran número de ellas.

Pero, además, cuanto más presión competitiva había, con mayor frecuencia caminaban sobre dos patas para poder acumular las preciadas nueces en las manos. Las ocasiones en las que se pusieron de pie se multiplicaron por cuatro en estas circunstancias. Y es que yendo erguidos incluso podían ir engulléndolas mientras iban de un lado a otro.

Un segundo estudio, realizado por Kimberley Hockings, de la Universidad de Oxford Brookes se extendió durante 14 meses. En ese tiempo, se repitieron diferentes situaciones en las que tenían que competir por recursos escasos. En este caso, hasta un 35% de la actividad de los chimpancés requirió movimientos bípedos, casi siempre cuando querían acumular lo más posible en sus manos.

Todo ello indicaría que el bipedismo tiene su origen en este 'ansia' de acumular, que seguimos practicando, aunque otros expertos creen que el ponernos de pie tuvo más de una ventaja. Así opina Manuel Domínguez-Rodrigo, director del proyecto hispano-tanzano de paleoantropología en Olduvai (Tanzania). 

En concreto menciona, que a nuestros ancestros les permitió tener una visión mayor del entorno para detectar a los depredadores, una menos exposición a la radiación solar, ahorro de energía en desplazamientos largos, y también el transporte, no sólo de comida, sino de armas.

"Por ello, creo que el trabajo está bien, pero es incompleto en sus conclusiones", concluye el investigador.
fuentes: Periódico, El Mundo

Estiman que hay miles de millones de planetas en zonas habitables de la galaxia

Gracias a descubrimientos de la NASA, cada vez podemos estar más cerca de descubrir la posibilidad de vida extraterrestre fuera incluso de nuestro Sistema Solar, también así nos damos cuenta de lo gigante que es nuestro universo, y la mínima parte que suponemos en él.

Un equipo internacional de astrónomos ha descubierto que en las zonas habitables en torno a las estrellas enanas rojas de la Vía Láctea existen decenas de miles de millones de planetas rocosos, según ha informado este miércoles el Observatorio Europeo Austral (ESO) desde su central en Garching, en el sur de Alemania.
El sondeo, realizado con el espectrógrafo HARPS, el 'cazador de planetas' instalado en el telescopio de 3,6 metros del observatorio de La Silla, en Chile, permitió además deducir que en las vecindades del Sistema Solar, a distancias inferiores a 30 años luz, debe haber una centena de 'súper-Tierras' (con una masa de entre una y diez veces la de la Tierra).

Es la primera vez, además, que se mide de forma directa la frecuencia de súper-Tierras en torno a estrellas rojas débiles, que constituyen el 80 por ciento de las estrellas de nuestra galaxia.
El equipo de HARPS ha estado buscando exoplanetas orbitando alrededor de las estrellas más comunes de la Vía Láctea —estrellas enanas rojas (también conocidas como enanas tipo M). Estas estrellasson débiles y frías en comparación con nuestro Sol, pero muy comunes y longevas, y de hecho suponen el 80% de todas las estrellas de la vía Láctea.

"Alrededor del 40% de todas las estrellas enanas rojas tienen una súper-Tierra orbitando en su zona de habitabilidad, una zona que permite la existencia de agua líquida sobre la superficie del planeta," explicó el líder del equipo internacional, Xavier Bonfils.

Según el astrónomo del Observatorio de Ciencias del Universo de Grenoble (Francia), dado que las enanas rojas son tan comunes -hay unos 160.000 millones en la Vía Láctea-, se puede concluir que "hay decenas de miles de millones de planetas de este tipo sólo en nuestra galaxia".

Durante las observaciones, realizadas durante un periodo de seis años en los cielos australes a partir de una muestra compuesta por 102 estrellas enanas rojas, los científicos descubrieron un total de nueve súper-Tierras.

Los astrónomos estudiaron la presencia de diferentes planetas en torno a enanas rojas y lograron determinar que la frecuencia de súper-Tierras en la zona de habitabilidad es de un 41% en un rango que va de un 28 por ciento a un 95%.

Por otra parte, los planetas gigantes -similares a Júpiter y Saturno en nuestro Sistema Solar-, es decir, con una masa de entre 100 y 1.000 veces la de la Tierra, no son tan comunes alrededor de enanas rojas, con una presencia inferior al 12%.

Según Stéphane Udry, del Observatorio de Ginebra, "la zona de habitabilidad en torno a una enana roja, donde la temperatura es apta para la existencia de agua líquida en la superficie, está más cerca de la estrella que en el caso de la Tierra con respecto al Sol".

"Pero las enanas rojas se conocen por estar sujetas a erupciones estelares o llamaradas, lo que inundaría el planeta de rayos X o radiación ultravioleta: esto haría más difícil la existencia de vida", agregó.

Por su parte, Xavier Delfosse, del Instituto de Planetología y Astrofísica de Grenoble, indicó que ahora que se conoce la existencia de muchas súper-Tierras cercanas, "se espera que alguno de esos planetas pase frente a su estrella anfitriona durante su órbita en torno a la misma".
"Esto abrirá la excitante posibilidad de estudiar la atmósfera de estos planetas y buscar signos de vida", concluyó.

Uno de los planetas descubiertos en el sondeo de enanas rojas de HARPS es 'Gliese 667 Cc'. Es el segundo planeta de este sistema triple estelar y parece estar situado cerca del centro de la zona de habitabilidad. Pese a que este planeta es más de cuatro veces más pesado que la Tierra, es el más parecido a nuestro planeta de los encontrados hasta el momento, y casi con total seguridad cuenta con las condiciones adecuadas para la existencia de agua líquida en su superficie. Se trata de la segunda súper-Tierra dentro de la zona de habitabilidad de una enana roja descubierta durante este sondeo de HARPS, tras el anuncio del descubrimiento en 2007 de Gliese 581d y su posterior confirmación en el año 2009.



Fuentes: Periódico, El Mundo

martes, 27 de marzo de 2012

Microbios, los mineros del futuro

Se está investigando en el campo de la forma menos costosa para extraer cobre, se llamaría la minería del futuro, y se utilizarían bacterias.

En Chile, un grupo de científicos está utilizando las bacterias para extraer cobre, un mineral del que depende en gran medida la economía del país.

Este metal se originó hace millones de años dentro de la Tierra y a través de una serie de procesos geológicos se fue acercando a la superficie.La demanda de cobre aumenta constantemente. El cobre tiene múltiples usos. Se emplea en la fabricación de cables eléctricos y líneas telefónicas, en techos, en joyería y hasta en suplementos nutritivos.

Para extraerlo, normalmente hace falta excavar.

Luego, para separar el cobre del resto del material rocoso hay que molerlo, pulverizarlo, someterlo a altísimas temperaturas y añadirle compuestos químicos tóxicos.

Estos métodos convencionales emplean grandes cantidades de energía, lo cual los hace costosos, y por lo tanto se usan sólo en sitios donde se cree que la concentración de cobre es lo suficientemente elevada como para justificar el gasto de su extracción.

Estos sitios no abundan, y es por esta razón que los microbios pueden llegar a cumplir un rol crucial para obtener de una manera más económica y efectiva este metal, que representa cerca del 70% de las exportaciones chilenas.

Desierto de Atacama

Microbios al rescate
En el pasado había depósitos que contenían hasta un 30% de cobre. Ahora, muchos tienen una concentración de entre un 1% y un 1,8%.
Pero incluso cuando se calcula que una mina contiene rocas con una alto grado de concentración, el material que se obtiene no siempre es bueno.

Esto, hasta la llegada de los mineros en miniatura: los microbios.

Biosigma es una empresa de biotecnológica establecida por Codelco, una corporación estatal chilena y la compañía de minería de cobre más grande del mundo, junto la con la japonesa Nippon Metals & Mining.

Basada en las afueras de Santiago, Biosigma es una de las pocas compañías de biominería que hay en el mundo.

En el laboratorio principal, químicos y biólogos en delantales blancos y anteojos protectores trabajan transfiriendo coloridos líquidos de botellones a tubos de ensayo y llevando a cabo numerosas pruebas frente a un horno abierto.

Todas las probetas, los contenedores y los tanques están llenos de microbios: las bacterias Acidithiobacillusferrooxidans y Acidithiobacillus thiooxidans sirven para mejorar la extracción del cobre y reducir los costos operativos.

"Sabemos que los métodos convencionales de minería no se usan para los materiales con baja concentración, que sencillamente se descartan.

Por eso la única manera de extraer cobre de ellos es aplicando nuevos conocimientos y técnicas, en este caso, biotecnología", explica Ricardo Badilla, director ejecutivo de Biosigma.

Mediante el uso de bacterias se puede extraer hasta un 90% del metal en un socavón, en vez de sólo un 60%, añade.
Técnica
¿Pero cómo ayudan los microbios a extraer el cobre de la roca?

La clave del éxito está en usar los microorganismos que están presentes naturalmente en las minas.

"Estas bacterias no necesitan mucho para hacer su trabajo. Usan aire, oxígeno y CO2, y usan el mineral mismo como fuente de energía", explica Pilar Paddar, directora de Investigación y Desarrollo de Biosigma.

"Estas bacterias no necesitan mucho para hacer su trabajo. Usan aire, oxígeno y CO2, y usan el mineral mismo como fuente de energía"


Pilar Paddar, Directora de Investigación y Desarrollo de Biosigma

Si dejas una mina sola, los microorganismos eventualmente liberarían el cobre de las rocas, pero eso llevaría cientos de años, añade.

Para acelerar el proceso, los científicos usan la biolixiviación.

Las rocas que contienen cobre se colocan dentro de una fuente con ácido. Después se le añaden las bacterias que cambian esta solución que desarma la roca y libera el cobre en forma líquida.

Después de un proceso electroquímico especial, se lo transforma en metal sólido para que pueda usarse en las distintas aplicaciones industriales.
La minería del futuro

Algunos llaman a la biominería la minería del futuro.

De hecho, es mucho más económica y verde que la minería tradicional: genera menos emisiones de CO2 y consume menos agua que la tecnología convencional.

Además, las sustancias químicas tóxicas utilizadas en la minería tradicional pueden ser muy dañinas para el medio ambiente. Mientras que con la biomninería no hay riesgo de accidentes, ya que las bacterias están presentes en los minas y no son patógenas.

La biominería ya se practica en varios países, incluyendo Sudáfrica, Brasil y Australia. En total, cerca del 20% de la producción mundial de cobre se obtiene mediante la biolixiviación.

Esta técnica no se limita al cobre, también se emplea para extraer oro y uranio. Igualmente tiene otras aplicaciones: los científicos están investigando cómo usar microbios para limpiar la contaminación que produce la minería.

Pero Gabriel Rodríguez, director de Energía, Ciencia y Tecnología e Innovación del Ministerio de Relaciones Exteriores de Chile, dice que se necesita ayuda para desarrollar esta tecnología.

"Todavía no hay suficientes microorganismos para hacer el trabajo. Hace falta más investigación", afirma.

"Esa es la apuesta que Chile ha estado haciendo en los últimos años. Pero también estamos exportando esta tecnología, para que el mundo pueda pasar de explotar recursos naturales a añadirles valor con su ayuda".

Si funciona, un día será posible extraer cobre sin necesidad de hacer grandes excavaciones. Sólo hará falta que los mineros perforen dos agujeros para inyectar la solución llena de microbios, y recolectar luego el líquido que contiene el cobre.

Esta alternativa también permitiría salvar vidas. Según cálculos, unas 12.000 personas mueren al año en accidentes mineros.

Laboratorio

Fuentes: BBC

lunes, 19 de marzo de 2012

Una salamandra que vivió hace 157 millones de años

Se ha encontrado en China el fósil de una salamandra de la época de los dinosaurios, según las conclusiones de los investigadores que la han encontrado, sería la más primitiva que se conoce de su orden de salamonroideas.

Un grupo de investigadores, liderados por el chino Ke-Qin Gao, de la Universidad de Pekín, han encontrado en la fosilera provincia de Liaoning el esqueleto, casi completo, de una salamandra que vivió hace 157 millones de años, en el Jurásico de los dinosaurios, y que es, según sus conclusiones, la más primitiva que se conoce de este orden de las salamandroideas.

Sus descubridores, que han bautizado la especie como 'Beiyanerpeton jianpingensis, retrasa la aparición de su grupo en unos 40 millones de años, pues el récord anterior era el de la primitiva salamandra 'Valdotriton gracilis', que fue encontrada en el yacimiento de Las Hoyas, en Cuenca.

Los restos se encontraban en una capa de sedimentos volcánicos del Jurásico Superior y presentan características comunes con las salamandras actuales, de las que hay unas 500 especies registradas en la actualidad.

Una de las conclusiones que los científicos sacan de su análisis morfológico es que la separación entre el grupo de las llamadas salamandras gigantes ('Cryptobranchoidae') y el grupo más extendido en la actualidad se produjo antes de lo que se pensaba, puesto que esta especie pertenece al segundo.

Estos datos coinciden con lo que señalaba la biología molecular, como destaca Borja Sanchís, investigador del Museo Nacional de Ciencia Naturales (CSIC), experto en el estudio de anfibios prehistóricos. "Es un hallazgo muy interesante porque demuestra que las conclusiones moleculares y los fósiles se van acercando respecto al origen de las especies", señala Sanchís en declaraciones a ELMUNDO.es.

Por lo que se ha averiguado, la 'Beiyanerpeton jianpingensis' medía unos 10 centímetros de largo y siempre vivía dentro del agua. Hoy su grupo es el más extendido en el hemisferio norte del planeta (salamandras no existen en África, Australia y la Antártida).



Fuentes: El Mundo

Un experimento corrobora que los neutrinos no viajan más rápido que la luz

Hace unos meses, salió a la luz un experimento que contradecía la ley de Eistein sobre la velocidad de la luz, y decía que sí que se podía viajar más rápido que la luz. En nuestro propio blog colgamos esta noticia cuando se habló de ella. Pues, finalmente se ha negado lo dicho. Parece ser que los resultados se debieron a unos fallos técnicos.

Un experimento del laboratorio italiano de Gran Sasso ha confirmado que los neutrinos no son más veloces que la luz, según ha anunciado el Centro Europeo de Física de Partículas (CERN).

Estos resultados refutan las polémicas conclusiones preliminares del experimento OPERA, del mismo laboratorio, que detectó neutrinos que supuestamente viajaban veinte nanosegundos más rápido que la luz, algo que contradecía la Teoría de la Relatividad de Einstein y servía para alimentar la fantasía de los viajes en el tiempo.

El laboratorio de Gran Sasso registró medidas de neutrinos "que concuerdan con la velocidad de la luz". "Esto indica que los neutrinos no exceden la velocidad de la luz en su viaje entre los dos laboratorios (situados a 730 kilómetros de distancia)", precisó el CERN a través de un comunicado.
Un error de medición

El director de investigación del CERN, Sergio Bertolucci, opinó que estos nuevos datos refuerzan la idea de que los anteriores resultados del experimento OPERA incurrieron en un "error en la medición". "Los experimentos BOREXINO, ICARUS, LVD y OPERA del laboratorio de Gran Sasso continuarán efectuando nuevas medidas con los haces de neutrinos pulsados desde el CERN en mayo para darnos el veredicto final", agregó Bertolucci.

"El experimento ICARUS ha aportado una verificación cruzada del resultado anómalo de OPERA del pasado año", dijo por su parte el portavoz del ICARUS y ganador del Premio Nobel de Física en 1984, Carlo Rubbia.

Ese experimento tiene un dispositivo de medida de tiempo independiente de OPERA y según las mediciones comunicadas este viernes los neutrinos llegan a un tiempo "consistente con la velocidad de la luz".

Rubbia explicó que la Cámara de Proyección de Argón Líquido de la que dispone ICARUS para medir las interacciones de los neutrinos es un "detector novel" que permite "una detallada reconstrucción de las interacciones, comparable a la de las antiguas cámaras de burbujas con sistemas electrónicos completos".

Los responsables del experimento OPERA ya habían anunciado en febrero pasado que los resultados de neutrinos más rápidos que la luz pudieron deberse a una serie de problemas técnicos en los aparatos de medida.

Una mala conexión de un cable de fibra óptica y la errónea sincronización entre dos cronómetros explicarían esos resultados, que conmocionaron a la comunidad científica.



Fuentes: El Mundo

domingo, 11 de marzo de 2012

Un meteorito provocó la última Edad de Hielo

Este descubrimiento, un meteorito cayera en en la Tierra, hace que se cerciore la creencia de que la Tierra sufriera un gran enfriamiento y a la cual se le puedan asociar varias extinciones de animales y una capa de carbono y nanodiamantes.

Hace 12.800 años el clima en la Tierra sufrió un repentino enfriamiento, que duró 1.300 años, cuyo origen ha estado poco claro para la ciencia. La teoría de que se debió al impacto de un meteorito en Norteamérica vuelve ahora a tomar fuerza, tras haber sido muy discutida, después de que un equipo internacional de investigadores haya logrado identificar el lugar, en México, en el que colisionó un gran meteorito precisamente en esa época.

Los científicos, un equipo de 16 investigadores de varias universidades, han encontrado, en el Lago Cuitzeo, del centro del país, una capa de sedimento muy fino con una composición de elementos muy extraña, y precisamente de hace 13.000 años. Por su estudio, sería el resultado del impacto de un objeto cósmico contra la tierra, según publican en la revista 'Proceedings of National Academy of Science'.

Esta colisión, que dejó una capa negra rica en carbono y nanodiamantes, de unos 10 centímetros, estaría en el origen de ese cambio climático, que inició el periodo gélido conocido como Dryas Reciente. Las últimas hipótesis apuntaban hacia un cambio en la corriente del Golfo de México, que habría descargado demasiada agua dulce en el Atlántico Norte, pero este trabajo 'da alas' a otra posibilidad. De hecho, hace 65 millones de años un impacto, mucho mayor, provocó el cambio atmosférico que acabó con los dinosaurios.

Nanodiamantes en el fondo de un lago

Los científicos, dirigidos por Isabel Israde-Alcántara, de la Universidad de Michoacana (México), recabaron pruebas que consideran concluyentes, a 2,8 metros de profundidad. Los nanodiamantes, argumentan, son de una familia compatible con una gran colisión cósmica; además los investigadores identificaron las huellas de esférulas (pequeñas bolas), que habrían chocado a gran velocidad durante el impacto.

Ningún evento provocado por el ser humano, los volcanes u otros fenómenos naturales pueden explicar estos sedimentos, aseguran. "Estos materiales se forman solamente con un impacto extraterrestre", afirma James Kennett, de la Universidad de California, coautor del trabajo.

Los datos del lago Cuitzeo sugieren que fue un asteroide o un cometa de grandes dimensiones fragmentado en pedazos, algunos de varios cientos de metros de diámetro. Este objeto habría entrado en la atmósfera en un ángulo muy bajo, provocando tanto calor que la colisión quemó toda la vegetación que había alrededor e incluso derritió las rocas de la superficie. Como consecuencia, hubo un importante cambio en el clima.

"Estos resultados son consistentes con otros hallazgos en Norteamérica, como la rápida extinción de la megafauna que había entonces, las modificaciones que hubo en el ecosistema e incluso la reducción de las poblaciones humanas y en las transformaciones culturales que hubo", señala Kennett.

Y es que la capa de sedimento lacustre se encuentra, precisamente, en el nivel Dryas Reciente, que ha sido identificado en todo el hemisferio norte como un momento de gran enfriamiento en la superficie. La única similar que se ha localizado en el planeta es la que está en el límite del Cretácico, tras el que desaparecieron los grandes saurios.

Desaparición de los mamuts

Tras esta segunda gran colisión, hace 12.900 años, habrían desaparecido mamuts, mastodontes, tigres dientes de sable y grandes lobos. "Existe la sincronización entre estos extraordinarios cambios ambientales y bióticos, que también hemos detectado en el mismo lago, y el impacto. Fue una disrupción repentina, muy grande, que ya se conocía, sin conocer la causa", apunta el investigador californiano.

El Dryas Reciente se ha relacionado con la adopción de la agricultura en el Creciente Fértil: el frío y la sequía obligaron a sedentarizarse a las poblaciones humanas, que tuvieron que buscar métodos de subsistencia más adaptables a los cambios ambientales, pero es una de las muchas hipótesis que se barajan.




Fuentes: Periódico El Mundo

Los gorilas, más parecidos al hombre de lo que creíamos

Tras la secuencia de los genomas de gorilas, un equipo de investigación ha analizado que los humanos podríamos tener más en común con ellos que con los cimpancés, nuestros parientes mas cercanos.

Un equipo del prestigioso Instituto Wellcome Trust Sanger, una institución británica sin ánimo de lucro dedicada a la investigación genética, ha conseguido secuenciar por completo, por primera vez, el genoma del gorila, el último de los grandes simios vivos cuyo «código de barras» quedaba por descifrar. Aunque los chimpancés siguen siendo nuestros parientes más cercanos, las criaturas del planeta con las que tenemos más en común, el reciente hallazgo genético ha revelado que somos mucho más parecidos a los gorilas de lo que creíamos, al menos en un 15% de nuestro genoma. La investigación, publicada en la revista «Nature», no solo proporciona claves sobre la evolución humana, sino que también pone de relieve la importancia de proteger una especie en peligro de extinción que resiste, gravemente amenazada, en los bosques ecuatoriales de África central.

El equipo, dirigido por Richard Durbin, secuenció el genoma de una hembra de gorila occidental de las tierras bajas (Gorilla gorilla gorilla), llamada Kamilah, y comparó el resultado con el de humanos, chimpancés y orangutantes -los otros tres grandes simios vivos- y con otras especies de gorilas. Los científicos analizaron más de 11.000 genes para buscar importantes cambios genéticos en la evolución. De esta forma, descubrieron que aunque en general el hombre y el chimpancé son más parecidos, existen ciertos territorios de nuestro genoma en lo que esto no es cierto. El 15% del genoma humano está más cerca del gorila que del chimpancé, y el 15% del genoma del chimpancé está más cerca del gorila que del ser humano.

«Nuestros hallazgos revelan no solo diferencias entre las especies que reflejan millones de años de divergencia evolutiva, sino también cambios genéticos similares que se produjeron al mismo tiempo desde su ancestro común», explica Chris Tyler-Smith, uno de los autores de la investigación. Uno de estos cambios tiene que ver con la percepción sensorial auditiva, que se desarrolló al mismo tiempo, de forma acelerada, en gorilas y humanos. Los científicos creían que este rápido proceso estaba relacionado con la evolución del lenguaje en el ser humano, pero los nuevos resultados ponen en duda este punto, ya que, aunque pasaron por lo mismo, los gorilas no hablan.

En peligro de extinción
La investigación también ilumina el momento en el que los gorilas se separaron como especie de humanos y chimpancés, hace diez millones de años. La división entre gorilas occidentales y orientales (entre ellos los famosos de montaña) fue mucho más reciente, en el último millón de años, y gradual, a pesar de que ahora son genéticamente distintos. Esta división es comparable en algunos aspectos con la que se produjo entre chimpancés y bonobos, o entre el ser humano moderno y los neandertales.

Los gorilas sobreviven en nuestros días en poblaciones aisladas en los bosques ecuatoriales de África central. En peligro de extinción, se encuentran gravemente amenazados y son víctimas de matanzas por razones comerciales. Los científicos creen que esta investigación puede servir para concienciar aún más sobre la necesidad de proteger a estos simios que se nos parecen tanto. Dejar que desaparezcan sería como acabar con una parte de nosotros mismos.

Los gorilas, más parecidos al hombre de lo que creíamos

Fuentes: ABC

sábado, 10 de marzo de 2012

La tormenta solar que se espera puede traer apagones y afectar a los GPS

Los efectos que puede tener, esta tormenta, sobre la ciencia, es grave ya que puede desordenar los avances tecnológicos de la ciencia.  Pero estas tormentas tienen que ocurrir y ya hacía unos años que no se desencadenaba una.

 La tormenta solar más grande en cinco años está a punto de sacudir el campo magnético de la Tierra. Después de atravesar el espacio durante día y medio, una enorme nube de partículas cargadas llegará el jueves y podría afectar las redes de fluido eléctrico, los sistemas de navegación satelital y los vuelos de las aeronaves, especialmente en las regiones del hemisferio norte.

Los científicos dijeron que la tormenta, que comenzó con un enorme destello solar a principios de la semana, está creciendo a medida que se aleja del Sol, expandiéndose como una pompa de jabón colosal.

Cuando llegue a la Tierra la madrugada del jueves, las partículas se moverán a más de seis millones de kilómetros por hora (cuatro millones de millas por hora).

Los astrónomos dicen que el Sol ha estado relativamente tranquilo durante algún tiempo y que esta tormenta, aunque fuerte, puede parecer más feroz porque la Tierra ha estado arrullada durante varios años por una actividad solar débil.

La tormenta es parte del ciclo normal de 11 años del Sol, que se supone debe llegar a un pico de tormentas el año próximo.

Las tormentas solares no causan daño a las personas, pero sí alteran la tecnología. Durante el último pico, alrededor de 2002, los expertos descubrieron que los aparatos que usan el sistema de posicionamiento global, conocido como GPS por sus siglas en inglés, era vulnerable a las erupciones solares.

Debido a que las nuevas tecnologías han florecido desde entonces, los científicos podrían descubrir que algunos de los nuevos sistemas también están en riesgo, dijo Jeffrey Hughes, director del Centro de Modelos Integrados del Clima Espacial de la Universidad de Boston.

Hace una década, este tipo de tormenta solar ocurría un par de veces al año, dijo Hughes.

El Sol entró en erupción la noche del martes y los efectos más notables deberían alcanzar la Tierra el jueves entre la 0600 y 1000 GMT, según los pronósticos del Centro Espacial de Meteorología. Los efectos pueden persistir hasta la mañana del viernes.



Fuentes: La Flecha

viernes, 9 de marzo de 2012

Átomos moviéndose en una molécula

Este gran avance en la ciencia, podrá determinar el seguimiento de los átomos en su movimiento y si un electrón se separa de la órbita vuelve más tarde. Este avance ha podido tomar una primera imagen de tiempo real de átomos vibrando dentro de una molécula.

El investigador principal Louis DiMauro de la Universidad Estatal de Ohio dijo que la hazaña marca un primer paso adelante no sólo en la observación de reacciones químicas, sino también en controlarlas a escala atómica.

"A través de estos experimentos, nos hemos dado cuenta de que podemos controlar la trayectoria cuántica del electrón cuando vuelve hacia la molécula, ajustando el láser que lo lanza", dice DiMauro, profesor de física en la Universidad Estatal de Ohio.

Una técnica estándar para tomar imágenes de un objeto implica lanzar contra el objeto un haz de electrones - bombardearlo con millones de electrones por segundo. La nueva aproximación cuántica de un electrón usada por los investigadores les permite captar el rápido movimiento molecular.

Una técnica llamada difracción electrónica inducida por láser (LIED) se usa comúnmente en la ciencia de superficie para estudiar materiales sólidos. Aquí, los investigadores la usaron para estudiar el movimiento de átomos en una molécula aislada.

Las moléculas que eligieron para el estudio era simples: nitrógeno, o N2, y oxígeno, u O2. N2 y O2 son gases atmosféricos comunes, y los científicos ya conocen cada detalle de su estructura, por lo que estas moléculas tan básicas son un buen caso de prueba para el método LIED.

En cada caso, los investigadores golpeaban la molécula con pulsos de luz láser de 50 femtosegundos, o una milbillonésima de segundo. Fueron capaces de sacar un único electrón fuera de la capa externa de la molécula y detectar la señal dispersada del mismo cuando volvía a colisionar con la molécula.

Investigadores asemejan la señal del electrón dispersado al patrón de difracción que forma la luz cuando pasa a través de rendijas. Dando sólo el patrón de difracción, los científicos pueden reconstruir el tamaño y forma de las rendijas. En este caso, dado el patrón de difracción de los electrones, los físicos reconstruyen la forma y tamaño de la molécula - es decir, las posiciones de los núcleos que constituyen los átomos.

La clave, explica Blaga, es que durante el breve periodo de tiempo entre que el electrón es sacado de la molécula y su colisión durante el retorno, los átomos de las moléculas se han movido. El método LIED puede captar este movimiento, "de forma similar a crear una película del mundo cuántico", añade.

Más allá de su potencial para controlar las reacciones químicas, la técnica ofrece una nueva herramienta para el estudio de la estructura y dinámica de la materia, comenta. 




Fuentes: La Flecha