Powered By Blogger

sábado, 29 de marzo de 2014

EL DESHIELO DEL GLACIAL ANTÁRTICO “PINE ISLAND” CAPTADO POR RADAR



Pine Island es el Glacial más grande de la capa de hielo en la Antártica Occidental, además, una de las corrientes más rápidas de hielo en el continente, que fluye en Pine Island en el Mar de Amundsen, 10% de los del oeste antártico. La capa de hielo se drena hacia el mar por medio de este glacial. Esta animación se basa en datos obtenidos por el Proyecto CTSA-GreenSAR – Enlace al vídeo aquí.
  
El radar de los satélites de la ESA han sido utilizados para medir el rápido adelgazamiento glacial de PINE ISLAND en la Antártica, dando como resultado final la pérdida de más hielo del que estaba previamente previsto.
Pine Island es el glacial con la capa de hielo más grande de la Antártica Occidental y una de las corrientes más rápidas de hielo del continente. Alrededor de  un 10%  es el drenaje de lo que está escurriendo hacia el mar correspondiente a este glacial.
En los márgenes de las placas heladas, el hielo se levanta desligándose de la tierra y flota sobre el agua formando barreras de hielo; medir estos bancos de hielo y hacer un seguimiento de su evolución, es una trabajo de suma importancia que permite la localización de la masa de las capas de hielo y como estas contribuyen a la evolución de los nivelas de agua del mar.
La medición es difícil; el trabajo considera  encuestas de perforación submarina, que se pueden efectuar a nivel local pero que no proporcionan mediciones continuas y globales necesarias para un preciso seguimiento.
Con frecuencia, los satélites pueden recopilar información de grandes áreas, proporcionando en esta forma, un eficaz medio que permite cuantificar el derretimiento de las capas de hielo; lo radares satelitales pueden “ver” a través de las nubes y la oscuridad, siendo adecuados para las mediciones efectuadas en las regiones polares propensas al mal tiempo y a largos periodos de oscuridad.
Durante 20 años, las órbitas de los satélites ERS de la ESA  que en ocasiones fueron modificadas, permitieron hacer las mediciones en forma más frecuentes sobre las regiones polares.  Aún cuando las Misiones ERS-1 y 2,  terminaron en los años 2000 y 2011 respectivamente, sus datos archivados siguen siendo extraídos, logrando con ellos hacer nuevos descubrimientos.
Según un estudio publicado recientemente, el adelgazamiento acelerado y el retroceso de la frontera entre el hielo y el mar [la línea de conexión a tierra] en el Glaciar Pine Island, se documentaron con las imágenes del radar ERS. Los resultados han mostrado que entre 1992 y 2011, la línea de conexión a tierra del glacial, retrocedió en una media de 20 kilómetros, llegando a un máximo de 40 Km., en la sección central. El retiro se mantuvo constante mientras que el hielo se adelgazaba en más de 200 metros durante los 20 años. Esta aceleración, es consistente  con el aumento de la fusión impulsada por el calentamiento del agua del océano, en la cavidad debajo de la sección flotante de la capa de hielo.




Esta imagen del Envisat muestra el Glacial Pine Island en la Antártica Occidental, revelando la grieta que se observa en la lengua del glacial, de unos 25 kilómetros de largo. Esta imagen  fue lograda mediante el radar del Envisat, el 06 de abril de 2012, dos días antes que el contacto con este satélite se perdiera.
Envisat tuvo una vida útil de 10 años, sus imágenes fueron constantemente utilizadas  para monitorear el hielo en la Antártica ya que sus equipos pueden ver a través de las nubes y la oscuridad. Crédito: ESA
   
“Un primer reto en el seguimiento del adelgazamiento del hielo en la interfaz océano-hielo, es para medir el desplazamiento del hielo con la suficiente precisión para ser sensibles a la flexión de la marea del hielo en la línea de puesta a tierra, el punto en el que el hielo se vuelve a flote” dijo Noel Gourmelen de la Universidad de Edinburgo y co-autor del estudio, y continua: “Un segundo reto consiste en distinguir entre el flujo de hielo de unos 4 kilómetros por año y la flexión de la marea alrededor de 1 metro que son a la captura dentro de una sola medida”.
Para ello, los científicos han utilizado “interferometría radar”, la combinación de dos o más imágenes de radar sobre la misma área, lo que permite detectar los cambios que se producen entre las exploraciones.

Con la frecuente cobertura lograda al final de su vida por el ERS-2, los científicos fueron capaces de extraer la flexión de la marea, en los mapas de velocidad alcanzada por el hielo.
En combinación con las observaciones anteriores hechas por ambas ERS-1 y ERS-2, se ha logrado consignar con una mayor precisión en el Glacial Pine Island,  el adelgazamiento del hielo en los últimos  20 años.

La Interferometría de radar permitió cartografiar el retroceso de la línea de conexión a tierra del glacial Pine Island. Entre 1990 a 2011 la línea de conección a tierra se retiró en un promedio de 20 km., alcanzando 40 km., en el tramo central. Crédito:ESA

Debido a que la fusión de los glaciares no parece retrasar o estabilizarse en algún momento, los investigadores creen que las proyecciones existentes de la elevación del nivel del mar, puede ser demasiado conservadora, debido a que Pine Island podría contribuir más de lo previsto.
Mientras que las imágenes de radar de los satélites ERS, así como de  la Misión Envisat, la cual terminó en 2012 y que durante su vida útil sus imágenes fueron constantemente utilizadas para monitorear el hielo antártico, proporcionó una información crucial sobre la evolución de la capa de hielo en la Antártica, lo que hace necesario, la continuación de mantener una cobertura que permite el seguimiento de los glaciares y el aumento del nivel del mar.

La próxima misión Sentinel-1 correspondiente al Programa Copernicus, medirá  a intervalos frecuentes la velocidad rutinaria del hielo, permitiendo en esta forma, un preciso control de la interacción entre el hielo y los océanos a nivel mundial. La primera misión de satélites de doble vía, el Sentinel-1A, que se lanzará el 03 de abril de 2014.

Fuente: ESA Observando la Tierra – 27.03.2014

jueves, 27 de marzo de 2014

CONTRIBUCIÓN DE LAS CAPAS DE HIELO AL EQUILIBRIO DEL NIVEL DEL MAR


La tasa de pérdida de hielo en Groenlandia y la Antártida está aumentando. De 1992 a 2012, las dos capas de hielo han contribuido con un total de 11.1 mm a los niveles globales del mar. Esto es aproximadamente el 20% de toda la subida del nivel del mar durante ese período de 10 años. Crédito: ESA

 El agua de los deshielos de los glaciares, junto con la expansión térmica del agua a través de los océanos debido al aumento de las temperaturas, están causando el aumento global del nivel del mar. Los científicos están explotando los datos obtenidos por satélites para mejor entender hasta que punto cada componente contribuye a esta devastadora consecuencia generada por el Cambio Climático.
Las últimas estimaciones indican que el nivel global del mar está aumentando en alrededor de 3 mm por año, transformándose en una de las principales amenazas del calentamiento global, sobre todo para las zonas costeras con baja altitud.
La identificación de los contribuyentes individuales a la elevación del nivel del mar es uno de los más complicados retos que la ciencia del clima debe enfrentar; por cuanto implica el seguimiento del agua a medida que avanza en todas sus formas - sólida, líquido o gas - alrededor de la Tierra.
Mientras que los satélites de observación terrestre mapean de manera continua los cambios mundiales y regionales del nivel del mar, los datos obtenidos también pueden ser utilizados para cuantificar la cantidad de agua procedente de diversas fuentes.

Bajo la Iniciativa de Cambio Climático de la ESA (CCI), los expertos en los ámbitos de los océanos:  la tierra, la atmósfera y la criosfera,  trabajan en conjunto para cuantificar las diferentes fuentes de cambio del nivel del mar, lo que se conoce como estimación del equilibrio del del nivel del mar.
"Hemos estado reprocesamiento de datos de altimetría de siete satélites para mejorar las estimaciones del nivel medio del mar global y su variabilidad regional", dijo Anny Cazenave, científico senior del Laboratorio de Estudios en Geofísica y Oceanógraficas Espaciales (LEGOS) de la agencia espacial francesa CNES y líder del proyecto CCI nivel del mar.
"Traer a los resultados junto a otros proyectos del CCI, como los de las capas de hielo y glaciares, nos está ayudando a comprender mejor el presupuesto del nivel del mar."
Los cambios en la masa de las capas de hielo y los glaciares se pueden asignar mediante altímetros de radar por satélite, como el que vuela en CryoSat de la ESA, que fue especialmente diseñado para estudiar el hielo. Los científicos, mediante el seguimiento de estos cambios, pueden medir la cantidad de agua que contribuye al incremento oceánido.
"Dentro del proyecto de las placas de hielo CCI, nuestro objetivo es controlar las capas de hielo polares, ya que responden a los cambios del clima, medidas que nos ayudarán a comprender mejor los orígenes de la subida global del nivel del mar, para mejorar con certeza las futuras proyecciones del nivel mar- ", dijo Andrew Shepherd de la Universidad de Leeds, Reino Unido.
Las capas de hielo que cubren Groenlandia y la Antártica han contribuido alrededor de 0,6 mm por año al incremento del nivel global del mar desde el año 1993, siendo las responsables de aproximadamente del 20% de toda la subida del nivel del mar. 
Aunque esto puede parecer pequeño, su contribución anual ha aumentado casi tres veces durante ese período. Mientras que los glaciares han sido responsables de una fracción mayor [27%] sus pérdidas han sido relativamente estable durante las últimas dos décadas.
“Recientemente hemos compilado nuevas evaluaciones de la contribución de los glaciares al aumento del nivel del mar; utilizando en forma completa, el primer inventario de glaciares de todo el mundo, además, una amplia gama de datos obtenidos ya sea por satélites, en terreno u otras medidas”, dijo  Frank Paul, Científico Senior  del Departamento de Geografía de la Universidad de Zurich y líder del Proyecto Glaciares CCI; "Más del 90% de la contribución proviene de sólo cinco regiones: Alaska, el Ártico canadiense y los glaciares de Groenlandia, así como de la alta montaña de Asia y la Patagonia."
Otra contribución importante es el impacto que el aumento de las temperaturas globales tiene sobre los océanos y mares [causante de la dilatación térmica]. Radiómetros como el que voló a bordo del satélite Envisat que permiten a los científicos monitorear los cambios en la temperatura de la superficie del mar, y sensores en las mediciones de la red de boyas Argo, permiten obtener perfiles de la temperatura bajo el agua. Estas mediciones, basadas en los datos satélitales y oceanográficos, son utilizados juntos para calcular la contribución de la expansión térmica en los niveles del mar [estimándose un 37% entre 1993-2010].
La cuantificación de las contribuciones a la elevación del nivel del mar a partir de la fusión del hielo, debido al calentamiento del océanico, dará lugar en el futuro a mejores predicciones en los cambios del nivel del mar. Estas predicciones son imprescindibles para el desarrollo de las estrategias de mitigación, especialmente para las zonas costeras de baja altitud.
Con el fin de hacer estas predicciones, los datos de los satélites se utilizan para validar los modelos climáticos desarrollados para estimar los futuros cambios de los parámetros climáticos, incluyendo el nivel del mar.  Con el propósito de ganar confianza en los cambios proyectados, primero se tiene que comprobar que los modelos climáticos, sean  capaces de reproducirse actualmente en forma correcta  con los recientes registros de las variaciones pasadas.
La primera fase de los proyectos de CCI están ahora completos, y los científicos están trabajando en la combinación de sus bases de datos para obtener una visión más clara del desequilibrio hidrológico de la Tierra.
Fuente: ESA 26 de marzo de 2014

miércoles, 19 de marzo de 2014

20 DE MARZO 2014 EQUINOCCIO DE OTOÑO


Hoy  20 de marzo, a las 16:57  TUC  [13:57 hora Chile Continental verano], será el Equinoccio de Otoño en el Hemisferio Sur. Es el momento en que el día y la noche tendrán  una igual duración [excepto en los polos]. El otoño tendrá una duración de 91 días. 
El día de los equinoccios, el Sol sale exactamente por el punto Este y se pone por el punto Oeste en todos los lugares de la Tierra, excepto en los Polos, donde no sale ni se pone. En el ecuador, el Sol alcanza el cenit
 El equinoccio se produce al proyectar la línea del ecuador de nuestro planeta hacia el espacio, línea imaginaria que denominamos ecuador celeste.  Marca el punto sobre la esfera celeste donde el ángulo de los rayos solares mide 90º en relación con el eje del planeta; en esta posición del eje, ninguno de los polos se inclina hacia el Sol.
El equinoccio vernal también se conoce como el primer punto de Aries, mientras que al equinoccio otoñal se dice el primer punto de Libra. Esto se debe a que, hace unos 2.000 años, los equinoccios marcaban el inicio de dichas constelaciones. Sin embargo, actualmente el equinoccio vernal ocurre en la constelación de Piscis, debido a la precesión de los equinoccios (un ciclo de 26.000 años que resulta en el movimiento gradual de los equinoccios hacia el occidente).

EL AMAZONAS Y SU PARTICIPACIÓN EN EVITAR EL CALENTAMIENTO GLOBAL

Copas de los árboles  en el Bosque Nacional de Tapajós, Brasil. Nuevo estudio de la NASA muestra que los árboles vivos en el bosque virgen del Amazonas, consumen más dióxido de carbono del aire, que los árboles muertos emiten. Crédito: NASA / JPL-Caltech
Un nuevo estudio dirigido durante siete años por la NASA ha confirmado que los bosques naturales de la Amazonía eliminan más dióxido de carbono de la atmósfera del que emiten,  colaborando en esta forma en la reducción del calentamiento global. Este hallazgo resuelve un debate de larga data acerca del componente clave que afecta la balanza global del carbono en la cuenca del Amazonas.
Un balance del comportamiento del carbono en la zona del Amazonas es una cuestión de vida o muerte: Los árboles vivos toman el dióxido de carbono del aire a medida que crecen; los árboles muertos lo ponen nuevamente en el aire  incrementando el efecto invernadero a medida que se descomponen. 
El nuevo estudio, publicado en Nature Communications el 18 de marzo, es el primero que ha logrado medir la muerte de árboles causadas por procesos naturales a lo largo de la selva amazónica, incluso en zonas remotas donde no hay datos, estos  han sido recopilados a nivel del suelo.
Fernando Espírito Santo-del Laboratorio de Propulsión a Chorro de la NASA en Pasadena, California, principal autor del estudio, creó nuevas técnicas que permiten analizar estos y otros datos vía satélite. Él encontró que cada año, los árboles amazónicos muertos emiten un estimado de 1.900 millones de toneladas (1,7 mil millones de toneladas métricas) de carbono a la atmósfera. Para compararlo con la absorción de carbono del Amazonas, los investigadores utilizaron los censos de crecimiento de los bosques y los diferentes escenarios del modelo que representaron incertidumbres. En todos los escenarios, la absorción de carbono por los árboles vivos compensaba las emisiones procedentes de los árboles muertos, indicando en esta forma, que el efecto predominante de los bosques naturales de la Amazonía es la absorción.
Hasta ahora los científicos sólo habían sido capaces de una estimación  del balance total del carbono de la Amazonia, limitadas a partir de las observaciones de las zonas forestales en pequeñas parcelaciones. En estas parcelas, el bosque retira más carbono del que emite, pero la comunidad científica ha estado debatiendo vigorosamente lo bien que las parcelas representan todos los procesos naturales en la gran región del Amazonas. Ese debate comenzó con el descubrimiento en la década de 1990 en que grandes áreas de bosques estaban siendo exterminadas por las intensas  tormentas en eventos llamados purgas.
Espírito Santo - dijo que la idea del estudio surgió de un taller del año 2006 donde los científicos de varios países se reunieron para identificar mediante los instrumentos de los satélites de la NASA como podrían ayudar a comprender mejor el ciclo del carbono de la Amazonía. En los años transcurridos desde entonces, trabajó con 21 coautores de cinco países para medir el impacto de carbono debido a la muerte de árboles en el Amazonas por todas las causas naturales - desde purgas de gran superficie a los árboles individuales que mueren de viejos. Él utilizó los datos del aerotransporte LiDAR e imágenes de satélite, durante un lapso de 10 años de mediciones de las parcelas, y que fueron  recopilados por la Universidad de Leeds, Inglaterra, bajo la dirección de Emanuel Gloor y Oliver Phillips. Él estima que él mismo pasó una mitad de años haciendo trabajo de campo en la Amazonia.
"Fue un estudio difícil y audaz, y la dedicación única de Espírito Santo lo hizo posible", dijo Michael Keller, científico investigador en el Servicio Forestal de EE.UU. y coautor del estudio. La correlación de datos aire-tierra del  equipo, se obtuvieron con observaciones por satélite y, Espírito Santo y sus colegas, idearon métodos para identificar los árboles muertos en diferentes tipos de imágenes obtenidas por remotos sensores. Por ejemplo, los árboles caídos crean un hueco en el dosel del bosque que puede ser medido por el lidar en aviones de investigación, y la madera muerta cambia los colores de una imagen óptica por satélite. Luego, los investigadores redujeron sus técnicas para que pudieran ser aplicadas a datos aéreos de las partes de la Amazonía que no tienen antecedentes terrestre o vía satélite.
"Encontramos que las grandes perturbaciones naturales - el ordenar no capturado por parcelas - sólo tienen un efecto pequeño sobre el ciclo del carbono en toda la Amazonía", dijo Sassan Saatchi, del JPL, también co-autor. Cada año, alrededor de un dos por ciento de toda la selva amazónica muere de causas naturales. Los investigadores encontraron que sólo el 0,1 por ciento de esas muertes son causadas por las purgas. Este estudio se centró solamente en los procesos naturales de la Amazonía, no en los resultados de las actividades humanas, como la tala y la deforestación, las cuales varían ampliamente y rápidamente con los cambios de las condiciones políticas y sociales.
Las otras instituciones que participan en el estudio son la Universidad de New Hampshire, Durham, las Universidades de Leeds y Nottingham, Reino Unido, la Universidad de Oxford, Reino Unido, la Universidad James Cook, Cairns, Australia, del Servicio Forestal de EE.UU. Instituto Internacional de Dasonomía Tropical, Puerto Rico; EMBRAPA satélite Center, Campinas, Brasil Monitoreo; Instituto Nacional de Investigaciones de la Amazonía, Manaus, Brasil, EMBRAPA Amazonia oriental, Santarém, Brasil, el Instituto Nacional de Investigaciones Espaciales (INPE), São José dos Campos, Brasil, el Jardín Botánico de Missouri, Oxapampa , Perú y el Instituto Carnegie para la Ciencia, Stanford, California
NASA vigila los signos vitales de la Tierra, de su suelo, el aire y el espacio, con una flota de satélites y una ambiciosa campaña de observación desde el aire y también  en tierra. 
NASA esta desarrollando nuevas formas de observar y estudiar los sistemas naturales interconectados de la Tierra, con los registros de datos a en el largo plazo, con herramientas de análisis mediante computadoras que permiten una mejor observación de cómo está cambiando nuestro planeta.
Con este conocimiento, las acciones de la agencia son únicas para la comunidad mundial,  trabajando además,  con instituciones en los Estados Unidos y en todo el mundo, permitiendo que se contribuya a la comprensión y protección de nuestro planeta.
Para leer más sobre el tema, utilizar este enlace de NASA.
Fuente:JPL-Caltech / NASA


viernes, 14 de marzo de 2014

¿ES POSIBLE QUE ANALGÉSICOS CONVENCIONALES PUEDAN SUSTITUIR A LOS ANTIBIÓTICOS?


Imagen: Estructura cristalina de la unión de un fármaco anti-inflamatorio no esteroide [AINES] con la β-subunidad de la Polimerasa III de la Escherichia coli. Crédito:  Aaron Oakley, UOW

Fármacos Anti-inflamatorios no esteroides (AINES) parecieran tener efectos antibióticos, es la conclusión que han llegado, después de estudiar la lucha contra la resistencia de múltiples fármacos, Aaron Oakley de la Universidad de Wollngong y sus colegas.  Ellos examinaron los fármacos convencionales que ayudan contra el dolor, la fiebre y la inflamación; por cuanto se sospechaba que los fármacos antiinflamatorios (no esteroides) conocidos, también podrían matar las bacterias.

El término antiinflamatorio se aplica al medicamento o procedimiento médico usado para prevenir o disminuir la inflamación de los tejidos. Por su mecanismo  de acción se pueden agrupar en inhibidores no selectivos de la ciclooxigenasa e inhibidores selectivos de la ciclooxigenasa-2, es decir, según su acción frente a la síntesis de prostaglandinas y tromboxanos.
El AINE prototipo es el acido acetilsalicílico, más conocido por su nombre comercial de Aspirina, que químicamente es parte de los salicilatos y su mecanismo de acción es inhibir la actividad ciclooxigenasa de la PG sintetasa al acetilar irreversiblemente un residuo de serina. Aparte de ser antiinflamatorio, analgésico y antipirético,  tiene efectos antiagregantes plaquetarios antitrombótico, por lo cual es utilizado en la profilaxis del infarto de miocardio.

Los investigadores descubrieron que algunos de estos AINES son capaces de adherirse a una proteína bacteriana, que es el instrumento que permite ayudar a replicar el ADN del patógeno y su reparación. Específicamente se trata de la β-subunidad de la Polimerasa III del Escherichia coli. Si el funcionamiento de  esta proteína esta impedida específicamente por los AINES, ya no es posible que las bacterias se multipliquen.
Esta proteína es considerada evolutivamente antigua, y por lo tanto, probablemente muchas, si no todas, las bacterias serían vulnerables a los AINES.
El descubrimiento del equipo de investigación Australiano, podría ser utilizado para desarrollar nuevas estrategias que permitan combatir las cepas multi resistentes de bacterias; sin embargo, los científicos no creen que las preparaciones de los analgésicos tradicionales se puedan utilizar para éste propósito por cuanto la acción antibacteriana es más bien baja. Ellos prefieren proponer ocupar el mecanismo de acción de los AINES, en el desarrollo de nuevos fármacos.
Fuente: Spektrum.de (Sophia Guttenberger-Bióloga) / Wikipedia /

[Spektrum.de traducción libre del alemán]

VIERNES 14 DE MARZO EL DIA DE Pi Y DEL NACIMIENTO DE ALBERT EINSTEIN


Crédito: Wikipedia

Hoy viernes 14 de marzo, es el día de Pi, la ocasión para celebrar una de las constantes matemáticas más misteriosas y atractivas de la naturaleza por representar la relación de la circunferencia de un círculo y su diámetro.

Pi aparece en las ecuaciones que describen las órbitas de los planetas, en los colores de la aurora, en la estructura del ADN, en resumen, Pi es el valor en el cual se teje la vida, el universo, es todo nuestro cielo, ayuda alimentar las naves espaciales, mantiene el movimiento  de las ruedas de los rovers de Marte, permite mirar más allá de las nubes de Júpiter y nos da perspectivas sobre nuestro planeta Tierra, es un todo.
   
Los seres humanos han luchado por calcular  durante miles de años; nunca han logrado concretar  un valor definido para piaun cuando su valor es finito, tres [3], después de la coma, el número decimal diríamos que es infinito.

Las supercomputadoras no han logrado determinar el decimal definitivo, se ha llegado a 2.700 billones de dígitos más allá de su punto decimal y no logran alcanzar su valor final.

Es un número irracional y trascendental que continuará infinitamente sin repetición o patrón. Mientras que un puñado de dígitos se necesitan para los típicos cálculos, la naturaleza infinita de pi es un desafío de memorizar; y en la actualidad, si utilizamos las computadoras, ellas calcularan más, y más, y más dígitos.

3.1415926535897932384626433832795 
02884197169399375105820974944592307
81640628620899862803482534211706... more

Una de las formas más raras de calcular pi, es tirar agujas en una mesa, que se conoce como la  agujas de Buffon; quien logre determinar el valor final de  Pi, tiene su futuro asegurado.


Albert Einstein


 También hoy 14 de marzo, se cumplen 135 años del nacimiento de Albert Einstein, físico alemán de origen judío, posteriormente nacionalizado  suizo y estadounidense; es considerado como el científico más importante del siglo XX; nació en Ulm Alemania el 14 de marzo de 1879. Falleció a la edad de 76 años en Princeton, New Jersey, EE.UU., el 18 de abril de 1955.

¿Qué relación existe entre  Einstein y Pi?

Einstein nació el día  14  de marzo; Marzo = mes 3; 14 =  inicio de los decimales de Pi, he ahí la relación: 3,14… fascinante.

Hoy en Princeton,  celebran ambas fechas, el nacimiento de Einstein y el día de pi; en este enlace está el Programa de Celebraciones 2014.
Fuente: Pi Day Princeton / JPL-Caltech / Wikipedia / Space Weather et al.

“En la circunferencia, el comienzo y el fin coinciden”.
Heráclito 554 – 480 a.C. Filósofo Griego.
  
Lecturas afines:

domingo, 9 de marzo de 2014

IDEAN DISPOSITIVOS PARA CONVERTIR LA EMISIÓN INFRARROJA DE LA TIERRA EN UNA FUENTE DE ENERGÍA

Credito: SEAS / Steven J.Byrnes

Nuestro planeta, debido a la energía solar que recibe, es mucho más caliente que su gélido entorno.
Esta situación,  ha permitido que un equipo de físicos de la Harvard School of Engineering and Applied Sciences (SEAS) de EEUU idear dispositivos con el cual se podría aprovechar la energía de las emisiones infrarrojas que la Tierra lanza al espacio, permitiendo generar así un flujo continuo de carga eléctrica o de corriente continua (CC).
Caroline Perry en un comunicado de la SEAS, dice que gracias a los avances tecnológicos recientes, este desequilibro de calor sería aprovechado como una fuente de vasta energía que por ahora es inexplotada.
Eso sí, que para poder “generar energía por emisión, y no por absorción de luz”, algo que parece contrario a la lógica, hay que hacer uso de una aplicación completamente nueva, basada en la física a nano  escala, explica el principal investigador y autor de la idea, el profesor Federico Capasso de SEAS.

Capasso es famoso a nivel mundial como experto en física de semiconductores, fotónicos y electrónicos. En 1994 co-inventó el láser ifrarrojo de cascada cuántica y en 2001 demostró que un fenómeno cuántico electrodinámico elusivo, conocido como “Fuerzas de Casimir”, funcionaba, ya que él y sus colaboradores consiguieron en concreto, poner en marcha un sistema microelectromecánico a MEMS con dichas fuerzas, las cuales eran mínimas.

Capasso y su equipo siempre han tratado de cuestionar las suposiciones establecidas sobre óptica y electrónica, de manera rigurosa. Ahora se han lanzado a cuestionar las ideas sobre uno de los rangos del espectro electromagnético (que es el conjunto de las ondas electromagnéticas que emite cualquier objeto): el infrarrojo medio, , a menudo también denominado infrarrojo térmico. 
Según el científico “el infrarrojo medio ha sido, en general, una parte descuidada del espectro”, por su dificultad para trabajar con él. Pero Capasso propone aprovecharlo fabricando un panel solar fotovoltaico que, en lugar de capturar la luz visible entrante, genere energía eléctrica a partir de la emisión de luz infrarroja. 
“La luz del Sol tiene energía, así que la fotovoltaica tiene sentido; simplemente se recoge esa energía. Pero eso no es tan simple realmente, y capturar energía de luz infrarroja emitida es incluso menos intuitivo”, señala Steven J. Byrnes, uno de los colaboradores de Capasso en el SEAS y principal autor de un artículo sobre la idea publicado aparecido en  PNAS. 
“No resulta obvia la cantidad de energía que podría generarse por esta vía (…) hasta que te sientas y haces cálculos”. Resulta que éstos han demostrado que la energía producida sería modesta pero real. De este modo, un dispositivo que aprovechase las emisiones infrarrojas podría, por ejemplo, acoplarse a una célula solar tradicional para obtener un extra de energía durante la noche, sin coste de instalación añadido.

Para demostrar las posibilidades del sistema, el grupo de Capasso sugiere fabricar dos tipos distintos de recolectores de la energía infrarroja emitida: uno análogo a un generador de energía solar térmica, y otro similar a una célula fotovoltaica. Aunque ambos funcionarían a la inversa. 
El primero de los sistemas sería un plato “calentado” a la temperatura de la Tierra y del aire, con otro plato “frío” situado sobre él. Los científicos han calculado que la diferencia de calor entre ambos platos generaría unos cuantos vatios por metro cuadrado, día y noche. 
El segundo dispositivo estaría basado también en las diferencias de temperatura, pero entre componentes electrónicos fabricados a nano escala (en concreto, diodos y antenas). 

Simplificando, los componentes de un circuito eléctrico pueden de manera espontánea impulsar una corriente en cualquier dirección. Si en un sistema un diodo se encuentra a una temperatura más alta que un resistor o resistencia eléctrica, el primero impulsará una corriente eléctrica en una dirección, produciendo un voltaje positivo. 
Capasso y su equipo sugieren que el papel de esa resistencia podría desempeñarlo una antena microscópica que emitiera de manera muy eficiente la radiación infrarroja natural de la Tierra hacia el cielo, enfriando los electrones presentes sólo en una parte del circuito. 
El resultado, asegura Byrnes, sería “conseguir una corriente eléctrica directamente del proceso de radiación, sin tener que pasar el paso intermedio de enfriar un objeto macroscópico”. Según el artículo, un solo dispositivo plano podría ser revestido con muchos de estos circuitos pequeños, dirigidos hacia el cielo, y así usado para generar energía.
 

El novedoso método sería factible gracias a desarrollos tecnológicos recientes, como los avances en plasmónica, en electrónica a pequeña escala, en nuevos materiales como el grafeno o en nanofabricación.
 
Sin embargo, incluso los mejores diodos de infrarrojo modernos presentan un problema. El voltaje que se produce a partir de emisiones infrarrojas es relativamente bajo y “es muy difícil crear un diodo de infrarrojo que funcione bien” con esos voltajes, afirma Byrnes.
 

Los ingenieros y los físicos del equipo de investigación están considerando nuevos tipos de diodos que puedan rendir bien con los voltajes más bajos, como
 diodos túnel‎ o diodos balísticos. También contemplan incrementar la impedancia de los componentes del circuito para aumentar el voltaje hasta un nivel más práctico. 
La velocidad supone otro desafío, pues para las señales infrarrojas se necesita un tipo de diodo que se pueda encender y apagar 30 trillones de veces por segundo. “Necesitamos atender los requisitos de velocidad al mismo tiempo que los requisitos de voltaje e impedancia”, explica Byrnes, y concluye: “Ahora que comprendemos las restricciones y necesidades, nos encontramos en una buena posición para trabajar en el diseño de una solución”.
El trabajo del Profesor Federico Capasso, Steven J. Byrnes y Romain Blanchard titulado Harvesting renewable energy from Earth's mid-infrared emissions se encuentra en PNAS (2014) DOI 10.1073/pnas 1402036111.

Fuente: Compilado de Tendencias 21 - 

jueves, 6 de marzo de 2014

MAPA - VARIABILIDAD DE LA PRESIÓN ARTERIAL [PA] DURANTE 24 HORAS


MAPA -Crédito: Medicina preventiva

Las mediciones de la Presión Arterial [PA] en el consultorio [BP] han reconocido limitaciones, que incluyen la incapacidad de recopilar información de BP durante un largo período de tiempo, y en especial, durante las actividades diarias habituales de una persona. Es importante por lo tanto, que se pueda utilizar tanto en el hogar como en el lugar en el cual se desempeñe, una vigilancia ambulatoria [MAPA], permitiendo una complementación de las mediciones efectuadas en los lugares convencionales, mejorando en esta forma,  el valor del pronóstico.

Mapa  o Monitoreo Ambulatorio de la Presión Arterial; también llamado Holter de Tensión Arterial para diferenciarlo del Holter de Arritmias, es un método técnico no invasivo que pretende obtener una medición de la PA durante un período de tiempo determinado, generalmente de 24 horas, en forma ambulatoria, de tal forma que los datos de tensión arterial recogidos, puedan ser posteriormente analizados por el médico tratante.
Es de particular relevancia la capacidad de MAPA para cuantificar en 24 horas el grado de variabilidad de la PA. que ha demostrado que es un factor de riesgo significativo e independiente para cardiovascular [CV] la morbilidad y la mortalidad.
Veinticuatro horas de variabilidad de la PA esta fuertemente asociada con los resultados clínicos y la capacidad de MAPA para proporcionar una cuantificación de la PA a lo largo de un período de 24 horas durante la rutina diaria normal de un individuo, es una de las razones de su alto valor de pronóstico.
El índice de uniformidad [SI - Smoothness Index] proporciona una medida útil de la eficacia del tratamiento hipertensivo sobre un período de dosificación de 24 horas, permitiendo evaluar sus valores por ser más alta con agentes hipertensivos, que tienen grandes y consistentes efectos a través de las 24 horas.
El Telmisartán y el Amlodipino son fármacos antihipertensivos de acción prolongada que, en combinación, no solo reducen las 24 horas del promedio de la PA en las respectivas monoterapias, pero también promocionan un significativo SI. La provisión homogénea de un control de 24 horas de la PA, tiene, por lo tanto, importantes implicaciones clínicas.
Mantener un suave BP, en especial, en el período de  dosificación en  24 horas, puede contribuir a una mejoría en los resultados CV y en la reducción de la variabilidad de la PA, pudiendo así disminuir el daño del órgano y reducir el riego CV.
El trabajo completo efectuado por el Profesor Gianfranco Parati del Departamento de Cardiología del Ospedale San Luca / Universidad de Milano, Italia y Helmut Schumacher de Boehringer Ingelhein GMBH y Co KG de Alemania, se encuentra en la Revista Nature –Hypertension Research (2014) 37,187-193;Doi 10.1038I
 Fuente: Nature / Medicina Preventiva.com
Lectura relacionada:



sábado, 1 de marzo de 2014

SANDÍA: SU JUGO PODRÍA ALIVIAR EL DOLOR MUSCULAR


La fórmula H2NC(O)NH(CH23CH(NH2)CO2H excentuando a los profesionales de la química, física, etc.,  para los neófitos científicos no nos dice mucho; ella corresponde a la fórmula química de la L-citrulina.
La L-citrulina es un compuesto orgánico, un aminoácido α-aminoácido perteneciente al grupo de los aminoácidos no proteicos; su nombre se deriva de citrullus, palabra en Latín para la Sandía [Watermelon en inglés], siendo aislada por primera vez por Koga y Odake en 1914 e identificada por Wada en 1930.

¿Porqué en la actualidad ha cobrado importancia? Se debe a que en el Journal of Agricultural and Food Chemistry fue publicado el resultado del estudio “Watermelon Juice: Potencial Functional Drink for Sore Muscle Relief in Athetes” [Jugo de Sandía: Bebida potencialmente funcional para el Alivio del Dolor Muscular en los Atletas – en español].

La L-citrulina es un excelente candidato para reducir el dolor muscular, y la sandía es una fruta rica en este aminoácido. Es la conclusión a la cual han llegado el equipo investigativo compuesto por Martha P. Tarazona-Díaz, Fernando Alacid, María Carrasco, Ignacio martínez y Encarna Aguayo que aparece en el Diario de Agricultura y Química Alimenticia. 
El estudio investigó el potencial que tiene el jugo de sandía como bebida funcional para los atletas, en el cual atribuyen el mencionado efecto a la L-citrulina, que en forma de suplemento, ha sido utilizada por años para mejorar el desempeño de los atletas.

Los investigadores creen que beber este jugo, ayudaría a que los músculos capten más oxígeno, permitiendo  así su rápida reparación.
Se requieren más estudios para lograr determinantes conclusiones, por cuanto se monitorearon atletas que habían ingerido el jugo de sandía, y también un placebo.
El estudio consistió en: Una hora antes de de ejercitarse, siete voluntarios de veintiuno tomaron 500 ml de jugo natural de sandía, otros siete tomaron jugo de sandía enriquecido con L-citrulina y los siete restantes tomaron 500 ml de un placebo que no contenía L-citrulina.
Los dos primeros grupos sintieron alivio del dolor muscular 24 horas después de haber realizado el ejercicio, sin embargo, los del primer grupo se sintieron más aliviado, lo cual puede significar que la L-citrulina en el jugo natural de sandía, sin pasteurizar,  “parecía estar más biodisponible en una forma en que el cuerpo podía utilizarla mejor”, incluso disminuyó el ritmo cardíaco mientras consumieron el jugo.
El trabajo investigativo  se encuentra en DOI: 10.1021/jf400964r Agric.Food Chem…2013

Paralelamente, podría ser una buena opción para aliviar los dolores musculares en las personas de mayor edad.

Fuente: Wikipedia / Salud UC Nº 29 / La Nación / Journal of Agricultural and Food Chemistry /soca