No me digas tu edad, dime tu fuerza de agarre: cómo simples gestos nos dicen lo bien que estamos envejeciendo

No me digas tu edad, dime tu fuerza de agarre: cómo simples gestos nos dicen lo bien que estamos envejeciendo

En los últimos días, diversos medios se han hecho eco de las declaraciones que hacía en su podcast Peter Attia, médico experto en longevidad. En su programa, The Peter Attia Drive, el sanitario explicaba que un hombre de entre 40 y 50 años debería ser capaz de poder cargar su propio peso (el 75% de su peso en el caso de las mujeres) repartido entre sus dos manos y caminar durante un minuto.

Esto nos plantea una curiosa duda: ¿qué tiene que ver nuestra fuerza de agarre con la longevidad?

Pues, aunque pueda parecer sorprendente, nuestra fuerza de agarre puede decirnos mucho sobre cómo estamos envejeciendo. Diversos estudios publicados en los últimos años parecen confirmar esta relación, convirtiendo a la fuerza de agarre en un importante biomarcador vinculado a un envejecimiento saludable.

“Las personas con mejor fuerza de agarre envejecen más lentamente. Tener una buena fuerza de agarre puede ralentizar el proceso de inmunosenescencia, o el deterioro de tu defensa inmune asociado a la edad”, explica Ardeshir Hashmi, médico en la Cleveland Clinic. “También puede mejorar tu habilidad para recuperarte de enfermedades, u homeostenosis. Finalmente, puede prevenir la fragilidad.”

La falta de fuerza de agarre es, para este experto, no solo indicador de un envejecimiento más rápido, también señal de un mayor riesgo de aparición de enfermedades crónicas e, incluso, de una menor esperanza de vida.

La literatura científica parece secundar esta relación. Un estudio publicado este mismo año en la revista Scientific Reports, es buen ejemplo de ello. El estudio analizó una población de 1.446 participantes de edades comprendidas entre los 50 y los 90 años de edad, la mayoría (1.095) mujeres.

El equipo midió la fuerza de agarre de cada participante, que también rellenó una encuesta enfocada en estimar su calidad de vida. El equipo halló una relación significativa entre agarre y la evaluación general del nivel de calidad de vida.

Otro estudio reciente, publicado en 2023 en la revista Journal of Cachexia, Sarcopenia and Muscle, empleaba relojes biológicos para estudiar la relación entre fuerza de agarre y envejecimiento. Los relojes biológicos son diferentes biomarcadores que indican en qué medida o a qué ritmo envejece nuestro cuerpo más allá de nuestra edad cronológica estándar.

El equipo responsable del estudio también encontró una relación inversa entre envejecimiento, medido a través de marcadores de la metilación del ADN, y la fuerza de agarre. En otras palabras: las personas con mayor fuerza de agarre tienden a envejecer de forma más lenta según lo observado en este estudio.

Publicado en la misma revista, pero un año antes, otro estudio halló que la escasa fuerza de agarre se asociaba a un mayor riesgo de padecer demencia y a una mayor mortalidad. Esto teniendo en cuenta factores asociados que pudieran llevar a error al establecer la relación.

Estos son algunos de los ejemplos recientes hallados en la literatura. En 2019, una revisión de la literatura publicada en la revista Clinical Interventions in Aging ya había encontrado, en análisis previos, evidencias de la vinculación entre la fuerza de agarre y la salud, a través de factores tan variados como fuerza general, densidad de minerales óseos, fracturas, malnutrición, impedimentos cognitivos, diabetes, depresión o calidad de vida, entre otros.

Remediando la pérdida

Algunos médicos, como el doctor Hashmi recomiendan el ejercicio para evitar la pérdida de esta fuerza de agarre, una pérdida asociada a la edad que tiende a comenzar alrededor de la edad de 50.

Según Hashmi, esto puede ser tan sencillo como apretar una bola (como las clásicas bolas antiestrés) durante al menos 10 minutos y dos veces al día. Esto sin olvidar ejercicios convencionales que nos pueden ayudar a mantenernos en forma también en edades más avanzadas.

Aunque la recomendación de hacer ejercicio y llevar una vida activa nunca esté de más, cabe resaltar que la relación entre la fuerza de agarre y nuestro bienestar y longevidad es compleja. La correlación no siempre implica una relación de causa directa. Por ejemplo, la fuerza de agarre puede perfectamente estar correlacionada con nuestro estado de salud general.

La gente que se ejercita con frecuencia tendrá probablemente una mayor fuerza de agarre y también un mejor estado de salud. Además, sabemos algunas formas de demencia y enfermedades neurológicas como la escleriosis no solo reducen nuestra calidad de vida, también afectan a nuestra movilidad y a nuestra capacidad de manejar pesos y desenvolvernos a la hora de hacerlo.

En Xataka | Prevenir es mejor que curar: por qué seguir haciendo deporte en la edad adulta nos puede ahorrar un susto con la hipertensión

Imagen | RDNE Stock project

-
La noticia No me digas tu edad, dime tu fuerza de agarre: cómo simples gestos nos dicen lo bien que estamos envejeciendo fue publicada originalmente en Xataka por Pablo Martínez-Juarez .

Leer más

La humanidad lleva siglos utilizando el campo magnético de la Tierra como guía de navegación. Unos investigadores quieren renovarlo

La humanidad lleva siglos utilizando el campo magnético de la Tierra como guía de navegación. Unos investigadores quieren renovarlo

En las últimas décadas, el GPS se ha convertido en parte de nuestro día a día. De ser una tecnología militar, el sistema de posicionamiento global ha pasado a guiarnos por carreteras, bosques y mares, en la ciudad y en la montaña, pero siempre con una importante limitación, el acceso a los satélites que ubican nuestros dispositivos de navegación.

Eso podría cambiar.

MagNav. Gracias a los sistemas de navegación magnética o MagNav, y más concretamente a un nuevo desarrollo que emplea un sistema de ajuste cuántico que promete una navegación más precisa. Una navegación, además, inmune a interferencias, accidentales o provocadas, que permite reducir notablemente la dependencia de la navegación por satélite.

Los sistemas MagNav (Magnetic-anomaly navigation) o navegación por anomalía magnética se basan en el hecho de que el campo magnético de la Tierra no es uniforme. Es por ello que es posible valerse de un magnetómetro que nos indique nuestra posición midiendo pequeñas variaciones en el campo magnético del planeta.

Utilizar el campo magnético de la Tierra como referencia en navegación no es algo nuevo sino algo que llevamos haciendo desde la invención de la brújula, pero el nuevo sistema promete lograr una precisión inusitada. Ahí es donde entra en juego la dimensión cuántica del nuevo sistema.

¿Navegación “cuántica”? La nueva tecnología, explican sus desarrolladores, se basa en la utilización de magnetómetros cuánticos que combinan un sistema de eliminación de ruido con un algoritmo cartográfico. Los magnetómetros se basan en la detección óptica de la precesión del espín atómico, para lo que utilizan una célula de vapor que contiene átomos de rubidio, detallan.

Esta tecnología abre la puerta a lograr medir el campo magnético de la Tierra con mayor precisión, lo que se traduce en una mejor capacidad para ubicarnos en el mapa. Todo ello, también destacan, en un aparato lo suficientemente pequeño como para poder utilizarse en vehículos autónomos o en drones de ala fija.

Q-CTRL. Detrás de este sistema está una empresa australiana, Q-CTRL (nombre que hace referencia a “quantum control”). La empresa surgió en 2017 como un spin-off del grupo de Ciencia Cuántica de la Universidad de Sydney.

Por tierra y aire. ReciePor tierra y aire. Recientemente, el equipo responsable de este sistema lo puso a prueba. Con resultados satisfactorios: el dispositivo obtenía errores en las mediciones hasta 46 veces menores que los sistemas navegación inerciales habitualmente empleados como complemento de los satelitales.

Las mediciones se realizaron en vuelos a una altura de 19.000 pies, en los que también se logró volar con un error total en el viaje de 22 metros, el 0,006% de la distancia recorrida. Los resultados fueron “consistentemente” al menos 11 veces mejores que los obtenidos con sistemas inerciales.

El equipo responsable del desarrollo de la nueva herramienta ha publicado algunos detalles en un artículo. El artículo no ha pasado el filtro de la revisión por pares pero puede consultarse libremente a través del repositorio ArXiv.

Sustituto o complemento. Los sistemas de navegación por satélite son hoy en día centrales y este es precisamente su punto débil: la irrupción de las señales de GPS pone en riesgo tanto rutas comerciales como transporte de pasajeros, pero también podría poner en jaque las operaciones militares en los casos de conflicto armado. La intercepción de estas señales puede por tanto ser empleada tanto como arma comercial como bélica.

Contamos con diversas herramientas que permiten asistir a la navegación por satélite, pero pocos sistemas pueden a la vez tener la precisión de estos sin depender de ellos. Es por ello que contar con mecanismos alternativos de alta precisión pueda resultar más preciso que nunca.

En Xataka | El polo norte se está moviendo muy rápido, y eso ha obligado a muchos aeropuertos a renombrar sus pistas

Imagen | NOAA NCEI / Q-CTRL

-
La noticia La humanidad lleva siglos utilizando el campo magnético de la Tierra como guía de navegación. Unos investigadores quieren renovarlo fue publicada originalmente en Xataka por Pablo Martínez-Juarez .

Leer más

¿Cómo era la vida en los primeros 1.000 millones de años de la Tierra? Unas piedras pueden tener nuevas pistas

¿Cómo era la vida en los primeros 1.000 millones de años de la Tierra? Unas piedras pueden tener nuevas pistas

Prácticamente todo lo que sabemos sobre la evolución de la vida en la Tierra lo conocemos gracias a los restos fósiles de animales y plantas que la habitaron hace decenas o cientos de millones de años. Sin embargo no todos estos restos fósiles son como los imaginamos.

Hace 3,5 Ga. Un nuevo estudio ha analizado restos de origen biológico en unas rocas con 3.500 millones de años de antigüedad (en otra notación 3,5 Ga). Esto es, restos de algunos de los primeros seres vivos de la Tierra, que la habitaron cuando tan solo tenía 1.000 millones de años de antigüedad.

El cratón de Pilbara. El estudio se realizó en rocas extraídas del cratón de Pilbara, situado en Australia. Los cratones son formaciones geológicas especialmente estables y por ello antiguas. Y no por poco: las rocas y montañas de nuestro alrededor suelen tener unos pocos cientos de millones de años de antigüedad, poco comparado con los 4.500 millones de años de antigüedad de la Tierra.

Gracias a ello estos lugares resultan el lugar idóneo (el único) para estudiar la en la Tierra en sus orígenes. La vida en la Tierra del Precámbrico.

Alta resolución. Por supuesto la vida en los eones previos al Cámbrico era muy distinta, más sencilla y pequeña que la que estamos acostumbrados a imaginar al pensar el fósiles. Es por ello que la forma de estudiar estos restos fósiles es distinta.

Para estudiar estos restos el equipo recurrió a espectroscopia por resonancia magnética nuclear (NMR) y estructura fina de absorción de rayos-X cercana al borde (NEXAFS). El equipo se enfocó en partículas carbonosas halladas en rocas compuestas de sulfato de bario. Los detalles de su trabajo fueron publciados en un artículo en la revista Precambrian Research.

“Fue muy emocionante poder combinar una variedad de técnicas de alta resolución, que nos permitieron derivar información sobre la historia de cómo las partículas orgánicas se depositaron y [cuál era] su origen. Como nuestran nuestros hallazgos, trazas originales de los primeros organismos aún pueden ser encontradas incluso en material extremadamente antiguo,” señalaba en una nota de prensa Lena Weimann, investigadora de la Universidad de Göttingen.

La vida hace 3.500 millones de años. Los restos sirvieron a los investigadores para entender mejor la vida en esta era. Según los datos compilados, los organismos que dejaron su rastro en este cratón habrían acabado acabado convirtiéndose en depósitos de sedimento de una caldera.

Las calderas son estructuras volcánicas con forma de cráter que se forman tras el colapso de la bóveda superior de la cámara de magma en un volcán. En estas calderas pueden aparecer lagos y en estos lagos, vida. Estos sedimentos podrían haber sido después alterados por la actividad hidrotermal del entorno.

El equipo dedujo por el análisis de los isótopos de carbono de estos restos que la propia vida de estos primeros organismos también habría estado condicionada por la actividad volcánica. Comparan por ello estos microorganismos con los que hoy en día viven en entornos como los géiseres islandeses o las fuentes de Yellowstone.

En Xataka | El lago subterráneo que sigue siendo un misterio 120 años después de su descubrimiento. Nadie sabe dónde acaba

Imagen | Gerhard Hundertmark / Jan-Peter Duda

-
La noticia ¿Cómo era la vida en los primeros 1.000 millones de años de la Tierra? Unas piedras pueden tener nuevas pistas fue publicada originalmente en Xataka por Pablo Martínez-Juarez .

Leer más

Unos investigadores creyeron que habían captado una misteriosa señal del espacio. Era solo un microondas

Unos investigadores creyeron que habían captado una misteriosa señal del espacio. Era solo un microondas

El refranero dice que “la paciencia es la madre de la ciencia”. Sea verdad o no, lo que sí podemos decir es que la impaciencia es capaz de causar algún que otro desaguisado entre los científicos. En las instalaciones del telescopio Parkes, en Australia, lo saben muy bien.

El telescopio Parkes es un radiotelescopio situado en Nueva Gales del Sur. Desde 1998 la antena de este telescopio había estado captando unas extrañas señales. Estas había pasado desapercibidas durante más de una década hasta que una investigadora del centro, Sarah Burke Spolaor, se topó con ellos.

En 2011 Burke Spolaor estaba estudiando los archivos del telescopio en busca de las llamadas ráfagas rápidas de radio (Fast Radio Bursts, o FRB), cuando se topó con unas señales que parecían encajar. Burke Spolaor Llamó a estas señales peritios en honor al animal fantástico que aúna rasgos de ciervo y de ave. Solo había un problema con estos peritios. Uno que las delataba en parte: eran demasiado intensas para proceder del espacio, como es el caso de las FRB.

¿Qué eran entonces estas señales misteriosas? Una estudiante de doctorado del centro, Emily Petroff, se decidió a tratar de resolver el misterio de los peritios como parte de su trabajo doctoral.

La pregunta no era baladí. Su intensidad denotaba que procedían de la Tierra, pero si no lograban averiguar de dónde venían no podían descartar que se tratara efectivamente de FRBs de origen extraterrestre. Petroff disponía de pocas pistas. Las señales llevaban repiténdose 17 años antes de resolverse su misterio y ocurrían con escasa frecuencia, una o dos veces al año.

El misterio logró ser resuelto gracias al uso de dos nuevas herramientas. La primera había sido desarrollada por un equipo de la Swinburne University of Technology. Esta tecnología tenía el objetivo de detectar FRBs en tiempo real, pero también se demostró capaz de detectar peritios. Con ella Petroff y su equipo fueron capaces de detectar hasta tres en una sola semana. Todos en horario laboral.

Petroff comprobó que nada fuera de lo normal pudiera haber sido la causa de estos peritios, alguna visita al centro por ejemplo. Nada. Tocaba seguir buscando, pero aún tenían otra herramienta a la que recurrir. Se trataba de un nuevo monitor de interferencias de radiofrecuencia que acababa de ser instalado en el telescopio de Parkes. Con este artilugio el equipo obtuvo una nueva pista que resultaría crucial: la frecuencia de la señal se situaba en los 2,5 gigahercios. Esta frecuencia coincide con la de algunos aparatos electrónicos, desde el WiFi hasta los microondas.

Interrogando al sospechoso

En las instalaciones de Parkes no había WiFi y la posibilidad de que un móvil causara estos problemas en 1998 no parecía muy alta. El microondas se convirtió en el principal sospechoso.

Miembros del equipo de Parkes se pusieron a realizar un curioso experimento: calentar tazas de té en el microondas. Querían saber qué circunstancias tenían que darse para la aparición de un peritio. Al fin y al cabo, un microondas podía utilizarse varias veces al día pero los peritios aparecían con mucha menor frecuencia.

El problema es que no lograban crear un peritio. Tras muchos intentos el equipo no lograba hacer que el telescopio captara la señal del microondas. Fue entonces cuando el director de operaciones del telescopio, John Reynolds, tuvo una idea: abrir la puerta antes de que el ciclo del microondas terminara.

Fue ahí cuando el equipo logró su “momento eureka”: las ondas emitidas por el microondas al apagarse eran las que causaban estas señales. En un ciclo normal estas ondas quedaban “atrapadas” dentro del microondas, pero cuando el apagado se realizaba al abrir la puerta podían escapar y alcanzar los detectores del telescopio. Era marzo de 2015 y el misterio acababa de ser resuelto. En junio de ese mismo año el equipo publicaba los detalles de su investigación en un artículo en la revista Monthly Notices of the Royal Astronomical Society.

Los equipos a cargo de los telescopios deben lidiar con problemas de este tipo, y es que las interferencias no solo afectan a los telescopios ópticos (que no solo tienen que enfrentarse con la contaminación lumínica, también con la superpoblación de algunas órbitas terrestres).

Esta es una de las razones por las que los telescopios se colocan en lugares remotos, alejados de la población. Un ejemplo es el telescopio chino FAST. Para evitar interferencias, los responsables de este telescopio decretaron un radio de exclusión alrededor de él. Este radio contenía una “zona de silencio total” así como una zona periférica y una zona intermedia. En total, un radio de 30 kilómetros con restricciones para evitar interferencias.

Aún así los radiotelescopios pueden ser víctimas, como sus versiones ópticas, de las interferencias causadas por satélites en nuestra órbita. Muchos de estos son satélites de comunicación. Es por eso que pueden emitir señales en frecuencias en los que los telescopios estén trabajando.

En Xataka | Un conserje desenchufó una nevera en un centro de investigación. Sin saberlo, acabó con 20 años de trabajo científico

Imagen | Australia Telescope National Facility

-
La noticia Unos investigadores creyeron que habían captado una misteriosa señal del espacio. Era solo un microondas fue publicada originalmente en Xataka por Pablo Martínez-Juarez .

Leer más

El polvo de Marte es un enorme problema para recolectar energía del Sol. O quizás no tanto

El polvo de Marte es un enorme problema para recolectar energía del Sol. O quizás no tanto

A mediados de 2021 los ingenieros de la NASA se toparon con un problema. La sonda marciana InSight había acumulado tanto polvo sobre sus paneles solares que comenzaba a peligrar su suministro de energía. El equipo tuvo una extraña idea: combatir el fuego con fuego. Echar más arena.

El truco funcionó y la sonda pudo seguir operando unos meses más, hasta que a finales de 2022 los paneles dejaron de ser capaces de mantener la sonda operativa.

La anécdota podría parecer una mera curiosidad, pero implica una pregunta interesante. ¿Por qué la NASA no incorpora sistemas de limpieza en misiones como esta? La meteorología marciana es una fuerza considerable como para no haber sido considerada antes.

En una pieza reciente en el portal Astronomy.com, Jim Bell, investigador de la Arizona State University y colaborador de la NASA, daba su respuesta. La clave, está en las limitaciones inherentes de los viajes espaciales.

Transportar objetos hasta Marte (o incluso hasta la órbita baja terrestre) es caro y complejo. La inmensa mayoría de la masa que transporta un cohete espacial es combustible y la mayor parte de este combustible se emplea solo en vencer la gravedad terrestre a decenas de kilómetros de altura. A más masa queramos transportar, más combustible será necesario.

Los viajes interplanetarios utilizan trucos como coger impulso a través de la gravedad de distintos cuerpos celestes para ahorrar combustible y poder llevar más masa más lejos. Pero aún y todo la limitación sigue siendo importante. Además, los cohetes también implican limitaciones respecto al volumen y las dimensiones que podemos transportar en ellos.

A esto hay que sumar que es mucho lo que los investigadores de medio mundo quieren averiguar. Las sondas que enviamos a otros planetas a menudo contienen diversos instrumentos con los que se busca realizar al menos otros tantos experimentos. No todos los equipos interesados pueden llegar a embarcar uno de sus artilugios en estas misiones.

Dadas estas restricciones, es normal que, como explica Bell, resulte necesario optimizar el espacio y pueda sacrificarse durabilidad al no incluir herramientas específicas que cumplan funciones aparentemente tan importantes como mantener limpia la principal fuente de energía de la sonda.

Los paneles solares son un elemento clave de la exploración espacial. Desde la Estación Espacial Internacional hasta la sonda Juno, pasando por rovers marcianos como Opportunity, son muchas las misiones que de esta fuente de energía.

Alternativas

Sin embargo existen otras alternativas. Como la de no usar paneles solares. Bell fue quien lideró el desarrollo de Mastcam-Z, la cámara principal del rover Perseverance. En la construcción de este rover, junto con su “gemelo” Curiosity se optó por una opción bien distinta: el generador termoeléctrico de radioisótopos para múltiples misiones (MMRTG).

Se traga de un generador eléctrico que, al igual que los reactores nucleares en la Tierra, convierte energía nuclear en térmica y esta en eléctrica. Hasta ahí se pueden contar las semejanzas, ya que estos MMRTG no aprovechan la energía de la fisión de átomos sino la liberada en la desintegración natural del plutonio. Además, tampoco requieren de agua ni turbinas.

Este tipo de generadores no son exclusivos de los rovers marcianos sino que llevan décadas siendo utilizados por misiones que podrían tener dificultades para hacer uso de paneles solares, como aquellas que se alejan mucho de nuestra estrella. Tanto las Voyager como as Pioneer y, más recientemente, la sonda New Horizons cuentan con sistemas de este tipo.

Pero si regresamos a Marte aún nos queda otra opción: la energía eólica. A día de hoy hemos volado helicópteros en el planeta rojo, pero la idea de instalar una turbina eólica es por ahora un concepto. Las misiones tripuladas a este planeta requerirán a buen seguro de una combinación de fuentes de energía que garantice el suministro en cualquier circunstancia.

Es por eso que para la NASA resulte de especial interés ir poniendo a prueba distintas estrategias de cara a las misiones tripuladas. Eso sí, cuando el humano llegue al planeta rojo, los paneles solares tendrán un nuevo sistema de limpieza: el trabajo de los mismos astronautas.

En Xataka | Viajaremos a las estrellas, pero nadie entenderá lo que nos cuenten de ellas: lo que hablaremos cuando vivamos en el espacio

Imagen | NASA/JPL-Caltech

-
La noticia El polvo de Marte es un enorme problema para recolectar energía del Sol. O quizás no tanto fue publicada originalmente en Xataka por Pablo Martínez-Juarez .

Leer más

Hemos encontrado un nuevo método para reciclar el cobalto de las baterías. El secreto de la receta: orina

Hemos encontrado un nuevo método para reciclar el cobalto de las baterías. El secreto de la receta: orina

Ya sea en programas de supervivencia o en la Estación Espacial Internacional, reciclar la orina no es algo totalmente extraño. Por fortuna no todas las formas de reutilizar este humor implica aprovecharlo para hidratarse. También podemos usarlo para reciclar baterías.

Extrayendo cobalto. La clave está en el elemento 27, el cobalto. Un equipo internacional de investigadores ha diseñado un nuevo método para reciclar el cobalto de las baterías. Lo sorprendente del método es utiliza un solvente derivado de la orina.

Según los resultados de sus experimentos, este sistema puede servir para recuperar el 97% del cobalto presente en las baterías de iones de litio. Lo que es más, los responsables de este desarrollo creen que su aplicación podrá ser escalable.

Menos nocivo, menos coste. Más allá de lo sorprendente de este ingrediente clave del cóctel solvente, los responsables destacan que puede ayudarnos a arreglar dos de los problemas a los que se enfrenta la industria a la hora de reciclar materiales de las baterías: el alto coste energético del proceso y los residuos de riesgo que genera el proceso.

“Los métodos actuales para reciclar el cobalto de las baterías vienen con muchas desventajas. Requieren cantidades significativas de energía y crean subproductos peligrosos tanto para humanos como para el medio ambiente,” explicaba en una nota de prensa Ian Nicholls, uno de los coautores del estudio.

Un reciclaje más efectivo tiene la ventaja de reducir la presión sobre la minería de este material.

Orina y vinagre. La clave del proceso está en el solvente desarrollado por el equipo. Este cuenta con dos componentes esenciales: un derivado de la urea, compuesto a su vez contenido en la orina; y acetamida, la cual se obtiene a partir del ácido acético presente en el vinagre.

El uso de este solvente requiere una menor temperatura para su uso en el reciclado del cobalto, unos 180º Celsius. Los procesos utilizados comercialmente, como la pirometalurgia, requieren temperaturas que pueden superar los 1.400º. Esto implica que el coste energético del proceso se reduzca notablemente.

El equipo lleva más de una década analizando este compuesto. Los detalles de las pruebas realizadas por el equipo fueron publicados en un artículo en la revista ACS Omega.

Elemento estratégico. El cobalto es un material indispensable para la fabricación de aparatos electrónicos, precisamente por tratarse de uno de los componentes empleados en la fabricación de baterías. Desde móviles a vehículos eléctricos, el cobalto ha dejado de estar en segundo plano para convertirse en un elemento estratégico.

La demanda crece y nuestra capacidad de minarlo tiene sus límites. Es por eso que el reciclaje de este elemento va ganando en importancia. Sin embargo, las limitaciones del proceso en la actualidad hacen difícil su reaprovechamiento, por lo que la dependencia en la minería sigue creciendo. Por ahora.

En Xataka | El coche eléctrico y sus baterías tienen un gran problema: la guerra por el cobalto

Imagen | Julia Avamotive

-
La noticia Hemos encontrado un nuevo método para reciclar el cobalto de las baterías. El secreto de la receta: orina fue publicada originalmente en Xataka por Pablo Martínez-Juarez .

Leer más

Un proyecto para generar energías renovables va a necesitar 6.000 millones de litros de agua al año. No es tan sorprendente

Un proyecto para generar energías renovables va a necesitar 6.000 millones de litros de agua al año. No es tan sorprendente

Cuando hablamos de agua y generación eléctrica lo más probable es que lo primero que se nos venga a la cabeza sea una planta hidroeléctrica. Quizás también podamos pensar en las torres de refrigeración o en el agua de las turbinas de las centrales nucleares.

Sin embargo el consumo de agua va más allá de esto.

Nuevas plantas. Y un ejemplo lo tenemos en La Robla, León. Ahí un nuevo proyecto para la generación y almacenamiento de energía ha solicitado a la Confederación Hidrográfica del Duero (CHD) permiso para la captación de 5,99 millones de m³ del río Bernesga según ha informado la prensa local. Esto es equivalente a más de 500 millones de litros al mes.

La solicitud busca abastecer a dos nuevas plantas energéticas contiguas que se situarán en el área de El Crispín, en el municipio leonés. La primera, Roblum, será una planta eléctrica de generación por biomasa; mientras que la segunda, La Robla Nueva Energía, es una planta para generación de metanol renovable e hidrógeno verde que también captará CO2.

El proyecto sirve de recordatorio de que incluso las energías que consideramos verdes tienen un impacto sobre nuestros recursos hidrológicos. Pero, ¿cuánta agua consume realmente la generación eléctrica?

Interruptor o grifo. El agua se puede emplear o perder de distintas maneras en la generación energética. Por ejemplo los embalses pueden perder agua por evaporación, al igual que hacen las centrales nucleares al utilizar agua para refrigerar sus ciclos.

Los biocombustibles también necesitan agua para los cultivos de los que son extraídos y el proceso de extracción de hidrocarburos también requiere agua en distintas etapas. Según estimaciones de la Agencia Internacional de la Energía (IEA), el mundo gastaba cerca de 55.000 millones de metros cúbicos de agua al año para obtener energía.

Si nos centramos en el sector eléctrico y dejamos de lado combustibles utilizados como fuente primaria, los datos de la IEA muestran que el mayor consumo de agua está en la generación de electricidad a partir de combustibles fósiles (11,200 km³), seguidos de la energía nuclear (4 km³) y de las renovables (1 km³).

Todo relativo. Un informe de 2016 realizado por el Joint Research Centre (JRC) europeo nos acerca al consumo de agua en términos relativos, es decir el consumo de agua por unidad de energía producida. El informe señalaba a los embalses hidroeléctricos como los principales consumidores de agua (nada sorprendente aquí).

El informe señalaba los biocombustibles (bioetanol y biodiesel de primera generación, y madera) como los siguientes en intensidad hídrica. En quinto lugar se encontraba (a cierta distancia) la nuclear, combustibles fósiles, solar, geotérmica y eólica.

El informe también comparaba el consumo del agua como fuente de energía y lo comparaba con el consumo del sector alimentario y el abastecimiento municipal. Entre ellos era el sector ganadero y pesquero el que más agua consumía, seguido de la agricultura. Después se situaban la obtención de madera para uso como combustible y en cuarto lugar los biocombustibles. Combustibles fósiles, nuclear, renovables y abastecimiento municipal ocupaban fracciones

Una sequía pertinaz. No deja de resultar paradójico que utilicemos energía para obtener agua y agua para obtener energía. Con esto en mente, otro estudio reciente, éste elaborado en el contexto español y en 2021 estimó la huella hídrica de la energía.

De nuevo observó que el peso de os biocombustibles excedía su lugar en el mix energético: un 2,2% de la energía pero un 65% de la huella hídrica. En el extremo opuesto, otra renovable, la eólica, que contribuye un 18,7% a este mix pero con una huella que representa menos de un 0,01% del total.

En Xataka | Las sequías van a ir a más. Así que algunas empresas están intentando crear agua a partir del aire

Imagen | Salah Ait Mokhtar

-
La noticia Un proyecto para generar energías renovables va a necesitar 6.000 millones de litros de agua al año. No es tan sorprendente fue publicada originalmente en Xataka por Pablo Martínez-Juarez .

Leer más

Investigar el “glaciar del juicio final” le acaba de costar 3,4 millones a la Universidad de Gotemburgo

Investigar el

Hace unos días, un equipo de investigadores perdía un submarino no tripulado que investigaba un glaciar. El llamado “glaciar del juicio final”.

Incidente en el glaciar. El equipo de investigadores de la Universidad de Gotemburgo a cargo del submarino Ran anunció recientemente la pérdida del sumergible mientras estudiaban el glaciar Thwaites. Este glaciar, apodado “del juicio final” está situado en la Antártida y es de especial interés, entre otros aspectos, por su enorme tamaño.

El incidente ocurrió en enero. El submarino se adentró en las aguas para explorar el glaciar desde las profundidades, pero nunca regresó al punto de recogida. Tras una misión de búsqueda el equipo acabó dando el vehículo por perdido.

Desde 2019. Esta era la segunda visita del equipo al glaciar. En 2019 los investigadores de la universidad sueca se habían convertido en los primeros en explorar este enorme glaciar desde abajo.

Glaciar del juicio final. Pero, ¿por qué este nombre tan apocalíptico? Este glaciar Antártico es enorme, con un área semejante a la de Senegal. El glaciar tiene cuenta con suficiente hielo como para que su desaparición se hiciera notar por sí sola en el nivel marino.

Según la The International Thwaites Glacier Collaboration, el volumen de este glaciar es de casi medio millón de km³ de los cuales 258.000 están sobre la línea de flotación. Esto implica que su desaparición podría elevar el nivel del mar en 65 cm.

Caos bajo el agua. Ran era un submarino no tripulado (también llamados vehículo submarino autónomo o AUV). La nave tenía 7,5 m de eslora y una masa en seco de 1,85 toneladas. Era capaz de sumergirse a profundidades de hasta 3 km y contaba con una autonomía de 300 m y 36 h.

Ran estaba equipado con sónar, sensores temperatura, conductividad, de oxígeno y de dióxido de carbono. También contaba con diversos sistemas de comunicación, acústicos y por satélite entre otros. El coste del vehículo era de 3,4 millones de euros y era operado desde el buque científico Skagerak (aunque en esta ocasión era el rompehielos japonés RV/IB Araon el buque destacado). Se desconoce qué pudo pasar bajo el hielo.

“Es un poco como buscar una aguja en un pajar, pero sin siquiera saber dónde está el pajar. En este punto, la batería de Ran está agotada. Todo lo que sabemos es que algo inesperado pasó bajo el hielo. Sospechamos que tuvo problemas, y algo evitó que escapara,” explicaba la investigadora jefa del proyecto, Anna Wåhlin.

Buenas y malas noticias. A pesar de la pérdida del vehículo el equipo puso en valor los datos compilados durante la expedición y el trabajo de Ran durante esta. Como explica el equipo, la perspectiva lograda por este submarino de la zona inferior del hielo nos pueden dar información que no puede obtenerse por otros medios como los satélites.

El problema es que estos datos no auguran un futuro prometedor para este glaciar. Los datos compilados por  Wåhlin y su equipo durante las exploraciones invitan al pesimismo. Un estudio publicado en 2022 en la revista Nature Geoscience estimó un retroceso de aproximadamente un kilómetro en algo menos de medio año, el equivalente a un retroceso de 2,1 km por año.

En Xataka | “Puede realizar misiones críticas”: la Marina de EEUU recibe un submarino completamente autónomo y cargado de tecnología

Imagen | Göteborgs universitet / NASA

-
La noticia Investigar el "glaciar del juicio final" le acaba de costar 3,4 millones a la Universidad de Gotemburgo fue publicada originalmente en Xataka por Pablo Martínez-Juarez .

Leer más

Unos científicos han echado un vistazo a la geología del Atlántico y han llegado a una conclusión: desaparecerá “pronto”

Unos científicos han echado un vistazo a la geología del Atlántico y han llegado a una conclusión: desaparecerá

El Atlántico tiene "tan solo" 180 millones de años, pero estaría cerca de entrar en una fase de declive según un nuevo estudio. "A punto", en términos geológicos, claro: esto podría ocurrir dentro de unos 20 millones de años.

Cambio de ciclo. Según las conclusiones de un nuevo estudio geológico, el océano Atlántico podría detener su expansión y comenzar a contraerse dentro de 20 millones de años. Esto sería propiciado por la aparición de una nueva zona de subducción, un "anillo de fuego" atlántico. Esta nueva zona no aparecería de la nada. Surgiría precisamente por la propagación de la ya existente zona de subducción de Gibraltar.

Un cambio lo suficientemente drástico como para que el hoy creciente océano pasara a menguar.

Apertura y cierre. El océano Atlántico surgió hace unos 180 millones de años, durante el periodo Jurásico temprano. Se originó con las sucesivas divisiones del último supercontinente, Pangea. En el presente, el Atlántico se va ensanchando a un ritmo de unos cuatro centímetros por año. En el extremo contrario, el Pacífico, se empequeñece a lo largo de su particular "anillo de fuego", una zona de gran sismicidad, con regiones de intenso vulcanismo.Muchos modelos de deriva continental proyectan un futuro supercontinente creado al unirse el oeste de las Américas con el este de Asia. El reciente estudio contradice esta noción.

Una zona de subducción errante. Las zonas de subducción son aquellas donde se cruzan dos placas tectónicas, chocando de tal manera que una se sumerge bajo la otra. Contrastan con las zonas de divergencia como la dorsal mesoatlántica, que cruza de norte a sur el océano sirviendo de zona de extensión. Estas zonas no suelen aparecer así como así, ya que para ello es necesario que se quiebren las placas tectónicas. Ahí es donde entra en juego el Mediterráneo.

Según los modelos empleados por el investigador de la Universidad de Lisboa João Duarte, la contracción del mar Mediterráneo podría hacer que la existente zona de subducción de Gibraltar migrara e "invadiera" el océano Atlántico, propagándose por el océano y creando esta nueva zona de subducción.

Modelos más complejos. A esta propagación se la denomina "invasión de subducción" (subduction invasion). El problema hasta ahora había sido que la complejidad de esta dinámica implicaba un alto coste de cálculo a la hora de crear modelos que la tuvieran en cuenta.

El nuevo modelo computacional, tridimensional y basado en el empuje gravitatorio, como explica Duarte, prevé esta propagación y la creación de la zona de subducción atlántica o "anillo de fuego" atlántico. Los detalles del análisis fueron publicados en un artículo en la revista Geology.

Un futuro movido. Si eso de "anillo de fuego" suena contundente es porque lo es. El anillo de fuego del Pacífico es una de las zonas más activas sísmicamente. En esta región que rodea el océano más grande del planeta se han producido terremotos como el que causó el Tsunami en Fukushima, el terremoto de Valaparaíso de 2010, el de Valdivia de 1960 o el gran terremoto de San Francisco de 1906.

La zona de subducción de Gibraltar no es tampoco ajena a los grandes terremotos, si bien tenemos que irnos atrás en el tiempo para encontrar su ejemplo de mayor violencia: el terremoto que asoló Lisboa en 1755. Se estima que este terremoto tuvo una magnitud de entre 8,5 y 9.

No sabemos cuándo ocurrirá el próximo terremoto (aunque los científicos se acercan cada vez más). Al menos por ahora podemos estar tranquilos, el anillo de fuego atlántico se formará, si lo llega a hacer, dentro de millones de años. Esto tampoco quiere decir que estemos libres del riesgo de terremotos.

En Xataka | Cómo los Andes se hicieron tan grandes en tan poco tiempo siempre había sido un misterio. Hasta ahora

Imagen | ESA, CC BY-SA 3.0 IGO

-
La noticia Unos científicos han echado un vistazo a la geología del Atlántico y han llegado a una conclusión: desaparecerá "pronto" fue publicada originalmente en Xataka por Pablo Martínez-Juarez .

Leer más

Lo que marca la segunda carrera espacial no es el enfrentamiento entre China y EEUU. Es la privatización del espacio

Lo que marca la segunda carrera espacial no es el enfrentamiento entre China y EEUU. Es la privatización del espacio

El pasado jueves partía, a bordo de un cohete Falcon 9 de SpaceX, la misión de la empresa estadounidense Intuitive Machines IM-1. Se trata del segundo intento por parte de los norteamericanos de enviar una misión comercial a nuestro satélite.

Las empresas privadas se han ido abriendo paso en la exploración espacial, pero hasta ahora solo un puñado de empresas privadas han intentado su suerte en la Luna. La mayoría se han quedado algo más cerca, en las órbitas más próximas, en una comercialización con nombre propio, la economía de la órbita baja terrestre (LEO).

Pero antes de proceder debemos regresar a la economía del espacio en general. Al menos para tener una definición que nos ayude a saber de qué va esto. Al tratarse de un sector emergente ya existen instituciones que se han apresurado a contestar esta pregunta, como la OECD. Según su definición, la economía del espacio es “el conjunto total de actividades y el uso de recursos que crean valor y beneficios para el ser humano en el desarrollo de la exploración, investigación, comprensión, gestión y uso del espacio.”

Podría pensarse en esta economía como una mera proyección a futuro, pero las estimaciones nos cuentan una historia ya comenzada. Según datos de la ONG Space Foundation, el volumen de esta economía se situaba ya en 2021 cerca de los 470.000 millones de dólares, casi una tercera parte del PIB español en el mismo año.

Según la Agencia Espacial Europea (ESA), la industria espacial se convertirá en el próximo sector “billonario” en 2040. Según la agencia, el crecimiento de este sector también servirá de motor para el crecimiento de otros relacionados.

Ahora sí, regresemos a la órbita de la Tierra.

Durante los últimos años, y en parte por impulso de la NASA, numerosas empresas privadas se han lanzado a la conquista de la LEO, pero estas empresas no son las primeras en saltar al espacio. Desde hace décadas las empresas de telecomunicaciones han estado haciendo uso de satélites generalmente anclados en órbitas geoestacionarias.

Pero la diferencia clave entre lo que venía ocurriendo y el presente no está en la órbita, la diferencia clave está en que antes las empresas pedían a las agencias espaciales que enviaran sus satélites a órbita. Ahora son otras empresas (o las mismas) las que envían las cargas al espacio.

El modelo actual es algo más complejo si cabe. Por una parte tenemos empresas privadas como SpaceX, United Launch Alliance (ULA), o Blue Origin que fabrican cohetes y otros vehículos espaciales con los que prestan un servicio, a otras empresas y a agencias espaciales como la misma NASA, que por ejemplo ya no es la encargada de enviar sus astronautas a la Estación Espacial Internacional (ISS).

Por otra parte tenemos empresas con actividad espacial pero que dependen de las primeras para su transporte. Aquí tenemos por ejemplo a Axiom o Intituitive Machines o empresas que deseen colocar satélites en órbita, incluso Amazon con su proyecto Kuiper. SpaceX también podría encajar en ambos grupos con su Starlink.

Áreas de negocio

¿Qué tipo de negocios podemos esperar en esta economía? Kuiper y Starlink son dos ejemplos de uno de los sectores económicos que podría prosperar en la órbita baja como ya lo hizo en órbitas más alejadas: las telecomunicaciones. Las telecomunicaciones dependen todavía hoy de una red de cables que recorre nuestro planeta por tierra y mar. Cada vez más, los satélites ganan terreno como alternativa a esta dependencia del cable.

Los enjambres de satélites que, para bien o para mal) parecen ir imponiéndose en órbita servirán (y sirven) para algo más que conectarnos a internet. Los sistemas de navegación y la monitorización de la meteorología, vigilancia contra incendios… son muchos los servicios que hoy en día prestan los satélites y que debemos tener en cuenta a la hora de cuantificar el volumen de esta economía.

La otra gran estrella de esta economía es el turismo. El turismo espacial se ha convertido ya en otra importante fuente de ingresos para varias empresas, tanto para las que organizan el viaje y/o “fletan” el cohete (entre las que podemos contar SpaceX, Blue Origin y Axiom), y para las agencias espaciales, que en varias ocasiones han puesto a disposición de turistas infraestructuras tanto en la Tierra (cosmódromos y otras instalaciones), como en órbita (como la ISS).

Con la Estación Espacial Internacional a punto de jubilarse, su lugar probablemente lo ocupen nuevas estaciones espaciales privadas. Estas futuras estaciones tendrán, previsiblemente, una orientación comercial, pero también podrían acoger laboratorios y experimentos como hoy en día hacen la EEI y su homóloga china Tiangong.

Los laboratorios también podrán tener usos comerciales. Podrían por ejemplo servir de escenario para los primeros ensayos de una industria espacial. Chips y fármacos podrían ser creados en estos laboratorios para dilucidar hasta qué punto sería posible crear una pequeña industria que provea de estos productos a astronautas y misiones espaciales. Incluso las interplanetarias.

Esto es otro ejemplo de la nueva política de la NASA en lo que a la órbita baja terrestre se refiere. La agencia estadounidense ha externalizado este segmento de la exploración espacial. Lo que esto quiere decir es que, de ser proveedor de servicios ha pasado a ser cliente de otras empresas.

Si hay un factor que ha venido aparejado a estos cambios es el notable abaratamiento de los costes asociados al envío de materias al espacio. Un ejemplo de esto lo da la consultora McKinsey en su informe sobre economía espacial. En él señala que el coste de lanzamientos pesados a LEO se ha reducido un 95% en los últimos años, de 65.000 dólares por kg a 1.500 USD/kg.

Es difícil decir si la comercialización ha sido propiciada por este abaratamiento o si es al revés. Lo más probable es que ambas conexiones sean ciertas. Por ejemplo, la obsesión con la reutilizabilidad de SpaceX ha sido fundamental en este sentido.

Los cohetes reutilizables se pueden lanzar con más frecuencia, eso da experiencia y saber hacer que se transforma a su vez en costes más baratos. Esto también ha venido aparejado con una miniaturización de la tecnología que permite satélites más pequeños y la posibilidad de incluir más misiones en un solo vuelo. “Smaller satellites, bigger gains” (satélites más pequeños, ganancias más grandes) señala el informe de la consultora estadounidense.

Pero la gran pregunta es ¿por qué ha dejado la NASA esto en manos privadas? Podría pensarse que la agencia debería estar más que predispuesta a participar de esta economía como proveedora y no como cliente. El motivo podría estar en la financiación.

Los inversores privados tienen más capacidad de acumular capital necesario a través de otros inversores. Las agencias como la NASA dependen de las asignaciones presupuestarias que negocien los órganos ejecutivos y legislativos, por lo que su capacidad presupuestaria depende por una parte del sentir general de la población con respecto a la exploración espacial o del estado de las cuentas nacionales.

Cabe recordar que las empresas aún están lejos de competir en volumen de financiación con el Gobierno estadounidense. Según los datos de McKinsey, este sorpasso no llegaría antes de 20 años.

Ante esta limitación, la estrategia de la NASA pasa por dejar la actividad en zonas como la órbita terrestre baja para poder dedicar sus recursos a otras empresas, como el regreso a la Luna o la exploración del sistema solar.

En Xataka | La carrera espacial entre Estados Unidos y China es, ante todo, una carrera por ver quién se gasta más dinero

Imagen | SpaceX / Axiom

-
La noticia Lo que marca la segunda carrera espacial no es el enfrentamiento entre China y EEUU. Es la privatización del espacio fue publicada originalmente en Xataka por Pablo Martínez-Juarez .

Leer más