Millones en publicidad nos convencieron de que el agua embotellada era más sana. Hasta que llegaron los microplásticos

Millones en publicidad nos convencieron de que el agua embotellada era más sana. Hasta que llegaron los microplásticos

En muchas ocasiones podemos asociar el agua embotellada como una opción de mayor calidad para poder hidratarnos por encima del agua del grifo. Pero la realidad es que los últimos análisis científicos apuntan a que el agua embotellada es una fuente directa de exposición a nano y microplásticos (NMPs). 

Esto es algo que supone que los consumidores habituales de agua embotellada pueda estar ingiriendo hasta 90.000 partículas de plástico adicionales al año en comparación con quienes beben agua del grifo. Algo que rompe con la idea que podemos llegar a todos de que el agua embotellada es mucho más sana como siempre nos han intentado vender. 

El enemigo invisible. El estudio, publicado en la revista Journal of Hazardous Materials define los microplásticos como partículas de entre 1 micrómetro y 5 mm y los nanoplásticos como aquellos inferiores a 1 micrómetro. Unas partículas muy pequeñas a fin de cuentas que se van desprendiendo de las botellas de plástico durante todo su ciclo de vida.

Cómo se liberan. Según el estudio, las partículas se liberan no solo por la degradación natural del plástico, sino también por estresores físicos y ambientales cotidianos. Por ejemplo, el simple acto de abrir y cerrar el tapón o apretar la botella para beber genera una fricción que termina con el desprendimiento de partículas en el agua. 

Otro caso muy común es dejar la botella de agua al sol durante un cierto tiempo. Aquí se están desprendiendo muchas partículas de plástico porque se está aumentando la degradación del envase. Pero en el caso contrario, en la congelación, también tenemos este mismo problema porque también se ha demostrado que es un factor que incrementa la contaminación por microplásticos. 

El tamaño importa. Una vez que se ingieren estas partículas, su efecto va a depender del tamaño que tenga. De manera general, cuando más pequeña sea más preocupante es para nuestro organismo, puesto que más fácilmente va a poder atravesar las barreras biológicas. 

Si hablamos de partículas mayores de 150 micrómetros la verdad es que podemos estar tranquilos porque directamente va a pasar por el tubo digestivo hasta las heces. Pero en el caso de que sean menores de 150 micrómetros, sí que van a poder atravesar la cavidad intestinal y entrar en el sistema linfático y circulatorio, pudiendo llegar a los órganos con partículas de menos de 20 micrómetros. 

Pero el verdadero peligro está en las partículas de menos de 100 nanómetros que se consideran nanoplásticos. En este caso, las partículas son suficientes pequeñas como para alcanzar todos los órganos, incluyendo la capacidad de cruzar barreras tan críticas como la barrera hematoencefálica y la placenta. 

Los peligros. La exposición continua a nano y microplásticos está vinculada a una serie de problemas de salud crónicos. No se trata de una toxicidad aguda, sino de un daño acumulativo a largo plazo. Entre los principales riesgos que se han identificado se encuentran las enfermedades respiratorias, los productos reproductivos, la disrupción del sistema inmune o el aumento del estrés oxidativo. 

El reto. Uno de los grandes desafíos para los investigadores está en la falta de métodos para analizar estos plásticos que estén estandarizados. Ahora mismo se pueden encontrar diferentes pruebas, pero varían en sensibilidad y precisión, lo que dificulta llegar a un criterio común entre los diferentes estudios con el objetivo de tener una imagen general del gran problema que tenemos delante. 

Ahora mismo, algunas técnicas pueden detectar partículas muy pequeñas, pero no su composición, mientras que otras hacen lo contrario, siendo una limitación muy importante. Pero a pesar de estas, algunos estudios ya apuntan a diferencias significativas entre las marcas de agua que encontramos en el mercado. Por ejemplo, una investigación citada en el informe encontró que Nestle Pure Life y Bisleri presentaban algunas de las concentraciones medias más altas de partículas de microplásticos.

Regulación. Esta falta de estandarización en los estudios ha contribuido a que haya un gran "vacío legislativo" en nuestra sociedad. Y es que mientras se ha legislado sobre las bolsas de plástico, las pajitas o los cubiertos de un solo uso, las botellas de agua han quedado en gran medida fuera del foco regulatorio.

De esta manera, el autor del estudio apunta a que el consumo de agua en botellas de plástico debería hacerse en situaciones de emergencia, pero no como una práctica diaria por el alto consumo de microplásticos que vamos a terminar ingiriendo y que generaría un problema a largo plazo. 

Y es que ya hemos sido testigos precisamente de cómo han aparecido microplásticos en testículos humanos, la leche materna, la sangre, restos arqueológicos o también en los alimentos que ingerimos, como las verduras que consumimos. Es por ello que a la larga se va a tener que ver concretamente el impacto que tendrá su consumo de manera prolongada a través de diferentes vías, y no solo el agua embotellada. 

Imágenes | Jonathan Cooper

En Xataka | De causar diarreas a fabricar plásticos biodegradables: la bacteria E. coli tiene un nuevo trabajo en Japón




-
La noticia Millones en publicidad nos convencieron de que el agua embotellada era más sana. Hasta que llegaron los microplásticos fue publicada originalmente en Xataka por José A. Lizana .

Leer más

El cráneo que lo cambia todo: un fósil de un millón de años sugiere que el ‘Homo sapiens’ no proviene de África

El cráneo que lo cambia todo: un fósil de un millón de años sugiere que el 'Homo sapiens' no proviene de África

La historia de la evolución humana es un puzle fascinante del que nos faltan muchísimas piezas. Cada nuevo fósil añade detalles, pero de vez en cuando, uno de ellos no encaja en la imagen que teníamos. O mejor dicho, nos obliga a redibujar el puzle por completo. Es lo que acaba de ocurrir con el análisis de un cráneo de un millón de años de antigüedad encontrado en China, una investigación que, según sus autores, "cambia totalmente" nuestra comprensión sobre cuándo y cómo surgimos, ya que pondría en duda nuestro origen asentado en África

El estudio. Publicado en la prestigiosa revista Science, un equipo de científicos de China y del Museo de Historia Natural de Reino Unido, postura que el linaje del Homo sapiens comenzó a separarse de sus parientes, como los neandertales, al menos medio millón de años antes de lo que se creía. Y no es poco tiempo este. 

El cráneo. El protagonista de esta historia es el cráneo de Yunxian 2, de aproximadamente un millón de años de antigüedad, que estaba dañado. Esto hizo que en un primer momento se clasificara como el cráneo de un Homo erectus, uno de nuestros ancestros más primitivos. Pero nada más lejos de la realidad. 

Gracias a la tecnología de reconstrucción digital, que incluyó tomografías computarizadas y modelados 3D, los investigadores pudieron restaurar su forma original. 

El análisis. Una vez se tuvieron los resultados, llegaron las sorpresas. El cráneo no pertenecía a un Homo erectus, sino que mostraba una mezcla de rasgos primitivos y modernos. Según el estudio, Yunxian 2 es en realidad un miembro temprano del clado Homo longi, una especie hermana del Homo sapiens que también incluye a los misteriosos denisovanos

"Nuestra investigación revela que Yunxian 2 no es Homo erectus, sino un miembro temprano del clado longi y está vinculado a los denisovanos", declaró el profesor Chris Stringer, codirector de la investigación. "Esto cambia mucho el pensamiento porque sugiere que hace un millón de años, nuestros antepasados ya se habían dividido en grupos distintos, lo que apunta a una división evolutiva humana mucho más temprana y compleja de lo que se creía", seguía explicando. 

Nueva línea temporal. Hasta ahora, la mayoría de los estudios genéticos situaban la divergencia entre el linaje del Homo sapiens y el de los neandertales hace unos 600.000 años. Sin embargo, este nuevo análisis lo ha cambiado todo y las fechas quedan de la siguiente manera: 

  • Origen del clado sapiens: se estima ahora en aproximadamente 1,02 millones de años.
  • Origen del clado longi: se calcula en unos 1,2 millones de años.
  • Separación de ambos linajes: el estudio sitúa la divergencia entre el linaje sapiens y el longi hace 1,32 millones de años.

Esto implica que tres grandes grupos de humanos con cerebros grandes —Homo sapiens, Homo longi (incluidos los denisovanos) y neandertales— podrían haber coexistido durante casi un millón de años, mucho más tiempo de lo que se pensaba.

África. Aunque la aparición de estos fósiles en el continente asiático puede hacernos pensar que el origen de nuestros antepasados no esté en África como se pensaba, hay que tener cautela. El propio profesor Stringer, uno de los autores del estudio, advierte que no hay pruebas suficientes para afirmar que nuestra especie evolucionó en Asia en lugar de en África. 

La tarea que ahora hay por delante es seleccionar los fósiles con una antigüedad similar encontrados en África y Europa y hacer el mismo estudio. Es por ello que la comunidad científica ahora mismo se encuentre entusiasmada, pero en una postura crítica. El Dr. Aylwyn Scally, genetista evolutivo de la Universidad de Cambridge, señala que tanto los análisis genéticos como los basados en fósiles tienen incertidumbres significativas, especialmente a la hora de establecer cronologías tan antiguas. "Se necesitan más pruebas para estar seguros", afirma.

Lo que sí está claro es que el cráneo de Yunxian 2 ha abierto una nueva y emocionante ventana a nuestro pasado, demostrando que la historia de la evolución humana es mucho más profunda y compleja de lo que imaginábamos.

Imágenes | Ranjit Pradhan

En Xataka | "Esto no es un pingüino": los pingüinos de verdad no son el animal que solemos creer y, de hecho, llevan dos siglos extintos


-
La noticia El cráneo que lo cambia todo: un fósil de un millón de años sugiere que el 'Homo sapiens' no proviene de África fue publicada originalmente en Xataka por José A. Lizana .

Leer más

En 1995 unos investigadores descubrieron el “gen pacificador” de nuestro cuerpo. Hoy su hallazgo les ha valido un Nobel

En 1995 unos investigadores descubrieron el "gen pacificador" de nuestro cuerpo. Hoy su hallazgo les ha valido un Nobel

El Comité Nobel en el Instituto Karolinska de Estocolmo lo ha vuelto a hacer. Ha premiado una de esas investigaciones que, durante años, parecieron un apunte a pie de página en los libros de texto, pero que hoy son la base de tratamientos revolucionarios. El Premio Nobel de Fisiología y Medicina de 2025 ha sido otorgado conjuntamente al japonés Shimon Sakaguchi y a los estadounidenses Mary E. Brunkow y Fred Ramsdell por "sus descubrimientos sobre las células T reguladoras y el papel del gen FOXP3 en la función inmunitaria"

El inicio. Ya en la década anterior, Sakaguchi había identificado un subconjunto de linfocitos T que no atacaban, sino que hacían todo lo contrario: suprimían la actividad de otros linfocitos T. Eran células pacificadoras, una suerte de policía antidisturbios del sistema inmunitario. En 1995, publicó un trabajo clave que caracterizaba estas células, hoy conocidas como células T reguladoras (Tregs).

El hallazgo fue trascendental. Sakaguchi demostró que sin estas Tregs, el sistema inmunitario se volvía loco y empezaba a atacar a los tejidos del propio cuerpo, causando enfermedades autoinmunes devastadoras. Había descubierto el mecanismo natural del cuerpo para mantener la tolerancia y evitar la autodestrucción. Pero faltaba la pieza clave del puzle: ¿qué hacía que una célula T se convirtiera en pacificadora y no en soldado?

Brunkow y Ramsdell. Aunque este descubrimiento fue trascendental, la realidad es que hubo mucho escéptico que no creía en su teoría. Pero la respuesta a la gran pregunta que se quedó en el aire llegó en 2001 (todavía muy lejos del año 2025 y la entrega de este galardón). Aquí, por un lado, el equipo de Mary E. Brunkow investigaba una rara y mortal enfermedad autoinmune en niños llamada síndrome IPEX. La investigación apuntó a un gen como causa de esta enfermedad: FOXP3. 

Por otro lado, el equipo de Fred Ramsdell estaba estudiando un modelo de ratón con síntomas muy similares y llegó exactamente a la misma conclusión: el gen defectuoso era FOXP3.

La conexión. La conexión fue inmediata y explosiva: FOXP3 era el "interruptor maestro". Es el gen que, cuando se activa en un linfocito T, le da las instrucciones para convertirse en una Treg. Sin FOXP3 funcional, no hay células T reguladoras, y el sistema inmunitario se descontrola. El descubrimiento de Sakaguchi encontraba por fin su explicación genética y ya le daba suficiente peso para que finalmente la comunidad científica viera que había sentado un gran precedente. 

Una revolución. Este doble descubrimiento, el celular de Sakaguchi y el genético de Brunkow y Ramsdell, ha cambiado por completo el paradigma de la inmunología y ha abierto dos grandes vías terapéuticas con un potencial inmenso.

Por un lado, se abre la puerta a la lucha contra las enfermedades autoinmunes ya que con la falta de Tregs el cuerpo se ataca a si mismo. La solución en este caso pasa por aumentar este tipo de células, y ya hay en marcha diferentes ensayos clínicos para extraer células T de pacientes, "convertirlas" en Tregs en el laboratorio y volver a inyectarlas al paciente. Algo que ahora conocemos como 'inmunoterapia'. 

Pero también sirve para la lucha contra el cáncer. En estos casos se ha visto como los tumores son 'inteligentes' y se rodean de Tregs para poder protegerse ante el sistema inmunitario que trata de acabar con estas células. Estas células pacificadoras impiden que los linfocitos T "soldado" ataquen al cáncer. Las nuevas inmunoterapias buscan precisamente desactivar temporalmente estas Tregs o bloquear la acción de FOXP3 en el entorno del tumor, eliminando el escudo protector del cáncer para que el sistema inmunitario pueda destruirlo. Esto ha mostrado ser especialmente prometedor en tumores como el linfoma.

El tiempo ha pasado. Lo más sorprendente de todo esto es la gran cantidad de tiempo que ha pasado entre el descubrimiento inicial y el reconocimiento con un Nobel. Si es cierto que se ha esperado a que tuviera una relevancia crucial dentro del aspecto clínico, con ensayos que dan muy buen resultado para enfermedades que son realmente graves. 

Imágenes | Wikipedia (2, 3)

En Xataka | Un equipo español ha dado un paso de gigante en un esperanzador tratamiento contra el cáncer: la quimioinmunoterapia








-
La noticia En 1995 unos investigadores descubrieron el "gen pacificador" de nuestro cuerpo. Hoy su hallazgo les ha valido un Nobel fue publicada originalmente en Xataka por José A. Lizana .

Leer más

El Premio Nobel de Fisiología y Medicina 2025 es para Mary E. Brunkow, Fred Ramsdell y Shimon Sakaguchi

El Premio Nobel de Fisiología y Medicina 2025 es para Mary E. Brunkow, Fred Ramsdell y Shimon Sakaguchi

El primer premio Nobel de 2024, el otorgado en Fisiología y Medicina, ha sido otorgado a tres personas: Mary E. Brunkow, Fred Ramsdell and Shimon Sakaguchi  por sus descubrimientos relacionados con la tolerancia inmunitaria periférica que impide que el sistema inmunitario dañe el cuerpo con una enfermedad autoinmune.  

El descubrimiento. El comité ha reconocido el importante papel que tiene la identificación de los guardianes del sistema inmunitario, las células T reguladoras, que sienta una gran vía de investigación en el campo de las enfermedades autoinmunes. El hecho de conocer mucho más de este tipo de célula ha abierto el camino para desarrollar nuevos tratamientos que ahora mismo se encuentran en fase de ensayo clínico. 

Mary Brunkow y Fred Ramsdell obtuvieron en este caso conocimientos decisivos sobre cómo surgen las enfermedades autoinmunes en nuestro organismo. En el año 2001, ambos presentaron una explicación de por qué una cepa de ratones era particularmente vulnerable a tener una enfermedad autoinmune. Algo que radicaba en el gen Foxp3 que se extrapoló al gen humano IPEX. Concluyeron que una mutación aquí puede ser decisiva para desarrollar una grave enfermedad autoinmune. 

Por su lado, Shimon Sakaguchi, dio un giro revolucionario a lo que pensaba parte de la comunidad científica que apuntaban a que la tolerancia inmunitaria solo se desarrollaba eliminando las células inmunitarias potencialmente dañinas en el timo. Pero en este caso vio que el sistema inmune es mucho más complejo, apuntando a una serie de células que no se conocían antes (la T helper) que protegen a nuestro organismo de enfermedades autoinmune. Algo similar a lo que hace con las potenciales células cancerosas al obligar que entren en apoptosis. 

¿Qué decían las quinielas? Este año la verdad es que surgieron muchos nombres alrededor de este galardón. Hay que tener en cuenta que durante 2025 los fármacos agonistas de los receptores GLP-1 como son el famoso Ozempic o el Mounjaro siguen estando en boca de muchos, y un año más volvían a estar muy presentes en las quinielas en el mundo científico tras no haber recibido el galardón el año anterior. Un premio que en 2024 recayó en Ambros y Ruvkun por el descubrimiento del ARN. 

También había gente que apuntaba de manera directa a los nuevos estudios centrados en la lucha contra el cáncer o en los que permite entender lo que ocurre en nuestro cerebro para que se den las enfermedades neurodegenerativas. 

En España teníamos también dos posibles candidatos a llevarse un galardón que sin duda es deseado por muchos miembros de la comunidad científica. En este caso, nuestro país no tiene un Nobel desde que Camilo José Cela lo consiguiera en 1989, y este año Pablo Jarillo-Herrero y Juan Ignacio Cirac Sasturain apuntaban a que íbamos a conseguir un nuevo premio. 

Primer Nobel del año. El premio en fisiología y medicina es que tradicionalmente ha abierto la gran semana del Nobel. A partir de este momento comenzarán a surgir los galardonados en las diferentes disciplinas donde se reparte este Nobel: física, química, literatura, paz y ciencias económicas. 

Si nos centramos en el premio en fisiología y medicina, hay que destacar que hasta hoy se han repartido 115 galardonados entre 230  ganadores y ganadoras desde que comenzara esta celebración en el año 1901 cuando Emil von Behring estrenó la categoría por su desarrollo de sueros terapéuticos para tratar la difteria. 

Como curiosidad, la media de edad de los premiados es de 58 años, con Frederick Banting como la persona más joven en recibirlo por el descubrimiento de la insulina en 1923. En el otro extremo tenemos al más longevo con Peyton Rous, de 87 años, que recibió el galardón por el descubrimiento de la capacidad que tiene un virus para inducir un tumor (como el VPH) en 1966. 

Imágenes | Sol Invicti

En Xataka | El experimento de los 21 gramos: cuando en 1907 un médico intentó demostrar la existencia del alma usando una báscula





-
La noticia El Premio Nobel de Fisiología y Medicina 2025 es para Mary E. Brunkow, Fred Ramsdell y Shimon Sakaguchi fue publicada originalmente en Xataka por José A. Lizana .

Leer más

La química ha resuelto un gran misterio de nuestra humanidad: cuáles fueron los primeros animales en habitar la Tierra

La química ha resuelto un gran misterio de nuestra humanidad: cuáles fueron los primeros animales en habitar la Tierra

Durante décadas, los científicos han debatido una de las preguntas más fundamentales de nuestra existencia: ¿cuál fue el primer animal que habitó la Tierra? Los fósiles tradicionales, con sus huesos y caparazones, solo nos llevan hasta la "Explosión Cámbrica", hace unos 541 millones de años, cuando la vida compleja pareció surgir de repente. Pero un nuevo estudio ha encontrado la prueba irrefutable en rocas mucho más antiguas, una "huella dactilar" química que no solo identifica a nuestros ancestros más remotos, sino que confirma que ya estaban aquí mucho antes de lo que pensábamos. Y no, no tenían garras, ni ojos, ni esqueleto. Eran esponjas.

El estudio. Un equipo de geocientíficos ha publicado en PNAS el hallazgo de unas moléculas fósiles nunca antes vistas que actúan como una firma biológica inequívoca. Este descubrimiento pone fin a una larga controversia y refuerza la idea de que las demosponjas, un tipo de esponja de cuerpo blando, fueron las pioneras del reino animal en los océanos del Neoproterozoico

Fósiles químicos. Para encontrar al primer animal, hay que buscar pistas más sutiles que un esqueleto. Hay que buscar biomarcadores: los restos moleculares que los organismos dejan tras de sí y que pueden preservarse durante eones. 

Uno de estos biomarcadores es esterano C30 que se descubrió hace una década en rocas del Neoproterozoico. Esta molécula es un derivado fósil de los esteroles que producen las demosponjas modernas, lo que las convertía en las principales sospechosas. 

Sin embargo, la comunidad científica se mantuvo escéptica. ¿Podrían estas moléculas haber sido creadas por otros organismos, como algas, o incluso por procesos geológicos que no tuvieran nada que ver con la vida? La duda persistía, y la identidad del primer animal seguía en el aire.

Nuevos biomarcadores. La respuesta a la pregunta ha llegado gracias al descubrimiento de dos nuevos y raros biomarcadores: los esteranos C31, concretamente el 24-n-butil colestano (24-nbc) y el 24-sec-butilcolestano (24-secbc).

Lo crucial no es solo haberlos encontrado, sino haberlos hallado junto al ya conocido esterano C30. Este patrón de coexistencia es la clave, y para poder demostrarlo los científicos llevaron a cabo un auténtico trabajo detectivesco, construyendo un caso con tres líneas de evidencia que se apoyan mutuamente. 

La evidencia en la roca. Analizando muestras de rocas antiguas de Omán, Siberia y la India, los científicos encontraron un patrón consistente. Aquellas rocas del Período Ediacárico (hace entre 635 y 541 millones de años) que eran ricas en el biomarcador de esponja C30 también contenían cantidades significativas del nuevo biomarcador C31, especialmente el 24-secbc.

En la esponja. Como segunda evidencia, el equipo analizó numerosas especies de demosponjas modernas. Descubrieron que aquellas que producen grandes cantidades de los precursores de esterano C30 también fabrican los precursores del esterano C31. Esta coincidencia entre el fósil y el organismo vivo es una conexión directa y muy poderosa para llegar a una conclusión muy clara. 

En el laboratorio. Para demostrar que estas moléculas solo podían tener un origen biológico específico, los científicos sintetizaron ocho isómeros posibles de los precursores del esterano C31. Luego, los sometieron a procesos que imitan la fosilización. 

El resultado fue claro: solo dos de ellos se transformaron en las estructuras exactas de 24-nbc y 24-secbc encontradas en las rocas. Esto descarta un origen aleatorio o geológico y confirma que son el producto de una maquinaria biológica muy específica, la de la esponja.

Por qué una esponja. Este hallazgo sitúa firmemente el origen de los animales mucho antes de la famosa explosión cámbrica. Las esponjas encajan perfectamente en el papel de ser el animal pionero en nuestro planeta. Hay que destacar que son organismos muticelulares, pero muy simples: esencialmente son colonias de células que cooperan entre sí sin formar tejidos ni órganos complejos. Representan el primer paso lógico desde la vida unicelular con LUCA, hacia la complejidad del reino animal. 

Este descubrimiento no solo nos deja ver que las esponjas fueron el primer animal que surgió, sino que nos ayuda a entender el cómo. Hay que tener en cuenta que la vida apareció en la Tierra hace unos 3.800 millones de años y consistió únicamente en organismos unicelulares. A partir de aquí la evolución llevó a la transición a la multicelularidad que fue un evento monumental, y ahora sabemos que las esponjas fueron las protagonistas. 

Gracias a esta "huella dactilar" molecular, los científicos no solo han resuelto un viejo debate, sino que han abierto una nueva puerta. Ahora pueden buscar esta firma química dual (C30 + C31) en rocas aún más antiguas, afinando todavía más la fecha de nacimiento del reino Animalia y desvelando los primeros capítulos de nuestra propia historia evolutiva.

En Xataka |  La vida en la Tierra vivió un espectacular cambio hace 540 millones de años. Tenemos una nueva explicación del porqué



-
La noticia La química ha resuelto un gran misterio de nuestra humanidad: cuáles fueron los primeros animales en habitar la Tierra fue publicada originalmente en Xataka por José A. Lizana .

Leer más

Hemos descubierto el ‘botón’ que usan las bacterias para escapar de los virus: es la clave para acabar con las superbacterias

Hemos descubierto el 'botón' que usan las bacterias para escapar de los virus: es la clave para acabar con las superbacterias

La resistencia a los antibióticos es una de las mayores amenazas a las que se enfrenta la humanidad en conjunto. Bacterias que antes eran inofensivas se están convirtiendo en 'superbacterias' inmunes a nuestros medicamentos más potentes. En esta carrera contrarreloj, la ciencia está mirando hacia el pasado para encontrar una solución del futuro: la fagoterapia. Un nuevo paso en pro de hacer frente a un gran problema de salud pública. 

Una técnica conocida. Esta técnica, que utiliza virus para aniquilar bacterias, podría ser nuestra mejor baza, pero un nuevo estudio revela que las bacterias tienen un as bajo la manga: un sofisticado mecanismo de defensa que parece sacado de una película de ciencia ficción. 

Investigadores de la Universidad Hebrea de Jerusalén y la Universidad de Melbourne han descubierto una estrategia bacteriana inédita que han bautizado como "excluir y sobrevivir". Este mecanismo permite a una bacteria infectada por un virus (un bacteriófago o fago) poner en cuarentena al invasor, amputar la sección infectada y seguir viviendo como si nada. Entender cómo lo hacen es el primer paso para poder contrarrestarlo.

Escala microscópica. Para comprender la importancia de este hallazgo, primero hay que entender cómo funciona la fagoterapia. Los fagos son los depredadores naturales de las bacterias y solo buscan infectarlas para tomar su control. 

Literalmente estos fagos se adhieren a la superficie bacteriana, inyectan su propio material genético y secuestran la maquinaria celular para crear miles de copias de sí mismos. Finalmente, la célula bacteriana, repleta de nuevos virus, estalla (un proceso llamado lisis), liberando al ejército de fagos para que infecten a sus vecinas. Un proceso que al final es exponencial y que también se usa con nuestras propias células humanas para infectarlas cuando tenemos un virus en el interior. 

El proceso biológico. El problema, como en toda carrera armamentística, es que las bacterias no se quedan de brazos cruzados. El nuevo estudio, centrado en la bacteria Bacillus subtilis, ha identificado a la proteína YjbH como la directora de orquesta de una ingeniosa defensa.

En concreto, se ha visto que cuando un fago inyecta su ADN dentro de las bacterias la bacteria YjbH lo detecta inmediatamente, se une a él y lo confina en un área diminuta de la célula, generalmente cerca de uno de los polos. A continuación, ocurre lo asombroso: YjbH recluta la maquinaria de división celular para que construya un muro o septo justo al lado de la zona infectada. 

A partir de aquí la célula se divide de forma asimétrica, creando una pequeña "minicélula" sin futuro que contiene toda la infección y la expulsa, mientras que la célula madre, ahora libre del virus, sigue su vida.

El estudio. Los investigadores han utilizado diversos colorantes fluorescentes para visualizar este proceso en tiempo real, como el DAPI, que tiñe el ADN, y el FM4-64, que marca las membranas celulares, permitiendo observar la formación de estos compartimentos de exclusión.

El futuro. Este descubrimiento es un perfecto ejemplo de la carrera armamentística evolutiva entre bacterias y virus. Y es que comprender exactamente como es puede defender una bacteria puede anticiparnos para crear tratamientos de próxima generación que ataquen este tipo de maquinarias. 

Una diana. El hecho de que la proteína YjbH se encuentre en una amplia gama de bacterias gram-positivas, incluyendo patógenos notorios como Staphylococcus aureus y Listeria monocytogenes, demuestra que no estamos ante una anécdota, sino ante un mecanismo de defensa muy extendido. Y ahora que lo conocemos, podemos empezar a diseñar estrategias para superarlo. La idea sería desarrollar fagos modificados o "cócteles" de fagos que puedan evadir o inhibir la acción de YjbH, haciendo que la terapia sea mucho más efectiva.

Aunque aún quedan desafíos por delante —como la posible respuesta del sistema inmunitario humano a los fagos—, este tipo de investigación es fundamental. La era de los antibióticos podría estar llegando a su fin, y necesitamos alternativas urgentes. "Esperamos que al reactivar la terapia con fagos podamos contribuir a los tratamientos no antibióticos para las infecciones", concluye Ghosal. "Después de 100 años, es hora de reconsiderar los beneficios de la terapia con fagos".

Imágenes | CDC 

En Xataka | La IA ha abierto un cofre que llevaba cerrado casi 4.000 millones de años: la salvación de los antibióticos






-
La noticia Hemos descubierto el 'botón' que usan las bacterias para escapar de los virus: es la clave para acabar con las superbacterias fue publicada originalmente en Xataka por José A. Lizana .

Leer más

A la pregunta de si los alimentos ultraprocesados son tan malos como nos han contado, la ciencia todavía no tiene respuesta clara

A la pregunta de si los alimentos ultraprocesados son tan malos como nos han contado, la ciencia todavía no tiene respuesta clara

Al ir al supermercado es fácilmente verse rodeados de bolsas de patatas fritas con sabores diferentes, galletas, refrescos, pizzas congeladas o nuggets de pollo que forman parte de nuestra cesta de la compra. Son los llamados alimentos ultraprocesados (UPF, por sus siglas en inglés), productos que han pasado por múltiples fases industriales y que a menudo contienen ingredientes que no se encuentran en la cocina de casa, como el jarabe de maíz o los aceites hidrogenados. 

Un debate de hace tiempo. La voz de alarma la dio a principios de los 2000 el investigador brasileño Carlos Monteiro. Mientras intentaba descifrar el aumento de la obesidad y la diabetes tipo 2 en su país, descubrió algo paradójico: la gente compraba menos azúcar y sal que antes. La explicación estaba en el carrito del súper: habían sustituido los ingredientes básicos por productos precocinados y listos para consumir que venían cargados de estos mismos alimentos. 

Una evidencia en crecimiento. Desde ese momento los científicos se comenzaron a poner las pilas para tratar de demostrar si existía un vínculo entre el consumo elevado de estos productos con problemas de salud, debido a que se habían ido incrementando a un ritmo vertiginoso. A partir de ahí, decenas de estudios asocian las dietas altas en ultraprocesados con mayores riesgo de obesidad, enfermedades cardiovasculares, diabetes tipo 2, cáncer e incluso depresión y ansiedad. 

Un estudio a gran escala con más de 110.000 adultos en Estados Unidos encontró que aquellos con el mayor consumo de ultraprocesados tenían un 4% más probabilidades de morir por cualquier causa durante el periodo de seguimiento.

Variaciones entre países. No se consume la misma cantidad de ultraprocesados en todos los países de nuestra zona. Mientras que en Estados Unidos y Reino Unido casi el 60% de las calorías provienen de los ultraprocesados en España la cifra se sitúa en torno al 26-30%. Pese a estar en la parte baja de la tabla en comparación con los países anglosajones, estudios recientes, como el publicado por la revista The BMJ, alerta de que la evidencia más sólida asocia la exposición a ultraprocesados con problemas de salud cardiometabólica, trastornos metales y mortalidad en general. 

Grafica

¿Es el procesamiento el villano? A pesar de las contundentes correlaciones, no toda la comunidad científica está de acuerdo en demonizar a los ultraprocesados como categoría. El principal argumento de los escépticos es que el grupo es demasiado amplio y heterogéneo. De esta manera, se plantea la pregunta si es lógico meter en el mismo saco unos donuts, unas patatas fritas y un yogur de supermercado. 

Algunos investigadores se preguntan si la asociación con la mala salud no se debe, simplemente, a que estos productos suelen ser ricos en grasas, azúcar y sal, y pobres en fibra y vitaminas. Sin embargo, varios estudios han intentado despejar esta incógnita. 

Un ensayo clínico del University College de Londres comparó dos dietas, una basada en alimentos mínimamente procesados y otra con ultraprocesados, pero ambas con niveles idénticos de nutrientes clave como proteínas, grasas, fibra y azúcar. Sorprendentemente, los participantes perdieron el doble de peso con la dieta de alimentos mínimamente procesados. Esto sugiere que la composición nutricional no lo es todo.

Más allá de las calorías. Un rompedor ensayo dirigido por el fisiólogo Kevin Hall en los Institutos Nacionales de Salud de Estados Unidos (NIH) encerró -literalmente-a 20 adultos en un centro de investigación y les dio libertad para comer todo lo que quisieran. Durante dos semanas siguieron una dieta ultraprocesada, y otras dos una dieta no procesada. Los resultados fueron reveladores: con la dieta de ultraprocesados los participantes consumieron de media 500 calorías más al día y ganaron casi un kilo. 

Las investigaciones de Hall y otros apuntan a que la densidad energética y la textura de los alimentos son clave. Muchos ultraprocesados, al tener menos agua, concentran más calorías en menos gramos. Además, su textura a menudo es más blanda, lo que nos lleva a comer más rápido. Al comer más rápido, nuestro cerebro no tiene tiempo de registrar las señales de saciedad, lo que facilita el exceso de consumo calórico.

Ciarán Forde, investigador de la Universidad de Wageningen, demostró que la gente comía mucho menos cuando se les presentaban alimentos de textura dura (como patatas fritas tipo gofre) en comparación con alimentos de textura blanda (como el puré de patatas), independientemente de si eran ultraprocesados o no. "Lo que vimos fue que la velocidad de comer y las propiedades de textura de las comidas impulsan el consumo, no el grado de procesamiento", afirma Forde.

¿Qué hacemos entonces? Aunque el debate sobre la definición y los mecanismos exactos continúa, la tendencia general es clara: una dieta con un alto porcentaje de ultraprocesados se asocia consistentemente con peores resultados de salud.

La solución, sin embargo, no parece ser una prohibición total. El propio Kevin Hall, uno de los investigadores más críticos, admite que consume salsas y aliños de ensalada comprados en la tienda. Su consejo para amigos y colegas es pragmático: "Come más verduras sin almidón, legumbres, frutas, granos integrales y limita la ingesta de azúcares añadidos, sodio y grasas saturadas. Elige los ultraprocesados que te ayuden a que esto sea conveniente y asequible, y evita aquellos que lo dificulten".

Imágenes | Alan Alves 

Xataka | Hacer arroz de más ya no es un error: enfriarlo y recalentarlo puede reducir sus calorías según algunos nutricionistas





-
La noticia A la pregunta de si los alimentos ultraprocesados son tan malos como nos han contado, la ciencia todavía no tiene respuesta clara fue publicada originalmente en Xataka por José A. Lizana .

Leer más

Ante la gran oleada de incendios en España, la ciencia ya tiene a un culpable de su propagación: el cambio climático

Ante la gran oleada de incendios en España, la ciencia ya tiene a un culpable de su propagación: el cambio climático

Este 2025 ha sido un año devastador para España y Portugal a causa de la gran cantidad de incendios forestales que se han ido dando, en muchos casos de manera intencional, pero que se fueron avivando sin control. Un nuevo análisis científico ha concluido que la crisis climática ha jugado un papel determinante, multiplicando por 40 la probabilidad de que se dieran las condiciones meteorológicas extremas que avivaron las llamas. 

No solo eso. El estudio determina que estos fenómenos fueron un 30% más intensos de lo que habrían sido en un mundo sin calentamiento global. Y esto es importante remarcarlo: el estudio no apunta a que el cambio climático provoque los incendios, pero sí que intensifican su fuerza de destrucción al volverlos incontrolables con más probabilidad. 

Poniendo cifras. El informe, elaborado por la red World Weather Attribution, pon cifras a una catástrofe de dimensiones históricas. A 1 de septiembre, los incendios habían calcinado unas 380.000 hectáreas en España y 260.000 en Portugal. En total, 640.000 hectáreas, un área cuatro veces superior a la de Londres y que representa aproximadamente el 1% de la superficie de la Península Ibérica. 

En términos históricos, para España 2025 va a cerrar como el quinto año con mayor superficie quemada desde que hay registros en 1961. Si nos vamos a niel europeo, podemos afirmar que el peor año desde que el sistema EFFIS (Sistema Europeo de Información sobre Incendios Forestales) comenzó a registrar datos en 2006, con más de un millón de hectáreas calcinadas, siendo dos terceras partes de las que corresponden a España y Portugal. 

Impresiona a los investigadores. "El tamaño de estos incendios ha sido asombroso", afirma Clair Barnes, científica del Imperial College de Londres y coautora del estudio. "Condiciones más cálidas, secas e inflamables se están volviendo más severas con el cambio climático y están dando lugar a incendios de una intensidad sin precedentes".

Y es que la sorpresa es lógica. Según los datos que han analizado, apuntan a que estas condiciones de riesgo extremo para la propagación del fuego se van a dar cada 15 años con el clima actual. Esto es algo que antes solo ocurría una vez cada 500 años en la era preindustrial. 

Un cóctel explosivo. El combustible de estos megaincendios fue una situación meteorológica sin precedentes. La gran cantidad de incendios se produjeron durante una ola de calor en España que fue una de las más largas jamás registrada, con una duración de 16 días (del 3 al 18 de agosto). Pero no solo fue la más larga, sino también la más intensa, con una anomalía de temperatura de 4,6 °C superior en comparación con un clima preindustrial. 

El impacto del cambio climático en este calor extremo es aún más pronunciado. Según el análisis, una ola de calor de diez días tan intensa como la vivida es ahora un evento que se espera una vez cada 13 años. Antes de que los humanos comenzaran a calentar nuestro entorno, un calor así era extremadamente raro y solo se esperaba que ocurriera menos de una vez cada 2.500 años. 

No es solo el clima. Aunque el informe señala al cambio climático como el gran amplificador, no es el único factor. Los científicos destacan que tanto en España como Portugal, la despoblación rural y el envejecimiento de la población han dejado grandes extensiones de terreno forestal sin gestionar, creando una acumulación masiva de vegetación seca que actúa como un combustible perfecto. Uno de los ejemplos que se pone está en la disminución de prácticas tradicionales como el pastoreo extensivo ha reducido el control natural sobre esa vegetación. 

David García, matemático aplicado de la Universidad de Alicante y coautor del estudio, señala que el debate público en España se ha centrado mucho en el declive de estas actividades rurales. Apunta a que "se ha hablado mucho menos del efecto del cambio climático en estos incendios, que, como se ha demostrado, ha sido inmenso". 

A esto se suma que la ignición humana, ya sea accidental o intencionada, está detrás de cerca del 90% de los incendios cuyas causas se logran identificar. Con enormes cargas de combustible y condiciones meteorológicas extremas, acciones humanas menores pueden desencadenar resultados catastróficos.

La ciencia que hay detrás. Para llegar a estas conclusiones, el equipo de investigación analizó las condiciones meteorológicas que propician los incendios utilizando el Índice de Severidad Diario (DSR), que es una métrica derivada del Índice Meteorológico de Incendios de Canadá (FWI). De manera resumida, este índice combina datos de precipitaciones a largo plazo, temperatura, humedad y viento para estimar la probabilidad y severidad de un incendio. 

De esta manera, los científicos compararon los datos meteorológicos observados en el clima actual (que se ha calentado desde la era preindustrial) con un contrafactual de cómo serían esas condiciones en un clima sin ese calentamiento. De esta manera, con la metodología usada se puede aislar y cuantificar la "huella" del cambio climático en un evento extremo concreto. 

El resultado. La crisis climática está llevando al límite los ecosistemas y la capacidad de respuesta. Por primera vez, España activó el Mecanismo de Protección Civil de la UE para solicitar ayuda en la lucha contra los incendios forestales, y ahora se plantean ya aplicar nuevas regulaciones con el objetivo de prepararse para el futuro que espera a nuestro país. 

Imágenes | UME (X) Matt Palmer 

En Xataka | El plan para limpiar el aire capturando CO₂ acaba de recibir un golpe de realidad: la Tierra no tiene tanto espacio como creíamos



-
La noticia Ante la gran oleada de incendios en España, la ciencia ya tiene a un culpable de su propagación: el cambio climático fue publicada originalmente en Xataka por José A. Lizana .

Leer más

Controlar un brazo robótico con la mente no es ciencia ficción: un hombre con parálisis lo ha logrado con precisión gracias a la IA

Controlar un brazo robótico con la mente no es ciencia ficción: un hombre con parálisis lo ha logrado con precisión gracias a la IA

La inteligencia artificial ha llegado para poder mejorar nuestro día a día, y esto es lo que ha querido materializar un equipo de la Universidad de California que ha desarrollado un dispositivo de IA que se fusiona con una interfaz cerebro-ordenador no invasiva, multiplicando por cuatro su rendimiento y abriendo una nueva vía para mejorar la calidad de vida de personas con discapacidad.

Control de máquinas con la mente. Algo que a priori puede ser sacado de una película de ciencia ficción, pero que los laboratorios de neurotecnología quieren llevar a la realidad. El problema es que la precisión y la accesibilidad siguen siendo un auténtico reto para todos los ingenieros.

De esta manera, las interfaces cerebro-ordenador (BCI) ahora mismo requieren una cirugía muy compleja para poder instalar electrodos en el cerebro para lograr una gran precisión. Pero ahora esto va a cambiar, según un estudio publicado en la prestigiosa revista Nature Machine Intelligence que presenta un avance que podría cambiar las reglas del juego: una IA que actúa como 'copiloto' de una BCI no invasiva que mejore su rendimiento.

Un equipo que ya se ha probado. El sistema, desarrollado por el equipo de Jonathan Kao en la Universidad de California, ha permitido a un hombre con parálisis parcial controlar un brazo robótico para realizar tareas complejas, algo que no podía hacer con la tecnología BCI convencional.

Un copiloto de IA para leer la mente. Las BCI no invasivas, que se colocan sobre el cuero cabelludo para captar las señales eléctricas del cerebro, son más seguras y accesibles, pero también menos precisas. El "ruido" y la debilidad de las señales hacen que sea difícil para el sistema descifrar con exactitud las intenciones del usuario.

Aquí es donde entra la inteligencia artificial. En lugar de intentar decodificar cada matiz de la actividad cerebral, el sistema de Kao utiliza una IA que colabora con el usuario. Y así es como lo explica el propio Kao a Nature:

Estos copilotos están esencialmente colaborando con el usuario de la BCI e intentando inferir los objetivos que desea alcanzar, para luego ayudar a completar esas acciones.

De esta manera, la inteligencia artificial aprende a integrar la intención del propio usuario, necesitando menos información cerebral directa para ejecutar un comando preciso. Se crea así un sistema de autonomía compartida, entre el humano y la propia máquina.

Resultados que hablan por sí solos. Para probar este sistema, los investigadores realizaron dos experimentos clave. Primero, pidieron a cuatro participantes (uno de ellos con parálisis) que moviera un cursor en una pantalla hasta un objetivo. Con la BCI tradicional lo lograron la mayoría de las veces.

Sin embargo, al activar el copiloto de IA, todos completaron la tarea más rápido y con una tasa de éxito mucho mayor, mejorando el rendimiento hasta cuatro veces.

La prueba de fuego. Esta se realizó con un auténtico brazo robótico. La tarea consistía en coger bloques de colores y moverlos a puntos específicos sobre una mesa. El participante con parálisis no pudo completar la tarea utilizando la BCI no invasiva por sí sola. Sin embargo, tras activar la IA, su tasa de éxito se disparó hasta un asombroso 93%. Los participantes sin parálisis también fueron notablemente más rápidos con la ayuda de la IA.

Una vista al futuro. Este enfoque abre una puerta prometedora para mejorar la calidad de vida de personas con discapacidades motoras, ofreciendo una herramienta potente sin necesidad de pasar por el quirófano. Zhengwu Liu, un ingeniero de la Universidad de Hong Kong que no participó en el estudio, califica la idea como "una buena manera de lograr un sistema híbrido hombre-máquina más poderoso".

Hay un desafío ético. El avance no está libre de polémicas, y tal como apunta el neurólogo Mark Cook de la Universidad de Melbourne, es necesario que la autonomía compartida no se produzca "a costa de la autonomía del usuario", ya que "existe el riesgo de que las intervenciones de la IA anulen o malinterpreten la intención del usuario".

El propio Kao reconoce este reto. De hecho, revela que a los participantes en el estudio no les gustaron las versiones del sistema en las que la IA tenía demasiado control, como por ejemplo, cuando podía decidir la trayectoria del brazo robótico por sí misma. Encontrar ese punto justo donde la IA asiste sin dominar será clave para el futuro de esta tecnología, que promete seguir evolucionando con copilotos más sofisticados e, incluso, su posible integración en los BCI implantados quirúrgicamente.

Imágenes | ubidium Beach

En Xataka | Hong Kong afronta una enorme crisis de salud pública por el virus chikungunya. Su solución: un ejército de perros robot

-
La noticia Controlar un brazo robótico con la mente no es ciencia ficción: un hombre con parálisis lo ha logrado con precisión gracias a la IA fue publicada originalmente en Xataka por José A. Lizana .

Leer más

Burbujas de vida primitiva en los mares de metano de Titán: la hipótesis que puede resolver el misterio

Burbujas de vida primitiva en los mares de metano de Titán: la hipótesis que puede resolver el misterio

En los confines del sistema solar, a más de 1.400 millones de kilómetros de distancia, orbita Titán, la luna más grande de Saturno. Un satélite con una atmósfera densa y anaranjada con temperaturas que rondan los -180 ºC, pero a pesar de esto destaca por tener nubes, lluvia, ríos, lagos y mares. Ahora ya tenemos encima de la mesa las primeras teorías de cómo se estaría formando vida allí.

Una primera teoría sólida. Durante años, los científicos se han preguntado si en este entorno tan exótico podía surgir la vida. Ahora, un nuevo estudio publicado en el International Journal of Astrobiology propone un mecanismo detallado y plausible sobre cómo podrían estar formándose ahora mismo las primeras estructuras precursoras de la vida o protocélulas en sus gélidos lagos de metano.

El primer ingrediente de la vida. Para que la vida comience, necesita una frontera. Algo que separe un 'dentro' químico de un 'afuera' caótico. En el caso de los humanos, esa frontera es la membrana celular, una bicapa lipídica que delimita la formación de las vesículas. Algo que según el consenso científico es un paso clave y precio a la aparición de la vida.

La gran pregunta es si algo similar podría ocurrir en un lugar sin agua líquida como Titán. La respuesta, según los autores del estudio, es un rotundo sí.

Una molécula clave. Para afirmar algo de manera tan categórica lo más importante son unas moléculas anfifílicas. Son compuestos con una cabeza polar y una cola no polar, como los lípidos de nuestras membranas. De esta manera, esta estructura permite autoensamblarse formando las membranas que den lugar a las vesículas.

En la atmósfera de Titán, la radiación solar y las partículas energéticas bombardean constantemente el nitrógeno y el metano, creando una sopa de moléculas orgánicas complejas. Entre ellas se encuentran los nitrilos orgánicos que tienen precisamente esta naturaleza anfipática y podrían actuar como los ladrillos de estas membranas primigenias en un entorno no polar como el metano líquido.

Un mecanismo simple. El estudio no solo postura que estas membranas pueden existir, sino que propone un mecanismo sorprendentemente simple y elegante para su formación, impulsado por el propio clima de Titán. Este proceso empieza cuando los compuestos anfipáticos creados en la atmósfera caen y se acumulan en la superficie de los lagos de metano, formando una delgada película de una sola capa, como si fuera aceite sobre el agua.

Cuando las gotas de lluvia de metano golpean la superficie del lago, provoca salpicaduras. Estas lanzan al aire aerosoles o pequeñas gotas secundarias del propio lago que vuelven a caer al lago. Al entrar en contacto, su envoltura de una capa se fusiona con la película de una capa del lado que ya estaba ahí presente y se forma lo que estábamos buscando: la membrana de doble capa.

De esta manera, se crea una vesícula perfectamente formada que queda dispersa en el metano líquido, y a estas hipotéticas vesículas de Titán se les ha llamado 'azotosomas'.

De burbujas inestables a una evolución primitiva. Inicialmente, estas vesículas serían solo 'cinéticamente estables', es decir, temporales. Pero aquí es donde el proceso se vuelve aún más fascinante, ya que el estudio postura que una vez formadas estas vesículas empezarían a interactuar con otras moléculas orgánicas disueltas en el lago.

Aquellas vesículas que por azar capturen e integren en su membrana otros anfífilos que las hagan más estables, sobrevivirán más tiempo. Esto daría lugar a una especie de selección natural a nivel molecular: las poblaciones de vesículas más estables perdurarían y se acumularían, mientras que las menos estables se desharían.

Este proceso de competición y selección podría dar lugar a una forma primitiva de evolución, donde las vesículas desarrollan una "memoria composicional" basada en las moléculas que las hacen más robustas. Es un paso gigantesco que podría llevar a estructuras cada vez más complejas y funcionales, auténticas protocélulas.

Cómo las encontraremos. Todo esto es una hipótesis brillante, pero hay que revisar si es cierto. La respuesta está en futuras misiones espaciales. Una de las esperanzas está puesta en la gran misión Dragonfly de la NASA, un dron del tamaño de un coche que volará por la atmósfera de Titán a partir de mediados de la década de 2030 para analizar diferentes lugares de su superficie.

Con tecnología avanzada. Los autores proponen un instrumento ideal para realizar esta investigación: un dispositivo láser. Lo ideal sería que contara con espectroscopia Raman, una técnica que analiza la composición química de las moléculas. Usando nanopartículas metálicas para amplificar la señal de forma masiva podría identificar la naturaleza exacta de los anfipáticos que forman las vesículas, incluso en concentraciones muy bajas.

También debería contar con dispersión de luz combinada. Una técnica que permite apuntar un láser al líquido y midiendo como se dispersa la luz, detectar la presencia de partículas suspendidas, determinar su tamaño y, al observar cómo se asientan con el tiempo, diferenciar las vesículas de partículas de polvo o hielo.

Historia en la astrobiología. Si una misión como Dragonfly encontrara estas vesículas, sería uno de los descubrimientos más importantes de la historia de la astrobiología. No confirmaría la existencia de vida, pero sí demostraría que los primeros pasos hacia la complejidad y el orden, las condiciones previas para la vida (abiogénesis), pueden darse en el universo en condiciones radicalmente distintas a las de la Tierra.

Imágenes | Alessandro Ferrari

En Xataka | En 1995, la NASA se puso a drogar arañas con anfetaminas, marihuana y la más devastadora: cafeína

-
La noticia Burbujas de vida primitiva en los mares de metano de Titán: la hipótesis que puede resolver el misterio fue publicada originalmente en Xataka por José A. Lizana .

Leer más