El CERN ha hecho otro hallazgo asombroso: una partícula que oscila entre materia y antimateria puede ayudarnos a entender el origen del universo

El CERN ha hecho otro hallazgo asombroso: una partícula que oscila entre materia y antimateria puede ayudarnos a entender el origen del universo

El CERN continúa añadiendo nuevos hitos a su ya larga lista de logros. Esta semana un grupo de investigadores de la Universidad de Oxford ha dado a conocer el resultado del experimento que han llevado a cabo en el detector LHCb, y confirma las observaciones llevadas a cabo por otros equipos científicos hace más de una década.

En 2007 un grupo de investigadores de la Universidad de Stanford, en California (Estados Unidos), se percató por primera vez de que hay un tipo de mesones conocidos como 'encanto' (charm) que tiene la peculiar habilidad de cambiar de estado de forma espontánea, alterando su estructura entre materia y antimateria.

La clave reside en la oscilación de los mesones 'charm'

Los mesones son partículas subatómicas pertenecientes a la familia de los hadrones que están compuestas por el mismo número de quarks y antiquarks, que se mantienen unidos gracias a la mediación de la fuerza nuclear fuerte.

Cuando la antimateria entra en contacto directo con la materia ambas se aniquilan, liberando una gran cantidad de energía

Por otro lado, la antimateria no es más que una forma de materia constituida por antipartículas, que son partículas con la misma masa y espín que las partículas con las que estamos familiarizados, pero con carga eléctrica opuesta.

A la materia que está constituida por antipartículas la llamamos antimateria, y tiene una propiedad sorprendente: cuando entra en contacto directo con la materia ambas se aniquilan, liberando una gran cantidad de energía bajo la forma de fotones de alta energía, así como otros posibles pares partícula-antipartícula.

Una vez hecho este pequeño inciso, volvamos a los mesones. Los físicos saben desde hace cinco décadas que hay partículas subatómicas que pueden 'saltar' de materia a antimateria, o a la inversa. En realidad, este comportamiento está propiciado por el efecto de superposición cuántica, y, provoca que una partícula sea simultáneamente, valga la redundancia, una partícula y su propia antipartícula.

Lo que los investigadores de Oxford han observado por primera vez es que los mesones charm oscilan entre ambos estados. Esto significa, sencillamente, que pueden adoptar la forma de partícula, saltar al estado de antipartícula y recuperar nuevamente el estado de partícula. Todo ello de forma espontánea.

Lhcb7

Este hallazgo ha sido posible gracias a un experimento realizado en el LHCb, el detector del LHC diseñado expresamente para indagar en la física del quark b.

La estrategia que han utilizado para identificar este proceso durante su experimento en el LHCb es sorprendente debido a que, grosso modo, ha consistido en medir la masa de las partículas con una precisión asombrosa. Y es que el mesón no tiene la misma masa cuando adopta el estado de partícula y el de antipartícula. La diferencia es muy pequeña (1 x 10^-38 g), por lo que para conseguir medirla es necesario poner a punto una tecnología extraordinariamente precisa. Pero estos investigadores lo han logrado.

Un mecanismo desconocido que podría llevarnos más allá del modelo estándar

Las implicaciones que podría tener este descubrimiento son mucho más profundas de lo que puede parecer si lo contemplamos de forma superficial. El modelo estándar, que es nuestra teoría más robusta, no explica cómo funciona este mecanismo, por lo que cabe la posibilidad de que estén involucradas en él partículas desconocidas que no pueden ser predichas por este modelo.

Comprender cómo funciona la oscilación de los mesones 'charm' puede ser la clave para entender el mecanismo que explica la asimetría materia-antimateria del universo

Encontrar una posible fisura en nuestra teoría más avanzada no es una mala noticia. Todo lo contrario; es una noticia buenísima porque da a los científicos pistas acerca de qué camino pueden seguir para elaborar nueva física. Y este hallazgo nos invita a asomarnos al origen mismo del universo por una razón de peso: comprender cómo funciona la oscilación de los mesones charm puede ser la clave para entender el mecanismo que explica la asimetría materia-antimateria del universo.

De acuerdo con el modelo estándar, durante el Big Bang debió producirse la misma cantidad de materia y antimateria, pero de haber sido así ambas se habrían aniquilado mutuamente al entrar en contacto, y el universo se habría extinguido.

Obviamente no ha sido así, por lo que debió de darse algún mecanismo que provocó la producción de una mayor cantidad de materia que de antimateria. Esta es la asimetría de la que estamos hablando, y quizá este descubrimiento sea el primer paso hacia la solución de este gran enigma.

Imágenes | CERN

Más información | Universidad de Oxford

-
La noticia El CERN ha hecho otro hallazgo asombroso: una partícula que oscila entre materia y antimateria puede ayudarnos a entender el origen del universo fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

Las pestañas en espera y el arranque rápido mejoran en Edge 91 con un objetivo: transformarlo en el navegador más rápido para Windows 10

Las pestañas en espera y el arranque rápido mejoran en Edge 91 con un objetivo: transformarlo en el navegador más rápido para Windows 10

En el mundo de los navegadores la experiencia que nos ofrecen lo es todo. Bueno, casi todo. También importan otras características, como, por ejemplo, la forma en que implementan la seguridad, su interfaz o el abanico de extensiones, o plug-ins, que ponen en nuestras manos, pero no cabe duda de que a la mayor parte de los usuarios nos importa mucho que, ante todo, sean rápidos.

Microsoft parece ser plenamente consciente de ello. De lo contrario no habría apostado por refinar en el nuevo Edge 91 varias de las mejoras en las que se apoyan sus predecesores, precisamente, para incrementar su rendimiento. De hecho, según los de Redmond estas innovaciones lo posicionan como el navegador más rápido para Windows 10, algo que está por ver y que comprobaremos tan pronto como tengamos la oportunidad de probarlo a fondo.

Si cumple lo que promete, quizá Edge consiga recortar distancias con Chrome, que es el navegador que reina con puño de hierro en el mercado de los navegadores. Y es que, según Statcounter GlobalStats, el navegador de Google acaparaba nada menos que el 64,47% de la cuota de mercado a finales del pasado mes de abril. Safari se posiciona a mucha distancia, con una cuota del 18,69%, y Firefox y Edge están virtualmente empatados con unos relativamente modestos 3,59% y 3,39% de cuota respectivamente.

Edge 91 refina las pestañas latentes o en espera

Una de las novedades que han implementado los programadores de Microsoft en este navegador para incrementar su rendimiento es la optimización de las pestañas latentes o en espera (sleeping tabs), que ya están presentes en Edge 88. Su estrategia consiste en evitar que cuando abrimos múltiples pestañas simultáneamente en el navegador aquellas que no estamos utilizando en un momento dado acaparen excesivos recursos.

La pestaña que tenemos activa en primer plano tiene prioridad, y, por tanto, esa será la que recibirá los recursos que necesite

La pestaña que tenemos activa en primer plano tiene prioridad, y, por tanto, esa será la que recibirá los recursos que necesite. Sin embargo, las pestañas en segundo plano recibirán una supervisión transparente para el usuario para minimizar su impacto en el rendimiento global. Microsoft ha confirmado que una de las operaciones que hará Edge 91 para evitar que estas pestañas acaparen demasiados recursos consiste en inhibir los anuncios publicitarios que emergen de forma automática.

La otra promesa de Microsoft: ahora Edge se inicia más rápido

En este ámbito no hay magia negra. Para conseguir que su navegador invierta menos tiempo desde el instante en el que los usuarios lo lanzamos hasta el momento en el que está a nuestra disposición los programadores de Microsoft han habilitado varios procesos del núcleo del navegador, de forma que ahora se ejecutan en segundo plano. Esta prestación, conocida como Startup Boost, ya estaba presente en Edge 88, por lo que será interesante comprobar si realmente rinde mejor en Edge 91.

Los de Redmond aseguran que esta estrategia no requiere dedicar recursos adicionales al navegador cuando lo estamos utilizando

Los de Redmond aseguran que esta estrategia no requiere dedicar recursos adicionales al navegador cuando lo estamos utilizando, y es lógico que sea así. Lo que no está tan claro es el impacto que pueden tener los procesos de Edge que se ejecutan en segundo plano en el rendimiento global de nuestro PC. En cualquier caso, es algo que podremos identificar sin dificultad cuando lo probemos. En ese momento veremos si esta revisión del navegador de Microsoft está a la altura de las expectativas que ha generado.

Más información | Microsoft

-
La noticia Las pestañas en espera y el arranque rápido mejoran en Edge 91 con un objetivo: transformarlo en el navegador más rápido para Windows 10 fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

Los ‘hackers’ están sufriendo: el procesador Morpheus está siendo atacado, y va ganando; aún nadie ha logrado vulnerarlo

Los 'hackers' están sufriendo: el procesador Morpheus está siendo atacado, y va ganando; aún nadie ha logrado vulnerarlo

La primera vez que oímos hablar de este microprocesador nos resultó difícil dar crédito a lo que teníamos delante: un chip que es capaz de modificar su propia microarquitectura para hacer virtualmente imposible que alguien pueda atacarlo. Sonaba a fanfarronada, pero no lo era. Y es que detrás de este proyecto estaban, y siguen estándolo, dos instituciones que si pecan de algo no es, precisamente, de falta de seriedad: la Universidad de Michigan y DARPA.

Lo que han ideado Todd Austin, un profesor de ingeniería eléctrica e informática en la universidad que acabo de mencionar, y los investigadores con los que trabaja es un microprocesador diseñado para introducir modificaciones aleatorias en su microcódigo, y, por tanto, a nivel de su microarquitectura, con una periodicidad de tan solo unos pocos cientos de milisegundos. De alguna forma este chip muta de una manera casi constante para evitar que a los hackers les dé tiempo a encontrar sus puntos débiles.

Así lo explica Todd Austin, su máximo artífice, en el artículo que ha publicado en The Conversation: «Los hackers necesitan conocer minuciosamente los detalles de la microarquitectura para poder injertar su código malicioso en los sistemas que son vulnerables. Para detener estos ataques Morpheus introduce modificaciones aleatorias en su implementación para, así, transformar el sistema en un puzle que los piratas deben resolver [...]».

525 'hackers' profesionales contra un solo microprocesador

No cabe duda de que la estrategia que han ideado Austin y sus colaboradores es ingeniosa, pero nos invita a hacernos varias preguntas. Por un lado es interesante indagar en el método que han utilizado para evitar que los cambios introducidos en la CPU provoquen errores en la ejecución del código de las aplicaciones. Según los diseñadores de este chip las modificaciones quedan confinadas al nivel de la microarquitectura, por lo que el software que se ejecuta por encima no se ve afectado.

También podemos preguntarnos si no sería posible vulnerar este procesador recurriendo a la ingeniería inversa. Sí sería posible, pero en este contexto entra en juego uno de los ingredientes más importantes de la receta de este chip: su capacidad de introducir las modificaciones en lapsos de tiempo muy breves. De solo unos pocos cientos de milisegundos, como hemos visto. Los hackers tendrían que trabajar a una velocidad inasumible para poder sacar partido a esta técnica.

Los desarrolladores de software, al menos los que se esfuerzan para hacer su trabajo bien, se esmeran para escribir aplicaciones seguras, pero en la práctica es muy difícil programar un software completamente seguro. Cualquier pequeño descuido puede ser descubierto y aprovechado por los hackers para introducir su código malicioso, por lo que es esencial contar con una barrera de protección adicional. Esta es, precisamente, la estrategia del procesador Morpheus: dar forma a un muro de contención que sea capaz de inhibir estos errores.

525 expertos en seguridad han invertido tres meses en planificar ataques contra el chip Morpheus para intentar vulnerarlo

Y por el momento parece funcionar realmente bien. DARPA, que es la misma agencia del Departamento de Defensa del gobierno estadounidense que financió la red precursora de internet, respalda económicamente este proyecto. Hace unos meses organizó un evento en el que 525 expertos en seguridad invirtieron tres meses en planificar ataques constantes al chip Morpheus para intentar vulnerarlo. Y no tuvieron éxito. Por el momento este procesador ha aguantado la embestida, aunque según sus creadores siguen poniéndolo a prueba para cerciorarse de que su diseño no tiene puntos débiles.

Lo más interesante es que si finalmente llegan a la conclusión de que el microprocesador Morpheus es completamente seguro tienen la intención de trasladar las características fundamentales de su diseño a otros chips, como, por ejemplo, los que gobiernan tanto nuestros ordenadores como nuestros teléfonos móviles. Por el momento es solo una posibilidad, pero cualquier innovación que incremente la seguridad de nuestros dispositivos es bienvenida. Seguiremos la pista a este proyecto y os mantendremos al tanto de lo que nos proponga en el futuro.

Imágenes | Universidad de Michigan

Más información | Universidad de Michigan

-
La noticia Los 'hackers' están sufriendo: el procesador Morpheus está siendo atacado, y va ganando; aún nadie ha logrado vulnerarlo fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

Cómo escuchar música de forma analítica para probar la calidad de los altavoces, los auriculares y otros equipos de sonido

Cómo escuchar música de forma analítica para probar la calidad de los altavoces, los auriculares y otros equipos de sonido

Para la mayor parte de nosotros escuchar música de forma íntima es una actividad esencialmente pasiva. Nos dejamos llevar. Nos relaja. Nos ayuda a evadirnos de nuestra actividad diaria. Sin embargo, cuando decidimos abordarla para poner a prueba la calidad de unos auriculares, unos altavoces o cualquier otro equipo de sonido nos predisponemos a adoptar una actitud activa.

Permanecer alerta para intentar identificar las características del dispositivo que estamos probando es una estrategia acertada, pero también es importante dejarnos guiar por una metodología que nos ayude a extraer conclusiones lo más objetivas posible de una actividad que es eminentemente subjetiva. Emocional.

Este es el punto de partida que os proponemos

El propósito de este artículo es proponeros un procedimiento que puede resultaros de ayuda cuando necesitéis comprar unas cajas acústicas, unos auriculares u otro elemento de reproducción de sonido y tengáis la oportunidad de probarlo antes de haceros con él.

No siempre es posible poner a prueba un componente antes de comprarlo, pero cuando se presenta la oportunidad de hacerlo merece la pena aprovecharla para cerciorarnos de que ese elemento realmente nos ofrece lo que estamos buscando.

El método que os proponemos es el que utilizamos nosotros cuando analizamos dispositivos de audio. Pero no lo hemos inventado nosotros en absoluto. De hecho, es el que utilizan buena parte de los profesionales del sonido y los audiófilos para identificar la calidad de un equipo de sonido, y también, aunque este objetivo es más complejo, qué rol ejerce un determinado componente dentro de él.

Una grabación mediocre representará un obstáculo que impedirá al equipo que estamos probando entregarnos lo mejor de sí mismo

Antes de meternos en harina es importante que afiancemos bien nuestro punto de partida. Nuestro primer consejo es que cuando decidáis llevar a cabo vuestras propias pruebas seleccionéis temas musicales que tengan una toma de sonido de la mejor calidad posible.

Una grabación mediocre representará un obstáculo que impedirá al equipo que estamos probando entregarnos lo mejor de sí mismo, pero una grabación sobresaliente le permitirá expresarse y nos ayudará a evaluar su potencial. En la última sección del artículo os propondremos varios cortes musicales que tienen una toma de sonido muy notable.

Ahí va nuestro siguiente consejo. Si vuestro propósito es comparar el rendimiento de varios componentes lo ideal es que llevéis a cabo las pruebas a ciegas, sin saber cuál está sonando en cada momento, e igualando el nivel de presión sonora de todos ellos.

Para ejecutar las pruebas a ciegas necesitaréis la ayuda de otra persona, y para igualar el nivel de presión sonora y evitar que el que suena más alto nos invite a concluir, quizá erróneamente, que suena mejor, tendremos que utilizar un sonómetro.

Somos conscientes de que no siempre es posible contar con la ayuda de otra persona, y también de que la mayor parte de los aficionados a la música no tiene un sonómetro, pero si las circunstancias nos permiten plantear las pruebas de esta forma merece la pena ejecutarlas así para que podamos extraer una conclusión lo más fidedigna posible.

Mcintosh

Nuestros dos últimos consejos son mucho más asequibles, pero igualmente importantes: cerrad los ojos durante la audición y anotad todo aquello que percibáis.

Cerrar los ojos nos permite inhibir los estímulos visuales y concentrarnos en los estímulos auditivos, y tomar notas es también una práctica muy recomendable, sobre todo si vamos a probar varios componentes, porque nuestra memoria auditiva es frágil. Si no lo hacemos nos arriesgamos a asignar a un elemento los atributos que hemos identificado en otro diferente.

Sigue la melodía: el método de Ivor Tiefenbrun

Este procedimiento fue ideado por el fundador de Linn, una veterana compañía escocesa especializada en la puesta a punto de componentes de alta fidelidad de muy buena calidad. Lo que nos propone es que intentemos centrar toda nuestra atención en un único instrumento y seguir su melodía, dejando todos los demás en segundo plano.

Un buen equipo de música debe ser capaz de restituir cada instrumento con precisión, separándolo nítidamente de todos los demás, por lo que debería permitirnos lograrlo sin esforzarnos demasiado. Eso sí, este método no es igual de eficaz con todos los géneros musicales. Resulta muy asequible con pequeñas formaciones orquestales, y más complicado con las grandes masas orquestales y con la música moderna que introduce expresamente distorsión.

Un buen equipo de música debe ser capaz de restituir cada instrumento con precisión, separándolo nítidamente de todos los demás

En cualquier caso, si la toma de sonido de la música que estamos escuchando es de buena calidad, este método funciona muy bien. Si estamos probando unos auriculares o unas cajas acústicas bien ejecutados seremos capaces de focalizar nuestra atención en cualquier instrumento de una forma muy natural.

Pero, si el componente que estamos analizando no está a la altura, los instrumentos aparecerán entremezclados y nos costará mucho identificar uno de ellos con precisión y seguir su melodía durante todo el corte musical.

Cómo identificar los atributos que delatan la calidad de un componente de audio

Además del método que nos propone Ivor Tiefenbrun, cuando probamos un dispositivo de sonido nos esforzamos para identificar los atributos que reflejan con más claridad su calidad. Nuestra intención es que este procedimiento sea lo más asequible posible, por lo que vamos a sugeriros únicamente aquellos parámetros que son fáciles de discernir.

La escena sonora

Si la toma de sonido del tema musical que estamos escuchando es buena las cajas acústicas o los auriculares que estamos probando deberían ser capaces de colocar cada instrumento en el lugar que le corresponde. En la ubicación física que ocupaba en el escenario en el que se llevó a cabo la grabación, recreando así una escena sonora virtual con amplitud horizontal, vertical y profundidad.

Si cerramos los ojos las cajas acústicas, o los auriculares, deberían desaparecer completamente. Deberíamos poder localizar la voz del cantante delante de nosotros, en el centro. También deberíamos percibir los instrumentos que están a su derecha, a su izquierda, y por detrás de él. En ningún caso deberíamos identificar que el sonido emerge de la ubicación física de nuestros altavoces. Cada instrumento debe formar parte de una escena sonora amplia y continua.

Los transitorios

Una forma sencilla e intuitiva de definir los transitorios requiere identificarlos como sonidos intensos y de corta duración que muchos componentes de audio no consiguen reproducir correctamente. De hecho, aunque estén presentes en la grabación cabe la posibilidad de que queden enmascarados y no podamos escucharlos correctamente.

Hay muchos instrumentos ricos en transitorios, pero uno de los más fáciles de identificar son las castañuelas. Un equipo de buena calidad no debería tener ningún problema para reproducirlas de una forma precisa y creíble, pero es probable que unas cajas acústicas o unos auriculares mediocres no logren recrearlas bien, especialmente si conviven con una gran masa orquestal.

Escuchacritica

El nivel de detalle

Identificar el nivel de detalle que es capaz de recrear el componente de audio que estamos probando es sencillo siempre y cuando, eso sí, la toma de sonido esté a la altura.

Si la grabación ha conseguido recoger un elevado nivel de microdetalle en algunas de ellas podremos escuchar la respiración de los músicos que tocan los instrumentos de viento (especialmente la flauta), o, incluso, el roce de los dedos de los guitarristas al rasguear las cuerdas. Algunas grabaciones de Paco de Lucía nos permiten apreciar esta última característica con mucha claridad si los altavoces son capaces de restituir esta información musical.

Si la distorsión supera cierto umbral nos provocará fatiga acústica

Uno de los desafíos a los que se enfrentan los componentes de audio, especialmente los auriculares, las cajas acústicas y los amplificadores, es la distorsión. Suele presentarse cuando incrementamos el nivel de presión sonora por encima de cierto umbral, y puede arruinar nuestra experiencia debido a que genera fatiga acústica.

Si subimos el volumen hasta alcanzar un nivel de presión sonora realista, y después de unos minutos notamos molestias en los oídos o embotamiento mental, es probable que las prestaciones del componente que estamos probando estén siendo comprometidas por la distorsión.

Aquí tenéis algunos cortes musicales con una toma de sonido impecable

Estos son algunos de los temas musicales que solemos utilizar para poner a prueba la calidad de los equipos de sonido que analizamos. Como podéis ver, además de indicaros el título del corte y su intérprete especificamos el formato en el que solemos reproducirlo:

  • ‘Stir it up’, de Bob Marley (FLAC 24 bits y 96 kHz)
  • ‘You make me feel like a natural woman’, de Susan Wong (FLAC 24 bits y 96 kHz)
  • ‘Redbud tree’, de Mark Knopfler (FLAC 24 bits y 96 kHz)
  • ‘Autumn in Seattle’, de Tsuyoshi Yamamoto Trio (PCM 16 bits y 44,1 kHz)
  • ‘Spanish Harlem’, de Rebecca Pidgeon (PCM 16 bits y 44,1 kHz)
  • ‘You’ve got a friend’, de Susan Wong (FLAC 24 bits y 96 kHz)
  • ‘Wasted time’, de Eagles (PCM 16 bits y 44,1 kHz)
  • ‘Vivaldi - Flute concerto in D’, Chesky Records (PCM 16 bits y 44,1 kHz)
  • ‘Stimela’, de Hugh Masekela (PCM 16 bits y 44,1 kHz)
  • ‘Lush life’, de Billy Strayhorn (FLAC 24 bits y 96 kHz)
  • ‘Afro blue’, de Mongo Santamaria (FLAC 24 bits y 96 kHz)
  • ‘April in Paris’, de Duke/Harburg (FLAC 24 bits y 96 kHz)
  • ‘No sanctuary here’, de Chris Jones (FLAC 24 bits y 44,1 kHz)
  • ‘Under the boardwalk’, de Mighty Echoes (PCM 16 bits y 44,1 kHz)

Imágenes | Hudson Marques | Andrea Piacquadio

-
La noticia Cómo escuchar música de forma analítica para probar la calidad de los altavoces, los auriculares y otros equipos de sonido fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

Los ordenadores cuánticos actuales son a la computación cuántica lo que el ENIAC a la computación clásica; el reto es conseguir que avancen igual de rápido

Los ordenadores cuánticos actuales son a la computación cuántica lo que el ENIAC a la computación clásica; el reto es conseguir que avancen igual de rápido

El ENIAC era imponente. Intimidatorio. Este ordenador, una de las primeras máquinas de propósito general de la historia, pesaba alrededor de 27 toneladas, ocupaba 167 metros cuadrados y utilizaba nada menos que 18 000 válvulas termoiónicas. John Mauchly y J. Presper Eckert, sus diseñadores, lo pusieron en marcha para resolver un problema real a finales de 1945, en la Universidad de Pennsylvania, y se mantuvo operativo hasta 1955.

El desarrollo que han experimentado los ordenadores clásicos desde entonces ha sido asombroso. Y ha estado marcado ante todo por la llegada de un componente: el transistor. Hizo su debut en 1947 de la mano de John Bardeen, William Shockley y Walter Brattain, tres físicos de los Laboratorios Bell. Una forma sencilla de definirlo nos invita a describirlo como un dispositivo electrónico semiconductor que es capaz de responder a una señal de entrada entregándonos una salida determinada.


Leer más

El corazón del telescopio espacial James Webb ya está listo, y no puede permitirse fallar porque no tendrá una segunda oportunidad

El corazón del telescopio espacial James Webb ya está listo, y no puede permitirse fallar porque no tendrá una segunda oportunidad

El espejo primario de este telescopio espacial es su corazón. Y sus ojos. En un dispositivo tan complejo y avanzado como este hay una infinidad de elementos críticos que pueden provocar que el proyecto fracase si cualquiera de ellos falla, pero el colosal espejo primario de este observatorio tiene el papel protagonista.

Actualmente los técnicos de la empresa aeroespacial estadounidense Northrop Grumman están llevando a cabo la última inspección de este componente. Y cuando la terminen estará preparado para ser instalado en el vehículo que se responsabilizará de transportarlo hasta el espacio. Una vez allí el observatorio viajará hasta alcanzar su ubicación definitiva, en el punto de Lagrange L2.

El telescopio James Webb permanecerá en una ubicación estacionaria en el sistema de referencia Sol-Tierra a aproximadamente 1 500 000 km de nuestro planeta

A diferencia del telescopio espacial Hubble, que orbita a algo menos de 600 km sobre el nivel del mar, el telescopio James Webb permanecerá en una ubicación estacionaria en el sistema de referencia Sol-Tierra a aproximadamente 1 500 000 km de nuestro planeta. Esta enorme distancia no permite llevar a cabo modificaciones y reparaciones a posteriori, por lo que es imprescindible que todo salga como ha sido planeado para que el proyecto llegue a buen puerto.

Esta es la razón por la que los técnicos involucrados en su puesta a punto están revisándolo todo con una minuciosidad extrema. De hecho, el test que están llevando a cabo actualmente persigue simular una de las fases críticas en la puesta en marcha del telescopio espacial: el delicado despliegue del espejo primario en el ambiente de microgravedad al que estará expuesto durante su vida operativa lejos del abrigo protector del planeta en el que ha sido ideado y ensamblado.

El espejo primario del telescopio espacial James Webb, al desnudo

En el primer párrafo de este artículo he utilizado el adjetivo colosal para describir el espejo primario de este ingenio espacial. Y me reafirmo. Para ponerlo en contexto únicamente tenemos que comparar sus 6,5 m de diámetro con los 2,4 metros del espejo del Hubble.

Ahí van más cifras interesantes: el espejo del James Webb está conformado por 18 segmentos hexagonales, y su enorme escudo solar de Kapton revestido de silicio y aluminio lo mantendrá permanentemente por debajo de los 50 kelvin (-223,15 ºC) a pesar de su exposición a la radiación solar.

El espejo primario del telescopio espacial James Webb mide 6,5 m de diámetro, por lo que es sensiblemente mayor que el del telescopio Hubble

El Kapton es un polímero desarrollado por la empresa DuPont en los años 60 que tiene una característica peculiar: su estructura se mantiene íntegra y estable en un rango de temperaturas muy amplio que se extiende desde los −269 a los 400 °C.

Además, cada uno de los segmentos está fabricado en berilio recubierto por una película de 48,25 g de oro, de ahí el bonito color dorado que podéis observar en la siguiente fotografía.

Jameswebbtest

Uno de los técnicos de la empresa aeroespacial estadounidense Northrop Grumman inspecciona los segmentos del espejo primario, que está fabricado en berilio y recubierto por una lámina de oro. Este último elemento explica su bonito color dorado.

Si todo sale como está previsto, el próximo 31 de octubre las agencias espaciales estadounidense, canadiense y europea lanzarán en un esfuerzo conjunto este telescopio desde el Puerto Espacial Europeo de Kurú, en la Guayana Francesa. Y viajará a bordo de un cohete Ariane 5.

Crucemos los dedos para que todo vaya bien y durante los próximos años esta herramienta nos ayude a encontrar la respuesta a algunas de las preguntas que nos formulamos acerca de los confines del universo.

Imágenes | NASA | NASA/MSFC/David Higginbotham/Emmett Given

Vía | BBC News

-
La noticia El corazón del telescopio espacial James Webb ya está listo, y no puede permitirse fallar porque no tendrá una segunda oportunidad fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

El gran debate sobre si la energía nuclear cada vez es más cara de producir: dos expertos con miradas diferentes nos lo explican

El gran debate sobre si la energía nuclear cada vez es más cara de producir: dos expertos con miradas diferentes nos lo explican

La energía nuclear española lleva cuatro décadas en el centro de todas las miradas. Los accidentes de Chernóbil y Fukushima pusieron en alerta a buena parte de la opinión pública, y la transición energética que estamos afrontando para paliar la emergencia climática ha vuelto a colocarla en el centro del debate.

Los expertos a los que hemos consultado lo tienen claro: actualmente la energía nuclear realiza una contribución imprescindible al mix energético español. Si queremos minimizar la emisión de gases de efecto invernadero en el camino hacia un modelo energético sostenible y respetuoso con el medio ambiente tenemos que contar con ella. Sin embargo, en lo que no están de acuerdo es en su coste y en el impacto que tiene en el precio de la electricidad.

Alfredogarciaretrato

Para arrojar luz sobre este tema tan apasionante, y tan importante para todos, hemos consultado a dos expertos que conocen muy bien el sistema energético español en general, y las peculiaridades de la energía nuclear en particular. Uno de ellos es Alfredo García, mucho más conocido en Twitter por su alter ego @OperadorNuclear. Durante los últimos diez años ha utilizado esta red social para divulgar y explicar el rol que tiene la energía nuclear, unos conocimientos garantizados por su responsabilidad como supervisor de operación en la central nuclear de Ascó, en Tarragona.

Actualmente la energía nuclear es esencial si queremos minimizar la emisión de gases de efecto invernadero en el camino hacia un modelo energético sostenible y respetuoso con el medio ambiente

Pedrofrescoretrato

También hemos hablado con Pedro Fresco (@PedroFresco), un reputado experto en los mercados energéticos y las energías renovables que, al igual que Alfredo, tiene una vocación didáctica muy sólida. Actualmente Pedro ejerce como Director General de Transición Ecológica en la Generalitat Valenciana, un puesto de responsabilidad que refleja su compromiso con la construcción de un futuro energético sostenible que sea mucho más respetuoso con el medioambiente que nuestro sistema energético actual.

Los libros que estos dos expertos han publicado no dejan lugar a dudas acerca de su capacidad de divulgación y su firme intención de participar en la construcción de un futuro energético alentador. Pedro es el autor de 'El nuevo orden verde' y 'El futuro de la energía en 100 preguntas', y Alfredo ha publicado 'La energía nuclear salvará el mundo'. Las tres son unas lecturas muy recomendables para cualquier persona interesada en el sector energético.

Como estáis a punto de descubrir, Alfredo y Pedro tienen una mirada diferente acerca de la energía nuclear y del papel que tendrá en el futuro en el mix energético español. No obstante, esto no les impide coincidir en algunos puntos, como el rol esencial que tiene actualmente esta forma de energía en la reducción de la emisión de gases de efecto invernadero. En cualquier caso, ambos tienen muchas cosas interesantes que contarnos fruto de un análisis que, pese a su diferente perspectiva, es muy enriquecedor y puede ayudarnos a conocer mejor el futuro energético hacia el que todos nos dirigimos.

La energía nuclear hoy es imprescindible si queremos resolver la emergencia climática

Para ir metiéndonos en harina nada mejor que conocer qué opinan los dos expertos con los que hemos hablado acerca de la contribución que realiza actualmente la energía nuclear al mix energético español. Alfredo defiende lo siguiente:

«Creo firmemente, y lo creo porque hay múltiples datos que lo avalan, que necesitamos la energía nuclear para hacer una transición hacia las energías bajas en gases de efecto invernadero. Cada país tiene su propia idiosincrasia. España tiene un gran potencial eólico y solar. Lo sabe todo el mundo, pero a menudo la gente olvida que no siempre tenemos sol, y no siempre tenemos viento».

Pedro también valora positivamente la aportación actual de la energía nuclear al sistema energético español: «Ahora mismo, en el año 2021, no podemos prescindir de la energía nuclear. No podemos cerrar todas las centrales nucleares, pero no porque vayamos a tener un problema de suministro, sino debido a que hacerlo nos llevaría a incrementar las emisiones de dióxido de carbono».

«Tenemos suficiente capacidad de ciclos combinados para cerrar todas las centrales nucleares mañana mismo, pero el problema es que estaríamos introduciendo una energía carbonizada, y esto iría en contra de nuestros objetivos de descarbonización. Por esta razón un cierre masivo y de golpe no es viable», apunta Pedro con convicción. Y concluye su análisis con el siguiente pronóstico:

«Las centrales nucleares acabarán cerrando, pero tienen que cerrar poco a poco. La razón por la que se ha hecho un calendario de cierre, además de por motivos técnicos y logísticos, es no afectar a las emisiones del sistema eléctrico de una forma importante. En 2021 no es viable cerrarlas todas, pero sí es viable hacerlo poco a poco».

Cntrillo

La central nuclear de esta fotografía es la de Trillo, en Guadalajara. Será la última que cesará su actividad, en 2035, de acuerdo con el calendario del Gobierno que establece el cierre programado de las instalaciones nucleares españolas.

El coste de la energía nuclear está en el centro del debate

Los factores que nos permiten identificar si es caro o barato producir electricidad utilizando energía nuclear son numerosos. Y complejos. Pero nuestros dos expertos nos ayudan a interpretarlos. Esto es lo que nos explica Pedro:

«Tenemos que diferenciar el coste de la energía nuclear en una central que ya está amortizada, o cerca del final de su amortización, que es el caso que tenemos en España, con el coste de una central nuclear nueva. Las centrales nucleares tienen un coste de amortización que refleja la inversión inicial y las inversiones recurrentes, y también tienen un coste de combustible, un coste de operación y mantenimiento, y, por último, una serie de costes por un impuesto llamado tasa Enresa que se ha hecho para pagar el propio desmantelamiento de la central nuclear, que es un proceso muy largo, y para costear la custodia de los residuos nucleares».

«Tenemos que diferenciar el coste de la energía nuclear en una central que ya está amortizada del coste de una central nuclear nueva»

«Nadie conoce con precisión el coste de las centrales, y las compañías no te lo van a decir, pero lo podemos intuir viendo sus cuentas, mirando qué se ha pactado en Francia para los precios nucleares y viendo cuándo hay más voces a favor del cierre en las propias empresas propietarias y cuándo no con los precios del mercado. Yo creo que el coste de la energía nuclear es superior a los 40 euros/megavatio hora (€/MWh), y, además, tiene una carga impositiva adicional», matiza Pedro.

«Esto es lo que sucede con las centrales nucleares que llevan décadas operando, pero si queremos construir una central nuclear nueva viendo toda la experiencia que han tenido nuestros vecinos, como Francia, Reino Unido o Finlandia, o Estados Unidos, que son los países con los que nos podemos comparar, el coste de la nueva energía nuclear se va más allá de 100 euros/megavatio hora. Esto está fuera del coste de cualquier tipo de energía. No nos podemos comparar con China, que tiene un sistema económico distinto, o con Rusia, que tiene una empresa que es propiedad pública y que probablemente tiene alguna subvención encubierta», asegura Pedro.

Medicin Del Espacio De Las Barras De Combustible 49555719763 O Scaled

Este trabajador de la empresa pública ENUSA Industrias Avanzadas está midiendo meticulosamente el espacio existente entre las barras de combustible que van a alimentar un reactor de una central nuclear.

«En 2020, que como todos sabemos ha sido un año muy especial, la electricidad ha costado 34 euros/megavatio hora, pero si vemos los precios futuros del mercado eléctrico a partir de 2026 tendremos precios inferiores a los 40 euros/megavatio hora. Esto son objetivamente pérdidas para las centrales nucleares. En definitiva, la energía que procede de las centrales nucleares que ya están amortizadas no es muy cara, pero si el precio del mercado se deprime a causa de las renovables, que son mucho más baratas en cualquiera de los casos, y eso les lleva a perder la rentabilidad, es normal que las empresas propietarias quieran cerrarlas. Al fin y al cabo es un negocio», sentencia Pedro con convencimiento.

El análisis de Alfredo es diferente, pero igualmente interesante debido a que introduce en la receta nuevos ingredientes: «Un informe muy reciente, de diciembre de 2020, elaborado por la Agencia Internacional de la Energía y la Agencia para la Energía Nuclear de la OCDE (Organización para la Cooperación y el Desarrollo Económicos) es muy clarificador porque estudia el coste nivelado de la energía. Este parámetro es una forma de medir el coste de una energía teniendo en cuenta todo su ciclo, desde la minería hasta la gestión de los residuos».

«Algunas energías son muy baratas cuando están produciendo. La solar fotovoltaica es una de ellas porque cuando ya tienes el panel instalado producir electricidad cuesta muy poco dinero. Sin embargo, ese panel requiere un proceso de minería previo y es necesario fabricarlo. Y una vez que finaliza su vida útil es preciso desmantelarlo y gestionarlo como el residuo que es. Todos estos procesos también generan una serie de gastos que es preciso contabilizar», puntualiza Alfredo.

«El coste nivelado de la energía mide cuánto cuesta cualquiera de las energías teniendo en cuenta todo su ciclo, y según este informe la más barata de todas es la operación a largo plazo de las centrales nucleares actuales. Y es importante que tengamos en cuenta que este estudio recoge todas las energías disponibles, como el carbón, el gas, la eólica marina, la eólica terrestre, la solar fotovoltaica, la solar de concentración, la solar térmica, la hidráulica… Absolutamente todas».

«La energía nuclear cuesta, si calculamos una media mundial, entre 30 y 35 dólares el megavatio hora. Está por debajo de todas las demás. Este coste es posible porque esas centrales nucleares ya están amortizadas. El combustible es una parte muy pequeña del coste de una central nuclear, y los precios de los gastos de operación están estandarizados, de manera que, incluyendo la gestión de los residuos, el coste de la energía nuclear es de aproximadamente 20 euros el megavatio hora producido. Este es el coste sin impuestos. Aquí está incluido todo, pero no olvidemos que estamos hablando de centrales nucleares ya amortizadas», nos explica Alfredo.

Recarga De La Central Nuclear De Cofrentes 49556448987 O Scaled

Esta fotografía ha sido tomada durante una parada para recargar el combustible nuclear del reactor de la central de Cofrentes, en Valencia.

«A esto habría que añadir los impuestos, que en España suman una cantidad equivalente al coste de producción. En Cataluña en particular los impuestos suman 6 euros adicionales porque hay un impuesto de la comunidad autónoma que graba la gestión de los residuos, cuando en realidad la administración de los residuos la hacen las propias centrales y la pagan aparte. Es un impuesto duplicado que está recurrido, pero por el momento las centrales nucleares lo están pagando».

«Estos son los costes de la energía nuclear en España. Cuando el mercado eléctrico está por encima de esos 45 o 46 euros, las centrales nucleares ganan dinero. Y cuando está por debajo, pierden. El año pasado, por ejemplo, las centrales nucleares españolas perdieron dinero porque los costes de producción fueron más altos que los beneficios», concluye Alfredo reflexionando acerca de los factores que condicionan la rentabilidad de las centrales nucleares.

Este es el posible impacto de las mejoras introducidas después de Fukushima

El accidente que tuvo lugar en la central nuclear de Fukushima (Japón) en marzo de 2011 provocó que las centrales de todo el planeta revisasen a fondo sus medidas de seguridad. Las mejoras que introdujeron provocaron que estas instalaciones actualmente sean sensiblemente más seguras, pero su impacto en el coste de la energía nuclear no está del todo claro. Esto es lo que nos explican nuestros expertos.

«Esa inversión ya está amortizada debido a que se recortó de los beneficios. El coste de la gestión de los residuos y el desmantelamiento de las centrales nucleares ya están incluidos en esos precios. Hay quien dice que el procesado de los residuos encarece el coste de la electricidad producida por las centrales nucleares, pero ellas no fijan este precio. Lo que hacen es cobrar el precio marcado por el pool eléctrico, que es el mercado mayorista de la electricidad, o vender su energía fuera del mercado a un precio fijo. Rara vez es la nuclear la que define el precio final de la energía», puntualiza Alfredo.

«Las centrales nucleares pertenecen a empresas cuyo objetivo es ganar dinero, y cuando no son rentables, cierran»

«Si las centrales nucleares tuviesen una fiscalidad justa, pagasen los impuestos que les corresponde y no tuviesen que hacer frente a impuestos duplicados, el precio de la electricidad que generan estaría en la órbita de los 40 euros por megavatio hora. Y no cabe duda de que es un precio muy competitivo».

«Cuando una central nuclear no es rentable, cierra. Esto fue lo que sucedió con Zorita, que cerró porque era una central pequeña y resultaba poco rentable mantenerla. Las centrales nucleares pertenecen a empresas cuyo objetivo es ganar dinero, y cuando no son rentables, cierran», asegura Alfredo defendiendo con convicción la competitividad de la energía generada por las centrales nucleares que mantienen su actividad.

Ncleo Del Reactor 9405156925 O

Este es el aspecto que tiene el núcleo de un reactor. En su interior podemos ver la parte superior de los elementos combustibles.

El análisis de Pedro valora las mejoras introducidas en la seguridad de las centrales nucleares después de Fukushima, pero nos invita a entrever que su coste probablemente sí ha tenido un impacto tangible en el precio de la energía producida en estas instalaciones:

«Todas las centrales nucleares españolas, al igual que las europeas, hicieron inversiones después de Fukushima para implementar una seguridad adicional. Y esto también ha provocado que la nueva energía nuclear se produzca con unos estándares mucho más seguros. Como es lógico son mucho más seguras las centrales nucleares que se construyen hoy que las que se hacían no ya antes de Fukushima, sino antes de Chernóbil».

«De hecho, muchas cerraron después de Chernóbil en muchos países porque no cumplían los estándares de seguridad. Obviamente esto tiene que ver con el coste de la energía. Si aprender lleva a más seguridad, y más seguridad lleva a más coste, que así sea. La seguridad hay que ponerla, y si luego el coste no nos cuadra tendremos un problema con esa energía», sentencia Pedro con firmeza.

El apagón nuclear, analizado por los expertos

El apagón nuclear que ha planificado el gobierno español establece que la última central nuclear española que permanecerá activa, la de Trillo, cesará en 2035. Como cabe esperar, nuestros dos expertos no valoran de la misma forma esta estrategia. Pedro está convencido de que este itinerario es el adecuado:

«El calendario del apagón nuclear no solo es realista, sino que el propio gobierno español ha conseguido que muchas de las empresas propietarias, que querían cerrar a los cuarenta años las centrales nucleares porque no eran rentables, hayan aceptado extender la operación hasta los cuarenta y cinco y los cuarenta y seis años. De hecho, puede llegar a pasar que alguien quiera revisar la fecha del cierre nuclear con el propósito de adelantarla».

«Si la electricidad en el futuro tiene el precio que parece que va a tener, las centrales nucleares españolas no darán beneficios. Darán pérdidas. Con frecuencia esta estrategia se plantea desde el sector pronuclear como si el pacto consistiese en crear un cierre, cuando en realidad lo que está haciendo este acuerdo es retrasar un cierre que muchas empresas eléctricas hubiesen ejecutado a los cuarenta años», asegura Pedro.

Recarga De Combustible Nuclear 9407974816 O Scaled

La perspectiva de Alfredo ante el apagón nuclear es eminentemente crítica: «Creo que es una estrategia muy electoralista. El Partido Socialista lleva muchos años incorporando en su programa electoral la idea de que cuando llegue al poder cerrará las centrales nucleares al finalizar su vida de diseño, que son cuarenta años. En el artículo que escribí para Xataka hace algún tiempo expliqué que se trata de un mito».

«Realmente esos cuarenta años definen un periodo mínimo en el que tienes que garantizar que la central funciona correctamente y con seguridad para asegurar la inversión que se ha realizado. No es una fecha de caducidad. Una central no puede durar treinta años porque entonces no se amortizaría completamente, pero una vez que ha llegado a los cuarenta años y se ha mantenido con seguridad, y siempre que el organismo regulador garantice que funciona de forma segura y es rentable, esa central puede seguir funcionando muchos más años», concluye Alfredo sin vacilar.

Cómo reducir los costes de construcción de las nuevas centrales nucleares

La inversión inicial que es necesario hacer para construir una central nuclear es muy alta, y por esta razón las instalaciones de tercera generación deben tener un ciclo de operación de al menos sesenta años. Se amortizan con más lentitud que las centrales de segunda generación. Alfredo nos explica qué estrategias pueden permitir reducir los costes de construcción de nuevas centrales nucleares:

«La Agencia para la Energía Nuclear de la OCDE ha publicado un informe reciente muy interesante en el que propone cómo se pueden reducir los costes de construcción de nuevas centrales nucleares. Hemos hablado de las centrales nucleares amortizadas, pero luego están las centrales nucleares nuevas, que, lógicamente, llevan asociados unos costes más altos porque requieren realizar una gran inversión inicial. De hecho, esta elevada inversión inicial es uno de los mayores inconvenientes de la energía nuclear».

«La Agencia para la Energía Nuclear propone cómo se pueden reducir los costes de construcción de nuevas centrales nucleares»

«Es la primera vez que se construyen los reactores de tercera generación que se están poniendo en marcha actualmente, a los que nosotros llamamos reactores FOAK (First Of A Kind) debido a que son los primeros de su tipo, y al ser nuevos no sabemos con qué problemas podemos encontrarnos durante su construcción. Y cuando se producen estos problemas pueden encarecer y retrasar este proceso», aduce Alfredo.

«La solución es, sencillamente, construir más. Es lo que está haciendo China. Sus primeros reactores también eran más caros, y, sin embargo, ahora están construyendo en plazo y ajustándose al presupuesto previsto inicialmente. Rusia está haciendo lo mismo. Y Corea del Sur, que está construyendo en Emiratos Árabes, también. Las centrales de tercera generación se diseñan para tener un ciclo de operación mínimo de sesenta años, y no de cuarenta años, como las de segunda generación, por lo que su amortización también es más lenta».

«Pero, y este es uno de los mayores impedimentos, al requerir una gran inversión inicial necesitan tener una gran estabilidad jurídica y legislativa que les permita funcionar durante todo ese tiempo siempre y cuando se mantenga la seguridad. La seguridad siempre es lo primero porque si no la tienes te cierran la central. Fukushima está cerrada porque no ha sido lo suficientemente segura», sentencia Alfredo.

En el siguiente hilo de Twitter Alfredo explica con todo detalle el procedimiento propuesto por la Agencia para la Energía Nuclear para reducir los costes de construcción de las nuevas centrales nucleares:

CÓMO REDUCIR LOS COSTES NUCLEARES

La energía nuclear puede desempeñar un papel clave para cumplir los objetivos de reducción de emisiones y garantía de suministro eléctrico reduciendo el coste de la nueva construcción. En un HILO explico cómo propone conseguirlo la @OECD_NEA pic.twitter.com/7rm5BzoW74

— Operador Nuclear (@OperadorNuclear) July 2, 2020

Pedro, sin embargo, se muestra escéptico ante la posibilidad de que la construcción de las centrales nucleares de tercera generación se pueda abaratar lo suficiente para incrementar drásticamente su competitividad:

«Para mí es una cuestión de fe. Es posible que la segunda, la tercera o la cuarta central nuclear de nueva generación sean más baratas, pero ¿cuánto más baratas tienen que ser para que una instalación que me está produciendo a más de 100 euros/megavatio hora incremente su competitividad para producir a menos de 50 euros/megavatio hora?», pregunta de forma retórica.

«¿Realmente me puedes conseguir esa bajada de los costes? Yo no lo creo. Si yo fuese quien tuviese que decidir dónde pongo los recursos para afrontar la transición energética no apostaría por esta estrategia», asevera Pedro. Y continúa su exposición analizando la competitividad no solo de las centrales nucleares de segunda generación, sino también de las de tercera generación:

«Llegará un momento en el que las centrales nucleares irremediablemente chocarán con la generación renovable»

«Tenemos que mirar el proceso de descarbonización con perspectiva. Las centrales nucleares que tenemos ahora nos están permitiendo no emitir dióxido de carbono y nos están apoyando en la transición energética, pero llegará un momento en el que irremediablemente chocarán con la generación renovable. Nuestras centrales generan siempre la misma potencia, que normalmente es la máxima. Pueden bajar, y subir, pero como por diseño no están preparadas para hacer eso la bajada es rápida, pero la subida es lenta, por lo que si paras una central, o la dejas al mínimo, y luego la quieres subir, tardas dos días en alcanzar esa potencia máxima».

«Esto quiere decir que cuando tienen que convivir con unas energías que son eminentemente intermitentes lo que necesitas al otro lado es una energía que te complemente. Una energía que te permita subir y bajar rápidamente la potencia de la misma forma en que lo hacen las energías renovables. Las centrales nucleares no están preparadas para hacerlo. Ahora no suele haber muchos problemas porque el sistema obliga a las nucleares a bajar la potencia tres o cuatro veces al año en los momentos en los que hay mucha aportación eólica, solar, y a veces también hidráulica. Pero a medida que vayamos teniendo más energía solar y eólica el sistema energético se saturará con más frecuencia», vaticina Pedro.

Turbinas

Las turbinas están alojadas en un edificio cercano al reactor nuclear. Son las responsables de transformar la energía cinética del vapor de agua en energía mecánica.

«Esto provocará que haya que parar las nucleares, pero no va a tener sentido hacerlo porque no es viable pararlas y tener que esperar un montón de horas hasta que vuelvan a entregar la potencia necesaria. Además, si las haces bajar continuamente estás provocando que una instalación que es carísima y que tiene unos costes fijos altísimos no pueda generar los ingresos que necesita para cubrir los costes fijos. Las centrales nucleares no están tecnológicamente adaptadas al mundo que viene».

«Más del 80% de las emisiones de dióxido de carbono no proceden del sistema eléctrico; están en el transporte, la industria…»

«Las nuevas centrales nucleares sí pueden subir y bajar. No tienen ningún problema. Eso sí, si las haces bajar la potencia con mucha frecuencia no las vas a amortizar en la vida. Pero estas centrales nucleares están generando a más de 100 euros/megavatio hora. Si internalizo este coste al sistema eléctrico tendré una electricidad muy cara. Y en ese escenario la electrificación de los vehículos, de la industria y de la climatización representa un problema. Más del 80% de las emisiones de dióxido de carbono no proceden del sistema eléctrico; están en el transporte, la industria… No podemos permitirnos tener una electricidad cara, y por eso una nueva central nuclear con un coste de 8 millones de euros el megavatio hora que está generando con un coste superior a los 100 euros/megavatio hora, por lo que estamos viendo en las experiencias cercanas, no tiene ningún sentido».

«Además, para amortizar una central nuclear de nueva generación la voy a tener que mantener sesenta años trabajando para poder amortizar los enormes costes fijos. Y no podemos olvidar que estamos en una emergencia climática, y esto quiere decir que tenemos que descarbonizar con rapidez. Los parques eólicos y las plantas fotovoltaicas se construyen en muy poco tiempo. Si se agiliza la construcción en dos o tres años podemos tenerlos en funcionamiento, pero construir una central nuclear es un proceso muy lento», concluye Pedro.

El almacenamiento del excedente energético, otro desafío a resolver

El siguiente punto que tocamos con ambos expertos teniendo presente el protagonismo creciente de las fuentes de energía renovables explora la necesidad de contar con una infraestructura capaz de salvaguardar el excedente energético que se produce en los momentos de máxima generación. Este es el análisis de Pedro:

«Necesitamos poder almacenar ese excedente energético, o bien energías descarbonizadas y renovables que puedan hacer ese complemento. Lo lógico es que la solución combine ambas opciones, pero sobre todo estamos enfocados en el almacenamiento. Las baterías no son la única manera de almacenar energía. De hecho, nuestra forma principal de hacerlo hoy consiste en utilizar bombeos hidroeléctricos. Nuestro país es muy montañoso, y esa diferencia de alturas nos facilita usar esta tecnología».

«Las baterías que nos permiten resolver este reto aún son caras, pero su coste está descendiendo año tras año en parte debido a la tracción tecnológica que está ocasionando el desarrollo de los vehículos eléctricos. Y también tenemos los bombeos hidroeléctricos. Un megavatio de bombeo hidroeléctrico es mucho más barato que un megavatio producido por una central nuclear. Y también hay otras maneras de almacenar energía».

Simuladorcofrentes

Este es el simulador de la sala de control de la central nuclear de Cofrentes, en Valencia. Es idéntico a la sala real incluso en el más mínimo detalle porque en él entrenan los operadores que van a trabajar con el reactor nuclear.

«Estamos iniciando una economía del hidrógeno. Además, de la misma manera en que se puede almacenar electricidad de forma electroquímica en baterías se puede hacer de forma química. Y también se puede almacenar en forma de energía potencial no solo con los bombeos hidroeléctricos, sino con aire comprimido, o, incluso, subiendo materiales sólidos y bajándolos después con un sistema de poleas. Y también hay soluciones que hacen posible el almacenamiento térmico de la energía».

«Tenemos decenas de tecnologías distintas, pero, sobre todo, tenemos tres a la vista: los bombeos hidroeléctricos, las baterías y el hidrógeno. Los bombeos ya son rentables; las baterías están empezando a serlo en algunas situaciones, y a medida que pasen los años su rentabilidad será mayor; y el hidrógeno seguramente tardará un poco más en ser rentable, pero también lo será por la misma evolución tecnológica. Cuando estás creando el futuro y pones en la balanza, por un lado, las nucleares, que son carísimas, no te permiten descarbonizar en poco tiempo y tienen un plazo de amortización de sesenta años, y veo por otro lado que tengo energías renovables que son cada vez más baratas, el camino a seguir es obvio».

«Es verdad que las renovables necesitan un complemento, pero resulta que tengo uno que ya es rentable y otro que baja de coste cada año. Y, además, tenemos el hidrógeno. Creo firmemente que tenemos que apostar por las energías renovables más el almacenamiento, o más otras energías que en su momento puedan actuar como un complemento, como la hidroeléctrica de embalse, la energía geotérmica o la biomasa. Creo que la opción renovables más almacenamiento es mucho más razonable que la opción nucleares más renovables, que son los dos modelos que estamos contemplando», concluye Pedro.

«Creo que la opción renovables más almacenamiento es mucho más razonable que la opción nucleares más renovables»

Alfredo, sin embargo, defiende que la ausencia de una iniciativa firme que proponga una solución tangible al desafío que representa el almacenamiento del excedente energético puede acabar provocando que el apagón nuclear planificado por el Gobierno finalmente no pueda ejecutarse en las fechas previstas:

«Me da la sensación de que este acuerdo, que está promovido por el Gobierno y está firmado y aceptado por las eléctricas, no es más que un brindis al sol. Creo que piensan ‘vamos a decir que vamos a cerrar, pero cuando llegue el momento sabemos que no va a ser posible cerrar las centrales nucleares’».

«Este acuerdo es revisable, y, de hecho, se va a revisar en 2023 con el propósito de comprobar si somos capaces de incorporar potencia constante como la que proporcionan las centrales nucleares en su sustitución. Y esto solo puede hacerse o con enormes baterías o con grandes presas hidroeléctricas que no se están construyendo, y que no vamos a tener. Creo que no vamos a cerrar cuando está previsto», vaticina.

Trabajadoresalmaraz

Aquí vemos en acción a dos trabajadores de la central nuclear de Almaraz, en Cáceres.

Además, Alfredo no pasa por alto que el excedente energético de las centrales nucleares puede utilizarse para generar hidrógeno, una opción que se podría implantar en las instalaciones españolas y que reforzaría su aportación al sistema energético:

«Una opción que me gusta especialmente, y que también se está estudiando para las centrales españolas, es la cogeneración de hidrógeno. Al igual que el excedente de las renovables se puede utilizar para producir hidrógeno, cada central nuclear podría tener una fábrica de hidrógeno asociada situada a cierta distancia, y una línea en exclusiva conectada directamente a la central nuclear. En el momento que a la central se le pide que baje, por ejemplo, un 10% de potencia en dos minutos, no pasa nada. El reactor va a seguir funcionando al 100% de potencia, pero solo derivará a la red el 90%».

«El 10% restante lo aportará a la fábrica de hidrógeno, de manera que ese producto se almacenará y se podrá comercializar. Esta estrategia ya la están estudiando las centrales nucleares españolas como una alternativa a la operación a largo plazo, pero, como es lógico, requiere una estabilidad jurídica y legislativa que ofrezca a las empresas propietarias de las centrales nucleares la garantía de que la inversión que se verían obligadas a acometer va a poder ser amortizada a través de la operación de las instalaciones durante el periodo de tiempo necesario», concluye Alfredo.

La fusión nuclear requiere resolver muchos retos, pero es una opción ilusionante

No podía dejar escapar la oportunidad de encarar la recta final de este artículo preguntando a los dos expertos qué opinan acerca de la fusión nuclear, un proyecto científico y tecnológico en el que están involucradas la mayor parte de las grandes potencias, como la Unión Europea, Estados Unidos, China, Rusia o Japón. Esta es la postura que ha adoptado Pedro:

«Creo que hay que tener la mente abierta. Y que, por supuesto, todas las opciones tienen que ser investigadas. La fusión nuclear aún está en un estado de desarrollo muy preliminar, pero esto no significa que el desarrollo científico y técnico no vaya a hacerla posible. El problema es que la más optimista de nuestras previsiones nos coloca en la década de los 60 o los 70, y es un horizonte posterior a la crisis climática a la que ya nos estamos enfrentando, y también a la transición energética en la que ya estamos trabajando».

«Ahora tenemos el objetivo de descarbonizar en el plazo de treinta años, y esto no puede hacerse con energía de fusión porque no llega a tiempo. Es probable que en otra etapa de la humanidad esta forma de energía tenga su papel, y por esta razón yo seguiría investigando, pero hay problemas que aún no han sido resueltos. Todavía no sabemos cómo generar más energía con la fusión de la que invertimos en producirla. En el momento en el que solventemos este desafío, que creo que conseguiremos resolverlo, tendremos que encontrar la solución a otros problemas».

«Debido a cómo funciona una central nuclear las eficiencias de transformación del calor que generamos a electricidad son ligeramente superiores al 30%, por lo que tendríamos que generar al menos tres o cuatro veces más energía de la que consume el reactor para que salgan las cuentas. El objetivo de ITER es generar diez veces más. Pero una vez que estemos ahí tenemos otro problema con los reactivos. Necesitamos tritio», nos explica Pedro.

«La fusión nuclear es muy prometedora, pero no podemos confiar en ella para ningún tipo de previsión energética que hagamos hoy en día»

«La idea es que se regenere constantemente dentro del propio reactor, pero se tiene que regenerar todo. No podemos permitirnos que no se regenere ni una mínima parte porque el coste del tritio es absolutamente prohibitivo. Actualmente lo estamos sacando de reactores nucleares de fisión de tipo CANDU, que son los que usan los canadienses, y si hacemos un cálculo aproximado todo el tritio que se genera en el mundo hoy en día no bastaría para alimentar un solo reactor de fusión».

«Y, además de todo esto, necesitamos que la tecnología sea barata porque, aunque generemos diez veces más energía y consigamos regenerar todo el tritio, el coste de la estructura tiene que ser competitivo al compararlo con las otras energías que existan en ese momento. Creo que merece la pena investigar todo esto, por supuesto, porque es algo muy prometedor, pero no podemos confiar en la fusión nuclear para ningún tipo de previsión energética que hagamos hoy en día», expone Pedro.

Trabajadorenusa

Este trabajador de ENUSA, en Salamanca, está realizando la inspección final de uno de los elementos combustibles que alimentarán el reactor de una central nuclear española o extranjera.

La opinión de Alfredo acerca de la fusión nuclear nos invita a contemplar el esfuerzo técnico que se está haciendo para ponerla a punto con un optimismo prudente:

«Creo que ninguna de las personas que trabajan en ella pone en duda que va a funcionar. El problema es que no sabemos cuándo. Hay previsiones que apuntan hacia los años 50 o 60. Y si no es en ese momento será en los 70 o los 80, pero yo creo que sí lo conseguiremos. Y también creo firmemente que cuando tengamos la fusión nuclear no necesitaremos ni la fisión ni la mayor parte de las renovables porque tendremos centrales que se alimentarán con hidrógeno, que procede del agua del mar, y que generarán unas cantidades enormes de energía».

«Además, los residuos radiactivos derivados de los materiales del propio reactor son de media actividad. Y no hay peligro de que se produzca un accidente porque el reactor de fusión nuclear cuando tiene un problema deja de recibir electricidad y se para. No se dan ni el calor residual ni los residuos que producimos en los reactores de fisión. Cuando tengamos fusión creo que podremos prescindir de todo lo demás, pero mientras tanto seguimos teniendo un calentamiento global y tenemos que reducir las emisiones», sostiene Alfredo con convicción.

Imágenes | Foro Nuclear

-
La noticia El gran debate sobre si la energía nuclear cada vez es más cara de producir: dos expertos con miradas diferentes nos lo explican fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

LG OLED C1, análisis: sus competidores van a tenerlo muy difícil para superar lo que este todoterreno nos propone con cine y juegos

LG OLED C1, análisis: sus competidores van a tenerlo muy difícil para superar lo que este todoterreno nos propone con cine y juegos

Durante los últimos tres años cada nueva generación de televisores OLED se ha limitado a refinar, con frecuencia sutilmente, lo que nos ofrecía su predecesora.

A bote pronto podríamos llegar a la conclusión de que esta evolución relativamente tímida refleja cierto agotamiento en una tecnología que nos ha demostrado tener un valor indudable desde un punto de vista cualitativo, pero hay otra forma de verlo que, honestamente, me parece mucho más certera.


Leer más

No lo parece, pero en la Estación Espacial sí hay gravedad; hay microgravedad: qué es y por qué es tan importante para hacer ciencia

No lo parece, pero en la Estación Espacial sí hay gravedad; hay microgravedad: qué es y por qué es tan importante para hacer ciencia

«El espacio-tiempo le dice a la materia cómo moverse, y la materia le dice al espacio-tiempo cómo curvarse». Esta frase del físico teórico estadounidense John Archibald Wheeler condensa a la perfección una de las ideas fundamentales de la teoría general de la relatividad que Albert Einstein formuló en 1915.

De hecho, consigue expresar de forma intuitiva la esencia geométrica de la gravedad sin necesidad de recurrir a ecuaciones complicadas, que no harán acto de presencia en este artículo.

Lo que Einstein nos está explicando a través de la frase de Wheeler es que los objetos con masa tienen la facultad de curvar el continuo espacio-tiempo, y, a la par, esta deformación determina la manera en que la materia se desplaza a través de él.

Los objetos con masa tienen la facultad de curvar el continuo espacio-tiempo, y esta deformación determina la manera en que la materia se desplaza a través de él

Esta idea puede ser un poco complicada para cualquiera que no esté familiarizado con ella, pero la imagen que tenéis un poco más abajo, aunque no es completamente precisa, la ilustra bastante bien.

En ella podemos ver que el Sol, que es un objeto muy masivo, curva el espacio-tiempo bajo él. Y de alguna manera también podemos intuir cómo esta deformación afecta a la Tierra, cuyo movimiento se ve sometido al efecto de nuestra estrella sobre el continuo espacio-tiempo.

Esto es, en definitiva, la gravedad. No obstante, también tenemos a nuestro alcance otra forma de describirla que para muchas personas puede ser un poco más intuitiva.

Espacio Tiempo

Esta recreación muestra de forma intuitiva cómo la enorme masa del Sol curva el continuo espacio-tiempo, de manera que esa deformación tiene un efecto sobre el movimiento de los objetos menos masivos que orbitan en torno a él.

La gravitación universal de Isaac Newton nos lo pone un poco más fácil

La concepción clásica de la gravedad, la newtoniana, es menos rigurosa que la idea que acabamos de explorar porque prescinde de su esencia geométrica y describe la gravitación exclusivamente en términos de fuerzas, pero también nos sirve para entender cuál es su efecto.

Nos dice, sencillamente, que la gravedad es una fuerza de atracción que actúa sobre dos cuerpos con masa, y que su intensidad es directamente proporcional al producto de sus masas e inversamente proporcional al cuadrado de la distancia que las separa.

La gravedad es la interacción fundamental de la naturaleza que nos mantiene pegados a la superficie de la Tierra, que, como todos sabemos, es un objeto con mucha masa, al menos si la comparamos con nuestra propia masa.

Y, al mismo tiempo, también es la fuerza que mantiene nuestro planeta en órbita perpetua alrededor del Sol, que es un objeto aún mucho más masivo que la Tierra.

Todos estamos acostumbrados a la intensidad de la gravedad terrestre porque el ser humano, al igual que los demás seres vivos de nuestro planeta, está totalmente adaptado a ella.

La distancia que separa la EEI de la Tierra no es ni mucho menos suficiente para que no se vea sometida a su campo gravitatorio, que es solo ligeramente menos intenso que en la superficie terrestre

De una forma intuitiva aceptamos que el hecho de estar pegados a la superficie de la Tierra, o, al menos, muy cerca de ella, explica la fuerza de atracción que nos mantiene unidos a esta gran masa.

Sin embargo, esa misma intuición unida a las fotografías y los vídeos que todos hemos visto en muchas ocasiones nos invita a aceptar que en el espacio en general, y en la Estación Espacial Internacional (EEI) en particular, aparentemente no hay gravedad.

Y esto parece justificar que los astronautas y los demás objetos siempre aparezcan flotando como si la gravedad no fuese con ellos. Como si no hubiese un ápice de gravedad cuando, en realidad, sí la hay. Hay microgravedad.

La clave de todo es la caída libre perpetua

Si echamos por un momento la vista atrás y recordamos lo que nos dice Newton, la fuerza de la gravedad decrece con la distancia. Esto podría explicar aparentemente por qué los astronautas flotan en la EEI: están lo suficientemente lejos de la Tierra para que su gravedad no les afecte. Sin embargo, esto no es así en absoluto.

La EEI orbita aproximadamente a 400 km sobre la superficie terrestre, y su distancia al centro de masas de nuestro planeta no es ni mucho menos suficiente para ser indemne al campo gravitatorio que genera.

Vueloparabolico

En esta fotografía podemos ver el interior de un Airbus A310 Zero G equipado para llevar a cabo experimentos científicos. Este avión consigue recrear la microgravedad durante intervalos de 22 s llevando a cabo vuelos parabólicos.

De hecho, la gravedad a la distancia a la que se encuentra la EEI es solo ligeramente menos intensa que en la superficie del planeta. Entonces ¿por qué flotan tanto los astronautas como los demás objetos de la estación?

La explicación más razonable, y la más certera, es que debe de haber alguna otra fuerza capaz de neutralizar la gravedad. O, al menos, de compensarla en gran medida. Y sí, realmente esto es lo que sucede.

La EEI orbita en torno a la Tierra a una velocidad de 7,66 km/s, y tanto sus instalaciones como todo lo que contiene, incluidos los astronautas, están expuestos no solo al campo gravitatorio de la Tierra, sino también al de otros objetos masivos, como la Luna, el Sol y los demás planetas que nos rodean, aunque su influencia es mucho menor que la ejercida por nuestro planeta.

La razón por la que en la EEI parece no haber gravedad es que la velocidad a la que orbita en torno a la Tierra es lo suficientemente alta para provocar la aparición de una fuerza lateral conocida como aceleración centrípeta que, como hemos pronosticado unas líneas más arriba, compensa el tirón gravitacional del planeta.

Si la EEI no se estuviese moviendo, o no lo hiciese a la velocidad necesaria, no tendría otra opción que caer hacia el centro de masas de la Tierra, pero la velocidad a la que se desplaza es suficiente para mantenerla en caída libre. De hecho, cuando un objeto orbita alrededor de otro lo que hace en realidad es caer libremente de forma perpetua debido a que nunca llega a precipitarse sobre este último.

Esto es lo que sucede con la EEI en relación a la Tierra. Y también con la Luna en relación a nuestro planeta. Y, cómo no, con la Tierra en relación al Sol. Todos estos objetos se encuentran orbitando otros más masivos, y, por tanto, están sumidos en una caída libre perpetua en torno a ellos. Mientras la velocidad a la que se desplazan sea la adecuada la fuerza lateral a la que están sometidos conseguirá neutralizar o compensar el tirón gravitacional del objeto masivo en torno al que orbitan.

La EEI es el lugar perfecto para llevar a cabo experimentos en microgravedad

Para recrear la ingravidez no es imprescindible salir al espacio o pasar una temporada en la EEI. Podemos hacerlo en la Tierra, y, además, en la práctica hay varias formas de conseguir la microgravedad. Una de ellas requiere utilizar una torre de caída libre, que no es más que una estructura elevada que nos permite dejar caer el objeto sujeto a la experimentación para someterlo a la microgravedad durante unos segundos.

También es posible recrearla en el interior de una cápsula acoplada a un cohete, aunque probablemente la solución más atractiva consiste en recurrir a un vuelo parabólico. Esta técnica se lleva a cabo en aviones preparados específicamente para este proceso, como el Airbus A310 Zero G que podéis ver en la fotografía que publicamos más arriba, y consigue recrear un entorno de microgravedad durante un lapso de unos 22 s gracias a un descenso rápido y controlado que simula una caída libre.

El problema que tienen estas estrategias es que solo nos permiten obtener la ingravidez durante lapsos de tiempo breves. Y, además, el margen de intervención que nos proponen durante los experimentos es limitado. Esto es, precisamente, lo que resuelve la EEI debido a que en sus instalaciones la microgravedad es constante. Y, además, los astronautas pueden llevar a cabo los experimentos sin que el tiempo sea un factor limitante.

Algunas de las disciplinas que se están beneficiando de la experimentación en microgravedad son la biología, la ingeniería de materiales, la física o la medicina

Hasta ahora en su interior se han llevado a cabo varios cientos de experimentos de todo tipo; de hecho, la EEI ante todo ejerce como un laboratorio de experimentación científica. Algunas de las disciplinas que se están beneficiando de la experimentación en microgravedad son la biología, la ingeniería de materiales, la física o la medicina.

Este ambiente es idóneo para estudiar el impacto que tiene la ingravidez en el comportamiento de los fluidos o en las aleaciones más exóticas, entre muchas otras opciones. Pero, sobre todo, es muy valioso para analizarlos procesos que rigen el envejecimiento del ser humano en la Tierra debido a que, entre otros efectos, la microgravedad acelera la pérdida de masa ósea y tejido muscular.

La EEI no es solo una base del ser humano más allá de los límites de nuestro planeta. También es un observatorio, y, como acabamos de ver, un laboratorio que nos permite llevar a cabo experimentos científicos que no es fácil ejecutar en el ambiente de microgravedad que podemos conseguir en la Tierra. Su utilidad es indiscutible, y se extiende a un ámbito más que no podemos pasar por alto: también es un espacio de encuentro en el que las nacionalidades y las diferencias culturales pierden su relevancia.

Imágenes | LIGO Caltech | NASA/Crew of STS-132 | Air Zero G

-
La noticia No lo parece, pero en la Estación Espacial sí hay gravedad; hay microgravedad: qué es y por qué es tan importante para hacer ciencia fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

Las estrellas de neutrones y quarks explicadas para todos los públicos: así se forman dos de los objetos más asombrosos del universo

Las estrellas de neutrones y quarks explicadas para todos los públicos: así se forman dos de los objetos más asombrosos del universo

El cosmos es sobrecogedor. Vasto. Misterioso. La ciencia es la mejor herramienta que tenemos para descubrirlo muy poco a poco, aunque los científicos son plenamente conscientes de que lo que conocemos de él es tan solo una ínfima porción de lo que contiene. La fascinación que tantas personas sentimos por él se alimenta sobre todo de su capacidad de albergar objetos enigmáticos que en gran medida escapan a nuestra comprensión.

Los agujeros negros ejemplifican a la perfección esta singularidad. La teoría general de la relatividad publicada por Albert Einstein en 1915 hizo posible su predicción, pero fue la habilidad con la que poco después el físico y matemático alemán Karl Schwarzschild resolvió las ecuaciones de campo que dan forma al núcleo de esta teoría la que permitió apuntalar su existencia en el plano teórico.

Durante más de un siglo los astrofísicos se han esforzado para encontrar formas ingeniosas de ampliar nuestro conocimiento acerca de las diferentes etapas por las que discurre la vida de las estrellas, así como de los mecanismos que provocan que algunas de ellas, las más masivas, pongan fin a sus fases de actividad transformándose en agujeros negros. Estos objetos atrapan por sí solos la atención de las personas que miramos hacia las estrellas con curiosidad, pero no son en absoluto los únicos cuerpos celestes que tienen unas propiedades asombrosas.

Durante más de un siglo los astrofísicos se han esforzado para ampliar nuestro conocimiento acerca de las diferentes etapas por las que discurre la vida de las estrellas

Las estrellas de neutrones y las aún hipotéticas estrellas de quarks son, al igual que los agujeros negros, unos objetos apasionantes. La astrofísica se ha desarrollado lo suficiente para ser capaz de entregarnos información muy valiosa acerca de ellas, lo que nos anima a mantenernos a la expectativa con la esperanza de que los cosmólogos consigan conocerlas mejor y ayudarnos a entender con más precisión los procesos que desencadenan su formación.

Aunque estas estrellas en particular, las de neutrones y quarks, son las auténticas protagonistas de este artículo, para llegar a ellas nos interesa repasar primero las fases por las que discurre la vida de las estrellas. No obstante, antes de meternos en harina me parece importante hacer una declaración de intenciones: en este artículo no encontraréis ni una sola ecuación. No son necesarias para intuir con cierta precisión cómo funcionan los excitantes procesos físicos que explican su formación.

Así nacen, crecen, mueren y se reproducen las estrellas

Las estrellas se forman a partir de las nubes de polvo y gas que están diseminadas por el universo. Cuando la densidad de una de estas nubes es lo suficientemente alta la gravedad actúa sobre ella favoreciendo la aparición de un mecanismo incansable conocido como contracción gravitacional, que va condensando la materia contenida en la nube y dando forma poco a poco a un bebé estelar o protoestrella. Esta fase de la evolución estelar se conoce como presecuencia principal, y en ella la estrella obtiene su energía, precisamente, de la contracción gravitacional.

Aproximadamente el 70% de la masa de las estrellas es hidrógeno, entre el 24 y el 26% es helio, y el 4 al 6% restante es una combinación de elementos químicos más pesados que el helio. La vida de cada estrella está condicionada por su composición inicial, pero, sobre todo, está profundamente influenciada por su masa, que no es otra cosa que la cantidad de materia que la gravedad es capaz de reunir y condensar en una porción del espacio.

Nebulosa

La materia que contienen las nubes de gas y polvo diseminadas por el medio estelar puede dar lugar a la formación de nuevas estrellas y planetas. La nebulosa de esta imagen tomada por el telescopio espacial Hubble en 2010 es Eta Carinae.

Curiosamente, las estrellas más masivas consumen su combustible mucho más rápido que las estrellas menos masivas, por lo que, como veremos a lo largo del artículo, tienen una vida más corta, y, sobre todo, más violenta y espectacular. A medida que la contracción gravitacional va condensando la materia contenida en la nube su temperatura se va incrementando poco a poco.

Si la cantidad de materia acumulada es lo suficientemente grande llegará un momento en el que en su núcleo se darán las condiciones de presión y temperatura necesarias para que los núcleos de hidrógeno comiencen a fusionarse espontáneamente mediante reacciones de fusión nuclear.

La ignición del hidrógeno tiene lugar cuando la temperatura del núcleo de la protoestrella alcanza los diez millones de grados centígrados. El instante en el que aparecen esas condiciones es el momento en el que se enciende el horno nuclear, y la estrella comienza una fase conocida como secuencia principal, durante la que obtiene su energía de la fusión de los núcleos de hidrógeno.

El producto de la fusión de los núcleos de hidrógeno son nuevos núcleos de helio, por lo que la composición de la estrella comienza a variar. Durante este proceso se libera una enorme cantidad de energía y la estrella se ve obligada a reajustarse continuamente para mantener el equilibrio hidrostático. Los astrofísicos tienen herramientas matemáticas que son capaces de describir este proceso con mucha precisión, pero lo que a nosotros nos interesa es saber que el equilibrio hidrostático es la cualidad que permite a la estrella preservar su estabilidad.

Las estrellas se mantienen en equilibrio debido a que la contracción gravitacional se ve contrarrestada por la presión de radiación y de los gases

Para lograrlo es imprescindible que coexistan dos fuerzas opuestas capaces de compensarse. Una de ellas es la contracción gravitacional, que, como hemos visto, comprime la materia de la estrella, apretándola sin descanso. Y la otra es la presión de radiación y de los gases, que es el fruto de la ignición del horno nuclear y que intenta que la estrella se expanda. El reajuste constante que va sufriendo la estrella a medida que va consumiendo su hidrógeno y produciendo nuevos núcleos de helio es el responsable de mantenerla en equilibrio, de modo que la contracción gravitacional por un lado, y la presión de radiación y de los gases por otro, se mantienen a raya mutuamente.

Durante este proceso el núcleo de la estrella se ve obligado a contraerse para incrementar su temperatura y detener el colapso gravitacional al que se vería abocada de no poder equilibrarse gracias a la presión de radiación y de los gases. Si la estrella es lo suficientemente masiva el núcleo se calentará y se comprimirá tanto como para que la fusión de los núcleos de helio tenga lugar cuando se acabe el hidrógeno. A partir de ese momento arrancará un proceso conocido como triple alfa.

Estrellafusion

Aproximadamente el 70% de la masa inicial de las estrellas es hidrógeno. Durante la fase conocida como secuencia principal los núcleos de este elemento químico se fusionan para dar lugar a nuevos núcleos de helio. Este proceso provoca la emisión de una enorme cantidad de energía bajo la forma de radiación.

Este fenómeno describe el mecanismo por el que tres núcleos de helio se fusionan para producir un núcleo de carbono, y tiene lugar a una temperatura aún más alta que aquella a la que se produce la fusión de los núcleos de hidrógeno. Durante este proceso la estrella continuará consumiendo sus reservas de helio, produciendo núcleos de carbono y reajustándose para mantenerse en perfecto equilibrio gracias, una vez más, a la acción conjunta de la contracción gravitacional y la presión de radiación y de los gases.

De nuevo, si la estrella tiene la masa suficiente no se detendrá en la producción de carbono. Cuando este elemento se agote en el núcleo este se reajustará, comprimiéndose e incrementando una vez más su temperatura para frenar el colapso gravitacional. A partir de este instante los núcleos de carbono entrarán en ignición mediante el proceso de fusión nuclear y comenzará la producción de elementos químicos aún más pesados.

Mientras en el núcleo de la estrella se está llevando a cabo la fusión del carbono en la capa inmediatamente superior se mantiene la ignición del helio. Y por encima de esta del hidrógeno. Durante la nucleosíntesis estelar, que es como se denomina el proceso en el que tienen lugar las reacciones nucleares en el interior de estos objetos, las estrellas adquieren una estructura en forma de capas similar a la de una cebolla. En el núcleo reside el elemento más pesado, y a partir de ahí vamos ascendiendo por capas encontrándonos cada vez elementos más ligeros.

Las estrellas son las auténticas responsables de fabricar los elementos químicos. El oxígeno, el carbono, el hidrógeno, el nitrógeno, el calcio y el fósforo que constituyen el 99% de la masa de nuestro cuerpo han sido sintetizados en ellas. Y los elementos químicos que dan forma al 1% restante, también. La materia de la que estamos hechos no solo nosotros, sino todo lo que nos rodea, procede, literalmente, de las estrellas. No obstante, como estamos a punto de comprobar, no todos los elementos químicos se originan en el interior de las estrellas.

Del hierro no es posible obtener más energía por medio de procesos de fusión nuclear, por lo que cuando el núcleo de la estrella evoluciona mediante la nucleosíntesis estelar hasta quedar compuesto por hierro, la producción de energía en él se detiene. En ese momento la presión de radiación y de los gases no es suficiente para contrarrestar la contracción gravitacional, por lo que el núcleo de hierro se contrae súbitamente bajo la enorme presión que ejercen sobre él todas las capas de material que tiene por encima. La estrella ha perdido el equilibrio.

Estrellasenergia

A medida que la estrella va consumiendo su combustible se va reajustando para mantener el equilibrio hidrostático. El núcleo se comprime e incrementa su temperatura, lo que le permite sintetizar cada vez elementos más pesados mediante los procesos de fusión nuclear.

En este instante toda esa materia pierde el soporte que ejercía el núcleo, que ahora es mucho más compacto, y cae sobre él con una velocidad enorme. Cuando todo ese material de la estrella toca la superficie del núcleo se produce un efecto rebote que provoca que salga despedido con una energía descomunal hacia el medio estelar, quedando diseminado. Acaba de producirse una supernova. Algunas de ellas son tan energéticas que durante unos pocos segundos emiten más luz que toda la galaxia que las contiene.

Las supernovas ponen fin de alguna manera al latido estelar. Y, además, todo el material que esparcen por el cosmos puede dar lugar en el futuro a la formación de nuevas estrellas y planetas, por lo que, sorprendentemente, las estrellas se reproducen después de morir. Pero el núcleo de hierro no sale indemne de este proceso. La enorme presión a la que es sometido provoca cambios muy importantes en su estructura, por lo que deja de estar conformado por materia ordinaria, con sus protones, neutrones y electrones, y pasa a estar compuesto por lo que los astrofísicos llaman materia degenerada.

Estrellas de neutrones: el remanente de una supernova es otro objeto colosal

El recorrido que acabamos de hacer a lo largo de la vida de las estrellas nos prepara para indagar en el objeto que estamos a punto de explorar: una estrella de neutrones. Sin embargo, durante nuestro viaje hemos pasado por alto varios objetos que también son el resultado de la evolución estelar, pero que no son imprescindibles para conocer las estrellas de neutrones y quarks, que son las auténticas protagonistas de este artículo.

En las estrellas de neutrones el hierro del núcleo se fotodesintegra bajo la acción de los fotones de alta energía que constituyen la radiación gamma

En el reportaje que enlazo aquí os hablamos con más detalle de la vida de las estrellas, y en él encontraréis información muy interesante acerca de las enanas marrones, las enanas blancas o las gigantes rojas, entre otros objetos fruto de la evolución estelar. Retomemos ahora nuestro viaje donde lo dejamos. Si el objeto que queda después de que la estrella haya expulsado hacia el medio estelar sus capas externas bajo la forma de una supernova tiene más de 1,44 masas solares, un valor conocido como límite de Chandrasekhar en honor del astrofísico indio que lo calculó, el remanente estelar colapsará una vez más para dar lugar a una estrella de neutrones.

Unos instantes antes de que se produzca la supernova el núcleo de hierro de nuestra estrella masiva se ve sometido a la enorme presión de las capas superiores de material, y también a la acción incesante de la contracción gravitacional. Estos procesos desencadenan un mecanismo de naturaleza cuántica que conlleva cambios muy importantes en la estructura de la materia, provocando que el hierro del núcleo estelar, que está sometido a una temperatura muy alta, se fotodesintegre bajo la acción de los fotones de alta energía, que constituyen una forma de transferencia de energía conocida como radiación gamma.

Galaxia

Esta imagen de la galaxia NGC 6503, que está situada a 18 millones de años luz de nosotros, ha sido tomada por el telescopio espacial Hubble.

Estos fotones de altísima energía consiguen desintegrar el hierro y el helio acumulados en el núcleo de la estrella, dando lugar a la producción de partículas alfa, que son núcleos de helio que carecen de su envoltura de electrones, y que, por tanto, tienen carga eléctrica positiva, y neutrones. Además tiene lugar un mecanismo conocido como captura beta en el que no vamos a indagar para no complicar excesivamente el artículo. Lo importante es que sepamos que provoca que los electrones de los átomos de hierro interaccionen con los protones del núcleo, neutralizando su carga positiva y dando lugar a la producción de más neutrones.

Durante este proceso la materia inicial, que estaba constituida por protones, neutrones y electrones, pasa a estar conformada únicamente por neutrones porque, como acabamos de ver, los electrones y los protones han interaccionado mediante captura electrónica para dar lugar a más neutrones. A partir de ese momento la estrella ya no está constituida por materia ordinaria; se ha transformado en una especie de enorme cristal conformado solo por neutrones.

No obstante, una vez que la estrella ha alcanzado este estado podemos preguntarnos qué mecanismo permite que esa bola de neutrones consiga soportar y contrarrestar la presión ejercida por la infatigable contracción gravitacional. El fenómeno responsable de mantener la estrella de neutrones en equilibrio es el principio de exclusión de Pauli, un efecto de naturaleza cuántica en el que no es necesario que nos sumerjamos a fondo para evitar complicar mucho más el artículo.

Estrellaneutrones

Un fragmento de un centímetro cúbico de una estrella de neutrones pesa aproximadamente mil millones de toneladas. La materia degenerada que la constituye ya no está formada por protones, neutrones y electrones, como la materia ordinaria.

Muy a grandes rasgos este principio, que fue enunciado por el físico austríaco Wolfgang Ernst Pauli en 1925, establece que dos fermiones de un mismo sistema cuántico no pueden permanecer en el mismo estado cuántico. Los quarks, que son las partículas elementales que constituyen los protones y los neutrones del núcleo atómico, son fermiones. Y los electrones, también. Para aproximar de una forma sencilla qué significa que dos fermiones no puedan adquirir el mismo estado cuántico y entender de dónde procede el equilibrio de las estrellas de neutrones podemos intuir que la imposibilidad de que dos neutrones ocupen el mismo lugar genera la presión necesaria para mantener la estrella en equilibrio.

Y esto nos lleva a la que sin duda es la característica más sorprendente de las estrellas de neutrones: su densidad. El radio medio de uno de estos objetos es de aproximadamente diez kilómetros, pero su masa es enorme. Comparadas, por ejemplo, con las estrellas que se encuentran en la secuencia principal, o, incluso, con las enanas blancas, las estrellas de neutrones son muy pequeñas, y acumular tanta masa en tan poco espacio provoca que un fragmento de un centímetro cúbico de una estrella de neutrones pese aproximadamente, ni más ni menos, mil millones de toneladas. Es asombroso que un pedacito de materia similar a un terrón de azúcar pueda tener un peso tan monstruoso.

Las estrellas de quarks, si realmente existen, rozan lo increíble

Por si lo que acabamos de ver no fuese ya suficientemente impactante, el producto final de una estrella puede ser un objeto todavía más extraño que una estrella de neutrones. Si la masa del cuerpo resultante después de que nuestra estrella masiva haya expulsado las capas externas al medio estelar supera las 2,17 masas solares colapsará y dará lugar a una estrella de quarks o un agujero negro.

Las primeras son hipotéticas. Los científicos aún no han encontrado ningún objeto en el cosmos que tenga sin ningún atisbo de duda las características propias de las estrellas de quarks, pero las leyes de la física las describen con precisión. De los agujeros negros os hablamos con cierta profundidad en el artículo que enlazo aquí mismo, y, como sin duda sabéis, los astrofísicos ya han conseguido identificar varios y fotografiar uno de ellos.

Conocemos la masa límite que son capaces de soportar las estrellas de neutrones, esas 2,17 masas solares que acabo de mencionar, gracias a la investigación de los astrofísicos Richard Chace Tolman, Julius Robert Oppenheimer y George Michael Volkoff. El límite de Tolman-Oppenheimer-Volkoff original fue propuesto en 1939, pero ha sido corregido en décadas posteriores gracias a los nuevos hallazgos realizados por los cosmólogos, y también con la ayuda de los nuevos instrumentos de medida.

Fotoagujeronegro

En abril de 2019 y después de muchos meses de trabajo varios equipos de astrónomos hicieron pública la primera imagen en la que podemos ver el horizonte de sucesos de un agujero negro. Este hito fue posible gracias a la colaboración de varios telescopios en un proyecto conocido como EHT (Event Horizon Telescope).

Desde un punto de vista teórico las estrellas de quarks son objetos a medio camino entre las estrellas de neutrones y los agujeros negros. Tienen más masa que las primeras, pero menos que los segundos. Cuando la masa del subproducto de la supernova excede el límite de Tolman-Oppenheimer-Volkoff, pero no alcanza el valor crítico para colapsar gravitacionalmente hasta el punto de rasgar el continuo espacio-tiempo y desencadenar la formación de un agujero negro, el equilibrio de la estrella de neutrones se rompe.

La presión por degeneración de los neutrones que preservaba la estabilidad de la estrella sucumbe ante la presión gravitatoria, lo que provoca que los neutrones pierdan su estructura y se liberen los quarks, que son las partículas fundamentales que los forman. A partir de este momento la materia de la estrella adquiere una estructura exótica que los astrofísicos suelen describir como un plasma, que es un gas muy caliente y en este caso también muy denso, constituido por quarks libres y gluones.

Los gluones son las partículas fundamentales sin masa ni carga eléctrica que median entre los quarks como resultado de la interacción nuclear fuerte, que es una de las cuatro fuerzas fundamentales de la naturaleza. Gracias a ellos el núcleo de los átomos se mantiene cohesionado debido a que transmiten la fuerza que mantiene unidos los quarks que constituyen los nucleones, que son las partículas del núcleo: los protones y los neutrones.

Los gluones son las partículas fundamentales que median entre los quarks como resultado de la interacción nuclear fuerte

De la misma forma en que dos partículas con carga eléctrica intercambian fotones debido a que esta última partícula fundamental actúa como mediadora de la fuerza electromagnética, los quarks, que tienen masa, intercambian gluones debido a que, como acabamos de ver, son las partículas fundamentales que actúan como mediadoras de la interacción nuclear fuerte.

No es fácil imaginar la estructura que tiene la materia de una estrella de quarks, pero lo que nos dicen las leyes de la física es que debería ser una sopa de partículas extremadamente caliente y terriblemente densa. De hecho, su densidad debería ser muy superior a la de las estrellas de neutrones, que, como hemos visto, es monstruosa. Los astrofísicos formulan todo lo que acabamos de ver en el ámbito de las hipótesis, pero de las observaciones que han llevado a cabo durante las últimas dos décadas se desprende que varias de las estrellas de neutrones que conocemos podrían ser en realidad estrellas de quarks.

Egujeronegro

Las estrellas de neutrones, las estrellas de quarks y los agujeros negros estimulan las ganas de seguir investigando y aprendiendo de miles de astrofísicos. Conocer mejor estos objetos puede ayudarnos a comprender con más precisión las leyes que rigen el universo.

Los investigadores que están estudiándolas defienden que algunas estrellas de neutrones podrían tener plasma conformado por quarks y gluones en su interior, mientras que otros objetos podrían estar constituidos por completo por este tipo de materia exótica. En cualquier caso, hay varias estrellas de neutrones candidatas a ser estrellas de quarks. Las que según los astrofísicos mejor encajan en este perfil son XTE J1739-285, en la constelación de Ofiuco; 3C_58, en la constelación de Casiopea; y PSR B0943+10, en la constelación de Leo.

También cabe la posibilidad de que el remanente de las supernovas SN 2006gy, SN 2005gj, SN 2005ap, SN 1987A y ASASSN-15lh también sea una estrella de quarks. Quién sabe, quizá durante los próximos años los astrofísicos consigan tomar medidas fehacientes que les permitan concluir con más rotundidad que, como parecen revelarnos las leyes de la física con las que trabajamos, las estrellas de quarks no solo existen, sino que, además, son más abundantes en el universo de lo que creemos actualmente.

Imágenes | NASA | NASA Goddard Space Flight Center | NASA/JPL-Caltech | M. Helfenbein, Yale University / OPAC

-
La noticia Las estrellas de neutrones y quarks explicadas para todos los públicos: así se forman dos de los objetos más asombrosos del universo fue publicada originalmente en Xataka por Juan Carlos López .

Leer más