Las estrellas de neutrones y quarks explicadas para todos los públicos: así se forman dos de los objetos más asombrosos del universo

Las estrellas de neutrones y quarks explicadas para todos los públicos: así se forman dos de los objetos más asombrosos del universo

El cosmos es sobrecogedor. Vasto. Misterioso. La ciencia es la mejor herramienta que tenemos para descubrirlo muy poco a poco, aunque los científicos son plenamente conscientes de que lo que conocemos de él es tan solo una ínfima porción de lo que contiene. La fascinación que tantas personas sentimos por él se alimenta sobre todo de su capacidad de albergar objetos enigmáticos que en gran medida escapan a nuestra comprensión.

Los agujeros negros ejemplifican a la perfección esta singularidad. La teoría general de la relatividad publicada por Albert Einstein en 1915 hizo posible su predicción, pero fue la habilidad con la que poco después el físico y matemático alemán Karl Schwarzschild resolvió las ecuaciones de campo que dan forma al núcleo de esta teoría la que permitió apuntalar su existencia en el plano teórico.

Durante más de un siglo los astrofísicos se han esforzado para encontrar formas ingeniosas de ampliar nuestro conocimiento acerca de las diferentes etapas por las que discurre la vida de las estrellas, así como de los mecanismos que provocan que algunas de ellas, las más masivas, pongan fin a sus fases de actividad transformándose en agujeros negros. Estos objetos atrapan por sí solos la atención de las personas que miramos hacia las estrellas con curiosidad, pero no son en absoluto los únicos cuerpos celestes que tienen unas propiedades asombrosas.

Durante más de un siglo los astrofísicos se han esforzado para ampliar nuestro conocimiento acerca de las diferentes etapas por las que discurre la vida de las estrellas

Las estrellas de neutrones y las aún hipotéticas estrellas de quarks son, al igual que los agujeros negros, unos objetos apasionantes. La astrofísica se ha desarrollado lo suficiente para ser capaz de entregarnos información muy valiosa acerca de ellas, lo que nos anima a mantenernos a la expectativa con la esperanza de que los cosmólogos consigan conocerlas mejor y ayudarnos a entender con más precisión los procesos que desencadenan su formación.

Aunque estas estrellas en particular, las de neutrones y quarks, son las auténticas protagonistas de este artículo, para llegar a ellas nos interesa repasar primero las fases por las que discurre la vida de las estrellas. No obstante, antes de meternos en harina me parece importante hacer una declaración de intenciones: en este artículo no encontraréis ni una sola ecuación. No son necesarias para intuir con cierta precisión cómo funcionan los excitantes procesos físicos que explican su formación.

Así nacen, crecen, mueren y se reproducen las estrellas

Las estrellas se forman a partir de las nubes de polvo y gas que están diseminadas por el universo. Cuando la densidad de una de estas nubes es lo suficientemente alta la gravedad actúa sobre ella favoreciendo la aparición de un mecanismo incansable conocido como contracción gravitacional, que va condensando la materia contenida en la nube y dando forma poco a poco a un bebé estelar o protoestrella. Esta fase de la evolución estelar se conoce como presecuencia principal, y en ella la estrella obtiene su energía, precisamente, de la contracción gravitacional.

Aproximadamente el 70% de la masa de las estrellas es hidrógeno, entre el 24 y el 26% es helio, y el 4 al 6% restante es una combinación de elementos químicos más pesados que el helio. La vida de cada estrella está condicionada por su composición inicial, pero, sobre todo, está profundamente influenciada por su masa, que no es otra cosa que la cantidad de materia que la gravedad es capaz de reunir y condensar en una porción del espacio.

Nebulosa

La materia que contienen las nubes de gas y polvo diseminadas por el medio estelar puede dar lugar a la formación de nuevas estrellas y planetas. La nebulosa de esta imagen tomada por el telescopio espacial Hubble en 2010 es Eta Carinae.

Curiosamente, las estrellas más masivas consumen su combustible mucho más rápido que las estrellas menos masivas, por lo que, como veremos a lo largo del artículo, tienen una vida más corta, y, sobre todo, más violenta y espectacular. A medida que la contracción gravitacional va condensando la materia contenida en la nube su temperatura se va incrementando poco a poco.

Si la cantidad de materia acumulada es lo suficientemente grande llegará un momento en el que en su núcleo se darán las condiciones de presión y temperatura necesarias para que los núcleos de hidrógeno comiencen a fusionarse espontáneamente mediante reacciones de fusión nuclear.

La ignición del hidrógeno tiene lugar cuando la temperatura del núcleo de la protoestrella alcanza los diez millones de grados centígrados. El instante en el que aparecen esas condiciones es el momento en el que se enciende el horno nuclear, y la estrella comienza una fase conocida como secuencia principal, durante la que obtiene su energía de la fusión de los núcleos de hidrógeno.

El producto de la fusión de los núcleos de hidrógeno son nuevos núcleos de helio, por lo que la composición de la estrella comienza a variar. Durante este proceso se libera una enorme cantidad de energía y la estrella se ve obligada a reajustarse continuamente para mantener el equilibrio hidrostático. Los astrofísicos tienen herramientas matemáticas que son capaces de describir este proceso con mucha precisión, pero lo que a nosotros nos interesa es saber que el equilibrio hidrostático es la cualidad que permite a la estrella preservar su estabilidad.

Las estrellas se mantienen en equilibrio debido a que la contracción gravitacional se ve contrarrestada por la presión de radiación y de los gases

Para lograrlo es imprescindible que coexistan dos fuerzas opuestas capaces de compensarse. Una de ellas es la contracción gravitacional, que, como hemos visto, comprime la materia de la estrella, apretándola sin descanso. Y la otra es la presión de radiación y de los gases, que es el fruto de la ignición del horno nuclear y que intenta que la estrella se expanda. El reajuste constante que va sufriendo la estrella a medida que va consumiendo su hidrógeno y produciendo nuevos núcleos de helio es el responsable de mantenerla en equilibrio, de modo que la contracción gravitacional por un lado, y la presión de radiación y de los gases por otro, se mantienen a raya mutuamente.

Durante este proceso el núcleo de la estrella se ve obligado a contraerse para incrementar su temperatura y detener el colapso gravitacional al que se vería abocada de no poder equilibrarse gracias a la presión de radiación y de los gases. Si la estrella es lo suficientemente masiva el núcleo se calentará y se comprimirá tanto como para que la fusión de los núcleos de helio tenga lugar cuando se acabe el hidrógeno. A partir de ese momento arrancará un proceso conocido como triple alfa.

Estrellafusion

Aproximadamente el 70% de la masa inicial de las estrellas es hidrógeno. Durante la fase conocida como secuencia principal los núcleos de este elemento químico se fusionan para dar lugar a nuevos núcleos de helio. Este proceso provoca la emisión de una enorme cantidad de energía bajo la forma de radiación.

Este fenómeno describe el mecanismo por el que tres núcleos de helio se fusionan para producir un núcleo de carbono, y tiene lugar a una temperatura aún más alta que aquella a la que se produce la fusión de los núcleos de hidrógeno. Durante este proceso la estrella continuará consumiendo sus reservas de helio, produciendo núcleos de carbono y reajustándose para mantenerse en perfecto equilibrio gracias, una vez más, a la acción conjunta de la contracción gravitacional y la presión de radiación y de los gases.

De nuevo, si la estrella tiene la masa suficiente no se detendrá en la producción de carbono. Cuando este elemento se agote en el núcleo este se reajustará, comprimiéndose e incrementando una vez más su temperatura para frenar el colapso gravitacional. A partir de este instante los núcleos de carbono entrarán en ignición mediante el proceso de fusión nuclear y comenzará la producción de elementos químicos aún más pesados.

Mientras en el núcleo de la estrella se está llevando a cabo la fusión del carbono en la capa inmediatamente superior se mantiene la ignición del helio. Y por encima de esta del hidrógeno. Durante la nucleosíntesis estelar, que es como se denomina el proceso en el que tienen lugar las reacciones nucleares en el interior de estos objetos, las estrellas adquieren una estructura en forma de capas similar a la de una cebolla. En el núcleo reside el elemento más pesado, y a partir de ahí vamos ascendiendo por capas encontrándonos cada vez elementos más ligeros.

Las estrellas son las auténticas responsables de fabricar los elementos químicos. El oxígeno, el carbono, el hidrógeno, el nitrógeno, el calcio y el fósforo que constituyen el 99% de la masa de nuestro cuerpo han sido sintetizados en ellas. Y los elementos químicos que dan forma al 1% restante, también. La materia de la que estamos hechos no solo nosotros, sino todo lo que nos rodea, procede, literalmente, de las estrellas. No obstante, como estamos a punto de comprobar, no todos los elementos químicos se originan en el interior de las estrellas.

Del hierro no es posible obtener más energía por medio de procesos de fusión nuclear, por lo que cuando el núcleo de la estrella evoluciona mediante la nucleosíntesis estelar hasta quedar compuesto por hierro, la producción de energía en él se detiene. En ese momento la presión de radiación y de los gases no es suficiente para contrarrestar la contracción gravitacional, por lo que el núcleo de hierro se contrae súbitamente bajo la enorme presión que ejercen sobre él todas las capas de material que tiene por encima. La estrella ha perdido el equilibrio.

Estrellasenergia

A medida que la estrella va consumiendo su combustible se va reajustando para mantener el equilibrio hidrostático. El núcleo se comprime e incrementa su temperatura, lo que le permite sintetizar cada vez elementos más pesados mediante los procesos de fusión nuclear.

En este instante toda esa materia pierde el soporte que ejercía el núcleo, que ahora es mucho más compacto, y cae sobre él con una velocidad enorme. Cuando todo ese material de la estrella toca la superficie del núcleo se produce un efecto rebote que provoca que salga despedido con una energía descomunal hacia el medio estelar, quedando diseminado. Acaba de producirse una supernova. Algunas de ellas son tan energéticas que durante unos pocos segundos emiten más luz que toda la galaxia que las contiene.

Las supernovas ponen fin de alguna manera al latido estelar. Y, además, todo el material que esparcen por el cosmos puede dar lugar en el futuro a la formación de nuevas estrellas y planetas, por lo que, sorprendentemente, las estrellas se reproducen después de morir. Pero el núcleo de hierro no sale indemne de este proceso. La enorme presión a la que es sometido provoca cambios muy importantes en su estructura, por lo que deja de estar conformado por materia ordinaria, con sus protones, neutrones y electrones, y pasa a estar compuesto por lo que los astrofísicos llaman materia degenerada.

Estrellas de neutrones: el remanente de una supernova es otro objeto colosal

El recorrido que acabamos de hacer a lo largo de la vida de las estrellas nos prepara para indagar en el objeto que estamos a punto de explorar: una estrella de neutrones. Sin embargo, durante nuestro viaje hemos pasado por alto varios objetos que también son el resultado de la evolución estelar, pero que no son imprescindibles para conocer las estrellas de neutrones y quarks, que son las auténticas protagonistas de este artículo.

En las estrellas de neutrones el hierro del núcleo se fotodesintegra bajo la acción de los fotones de alta energía que constituyen la radiación gamma

En el reportaje que enlazo aquí os hablamos con más detalle de la vida de las estrellas, y en él encontraréis información muy interesante acerca de las enanas marrones, las enanas blancas o las gigantes rojas, entre otros objetos fruto de la evolución estelar. Retomemos ahora nuestro viaje donde lo dejamos. Si el objeto que queda después de que la estrella haya expulsado hacia el medio estelar sus capas externas bajo la forma de una supernova tiene más de 1,44 masas solares, un valor conocido como límite de Chandrasekhar en honor del astrofísico indio que lo calculó, el remanente estelar colapsará una vez más para dar lugar a una estrella de neutrones.

Unos instantes antes de que se produzca la supernova el núcleo de hierro de nuestra estrella masiva se ve sometido a la enorme presión de las capas superiores de material, y también a la acción incesante de la contracción gravitacional. Estos procesos desencadenan un mecanismo de naturaleza cuántica que conlleva cambios muy importantes en la estructura de la materia, provocando que el hierro del núcleo estelar, que está sometido a una temperatura muy alta, se fotodesintegre bajo la acción de los fotones de alta energía, que constituyen una forma de transferencia de energía conocida como radiación gamma.

Galaxia

Esta imagen de la galaxia NGC 6503, que está situada a 18 millones de años luz de nosotros, ha sido tomada por el telescopio espacial Hubble.

Estos fotones de altísima energía consiguen desintegrar el hierro y el helio acumulados en el núcleo de la estrella, dando lugar a la producción de partículas alfa, que son núcleos de helio que carecen de su envoltura de electrones, y que, por tanto, tienen carga eléctrica positiva, y neutrones. Además tiene lugar un mecanismo conocido como captura beta en el que no vamos a indagar para no complicar excesivamente el artículo. Lo importante es que sepamos que provoca que los electrones de los átomos de hierro interaccionen con los protones del núcleo, neutralizando su carga positiva y dando lugar a la producción de más neutrones.

Durante este proceso la materia inicial, que estaba constituida por protones, neutrones y electrones, pasa a estar conformada únicamente por neutrones porque, como acabamos de ver, los electrones y los protones han interaccionado mediante captura electrónica para dar lugar a más neutrones. A partir de ese momento la estrella ya no está constituida por materia ordinaria; se ha transformado en una especie de enorme cristal conformado solo por neutrones.

No obstante, una vez que la estrella ha alcanzado este estado podemos preguntarnos qué mecanismo permite que esa bola de neutrones consiga soportar y contrarrestar la presión ejercida por la infatigable contracción gravitacional. El fenómeno responsable de mantener la estrella de neutrones en equilibrio es el principio de exclusión de Pauli, un efecto de naturaleza cuántica en el que no es necesario que nos sumerjamos a fondo para evitar complicar mucho más el artículo.

Estrellaneutrones

Un fragmento de un centímetro cúbico de una estrella de neutrones pesa aproximadamente mil millones de toneladas. La materia degenerada que la constituye ya no está formada por protones, neutrones y electrones, como la materia ordinaria.

Muy a grandes rasgos este principio, que fue enunciado por el físico austríaco Wolfgang Ernst Pauli en 1925, establece que dos fermiones de un mismo sistema cuántico no pueden permanecer en el mismo estado cuántico. Los quarks, que son las partículas elementales que constituyen los protones y los neutrones del núcleo atómico, son fermiones. Y los electrones, también. Para aproximar de una forma sencilla qué significa que dos fermiones no puedan adquirir el mismo estado cuántico y entender de dónde procede el equilibrio de las estrellas de neutrones podemos intuir que la imposibilidad de que dos neutrones ocupen el mismo lugar genera la presión necesaria para mantener la estrella en equilibrio.

Y esto nos lleva a la que sin duda es la característica más sorprendente de las estrellas de neutrones: su densidad. El radio medio de uno de estos objetos es de aproximadamente diez kilómetros, pero su masa es enorme. Comparadas, por ejemplo, con las estrellas que se encuentran en la secuencia principal, o, incluso, con las enanas blancas, las estrellas de neutrones son muy pequeñas, y acumular tanta masa en tan poco espacio provoca que un fragmento de un centímetro cúbico de una estrella de neutrones pese aproximadamente, ni más ni menos, mil millones de toneladas. Es asombroso que un pedacito de materia similar a un terrón de azúcar pueda tener un peso tan monstruoso.

Las estrellas de quarks, si realmente existen, rozan lo increíble

Por si lo que acabamos de ver no fuese ya suficientemente impactante, el producto final de una estrella puede ser un objeto todavía más extraño que una estrella de neutrones. Si la masa del cuerpo resultante después de que nuestra estrella masiva haya expulsado las capas externas al medio estelar supera las 2,17 masas solares colapsará y dará lugar a una estrella de quarks o un agujero negro.

Las primeras son hipotéticas. Los científicos aún no han encontrado ningún objeto en el cosmos que tenga sin ningún atisbo de duda las características propias de las estrellas de quarks, pero las leyes de la física las describen con precisión. De los agujeros negros os hablamos con cierta profundidad en el artículo que enlazo aquí mismo, y, como sin duda sabéis, los astrofísicos ya han conseguido identificar varios y fotografiar uno de ellos.

Conocemos la masa límite que son capaces de soportar las estrellas de neutrones, esas 2,17 masas solares que acabo de mencionar, gracias a la investigación de los astrofísicos Richard Chace Tolman, Julius Robert Oppenheimer y George Michael Volkoff. El límite de Tolman-Oppenheimer-Volkoff original fue propuesto en 1939, pero ha sido corregido en décadas posteriores gracias a los nuevos hallazgos realizados por los cosmólogos, y también con la ayuda de los nuevos instrumentos de medida.

Fotoagujeronegro

En abril de 2019 y después de muchos meses de trabajo varios equipos de astrónomos hicieron pública la primera imagen en la que podemos ver el horizonte de sucesos de un agujero negro. Este hito fue posible gracias a la colaboración de varios telescopios en un proyecto conocido como EHT (Event Horizon Telescope).

Desde un punto de vista teórico las estrellas de quarks son objetos a medio camino entre las estrellas de neutrones y los agujeros negros. Tienen más masa que las primeras, pero menos que los segundos. Cuando la masa del subproducto de la supernova excede el límite de Tolman-Oppenheimer-Volkoff, pero no alcanza el valor crítico para colapsar gravitacionalmente hasta el punto de rasgar el continuo espacio-tiempo y desencadenar la formación de un agujero negro, el equilibrio de la estrella de neutrones se rompe.

La presión por degeneración de los neutrones que preservaba la estabilidad de la estrella sucumbe ante la presión gravitatoria, lo que provoca que los neutrones pierdan su estructura y se liberen los quarks, que son las partículas fundamentales que los forman. A partir de este momento la materia de la estrella adquiere una estructura exótica que los astrofísicos suelen describir como un plasma, que es un gas muy caliente y en este caso también muy denso, constituido por quarks libres y gluones.

Los gluones son las partículas fundamentales sin masa ni carga eléctrica que median entre los quarks como resultado de la interacción nuclear fuerte, que es una de las cuatro fuerzas fundamentales de la naturaleza. Gracias a ellos el núcleo de los átomos se mantiene cohesionado debido a que transmiten la fuerza que mantiene unidos los quarks que constituyen los nucleones, que son las partículas del núcleo: los protones y los neutrones.

Los gluones son las partículas fundamentales que median entre los quarks como resultado de la interacción nuclear fuerte

De la misma forma en que dos partículas con carga eléctrica intercambian fotones debido a que esta última partícula fundamental actúa como mediadora de la fuerza electromagnética, los quarks, que tienen masa, intercambian gluones debido a que, como acabamos de ver, son las partículas fundamentales que actúan como mediadoras de la interacción nuclear fuerte.

No es fácil imaginar la estructura que tiene la materia de una estrella de quarks, pero lo que nos dicen las leyes de la física es que debería ser una sopa de partículas extremadamente caliente y terriblemente densa. De hecho, su densidad debería ser muy superior a la de las estrellas de neutrones, que, como hemos visto, es monstruosa. Los astrofísicos formulan todo lo que acabamos de ver en el ámbito de las hipótesis, pero de las observaciones que han llevado a cabo durante las últimas dos décadas se desprende que varias de las estrellas de neutrones que conocemos podrían ser en realidad estrellas de quarks.

Egujeronegro

Las estrellas de neutrones, las estrellas de quarks y los agujeros negros estimulan las ganas de seguir investigando y aprendiendo de miles de astrofísicos. Conocer mejor estos objetos puede ayudarnos a comprender con más precisión las leyes que rigen el universo.

Los investigadores que están estudiándolas defienden que algunas estrellas de neutrones podrían tener plasma conformado por quarks y gluones en su interior, mientras que otros objetos podrían estar constituidos por completo por este tipo de materia exótica. En cualquier caso, hay varias estrellas de neutrones candidatas a ser estrellas de quarks. Las que según los astrofísicos mejor encajan en este perfil son XTE J1739-285, en la constelación de Ofiuco; 3C_58, en la constelación de Casiopea; y PSR B0943+10, en la constelación de Leo.

También cabe la posibilidad de que el remanente de las supernovas SN 2006gy, SN 2005gj, SN 2005ap, SN 1987A y ASASSN-15lh también sea una estrella de quarks. Quién sabe, quizá durante los próximos años los astrofísicos consigan tomar medidas fehacientes que les permitan concluir con más rotundidad que, como parecen revelarnos las leyes de la física con las que trabajamos, las estrellas de quarks no solo existen, sino que, además, son más abundantes en el universo de lo que creemos actualmente.

Imágenes | NASA | NASA Goddard Space Flight Center | NASA/JPL-Caltech | M. Helfenbein, Yale University / OPAC

-
La noticia Las estrellas de neutrones y quarks explicadas para todos los públicos: así se forman dos de los objetos más asombrosos del universo fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

Intel Core i9-11900K y Core i5-11600K, análisis: batir a los anteriores procesadores Intel Core no es suficiente para imponerse a una AMD en estado de gracia

Intel Core i9-11900K y Core i5-11600K, análisis: batir a los anteriores procesadores Intel Core no es suficiente para imponerse a una AMD en estado de gracia

Los nuevos microprocesadores de Intel para ordenadores de sobremesa han llegado a las tiendas en un momento de encrucijada. Por un lado se han visto obligados a medirse de tú a tú con unos competidores, los procesadores Ryzen 5000 de AMD, que en nuestras pruebas han demostrado proponernos una relación rendimiento/vatio sobresaliente.

Y, además, han aterrizado en una época crítica en la que el mercado de los semiconductores nos lo está poniendo a los usuarios más difícil que nunca para renovar los componentes de nuestro PC al precio marcado oficialmente por los fabricantes.

Afortunadamente los procesadores no escasean tanto como las tarjetas gráficas, ni se ven sometidos a la misma especulación, pero no pueden mantenerse al margen de un clima enrarecido que puede provocar que muchos usuarios opten por retrasar la puesta al día de su PC o la compra de uno nuevo.

Intel está afrontando una etapa de transición que persigue incrementar la competitividad de la compañía

Tampoco podemos pasar por alto que Intel está afrontando una etapa de transición impulsada por Pat Gelsinger, su nuevo director general, que persigue incrementar la competitividad de la compañía. Para lograrlo apostará por una nueva estrategia de fabricación y una política de inversiones más ambiciosa que alcanzará su clímax con la construcción de dos nuevas fábricas en su campus de la localidad de Ocotillo, en Arizona (Estados Unidos).

Los procesadores Intel Core de 11ª generación para ordenadores de sobremesa que estamos a punto de analizar en este artículo, identificados por el nombre en código 'Rocket Lake-S', renuevan tímidamente una apuesta que se verá reforzada por los mucho más rupturistas Intel Core de 12ª generación 'Alder Lake' que llegarán durante la segunda mitad de este año. Pero esta es otra historia. Una que esperamos poder contaros muy pronto.

Intelrocketlakes

Intel Core i9-11900K y Core i5-11600K: especificaciones técnicas


intel core i9-11900k

intel core i5-11600k

intel core i9-10900k

intel core i5-10600k

serie

Rocket Lake-S

Rocket Lake-S

Comet Lake-S

Comet Lake-S

fotolitografía

14 nm

14 nm

14 nm

14 nm

núcleos

8

6

10

6

hilos de ejecución

16

12

20

12

frecuencia de reloj base

3,50 GHz

3,90 GHz

3,70 GHz

4,10 GHz

frecuencia de reloj máxima

5,30 GHz

4,90 GHz

5,30 GHz

4,80 GHz

frecuencia de intel thermal velocity boost

5,30 GHz

No disponible

5,30 GHz

No disponible

caché

16 MB

12 MB

20 MB

12 MB

velocidad del bus

8 GT/s

8 GT/s

8 GT/s

8 GT/s

frecuencia intel turbo boost max 3.0

5,20 GHz

4,90 GHz (Intel Turbo Boost 2.0)

5,20 GHz

No disponible

tdp

125 vatios

125 vatios

125 vatios

125 vatios

frecuencia de descenso de tdp

3 GHz

3,60 GHz

3,30 GHz

3,80 GHz

descenso de tdp configurable

95 vatios

95 vatios

95 vatios

95 vatios

canales de memoria

2

2

2

2

máximo ancho de banda

50 GB/s

50 GB/s

45,8 GB/s

41,6 GB/s

gráficos

UHD Graphics 750

UHD Graphics 750

UHD Graphics 630

UHD Graphics 630

pci express

4.0

4.0

3.0

3.0

líneas máximas pci express

20

20

16

16

zócalo

LGA1200

LGA1200

LGA1200

LGA1200

precio

650 euros

288,64 euros

590 euros

212,45 euros

La microarquitectura de estos chips nos promete un aumento del IPC de hasta el 19%

Las mejoras que los ingenieros de Intel han introducido en la microarquitectura de los núcleos 'Cypress Cove' nos prometen un incremento del IPC(Instructions Per Cycle) de hasta el 19%. Este parámetro refleja el número de instrucciones que una CPU es capaz de ejecutar en un único ciclo de la señal de reloj, por lo que cuanto más alto sea, mayor será su rendimiento.

Eso sí, es importante que tengamos en cuenta que el IPC no es el único parámetro que condiciona la productividad de un procesador. Otros parámetros, especialmente la frecuencia de reloj, también tienen un impacto directo en su productividad.

Intelrocketlakes 1

La siguiente optimización en la que merece la pena que nos detengamos incide en la lógica gráfica integrada UHD Graphics 750, que, según Intel, es hasta un 50% más rápida que la incorporada en la generación anterior. No es un dato relevante para los jugones que prefieren apostar por una tarjeta gráfica dedicada, pero es importante en un abanico de escenarios de uso amplio en los que tiene sentido utilizar los gráficos integrados para abaratar el PC.

La otra mejora introducida por Intel en los procesadores Core de 11ª generación incide en la lógica que interviene en la ejecución de los algoritmos de inteligencia artificial. Y, por fin, estos chips incorporan la norma PCI Express 4.0 por la que AMD apostó en el ya lejano 2019 al introducirla en su plataforma AM4 a través del chipset X570 y los procesadores Ryzen 3000.

Intelrocketlakes 2

Hace poco tuvimos la oportunidad de hablar con Norberto Mateos, el director general de Intel España, y nos aseguró que esta compañía apostará por PCI Express 5.0 tan pronto como los usuarios la demandemos. Por esta razón es probable que el paso de PCIe 4.0 por las plataformas de Intel sea relativamente fugaz y no tardemos mucho en ser testigos de la llegada de PCIe 5.0.

Intel apostará por PCIe 5.0 cuando los usuarios la demandemos. Es probable que el paso de PCIe 4.0 por esta plataforma sea fugaz

Otro dato interesante: los nuevos procesadores pueden convivir con módulos de memoria DDR4-3200 (otra característica que muchos usuarios echábamos de menos en los micros de Intel para poder ir más allá de los módulos DDR4-2933). También implementan optimizaciones en los algoritmos de codificación de vídeo, soporte de la compresión HEVC de 12 bits, entre otros formatos, y la tecnología 'Resizable BAR', que permite a la CPU acceder directamente a la VRAM de la tarjeta gráfica.

Como cabía esperar, junto a los nuevos microprocesadores también ha llegado una nueva familia de chipsets conocida como Serie 500. Incorpora conectividad USB 3.2 Gen 2x2 a 20 Gbps; un enlace DMI Gen 3.0 que, según Intel, multiplica por dos el ancho de banda del bus que permite la comunicación entre la CPU y el chipset; soporta enlaces PCI Express 4.0 y también conectividad Wi-Fi 6E y Thunderbolt 4 discreta, entre otras mejoras. Por el momento los chipsets que conforman esta familia son los modelos H570, B560 y Z590 (este último es el tope de gama de la serie 500).

Intelrocketlakes 3

Por otro lado, Intel se está esforzando para recuperar la atención de los jugones en particular y los entusiastas en general. Las mejoras que ha introducido en las herramientas de overclocking que nos propone persiguen claramente este objetivo. Los usuarios que se decanten por una placa base con chipset H570 o B560 podrán practicar overclocking con la memoria principal, por lo que no será necesario apostar por una placa base con chipset Z590 para hacerlo.

Además, el controlador de memoria integrado contempla un abanico de timings más amplio, y las tecnologías XMP, Overclocking Thermal Velocity Boost y la activación y desactivación del Hyper-Threading por núcleo, entre otras innovaciones, siguen vigentes en los nuevos chips.

Intelrocketlakes 4

Intel Core de 11ª generación: así rinden en nuestro banco de pruebas

La configuración de la plataforma de tests que hemos utilizado para evaluar el rendimiento de estos microprocesadores es la siguiente: dos módulos de memoria Corsair Dominator Platinum DDR4-3600 con una capacidad conjunta de 16 GB y una latencia de 18-19-19-39; una placa base ASUS ROG Maximus XIII Hero con chipset Intel Z590; una tarjeta gráfica AMD Radeon RX 6800 XT con 16 GB GDDR6; una unidad SSD Samsung 970 EVO Plus con interfaz NVMe M.2 y una capacidad de 500 GB; un sistema de refrigeración por aire para la CPU Corsair A500 con ventilador de rodamientos por levitación magnética y una fuente de alimentación modular Corsair RM 750x.

Plataformapruebas1

También hemos utilizado como referencia los siguientes microprocesadores: Intel Core i9-10900K, AMD Ryzen 9 5950X, AMD Ryzen 9 5900X, AMD Ryzen 7 5800X y AMD Ryzen 5 5600X. Hemos puesto a prueba estas CPU exactamente con los mismos componentes que hemos utilizado para evaluar el rendimiento de los nuevos chips Intel Core de 11ª generación, con la única excepción de las placas base. Hemos usado una Gigabyte Z490 AORUS Master con chipset Intel Z490 para evaluar el procesador Intel Core i9-10900K, y una ASUS ROG Crosshair VIII Hero con chipset AMD X570 para analizar los chips de la familia Ryzen 5000 de AMD.

Para evaluar el rendimiento de las nuevas CPU de Intel las hemos enfrentado a los procesadores Ryzen 5000 de AMD

El monitor que hemos utilizado en las pruebas es un ROG Strix XG27UQ de ASUS equipado con un panel LCD IPS de 27 pulgadas con resolución 4K UHD y capaz de trabajar a una frecuencia de refresco máxima de 144 Hz. Las pruebas gráficas las hemos ejecutado con la máxima calidad implementada en cada juego o test y habilitando la API DirectX 12 en aquellos títulos en los que está disponible. Y, por último, las herramientas que hemos utilizado para recoger los datos son OCAT, de AMD, y FRAPS. Ambas están disponibles gratuitamente.

Plataformapruebas2

PCMark 10 es una herramienta muy útil para evaluar el rendimiento de un procesador cuando se enfrenta a aplicaciones de productividad y creación de contenidos. Como podéis ver en la gráfica, en los escenarios 'Essentials' y 'Productivity' las diferencias de rendimiento entre los procesadores que hemos analizado son moderadas, pero en el escenario de creación de contenidos la superioridad de los Ryzen 9 5950X, Ryzen 9 5900X y Ryzen 7 5800X es muy evidente. En este ámbito la gran cantidad de hilos de ejecución (threads) que son capaces de manejar y su IPC marcan la diferencia.

En la prueba de Cinebench R20 que recurre a un único núcleo la diferencia de rendimiento que arrojan estos procesadores es moderada, pero en el test multinúcleo, como cabía esperar, los procesadores Ryzen 9 5950X y Ryzen 9 5900X consiguen avasallar a todos los demás con una superioridad aplastante. La gran cantidad de hilos de ejecución que son capaces de procesar simultáneamente de nuevo marca la diferencia.

En Cinebench R23 sucede lo mismo que acabamos de ver en la prueba anterior. En el test con un único núcleo no hay una gran diferencia de rendimiento entre estos procesadores, pero cuando todos los núcleos entran en acción los Ryzen 9 5950X y Ryzen 9 5900X se imponen con una claridad insultante. El procesador Intel Core i9-11900K arroja un rendimiento similar al Core i9-10900K y el Ryzen 7 5800X, y el Core i5-11600K se mide de tú a tú con el Ryzen 5 5600X.

En la siguiente prueba, Corona 1.3 Ray Tracing Benchmark, la mayor cantidad de núcleos del procesador Core i9-10900K le ha permitido aventajar sensiblemente a su sucesor, el Core i9-11900K, que tiene dos núcleos menos. En cualquier caso, el vencedor en esta prueba, y de nuevo con una superioridad insultante, es el monstruoso Ryzen 9 5950X de AMD.

Al igual que Cinebench, Geekbench 5 define dos escenarios de prueba (monohilo y multihilo), y, una vez más, los Ryzen 5000 salen muy bien parados de otro test. Con un solo hilo el Core i9-10900K queda ligeramente rezagado, y al introducir en la ecuación todos los núcleos los dos Ryzen 9, una vez más, campan a sus anchas. En este escenario los dos Core i9 quedan virtualmente empatados, y el Ryzen 7 5800X queda ligeramente por detrás de ellos.

Octane 2.0 es un test desarrollado en JavaScript que resulta muy útil para evaluar la capacidad de cálculo de un microprocesador. Esta prueba define un número elevado de escenarios de análisis, y en varios de ellos, como 'Raytrace' o 'Mandreel', el vencedor es el Core i9-11900K de Intel.

En otros, como 'Crypto', la igualdad entre el Core i9 de 11ª generación y los Ryzen 9 y 7 es tangible, y en algunos, como 'NavierStokes', son los chips de AMD los que se imponen a las soluciones de Intel. En cualquier caso, desde una perspectiva global la CPU que se lleva esta prueba es el Core i9-11900K de Intel.

Con los juegos la batalla está más reñida que nunca: las victorias se alternan

Como hemos visto unos párrafos más arriba, la tarjeta gráfica que trabaja codo con codo con los microprocesadores que hemos puesto a prueba en este análisis es una Radeon RX 6800 XT de AMD. En la categoría CPU Score del test Time Spy de 3DMark el vencedor con cierta claridad ha sido el Core i9-10900K de Intel. El nuevo Core i9-11900K queda ligeramente por detrás de él, aunque ha conseguido superar a todos los procesadores de AMD.

En el estupendo 'Wolfenstein: Youngblood' los procesadores de AMD se han impuesto a todas las resoluciones. Los dos Core i9 les mantienen el pulso, pero el nuevo Core i5-11600K queda muy rezagado en todas las resoluciones, comprometiendo el rendimiento de la tarjeta gráfica. Aquí el Ryzen 5 5600X de AMD, que es su alternativa natural, es una opción más apetecible.

En 'Doom Eternal' la victoria se la lleva el Core i9-11900K de Intel, aunque a 2160p esencialmente empata con los Ryzen 5000 de AMD. De nuevo el procesador que sale peor parado es el Core i5-11600K.

En 'Control' y con el trazado de rayos activado el panorama no es muy diferente al que hemos revisado en los otros juegos. El Core i9-11900K queda alineado con su predecesor y los procesadores de AMD, y, de nuevo, el Core i5-11600K es el que sale peor parado. El Ryzen 5 5600X lo ha doblegado con mucha autoridad.

En 'Final Fantasy XV' tenemos un vencedor claro: el Core i9-11900K de Intel. A 1080p y 1440p vence con cierta autoridad, pero a 2160p hay varios procesadores de AMD pisándole los talones. Curiosamente en este juego el chip peor parado no ha sido el Core i5-11600K; el que nos ha entregado las cadencias más bajas ha sido el Core i9-10900K.

Para evaluar qué temperatura máxima alcanzan bajo estrés estos microprocesadores hemos recurrido al test Multi Core de Cinebench R23, una prueba muy rigurosa que somete a una carga muy intensa todos los núcleos de la CPU de forma iterativa durante 10 minutos.

Las temperaturas que hemos recogido en la siguiente gráfica reflejan el pico máximo alcanzado por cada microprocesador durante la ejecución de este test. Resulta bastante sorprendente lo moderada que es la temperatura máxima alcanzada por el Core i5-11600K de Intel.

Para evaluar el consumo máximo de cada microprocesador hemos utilizado la misma metodología a la que hemos recurrido para medir la temperatura máxima: el test Multi Core de Cinebench R23. Como podemos ver en la siguiente gráfica, el consumo máximo de los Ryzen 5000 es notablemente inferior al de los chips de Intel.

Los procesadores de AMD se benefician de una fotolitografía más avanzada que la que está utilizando Intel, y también de una microarquitectura diseñada para maximizar la relación rendimiento/vatio. En este terreno no cabe duda de que objetivamente AMD ha hecho un trabajo muy bueno.

La siguiente tabla recoge los resultados que han arrojado en nuestro banco de pruebas los siete microprocesadores cuyo rendimiento ha quedado descrito en las gráficas que acabamos de examinar:


intel core i9-11900k

intel core i5-11600k

intel core i9-10900k

amd ryzen 9 5950x

AMD RYZEN 9 5900X

AMD RYZEN 7 5800X

AMD RYZEN 5 5600X

pcmark 10 - final score

8243

7765

7833

8800

8778

8660

8352

essentials

11 038

10 801

10 771

11 411

11 444

11 642

11 492

productivity

10 041

9587

8933

9965

9970

9879

9821

digital content creation

13 713

12 272

13 555

16 263

16 087

15 327

14 008

cinebench r20








CPU Multi core

5963

4338

6315

10 283

8521

6031

4315

cpu single core

600

593

509

643

631

625

600

cinebench r23








cpu multi core

14 701

11 217

15 671

26 063

21 642

15 393

11 120

cpu single core

1664

1564

1305

1650

1616

1599

1544

corona 1.3 RT benchmark

86 s

120 s

74 s

47 s

59 s

86 s

117 s

geekbench 5








single-core score

1870

1752

1381

1721

1700

1700

1641

multi-core score

10 595

8338

10 556

13 921

12 839

10 076

8177

octane 2.0

77 444

71 387

59 157

69 906

69 646

71 046

68 016

crypto

62 346

57 256

53 295

64 281

62 652

63 191

60 546

raytrace

118 990

107 964

88 725

109 000

109 148

108 630

102 340

navierstokes

51 688

47 838

48 034

63 897

62 562

61 524

58 766

mandreel

71 519

65 448

53 594

68 125

66 595

67 790

63 897

3dmark - time spy

16 235

14 798

16 451

16 473

16 449

16 198

14 965

graphics score

17 091

16 487

17 151

17 540

17 554

17 583

17 598

cpu score

12 646

9364

13 365

12 253

12 125

11 201

8100

wolfenstein: youngblood








1080p

380

253

380

397

393

401

399

1440p

249

199

255

260

260

262

262

2160p

135

121

140

141

141

142

142

doom eternal








1080p

413

337

388

393

397

388

390

1440p

319

293

305

309

313

313

313

2160p

181

171

174

181

179

179

180

control (con rt)








1080p

81

66

84

83

85

81

84

1440p

51

44

54

53

53

53

52

2160p

25

23

25

25

26

26

25

final fantasy xv








1080p

168

159

141

161

157

163

156

1440p

130

121

110

124

112

126

120

2160p

75

73

66

71

65

74

63

temperatura máxima (ºc)

80

49

86

71

74

90

67

consumo máximo (vatios)

204,7

153,1

216,3

135

127,2

110,8

50,9

Intel Core i9-11900K y Core i5-11600K: la opinión de Xataka

Aunque los nuevos microprocesadores de Intel han conseguido superar a sus predecesores en la mayor parte de las pruebas (aunque no en todas), el panorama apenas ha cambiado desde que hace unos meses tuvimos la oportunidad de probar a fondo los procesadores Ryzen 5000 de AMD.

Desde una perspectiva global estos últimos se mantienen como unas propuestas más equilibradas, y por tanto también más atractivas, en la mayor parte de los escenarios de uso.

En herramientas de productividad y ofimática las diferencias de rendimiento entre los Intel Core de 11ª generación y los AMD Ryzen 5000 son moderadas. Unas aplicaciones favorecen a unos, y otras, a otros. Sin embargo, cuando se enfrentan a herramientas de creación de contenidos los Ryzen 9 y 7 son intratables.

Lo ideal para los usuarios es que tanto Intel como AMD estén en el mejor estado de forma posible. Crucemos los dedos para que sea así

Su superioridad es indiscutible, por lo que, en mi opinión, estos son los procesadores a considerar para editar vídeo, procesar imágenes o renderizar entornos tridimensionales, entre otros posibles escenarios de uso.

Con los juegos el panorama está más equilibrado, y tanto el Core i9-11900K de Intel como todos los Ryzen 5000 de AMD rinden estupendamente. La opción que no resulta tan atractiva en este escenario de uso es el Core i5-11600K. Quien tenga un presupuesto moderado acertará si elige el Ryzen 5 5600X.

Ahora solo nos queda confiar en que los próximos procesadores de ambas compañías nos propongan un valor añadido real frente a los chips que acaban de colocar en las tiendas. Es evidente que lo ideal para los usuarios es que tanto Intel como AMD estén en el mejor estado de forma posible. Crucemos los dedos para que sea así.

Estos microprocesadores han sido cedidos para el análisis por Intel. Podéis consultar nuestra política de relaciones con las empresas.

Más información | Intel

-
La noticia Intel Core i9-11900K y Core i5-11600K, análisis: batir a los anteriores procesadores Intel Core no es suficiente para imponerse a una AMD en estado de gracia fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

El ADN ya se puede recuperar del aire: los malos van a tenerlo más difícil después de cometer una fechoría, y los forenses, más fácil

El ADN ya se puede recuperar del aire: los malos van a tenerlo más difícil después de cometer una fechoría, y los forenses, más fácil

La existencia de crímenes que no han podido ser resueltos por los cuerpos de seguridad pone sobre la mesa lo difícil que es cerrar algunos casos. La ciencia es un recurso muy valioso que puede ayudar a los investigadores a extraer pruebas de escenarios en los que aparentemente no hay nada. Pero a veces ni siquiera con las técnicas científicas más avanzadas es posible dar con la solución.

Afortunadamente, este escenario podría cambiar. Y es que la ciencia sigue avanzando, tanto que está a punto de ponérselo aún más difícil a los delincuentes. Un grupo de investigadores de la Universidad Queen Mary de Londres ha conseguido recuperar con éxito y por primera vez ADN animal directamente del aire. Y este hito cambia las reglas del juego. Quizá, incluso, para siempre.

Esta tecnología tiene aplicaciones forenses, sanitarias y ecológicas

Todos los seres vivos, tanto las plantas como los animales, dejamos inevitablemente trazas de nuestro ADN en el medioambiente como resultado de nuestra interacción con él. Hasta ahora la tecnología nos permitía recuperarlo siempre y cuando hubiese sido depositado sobre una superficie en un plazo de tiempo lo suficientemente breve para que no se hubiese iniciado su degradación.

Estos investigadores han recuperado las moléculas de ADN que quedan suspendidas en el aire durante cierto tiempo después de que se haya producido la interacción entre un ser vivo y el entorno

Lo que estos investigadores han conseguido es recuperar las moléculas de ADN que quedan suspendidas en el aire durante cierto tiempo después de que se haya producido la interacción entre un ser vivo y el entorno. Esta es la razón por la que los científicos llaman a este recurso ADN ambiental.

Desde hace varios años los ecólogos utilizan este material genético para analizar la relación que existe entre algunos organismos y los ecosistemas acuáticos en los que viven, pero la posibilidad de recuperarlo no solo del agua, sino también del aire, pone en nuestras manos una herramienta muy poderosa que puede tener aplicaciones muy potentes en ámbitos muy diversos.

Durante su experimento los investigadores introdujeron en una habitación una jaula con varias ratas topo desnudas, un pequeño roedor que tiene unas características físicas muy peculiares. Y después tomaron varias muestras del aire para comprobar si su técnica de análisis era lo suficientemente sensible para permitirles identificar las moléculas de ADN procedentes del cuerpo de estos pequeños animales.

Y tuvieron éxito. Pero no solo lograron recuperar el material genético de los roedores e identificar correctamente su especie; también recuperaron ADN humano. Su propio ADN. Este hallazgo evidencia la potencia de una técnica que puede tener un impacto disruptivo en escenarios de uso muy diferentes.

Ratatopo

Las ratas topo desnudas (Heterocephalus glaber) utilizadas por estos científicos en su experimento tienen una cualidad muy peculiar que va más allá de sus características físicas, y que ha provocado que los científicos se fijen en ellas: su organismo es muy resistente al cáncer.

La doctora Elizabeth Clare, profesora en la Universidad Queen Mary de Londres y máxima responsable del estudio, asegura que «hemos proporcionado la primera evidencia que demuestra que el ADN ambiental de origen animal puede ser recuperado del aire, lo que nos ofrece la oportunidad de estudiar las comunidades animales que viven en entornos de difícil acceso, como cuevas o madrigueras».

Además, esta científica apunta que la técnica que han desarrollado también puede ser una herramienta muy útil en la investigación forense, la antropología y la medicina. En este último ámbito indica que esta innovación puede ayudarnos a entender mejor la transmisión de algunos patógenos que se propagan a través del aire, como el virus SARS-CoV-2 responsable de la enfermedad COVID-19.

Más información | Universidad Queen Mary de Londres

Imágenes | Pete Linforth (en Pixabay) | Roman Klementschitz

-
La noticia El ADN ya se puede recuperar del aire: los malos van a tenerlo más difícil después de cometer una fechoría, y los forenses, más fácil fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

Radiación cósmica: qué es, de dónde procede y qué nos protege de ella

Radiación cósmica: qué es, de dónde procede y qué nos protege de ella

La radiación cósmica baña nuestro sistema solar, y por tanto también nuestro planeta, desde el mismo momento en el que se formó a partir de una gigantesca nube de gas y polvo hace algo más de 4500 millones de años. Durante la mayor parte de nuestra historia no hemos sido conscientes de su existencia, por lo que para dar con el primer científico que nos habló de la presencia de una forma de radiación que debía de proceder del espacio exterior debemos remontarnos a 1912.

El físico austríaco Victor Franz Hess fue el primero que identificó la procedencia de una forma de radiación cuya intensidad se incrementa con la altitud y su abundancia varía con la latitud. Para llevar a cabo sus experimentos utilizó globos sonda en cuyo interior introdujo dispositivos de medida diseñados expresamente para medir la radiación presente en la atmósfera.

Sus valiosos hallazgos científicos fueron recompensados con varios galardones, entre los que se encuentra el Premio Nobel de Física, que compartió con el físico estadounidense Carl David Anderson en 1936. Muchos otros científicos continuaron las investigaciones de Hess, y gracias a todos ellos hoy conocemos un poco mejor una forma de radiación que transporta hasta nuestro planeta información muy valiosa acerca del universo al que pertenecemos.

Los rayos cósmicos están hechos de lo mismo que nosotros

La radiación cósmica está constituida por núcleos atómicos ionizados de alta energía que se desplazan por el espacio a una velocidad muy cercana a la de la luz (que es aproximadamente de 300 000 km/s). Que estén ionizados nos indica que han adquirido carga eléctrica debido a que han sido despojados de sus electrones, pero, curiosamente, estos núcleos atómicos están hechos de la misma materia que nos constituye a nosotros y todo lo que nos rodea, una cualidad que, como veremos más adelante, revela su procedencia.

Una de las características más importantes de la radiación cósmica es su esencialmente perfecta isotropía

Sin embargo, y aquí llega la primera sorpresa, los núcleos atómicos que constituyen los rayos cósmicos se distribuyen de una manera diferente a la materia que nos da forma a nosotros. El hidrógeno y el helio son mucho más abundantes en nuestro sistema solar que en los rayos cósmicos, mientras que otros elementos más pesados, como el litio, el berilio o el boro, son diez mil veces más abundantes en la radiación cósmica.

Una de las características más importantes de la radiación cósmica es su esencialmente perfecta isotropía. Este parámetro refleja que los rayos llegan de todas direcciones con la misma frecuencia, lo que nos indica que deben coexistir simultáneamente numerosas fuentes capaces de generarlos. Y esto nos invita a plantearnos una pregunta más: de dónde procede la radiación cósmica.

Estrella

Los elementos químicos que constituyen la materia ordinaria, que nos da forma tanto a nosotros como a la radiación cósmica, son sintetizados mayoritariamente en el núcleo de las estrellas mediante reacciones de fusión nuclear.

La radiación cósmica viene, al igual que nosotros, de las estrellas

Los rayos cósmicos no son una consecuencia directa del Big Bang. Durante los primeros estadios de la formación del universo, que arrancó hace aproximadamente 13 800 millones de años, apenas se produjeron núcleos más pesados que el hidrógeno y el helio. Estos eran los más abundantes, y solo los acompañaron pequeñas cantidades de litio y berilio, una distribución que no encaja, como hemos visto, con la que tienen los núcleos que conforman los rayos cósmicos.

Una parte importante de la radiación que impregna la atmósfera de nuestro planeta procede del sol, que, como todos sabemos, es la estrella más cercana. Sin embargo, no es en absoluto la única fuente de radiación externa que llega a la Tierra. Buena parte de los rayos cósmicos que recibimos proceden de fuera de nuestro sistema solar. De otras estrellas. Y viajan a través del espacio con una enorme energía hasta impactar con los átomos presentes en las capas superiores de la atmósfera de nuestro planeta.

Los elementos químicos de los que está constituida la materia ordinaria, y, por tanto, también nosotros mismos, se sintetizan en el núcleo de las estrellas. Si os apetece conocer con precisión cómo se lleva a cabo este proceso podéis consultar el artículo que dedicamos a la vida de la estrellas, pero ahora nos basta recordar que alrededor del 70% de su masa es hidrógeno, entre el 24 y el 26% es helio, y el 4 al 6% restante es una combinación de elementos químicos más pesados que el helio.

La nube de polvo y gas a partir de la que por contracción gravitacional se va formando una estrella va incrementando su temperatura hasta que llega el instante en el que se enciende el horno nuclear y comienzan a tener lugar en su núcleo las primeras reacciones de fusión nuclear. Este proceso es el que permite a la estrella emitir energía y producir elementos más pesados que el hidrógeno y el helio. A medida que la estrella va consumiendo su combustible se va reajustando con el propósito de mantener el equilibrio hidrostático.

A medida que las estrellas van consumiendo su combustible se van reajustando con el propósito de mantener el equilibrio hidrostático

Esta característica permite a la estrella mantenerse estable durante la mayor parte de su vida activa debido a que la contracción gravitacional, que «tira» de la materia de la estrella hacia dentro, hacia su interior, se ve compensada por la presión de los gases y la presión de la radiación emitida por la estrella, que «tiran» de la materia hacia fuera. Sin embargo, el combustible de las estrellas no es eterno.

Las más masivas van progresivamente quemando su hidrógeno, luego el helio, el carbono y así sucesivamente, produciendo elementos cada vez más pesados en su interior. Los elementos más ligeros se «fabrican» en las capas más externas, y los más pesados en las capas interiores. Pero si la estrella es lo suficientemente masiva llegará un momento en que el núcleo interior, la capa más profunda de la estrella, estará constituido por hierro. Y con este elemento químico sucede algo muy interesante: de él no puede extraerse más energía mediante fusión nuclear.

Cuando se detiene la producción de energía en el núcleo de la estrella la presión de radiación, que intenta que la estrella se expanda, no es capaz de contrarrestar la contracción gravitacional, que intenta que la estrella se comprima, por lo que el núcleo de hierro se ve obligado a soportar el peso de todas las capas de la estrella que tiene por encima.

Auroraboreal

Las auroras boreales son el resultado de la interacción de las partículas con carga eléctrica que son desviadas por la magnetosfera y la atmósfera terrestre.

Esa presión es descomunal, y, dado que la estrella ha perdido el equilibrio, el núcleo se contrae de forma súbita, provocando que las demás capas de material caigan bruscamente sobre él, rebotando con una violencia extrema y saliendo despedidas hacia el medio estelar con una velocidad muy alta. Estamos ante una supernova. La energía liberada en estas enormes explosiones es tal que consiguen brillar durante unos segundos más que toda la galaxia de la que forman parte.

Los astrofísicos están convencidos de que aproximadamente durante unos 20 segundos la temperatura en el núcleo de la estrella es altísima, de unos 30 MeV, y su densidad también es descomunal, de unos 10^12 g/cm3, lo que provoca que los protones reaccionen con los electrones dando lugar a la producción de neutrones y neutrinos, que consiguen escapar e incrementar la temperatura de la región alojada detrás de la onda de choque de la supernova.

Durante este fenómeno la estrella expulsa hacia el espacio y en todas direcciones una cantidad enorme de núcleos de todo tipo, que, además, tienen una energía cinética gigantesca. Esto les permite desplazarse a una velocidad altísima y arrastrar a su paso los núcleos y las moléculas que encuentran en su camino. Precisamente es durante esa interacción cuando los núcleos medianos producidos en el interior de las estrellas y acelerados por las supernovas se rompen en núcleos más ligeros de litio, berilio y boro como consecuencia de su colisión con la materia interestelar.

La Tierra nos protege con eficacia de la radiación cósmica

Nuestro planeta cuenta con dos escudos muy valiosos que nos protegen tanto de la radiación solar como de la radiación cósmica que procede de más allá de la frontera de nuestro sistema solar: la atmósfera y el campo magnético terrestre. Este último se extiende desde el núcleo de la Tierra hasta más allá de la ionosfera, dando forma a una región conocida como magnetosfera capaz de desviar las partículas con carga eléctrica hacia los polos magnéticos del planeta. Este es el mecanismo que nos protege en gran medida tanto del viento solar como de los rayos cósmicos.

No obstante, esto no impide que algunos núcleos de alta energía choquen con las moléculas presentes en las capas más externas de la atmósfera, dando lugar a una lluvia de partículas menos energéticas y potencialmente menos peligrosas que ocasionalmente pueden llegar hasta la corteza terrestre. Esta es la razón por la que la atmósfera también ejerce un importantísimo efecto protector. Afortunadamente, como nos explica el físico Javier Santaolalla, la colisión de estas partículas en la atmósfera es constante, pero no tenemos por qué preocuparnos.

Imágenes | Rakicevic Nenad | Pixabay | Tobias Bjørkli

-
La noticia Radiación cósmica: qué es, de dónde procede y qué nos protege de ella fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

Xiaomi Mi TV LUX Transparent Edition, lo hemos probado: este televisor transparente quiere ser una demostración de poderío tecnológico

Xiaomi Mi TV LUX Transparent Edition, lo hemos probado: este televisor transparente quiere ser una demostración de poderío tecnológico

Este televisor es una preciosidad. Cuando lo tienes delante es mucho más atractivo que en las fotografías, pero no es solo una cara bonita. Al menos no para Xiaomi. La compañía china lo dio a conocer en pleno verano del año pasado para celebrar su primera década de existencia, y sus responsables no han ocultado en ningún momento que para ellos este televisor es una demostración palpable de su capacidad tecnológica.

Y es que este es un televisor prémium en toda regla. Lo es por su panel OLED y su acabado, pero, sobre todo, por su espectacular diseño. Y también por su precio, que es mucho más alto que el de los demás televisores de 55 pulgadas de esta marca (cuesta 49 999 yuanes, que equivalen si hacemos la conversión directa aproximadamente a 6500 euros).

Aunque Xiaomi no va a ponerlo oficialmente a la venta en Europa quien quiera hacerse con uno podrá conseguirlo sin demasiada dificultad en internet. Eso sí, no le va a salir barato porque a su elevado precio tendrá que sumar el envío y los impuestos de importación. Si quieres averiguar si merece o no la pena, y, sobre todo, qué lo hace especial, solo tienes que leer un poco más.

Xiaomi Mi TV LUX Transparent Edition: especificaciones técnicas

Xiaomi Mi TV LUX Transparent Edition

características

panel

OLED transparente 4K UHD de 55 pulgadas, 10 bits y relación de aspecto 16:9

resolución

3840 x 2160 puntos

hdr

Dolby Vision, HDR10+, HDR10 y HLG

contraste nativo

150 000:1

frecuencia de refresco

120 Hz

tiempo de respuesta

1 ms

cobertura del espacio de color dci-p3

93%

Procesador de imagen

MediaTek 9650

sonido

Dolby Atmos y DTS

4 altavoces / Potencia de salida total: 40 vatios

interfaz de usuario

Android TV + MIUI para televisores

conectividad

1 x HDMI 2.1, 2 x HDMI 2.0, 2 x USB 2.0, 1 x antena, 1 x RJ-45, 1 x salida óptica de audio y 1 x entrada AV

conectividad inalámbrica

Wi-Fi y Bluetooth

RAM

3 GB

almacenamiento secundario

32 GB

ángulos de visión

178º / 178º

dimensiones

1227,50 x 750 x 5,7 mm (sin peana)

peso

24,96 kg (con peana)

precio

49 999 yuanes (6500 euros aproximadamente)

Es espectacularmente bonito y está muy bien acabado

Nuestra primera toma de contacto en vivo con este televisor ha tenido lugar en las oficinas que la filial española de Xiaomi tiene en Madrid. No podemos ofreceros un análisis en profundidad porque no hemos podido probarlo ni durante el tiempo necesario para prepararlo ni en el espacio idóneo, pero confiamos en que este artículo os ayude a formaros una idea precisa acerca de qué nos propone realmente este televisor.

Aunque no hemos podido confirmarlo estamos razonablemente seguros de que el panel OLED de este televisor tiene un índice de transparencia aproximado del 38%

Como podéis ver en la siguiente imagen, su panel OLED no es completamente transparente, aunque es posible ver a través de él sin ninguna dificultad. LG presentó a mediados de 2019 un panel OLED con un índice de transparencia del 38%, por lo que, aunque no hemos podido confirmarlo, estamos razonablemente seguros de que la matriz de este televisor de Xiaomi tiene una transparencia muy similar.

Xiaomimitvluxpanel2

Como podéis ver en la siguiente fotografía, los marcos que protegen los márgenes del panel son finos y están mecanizados en aluminio. Creo que Xiaomi ha acertado eligiendo este acabado para el marco porque encaja estupendamente con la semitransparencia del panel.

El marco inferior es sensiblemente más voluminoso, pero no afea la cuidada estética de este televisor. Y, además, tiene sentido que este marco sea más ancho porque ofrece la rigidez necesaria para que el panel quede anclado de una forma robusta a la peana central. Indagaremos en ella un poco más adelante.

Xiaomimitvluxsistema

La siguiente fotografía de detalle refleja con claridad que estamos inequívocamente ante un televisor OLED. Si no fuese así el panel no podría ser tan fino porque tendría que trabajar codo con codo con un sistema de retroiluminación LED.

Este grosor tan reducido y la transparencia del panel son los responsables en gran medida de la imponente presencia estética que tiene este televisor. Eso sí, su esbeltez tiene un precio: para manipularlo con seguridad es aconsejable agarrarlo por la base porque si ejercemos presión sobre el panel podríamos dañarlo.

Xiaomimitvluxpanel

La peana central es lo suficientemente sólida y voluminosa para garantizar la estabilidad del panel incluso si por accidente le damos un pequeño golpe. Su cobertura superior está acabada en una lámina de aluminio muy bien mecanizada. No obstante, esta peana no solo se responsabiliza de garantizar la estabilidad del panel; en su interior reside la electrónica del televisor, y, además, también incorpora los altavoces y los transistores de amplificación en clase D.

Xiaomimitvluxbase

En la siguiente fotografía de detalle podemos ver cómo ha resuelto Xiaomi la conectividad de este televisor. Estos conectores residen en la parte posterior de la peana, y, curiosamente, al igual que otros televisores chinos, solo nos propone tres tomas HDMI, y no cuatro, que es lo habitual en un televisor de 55 pulgadas o más.

Eso sí, una de ellas, la etiquetada como 'HDMI 3', es capaz de transportar señales 2160p con una cadencia de 120 Hz, por lo que implementa la norma HDMI 2.1, aunque no hemos podido confirmar si su soporte es completo, y, por tanto, también habilita las tecnologías VRR y ALLM.

Xiaomimitvluxconexiones

La calidad de su panel es alta, pero su transparencia acarrea puntos débiles

Para poner a prueba este televisor no dudamos en llevarnos a las oficinas de Xiaomi nuestra ya imprescindible Xbox Series X. Y, junto a ella, algunas de nuestras películas en Blu-ray 4K y Blu-ray Disc de referencia, y también algunos juegos para la consola de Microsoft.

Las siguientes fotografías están un poco oscuras intencionadamente porque nuestro propósito es que reflejen de la forma más fidedigna posible la calidad del panel, aunque ello conlleve que la habitación aparezca algo oscura.

Este televisor reproduce el color de una forma convincente y viene bien calibrado de fábrica

Este televisor reproduce el color de una forma muy convincente (según Xiaomi nos ofrece una cobertura del 93% del espacio de color DCI-P3), y tiene un nivel de saturación similar al que nos proponen los televisores OLED de LG. Además, la calibración que nos propone de fábrica está muy cuidada, aunque de haber tenido más tiempo para probarlo habría intentado sacarle más partido (otra vez será).

Curiosamente, el procesado de movimiento de Xiaomi tiene buen nivel. No iguala el rendimiento de los televisores de gama alta de Sony y Panasonic, que en mi opinión son los que mejor resuelven el movimiento, pero no está nada mal.

Y en lo que se refiere al tiempo de respuesta y los ángulos de visión es un televisor OLED de pura cepa. Su respuesta de 1 ms le ayuda a mantener el desenfoque de movimiento bajo control en cualquier circunstancia, y la percepción del color no se degrada aunque miremos el panel desde un ángulo muy escorado.

Xiaomimitvluximagen1

Su calidad de imagen global me parece notable, lo que demuestra que el procesado de imagen que han puesto a punto los ingenieros de Xiaomi es muy solvente. Sin embargo, en mi opinión este televisor tiene dos puntos débiles que lo hacen poco aconsejable para los cinéfilos que persiguen la mayor capacidad de inmersión en el contenido audiovisual, y también para los que no están dispuestos a renunciar a una imagen sobresaliente.

Ahí van dos pegas que no debemos pasar por alto: es muy sensible a los reflejos y podemos ver tenuemente a través de él durante la reproducción

Ambos defectos los podéis observar en la mayor parte de las fotografías que ilustran este artículo, y están en gran medida provocados por la transparencia del panel. El primero de ellos es que es muy sensible a los reflejos, que están presentes incluso cuando la luz ambiental escasea.

Y el segundo consiste en que el panel permite ver tenuemente a través de él incluso cuando está restituyendo imágenes. Este efecto en mi opinión distrae y merma el nivel de detalle subjetivo, por lo que la inmersión en el contenido que estamos reproduciendo se ve afectada negativamente. Es el precio a pagar por tener un panel tan resultón.

Xiaomimitvluximagen2

Se siente cómodo con los juegos y no suena pero que nada mal

Mis sensaciones durante los minutos que pude utilizar este televisor con juegos fueron satisfactorias. No puedo ofreceros una cifra de latencia precisa, pero estoy bastante seguro de que es algo más lento que los televisores de algunos de sus competidores (los mejores en este ámbito coquetean con una latencia que se mueve en la órbita de los 15 ms, o, incluso, menos). Aun así, su latencia es lo suficientemente baja para no representar un problema.

Los televisores OLED tienen a su favor con los juegos su bajísimo tiempo de respuesta, que se mueve en todos ellos en la órbita de 1 ms, por lo que el desenfoque de movimiento es inapreciable. El juego que podéis ver en la siguiente fotografía es 'Ori and the Will of the Wisps', una pequeña maravilla que merece la pena probar si tienes una Xbox One, o, mejor aún, una Xbox Series X o S.

Xiaomimitvluxjuegos

En lo que se refiere al sonido este televisor cumple. Su calidad de audio no emociona porque los graves no tienen una pegada reseñable y su capacidad dinámica es limitada, pero consigue alcanzar un nivel de presión sonora importante sin que la distorsión se desmande. Otro punto a su favor es que la escena sonora que generan sus cuatro altavoces es amplia. Aun así, yo lo acompañaría con una buena barra de sonido, o, mejor todavía, con un equipo de audio multicanal dedicado.

Xiaomimitvluxsonido

Es una preciosidad, sí, pero no es una tele para todos los públicos

Si nos ceñimos a su diseño este televisor es irresistible. Como he mencionado en las primeras líneas del artículo, cuando lo tienes delante te das cuenta de que es mucho más bonito que en las fotos. Y este es un punto muy claro a su favor. Además, como hemos visto, está impecablemente acabado, y su calidad de imagen global es alta. Incluso su sonido es razonablemente convincente, aunque es una buena idea mejorarlo con un barra de sonido o un equipo multicanal dedicado.

Este televisor es una opción interesante para quien da una importancia enorme al diseño y la sofisticación

Sus puntos débiles más claros son los dos que he mencionado unos párrafos más arriba: los reflejos y su semitransparencia cuando reproducimos contenidos. Si ponemos en una balanza lo que nos da y lo que nos quita creo que la conclusión más razonable a la que podemos llegar es que este televisor es una opción interesante para quien da una importancia enorme al diseño y la sofisticación, pero no se lo recomendaría a quien, ante todo, prioriza la calidad de imagen y la inmersión en los contenidos.

Eso sí, lo que no podemos negar a Xiaomi es el mérito que tiene arriesgar como lo ha hecho con este televisor en un mercado que tradicionalmente peca de un conservadurismo excesivo.

Xiaomimitvluxopinion

-
La noticia Xiaomi Mi TV LUX Transparent Edition, lo hemos probado: este televisor transparente quiere ser una demostración de poderío tecnológico fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

Así funciona el sensor SAR, uno de los componentes que más utilizamos y menos conocemos de nuestro teléfono móvil

Así funciona el sensor SAR, uno de los componentes que más utilizamos y menos conocemos de nuestro teléfono móvil

El sensor SAR no descansa. Tiene la responsabilidad de percibir la proximidad de nuestro cuerpo, pero no entra en acción únicamente cuando nos acercamos nuestro smartphone a la cara para evitar que toquemos la pantalla táctil sin pretenderlo; también es el responsable de mantener bajo control la radiación electromagnética que emite nuestro teléfono móvil. Ni más ni menos.

Cuando consultamos las especificaciones de nuestro terminal y comprobamos que en el apartado dedicado a su dotación de sensores el fabricante nos habla del sensor de proximidad, en realidad está mencionando al sensor SAR. Pero sería injusto aceptar que lo único que hace es identificar que nuestra cara está cerca de la pantalla. Sin él nuestros móviles no podrían medir la radiación que emiten en un instante determinado con el propósito de evitar que franquee un umbral máximo. Y posiblemente tampoco superarían las exigencias que impone la normativa actual en materia de emisión de radiación electromagnética.


Leer más

La central nuclear de Cofrentes seguirá operando hasta 2030: las renovables baten récord, pero la energía nuclear sigue realizando una contribución esencial

La central nuclear de Cofrentes seguirá operando hasta 2030: las renovables baten récord, pero la energía nuclear sigue realizando una contribución esencial

La explotación de la última central nuclear española activa cesará en 2035. Y esa última instalación superviviente será la de Trillo, en la provincia de Guadalajara. Esto es lo que establece por el momento el protocolo del Ministerio para la Transición Ecológica y el Reto Demográfico (MITECO), por lo que el apagón nuclear español comenzará en 2027 con el cierre de la central nuclear de Almaraz.

El apagado planificado de la energía nuclear española nos invita a concluir que su aportación al total de la producción energética nacional está perdiendo relevancia, pero las cifras oficiales demuestran que esto no es así. Al menos no aún. Y la decisión que tomó el pasado jueves el MITECO también apunta en esta misma dirección.

La central nuclear de Cofrentes inició su explotación comercial en 1985, y es la única instalación nuclear española que utiliza un reactor de agua en ebullición

Y es que el ministerio que se responsabiliza de la administración de las centrales nucleares españolas ha decidido prorrogar la explotación comercial de la central nuclear de Cofrentes hasta el 30 de noviembre de 2030. Esta instalación está situada en la provincia de Valencia, y es la única central nuclear española operativa que utiliza un reactor de agua en ebullición (BWR) y no una unidad de agua a presión (PWR).

La explotación comercial de la central nuclear de Cofrentes arrancó a finales de 1984, por lo que esta instalación lleva algo más de 35 años en funcionamiento. A diferencia de otras centrales nucleares españolas, que pertenecen a varias empresas eléctricas, la titularidad de esta instalación es únicamente de Iberdrola, y su capacidad de producción energética media anual es de unos 8900 millones de kWh, una cifra suficiente para abastecer a todas las viviendas de la Comunidad Valenciana.

Centralesnucleares

Fuente: Ministerio para la Transición Ecológica y el Reto Demográfico (MITECO)

Las renovables han batido récord en 2020, pero la energía nuclear sigue siendo crucial

Durante el año pasado la producción de energía de origen renovable alcanzó su máximo histórico. Según Red Eléctrica de España el 43,6% de la energía producida en nuestro país en 2020 procedió de fuentes renovables, lo que refleja con claridad el desarrollo tan prometedor que están experimentando las renovables en su conjunto, y la energía solar fotovoltaica en particular.

En 2020 la producción de energía libre de emisiones de CO2 en España alcanzó el 66,9% del total

Y es que esta última tecnología pasó de una contribución del 3,5% al total del mix eléctrico español en 2019 a un 6,1% en 2020. No obstante, la energía solar no fue la única de origen renovable que incrementó su presencia durante el año pasado. La energía eólica creció un 0,9% frente a 2019, y la hidráulica un 1,4%. La contribución total de las renovables al mix eléctrico español es muy sólida, y no cabe duda de que esta tendencia sumada a la cada vez más pequeña contribución del carbón, que aportó un 2% del total y continuará mermando, es una gran noticia.

Sin embargo, si analizamos la contribución que ha realizado durante 2020 al mix eléctrico cada fuente de energía de forma independiente y, por tanto, sin agrupar las renovables, la energía nuclear sigue liderando la producción nacional con un 22,2% del total. A poca distancia se erige la energía eólica con un 21,7%, y un poco más rezagado aguarda el ciclo combinado, con un 17,8% del total.

En cualquier caso, lo realmente relevante es que en 2020 la producción de energía libre de emisiones de dióxido de carbono en España alcanzó el 66,9% del total. Si las renovables siguen desarrollándose al ritmo al que lo están haciendo es probable que el Plan Nacional Integrado de Energía y Clima (PNIEC), que ha fijado como meta que el 74% de toda la producción eléctrica española sea de origen renovable en 2030, llegue a buen puerto.

Imagen de portada | Foro Nuclear

Más información | MITECO

-
La noticia La central nuclear de Cofrentes seguirá operando hasta 2030: las renovables baten récord, pero la energía nuclear sigue realizando una contribución esencial fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

La central nuclear de Cofrentes seguirá operando hasta 2030: las renovables baten récord, pero la energía nuclear sigue realizando una contribución esencial

La central nuclear de Cofrentes seguirá operando hasta 2030: las renovables baten récord, pero la energía nuclear sigue realizando una contribución esencial

La explotación de la última central nuclear española activa cesará en 2035. Y esa última instalación superviviente será la de Trillo, en la provincia de Guadalajara. Esto es lo que establece por el momento el protocolo del Ministerio para la Transición Ecológica y el Reto Demográfico (MITECO), por lo que el apagón nuclear español comenzará en 2027 con el cierre de la central nuclear de Almaraz.

El apagado planificado de la energía nuclear española nos invita a concluir que su aportación al total de la producción energética nacional está perdiendo relevancia, pero las cifras oficiales demuestran que esto no es así. Al menos no aún. Y la decisión que tomó el pasado jueves el MITECO también apunta en esta misma dirección.

La central nuclear de Cofrentes inició su explotación comercial en 1985, y es la única instalación nuclear española que utiliza un reactor de agua en ebullición

Y es que el ministerio que se responsabiliza de la administración de las centrales nucleares españolas ha decidido prorrogar la explotación comercial de la central nuclear de Cofrentes hasta el 30 de noviembre de 2030. Esta instalación está situada en la provincia de Valencia, y es la única central nuclear española operativa que utiliza un reactor de agua en ebullición (BWR) y no una unidad de agua a presión (PWR).

La explotación comercial de la central nuclear de Cofrentes arrancó a finales de 1984, por lo que esta instalación lleva algo más de 35 años en funcionamiento. A diferencia de otras centrales nucleares españolas, que pertenecen a varias empresas eléctricas, la titularidad de esta instalación es únicamente de Iberdrola, y su capacidad de producción energética media anual es de unos 8900 millones de kWh, una cifra suficiente para abastecer a todas las viviendas de la Comunidad Valenciana.

Centralesnucleares

Fuente: Ministerio para la Transición Ecológica y el Reto Demográfico (MITECO)

Las renovables han batido récord en 2020, pero la energía nuclear sigue siendo crucial

Durante el año pasado la producción de energía de origen renovable alcanzó su máximo histórico. Según Red Eléctrica de España el 43,6% de la energía producida en nuestro país en 2020 procedió de fuentes renovables, lo que refleja con claridad el desarrollo tan prometedor que están experimentando las renovables en su conjunto, y la energía solar fotovoltaica en particular.

En 2020 la producción de energía libre de emisiones de CO2 en España alcanzó el 66,9% del total

Y es que esta última tecnología pasó de una contribución del 3,5% al total del mix eléctrico español en 2019 a un 6,1% en 2020. No obstante, la energía solar no fue la única de origen renovable que incrementó su presencia durante el año pasado. La energía eólica creció un 0,9% frente a 2019, y la hidráulica un 1,4%. La contribución total de las renovables al mix eléctrico español es muy sólida, y no cabe duda de que esta tendencia sumada a la cada vez más pequeña contribución del carbón, que aportó un 2% del total y continuará mermando, es una gran noticia.

Sin embargo, si analizamos la contribución que ha realizado durante 2020 al mix eléctrico cada fuente de energía de forma independiente y, por tanto, sin agrupar las renovables, la energía nuclear sigue liderando la producción nacional con un 22,2% del total. A poca distancia se erige la energía eólica con un 21,7%, y un poco más rezagado aguarda el ciclo combinado, con un 17,8% del total.

En cualquier caso, lo realmente relevante es que en 2020 la producción de energía libre de emisiones de dióxido de carbono en España alcanzó el 66,9% del total. Si las renovables siguen desarrollándose al ritmo al que lo están haciendo es probable que el Plan Nacional Integrado de Energía y Clima (PNIEC), que ha fijado como meta que el 74% de toda la producción eléctrica española sea de origen renovable en 2030, llegue a buen puerto.

Imagen de portada | Foro Nuclear

Más información | MITECO

-
La noticia La central nuclear de Cofrentes seguirá operando hasta 2030: las renovables baten récord, pero la energía nuclear sigue realizando una contribución esencial fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

En la guerra de los nanómetros no pelean solo Intel, TSMC, GlobalFoundries y Samsung; quien gobierna en la sombra es ASML

En la guerra de los nanómetros no pelean solo Intel, TSMC, GlobalFoundries y Samsung; quien gobierna en la sombra es ASML

El pastel de la fabricación de semiconductores se lo reparten tan solo cuatro compañías. El esfuerzo económico constante que es necesario asumir para sostener la innovación y mantener la competitividad ha provocado que solo TSMC, Intel, Samsung y GlobalFoundries tengan relevancia en este mercado. De hecho, estas empresas producen prácticamente todos los chips que utilizan técnicas fotolitográficas avanzadas del mercado.

El modelo de TSMC y GlobalFoundries consiste esencialmente en fabricar semiconductores para otras compañías ejecutando los diseños que han puesto a punto estas últimas. En la cartera de clientes de TSMC cohabitan AMD, NVIDIA, Qualcomm, Apple, Sony o Huawei, entre muchas otras empresas, y se debe en gran medida a que tiene algunos de los nodos de fabricación de semiconductores más avanzados y una capacidad de producción enorme.

GlobalFoundries nació como la fundición de semiconductores de AMD, pero en 2009 se escindió y se consolidó como una compañía independiente a pesar de que sigue manteniendo un vínculo estrecho con la que fue su empresa matriz. Y de Samsung e Intel creo que no es necesario que añada nada porque son muy conocidas. Solo un apunte más: algunas de estas compañías comparten clientes. NVIDIA, por ejemplo, es cliente tanto de TSMC como de Samsung. Y AMD es cliente de TSMC y GlobalFoundries.

Fotolitografia

La crisis de los semiconductores arrecia, y estas son dos de sus causas

La actual crisis de los semiconductores de la que los usuarios estamos siendo en gran medida víctimas está provocada por la coincidencia de varios factores. Dos de los más importantes son la enorme presión que están ejerciendo los mineros de criptomonedas sobre el mercado de los procesadores gráficos, y, por otro lado, el impacto que está teniendo la pandemia mundial en la capacidad de producción de las fundiciones de semiconductores.

ASML diseña y fabrica los equipos fotolitográficos que utilizan la mayor parte de los fabricantes de semiconductores en sus fundiciones

Sin embargo, hay un ingrediente más que es relativamente poco conocido, y que, curiosamente, juega un papel esencial en esta receta. Ese ingrediente es ASML, la compañía de Países Bajos participada por Philips que diseña y fabrica los equipos fotolitográficos que utilizan la mayor parte de los fabricantes de semiconductores en sus fundiciones. De hecho, TSMC, GlobalFoundries, Intel y Samsung son sus clientes, lo que refleja que ASML debe tener algo que decir en esta industria.

A qué se dedica ASML y por qué tiene un rol crucial en la industria de los semiconductores

Los entusiastas solemos prestar atención a la tecnología de integración utilizada por los fabricantes de los semiconductores de nuestros ordenadores. Y es comprensible que sea así debido a que la fotolitografía suele condicionar profundamente la relación rendimiento/vatio que nos propone un chip. Lo curioso es que esta tecnología en gran medida procede de una única empresa. Ahí reside la fortaleza de ASML.

Esta compañía es plenamente consciente de la guerra de los nanómetros en la que están enzarzados algunos de sus clientes, por lo que hace unos años propuso un método que persigue evaluar objetivamente la calidad que tienen los procesos fotolitográficos utilizados por las fundiciones. No cabe duda de que la empresa que proporciona a los fabricantes de semiconductores el hardware, el software y los servicios que necesitan para aplicar los patrones ópticos sobre las obleas de silicio debe tener algo que decir en este ámbito.

Su método de evaluación de la calidad pretende poner orden en un mercado en el que cada fabricante de semiconductores «vende» a los usuarios su tecnología sin ceñirse a unas reglas comunes. Y así es casi imposible comparar las fotolitografías de distintas fundiciones. La fórmula que propone ASML es compleja, pero si os apetece conocerla podemos indagar en ella en otro artículo dedicado específicamente a este sistema objetivo de evaluación.

Esta compañía no es la única que fabrica equipos fotolitográficos para la producción de semiconductores. De hecho, algunos de sus competidores son Canon, Nikon o Ultratech, pero actualmente es la que tiene las máquinas más avanzadas, y esto ha provocado que los grandes fabricantes de semiconductores doten sus fundiciones con sus equipos.

Un último apunte que ilustra muy bien el desarrollo de la tecnología de ASML: a finales del año pasado esta empresa anunció que ya tiene listos sus primeros equipos fotolitográficos de 1 nm, aunque aún tendremos que esperar varios años hasta que comiencen a ser utilizados comercialmente.

Imagen de portada | Intel

-
La noticia En la guerra de los nanómetros no pelean solo Intel, TSMC, GlobalFoundries y Samsung; quien gobierna en la sombra es ASML fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

EE. UU. quiere liderar la fusión nuclear, y para lograrlo planea tener preparada una planta piloto entre 2035 y 2040

EE. UU. quiere liderar la fusión nuclear, y para lograrlo planea tener preparada una planta piloto entre 2035 y 2040

Suena demasiado optimista. Y atrevido. Tener lista una planta piloto capaz de producir energía eléctrica mediante fusión nuclear entre 2035 y 2040 parece excesivamente aventurado si tenemos presentes los desafíos que es necesario resolver, especialmente en el ámbito de la ingeniería de materiales. Precisamente IFMIF-DONES es el proyecto internacional que aspira a resolver buena parte de estos retos.

El itinerario que propone el consorcio de países liderado por la Unión Europea para demostrar la viabilidad comercial de la fusión nuclear establece que el experimento DEMO estará listo a principios de la década de los 50 y finalizará en 2060. A partir de ese momento, si todo sale como está previsto, comenzaría la explotación comercial de esta tecnología.

La Academia Nacional de Ciencias, Ingeniería y Medicina de EE. UU. ha publicado un informe que propone tener lista una planta piloto de fusión nuclear entre 2035 y 2040

La construcción del reactor de fusión nuclear experimental ITER en la localidad francesa de Cadarache está siendo liderada por la Unión Europea, pero en este ambicioso proyecto también intervienen otras seis potencias científicas: Rusia, Japón, China, India, Corea del Sur y Estados Unidos. Cada uno de estos socios contribuye al sostenimiento económico y tecnológico del proyecto. Lo interesante es que algunos de ellos están compatibilizando su participación en ITER con sus propios proyectos de desarrollo de la fusión nuclear.

Iter

El Departamento de Energía (DoE) de Estados Unidos es la institución de este país que está promoviendo el desarrollo propio de esta tecnología, y, sorprendentemente, hace solo unos días la mayor institución científica de esta nación, la Academia Nacional de Ciencias, Ingeniería y Medicina (NASEM), ha publicado un detallado informe en el que insta al DoE a obtener los recursos necesarios para poner a punto una planta piloto de fusión nuclear en muy pocos años.

Objetivo: tener una planta piloto entre 2035 y 2040

Estados Unidos quiere liderar el desarrollo tecnológico de la fusión nuclear. Richard Hawryluk, director adjunto del Laboratorio de Física del Plasma de la Universidad de Princeton y presidente del comité de NASEM que ha publicado el informe, defiende con rotundidad el liderazgo por el que debe luchar su país:

«Estados Unidos ha sido pionero en investigación en fusión nuclear desde el nacimiento de esta tecnología, y ahora tiene la oportunidad de trasladarla al mercado».

El informe en el que ha participado Hawryluk y que firma NASEM va aún más lejos porque pone encima de la mesa con mucha claridad la ambición que tiene la comunidad científica estadounidense en este ámbito:

«Para que Estados Unidos lidere la tecnología de fusión nuclear e impulse la transición en 2050 a un sistema de generación de energía eléctrica con bajas emisiones de carbono el Departamento de Energía y el sector privado deben poner a punto una planta piloto rentable desde un punto de vista energético entre 2035 y 2040.

[...] Si Estados Unidos supera estos retos y proporciona los recursos necesarios para construir una planta piloto de fusión nuclear tiene la oportunidad de alcanzar una posición de liderazgo mundial en la transición a un modelo energético con bajas emisiones de carbono».

Si la propuesta de NASEM finalmente se ve respaldada económicamente y los técnicos consiguen superar los retos que conlleva poner a punto una planta piloto de fusión nuclear exitosa antes de que comience la década de los 40, Estados Unidos se adelantaría al proyecto internacional DEMO. Es un plan muy ambicioso, y las fechas que propone parecen muy difíciles de cumplir, pero lo realmente importante no es quién llegará el primero a la meta.

Lo crucial es que tengamos lo antes posible un modelo energético global que nos permita reducir drásticamente las emisiones de dióxido de carbono. Y no cabe duda de que las energías renovables, y posiblemente también la fusión nuclear si finalmente llega a buen puerto, tienen el papel protagonista en esta función.

Imágenes | Rswilcox | ITER

Vía | World Nuclear News

-
La noticia EE. UU. quiere liderar la fusión nuclear, y para lograrlo planea tener preparada una planta piloto entre 2035 y 2040 fue publicada originalmente en Xataka por Juan Carlos López .

Leer más