Los fabricantes de semiconductores no encuentran el personal cualificado adicional que necesitan para dar respuesta al déficit de chips

Los fabricantes de semiconductores no encuentran el personal cualificado adicional que necesitan para dar respuesta al déficit de chips

Poner fin a la crisis de los semiconductores no requiere soluciones artificiosas. La única estrategia que puede dar respuesta al déficit de chips al que nos enfrentamos desde hace ya casi dos años consiste en incrementar la producción lo suficiente para satisfacer la demanda. Eso es todo. Eso sí, esta receta tiene dos ingredientes indispensables: las instalaciones en las que se fabrican los circuitos integrados y el personal especializado que interviene en su producción. Y ambos recursos escasean.

Sabemos que hacen falta más fábricas de semiconductores desde hace muchos meses, pero lo que no sabíamos es que las empresas que los producen también están teniendo dificultades para encontrar el personal técnico que necesitan para incrementar la producción. Y, dado el contexto en el que nos encontramos, es muy grave. El diario The Wall Street Journal ha recogido varias declaraciones en las que algunos ejecutivos de la industria de los circuitos integrados ponen el foco de atención en este problema.

Solo en Estados Unidos la industria de los semiconductores necesitará contratar de aquí a 2025 a entre 70 000 y 90 000 trabajadores adicionales

«Estamos sumidos en una guerra en busca de talento», ha asegurado Jim Koonmen, vicepresidente de ASML, que es la compañía de Países Bajos participada por Philips que diseña y fabrica los equipos fotolitográficos que utilizan la mayor parte de los fabricantes de semiconductores. Las declaraciones de Ann Kelleher, vicepresidenta de Intel, apuntan en esta misma dirección:

«Las competencias que demanda la industria de los semiconductores para continuar creciendo se extienden desde los profesionales involucrados en la construcción de los edificios hasta los investigadores que llevan a cabo las innovaciones frontera». Además, las cifras que refleja un informe elaborado por Eightfold.ai, que es una empresa dedicado a la gestión de talento, avalan las declaraciones de estos ejecutivos.

Y es que según sus previsiones solo en Estados Unidos la industria de los semiconductores necesitará contratar de aquí a 2025 a entre 70 000 y 90 000 trabajadores adicionales para hacer posible el crecimiento que requiere la demanda en aumento de chips. En Taiwán, que actualmente es el centro neurálgico mundial de la fabricación de circuitos integrados, el panorama es muy similar. De hecho, el déficit medio mensual de trabajadores especializados que ya tiene esta industria en este país asiático es aproximadamente de 27 700 empleados.

Resolver este problema no parece pan comido, sobre todo si nos ceñimos a los puestos técnicos que requieren una alta cualificación. Formarse para operar los equipos fotolitográficos de las fábricas o para investigar y desarrollar nuevas tecnologías de semiconductores, entre otras áreas, no es algo que pueda hacerse en un suspiro. Eso sí, de todo esto podemos sacar un aprendizaje valioso: estudiar física, ingeniería electrónica o ingeniería industrial, entre otras carreras de carácter científico-técnico, es una apuesta segura para cualquier persona que quiera desarrollar su futuro profesional en esta industria.

Más desafíos: en poner a punto una nueva fábrica se tarda al menos cuatro años

Las fábricas de semiconductores en actividad trabajan desde hace meses al límite de su capacidad de producción. Y aun así no han conseguido ni por asomo dar respuesta a la demanda. En este contexto solo hay una opción: construir más fábricas de chips y ponerlas en marcha tan pronto como sea posible. Pero, de nuevo, tropezamos con un problema, y este es insalvable.

«Una fábrica de chips de vanguardia tarda no menos de cuatro años en estar plenamente operativa»

Según Ignacio Mártil de la Plaza, catedrático de Electrónica en la Universidad Complutense de Madrid y un experto en semiconductores y energía solar fotovoltaica, «una fábrica de chips de vanguardia tarda no menos de cuatro años en estar plenamente operativa». Es evidente que, además del tiempo que requiere la construcción del edificio, es imprescindible instalar en él los carísimos y complejos equipos fotolitográficos que intervienen en la producción de los circuitos integrados.

La previsión más optimista acerca del fin de la crisis por el momento nos la ha ofrecido Pat Gelsinger, el director general de Intel. Este ejecutivo vaticinó a finales del pasado mes de abril que la enorme inversión que es necesario realizar para poner en marcha nuevas fábricas de circuitos integrados y el tiempo que es preciso invertir en este proceso provocarán que el déficit de chips se prolongue durante dos años más, por lo que en 2023 deberíamos presenciar el principio del final de la crisis. Crucemos los dedos.

Imagen de portada | TSMC

Vía | The Wall Street Journal

-
La noticia Los fabricantes de semiconductores no encuentran el personal cualificado adicional que necesitan para dar respuesta al déficit de chips fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

Renovar nuestro PC va a seguir siendo una odisea, aunque podemos coger carrerilla: el panorama mejorará justo cuando Intel y AMD estarán en mejor forma

Renovar nuestro PC va a seguir siendo una odisea, aunque podemos coger carrerilla: el panorama mejorará justo cuando Intel y AMD estarán en mejor forma

Vivimos malos tiempos para los entusiastas del PC. Durante el último año y medio conseguir buena parte de los componentes que necesitamos para renovar el hardware de nuestro ordenador al precio oficial marcado por los fabricantes, y, por tanto, eludiendo las garras de los especuladores, está siendo prácticamente imposible. En estas circunstancias es difícil no dejarse arrastrar por la frustración, y lo peor de todo es que nada parece indicar que el panorama vaya a mejorar a corto plazo.

Los usuarios que necesitan comprar un PC completo ya ensamblado lo tienen un poco más fácil. La mayor parte de los distribuidores y fabricantes de equipos está reservando el escaso stock disponible de algunos componentes, especialmente de tarjetas gráficas, para las máquinas que venden ensambladas, algo que dadas las circunstancias es perfectamente lícito. El problema es que quien solo necesita renovar algunos de los componentes de su ordenador lo tiene muy difícil.

Esta es la situación en la que nos ha colocado una crisis de los semiconductores que a corto plazo no parece dispuesta a darnos una tregua. Ni siquiera una pequeña. La previsión más optimista acerca de la llegada de su final nos la ha ofrecido Pat Gelsinger, el director general de Intel. Este ejecutivo vaticinó a finales del pasado mes de abril que la enorme inversión que es necesario realizar para poner en marcha nuevas fábricas de circuitos integrados y el tiempo que es preciso invertir en este proceso provocarán que el déficit de chips se prolongue durante dos años más.

Según Pat Gelsinger, el director general de Intel, la crisis se prolongará durante todo 2022, y posiblemente el panorama mejorará en 2023

Estas declaraciones nos invitan a asumir que la crisis se prolongará durante todo 2022, y posiblemente el panorama comenzará a mejorar ligeramente en 2023. Por el momento ninguno de los altos cargos de las compañías que fabrican circuitos integrados se ha atrevido a vaticinar con precisión cuándo conseguirán poner fin al desequilibrio que nos ha colocado en esta situación, pero de sus declaraciones se desprende que el déficit dará sus últimos coletazos en 2024.

Esto es lo que hay, y a los usuarios, desafortunadamente, no nos queda más remedio que asumirlo. En esta coyuntura sin duda es preferible extender en la medida de lo posible la vida de los componentes actuales de nuestro PC y mirar hacia el futuro con la intención de renovarlo tan pronto como el mercado del hardware vuelva a su cauce. Intel y AMD ya nos han dado algunas pistas acerca de los microprocesadores que colocarán en las tiendas a finales de 2022 y a lo largo de 2023. Pintan realmente bien, así que os proponemos echar un vistazo a lo que sabemos de ellos. Quizá así podamos mantener la ilusión con la esperanza de que cuando lleguen todo esto haya quedado atrás. O, al menos, esté a punto de hacerlo.

AMD ilusiona con Zen 4, e Intel está decidida a ponerse las pilas con su fotolitografía

A principios del pasado mes de noviembre Lisa Su, la directora general de AMD, dio a conocer algunas de las características que tendrán los procesadores con microarquitectura Zen 4 que llegarán durante 2022 y 2023. Los chips EPYC 'Genoa' y EPYC 'Bergamo' de los que habló en ese evento estarán destinados a las estaciones de trabajo y los equipos para centros de datos, pero compartirán las características esenciales de su microarquitectura con los procesadores con nombre en código 'Raphael', que posiblemente serán los primeros chips Zen 4 destinados a nuestros PC, y que podrían llegar a finales de 2022.

Los primeros procesadores Ryzen con microarquitectura Zen 4, 'Raphael', posiblemente llegarán a finales de 2022. Y prometen

Los procesadores 'Genoa' incorporarán hasta 96 núcleos, estarán fabricados utilizando la fotolitografía de 5 nm de TSMC y llegarán a lo largo de 2022. Los chips 'Bergamo' tendrán hasta 128 núcleos y también estarán producidos con tecnología de integración de 5 nm, pero incorporarán unos núcleos Zen 4 ligeramente diferentes a los de 'Genoa', conocidos como Zen 4c. Al parecer estos núcleos estarán optimizados para procesar aplicaciones en la nube que demandan un alto nivel de paralelismo. Los procesadores 'Bergamo' con microarquitectura Zen 4c llegarán en 2023.

Y, por último, como he mencionado más arriba, las primeras CPU Ryzen con microarquitectura Zen 4, conocidas por el nombre en código 'Raphael', posiblemente llegarán a finales de 2022. Incorporarán hasta 16 núcleos, serán capaces de procesar simultáneamente un máximo de 32 hilos de ejecución (threads), y, al igual que 'Genoa' y 'Bergamo', convivirán con módulos de memoria DDR5 e implementarán la interfaz PCI Express 5.0, dos tecnologías que ya nos proponen los chips Intel Core de 12ª generación con microarquitectura Alder Lake-S.

Intelroadmaplitografia

Vamos ahora con Intel. Nuestro análisis de los procesadores Intel Core i9-12900K y Core i5-12600K nos demostró que estos chips tienen un rendimiento espectacular. Sus núcleos de alta productividad merecen una mención especial porque son, objetivamente, unos auténticos devoradores de hilos de ejecución. Sin embargo, también tienen dos talones de Aquiles: su elevado consumo y su alta capacidad de disipación de energía térmica cuando la carga a la que se les somete es máxima.

Intel planea iniciar la fabricación de chips con fotolitografía de 20 ángstroms (2 nm) en 2024

Este comportamiento refleja con claridad que estos procesadores se beneficiarían muchísimo de una tecnología de integración más avanzada que aquella con la que están siendo fabricados, que, según Intel, es equiparable al nodo de 7 nm de TSMC o Samsung. Y esta compañía parece estar poniendo toda la carne en el asador para resolver este hándicap.

De hecho, en el roadmap que publicamos encima de estas líneas podemos ver que Intel espera iniciar la producción de chips con fotolitografía Intel 3 durante la segunda mitad de 2023. Y, lo que es si cabe más sorprendente, en 2024 planea tener lista su litografía de 20 ángstroms (equivalente a 2 nm). No obstante, esto no es todo.

También asegura que durante ese mismo año comenzará a producir chips utilizando la arquitectura de transistores RibbonFET, que está llamada a reemplazar a la actual FinFET. No suena nada mal. Crucemos los dedos para que tanto Intel como AMD cumplan lo que nos han prometido, y, sobre todo, para que en 2023 seamos testigos, por fin, del final de la crisis de los semiconductores.

Imagen de portada | Martin Lopez

-
La noticia Renovar nuestro PC va a seguir siendo una odisea, aunque podemos coger carrerilla: el panorama mejorará justo cuando Intel y AMD estarán en mejor forma fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

Ni microLED ni 8K: lo último en tecnología es un televisor que nos transmite sabores si chupamos la pantalla

Ni microLED ni 8K: lo último en tecnología es un televisor que nos transmite sabores si chupamos la pantalla

No estamos bromeando en absoluto. Un imaginativo profesor japonés llamado Homei Miyashita, que da clase en la Universidad de Meiji (es una de las más prestigiosas de Japón), ha ideado un sorprendente televisor que nos invita a chupar la pantalla para saborear cualquier objeto que aparezca en ella. No importa cuál es su sabor en el mundo real; su dispositivo es, según él, capaz de emularlo con mucha precisión.

Para hacer posible este efecto en su interior contiene diez recipientes, de manera que cada uno de ellos almacena un líquido cuya composición recrea un sabor fundamental (salado, dulce, picante, amargo, ácido, etc.). Mezclando con mucha precisión el contenido de algunos de estos recipientes es posible recrear un abanico muy amplio de sabores, lo que, en teoría, permite a este dispositivo emular la mayor parte de los platos y las bebidas que consumimos habitualmente.

Para identificar qué sabor tiene un alimento, una bebida o un plato en particular este investigador utiliza una batería de sensores, de modo que la información que le entregan después de efectuar el análisis le permite determinar en qué proporción deberá mezclar la máquina el líquido de los recipientes que contiene en su interior para recrear ese sabor en particular.

Miyashita ha pensado en todo; también en la higiene que requiere la pandemia actual

En tiempos de COVID-19 como los que vivimos desde hace ya dos años no parece ser una buena idea que varias personas chupen una pantalla, pero, de nuevo, este profesor ha tenido una idea ingeniosa que le ha permitido resolver este reto con éxito: el contenido de cada uno de los recipientes que alberga un sabor fundamental se aplica en forma de aerosol sobre una fina película de un material transparente que puede retener la mezcla de sabores.

Después la máquina coloca esta lámina sobre la pantalla y... ¡listo! La higiene ya no es un problema. Una vez que una persona ha chupado el material transparente que recubre la pantalla se renueva completamente para que otra persona pueda degustar el mismo u otro sabor sin que esta operación comprometa su salud. Desde luego la solución es ingeniosa, y, sobre todo, parece perfectamente compatible con las personas más escrupulosas.

Una vez que una persona ha chupado el material transparente que recubre la pantalla se renueva completamente para que otra persona pueda degustar el mismo u otro sabor

En cualquier caso ¿qué aplicaciones tiene este dispositivo tan peculiar? Su creador propone varios escenarios de uso diferentes en los que parece encajar bastante bien. Se puede utilizar en un restaurante para probar el sabor de un plato antes de pedirlo, para degustar en nuestra propia casa sabores que están siendo preparados en cualquier otro lugar del planeta, para catar vinos y otras bebidas, para formar a distancia a cocineros y sumilleres, e, incluso, para implementar juegos en los que las personas que participan tienen que adivinar a qué alimento pertenece el sabor que están probando.

Homei Miyashita ha tardado un año en diseñar y fabricar el primer prototipo de esta máquina, pero asegura que la versión comercial podría llegar a las tiendas con un precio muy razonable: 875 dólares (773 euros aproximadamente). Quién sabe, quizá no tardemos en toparnos con ella en algún restaurante europeo para ayudarnos a encontrar el plato que nos apetece disfrutar sin arriesgar lo más mínimo. Incluso cabe la posibilidad de que podamos tener una versión compacta en nuestra propia casa. Todo es posible.

Vía | Reuters

-
La noticia Ni microLED ni 8K: lo último en tecnología es un televisor que nos transmite sabores si chupamos la pantalla fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

Esto sí es violencia cósmica: la Estación Espacial ha identificado un pulso electromagnético con la energía emitida por el Sol en 100 000 años

Esto sí es violencia cósmica: la Estación Espacial ha identificado un pulso electromagnético con la energía emitida por el Sol en 100 000 años

La protagonista de este artículo es una estrella de neutrones, pero no una cualquiera; se trata, ni más ni menos, que de un magnetar, que es una clase muy especial de estrella de neutrones. ASIM, uno de los instrumentos científicos instalados en la Estación Espacial Internacional, ha identificado una erupción magnética extremadamente violenta emitida por un magnetar situado aproximadamente a trece millones de años luz de la Tierra.

Sí, es una distancia enorme, pero la intensidad del destello que desencadenó este objeto fue brutal: en solo una décima de segundo emitió tanta energía como nuestro Sol en 100 000 años. Este acontecimiento fue identificado por los científicos el 15 de abril de 2020, y desde entonces un grupo de técnicos liderado por astrofísicos del CSIC lo ha estado estudiando para conocer mejor las extrañas propiedades que tienen los magnetares.

El artículo que contiene sus conclusiones ha sido publicado en Nature hace unas horas, y es una herramienta muy valiosa que nos permite adentrarnos en el interior de uno de los objetos más apasionantes que podemos encontrar en el cosmos. Los magnetares son extraños y poco frecuentes; de hecho, hasta ahora los cosmólogos apenas han conseguido identificar una treintena, y cuando entran en erupción desencadenan uno de los eventos cosmológicos más violentos presenciados por el ser humano.

Las estrellas de neutrones nacen cuando las supernovas marcan el fin del latido estelar

Antes de que indaguemos en los magnetares para saber qué son y por qué tienen unas propiedades tan extrañas merece la pena que repasemos qué es una estrella de neutrones. Al fin y al cabo, como hemos visto, un magnetar es una clase de estrella de neutrones. Cuando una estrella masiva agota su fuente de energía se produce un desequilibrio entre la contracción gravitacional, que tira de la materia de la estrella hacia dentro, hacia su interior, y la presión de radiación y de los gases, que intenta que la estrella se expanda.

Durante la etapa en la que la estrella mantiene las reservas de combustible necesarias para que las reacciones de fusión nuclear tengan lugar en su interior ambas fuerzas se contrarrestan, manteniendo a la estrella en equilibrio. Pero cuando la fuente de energía se agota la presión de radiación y de los gases se detiene, y la contracción gravitacional, que no puede seguir siendo contrarrestada, provoca el colapso de la estrella. En ese instante su núcleo de hierro se contrae de forma abrupta, y las capas superiores de material caen sobre él, rebotando y saliendo despedidas con una gigantesca energía hacia el exterior. Acaba de producirse una supernova.

Si os apetece indagar con mucha más profundidad en las diferentes fases por las que discurre la vida de una estrella os sugiero que echéis un vistazo al artículo que enlazo aquí mismo. En él explicamos estos procesos con más detalle. Sigamos adelante. El núcleo de hierro de la estrella no sale indemne de este evento. La enorme presión a la que es sometido provoca cambios muy importantes en su estructura, por lo que deja de estar conformado por materia ordinaria, con sus protones, neutrones y electrones, y pasa a estar compuesto por lo que los astrofísicos llaman materia degenerada.

La contracción gravitacional provoca cambios muy severos en la estructura del núcleo de hierro, que pasa a estar constituido por materia degenerada

Si el objeto que queda después de que la estrella haya expulsado hacia el medio estelar sus capas externas bajo la forma de una supernova tiene más de 1,44 masas solares, un valor conocido como límite de Chandrasekhar en honor del astrofísico indio que lo calculó, el remanente estelar colapsará una vez más para dar lugar a una estrella de neutrones. Unos instantes antes de que se produzca la supernova el núcleo de hierro de nuestra estrella masiva se ve sometido a la enorme presión de las capas superiores de material, y también a la acción incesante de la contracción gravitacional.

Estos procesos desencadenan un mecanismo de naturaleza cuántica que conlleva cambios muy importantes en la estructura de la materia, provocando que el hierro del núcleo estelar, que está sometido a una temperatura muy alta, se fotodesintegre bajo la acción de los fotones de alta energía, que constituyen una forma de transferencia de energía conocida como radiación gamma.

Estrellasecuenciaprincipal

Durante la fase conocida como secuencia principal la estrella obtiene su energía de la fusión de los núcleos de hidrógeno.

Estos fotones de altísima energía consiguen desintegrar el hierro y el helio acumulados en el núcleo de la estrella, dando lugar a la producción de partículas alfa, que son núcleos de helio que carecen de su envoltura de electrones, y que, por tanto, tienen carga eléctrica positiva, y neutrones. Además tiene lugar un mecanismo conocido como captura beta en el que no vamos a indagar para no complicar excesivamente el artículo. Lo importante es que sepamos que provoca que los electrones de los átomos de hierro interaccionen con los protones del núcleo, neutralizando su carga positiva y dando lugar a la producción de más neutrones.

Un fragmento de un centímetro cúbico de una estrella de neutrones pesa aproximadamente mil millones de toneladas

Durante este proceso la materia inicial, que estaba constituida por protones, neutrones y electrones, pasa a estar conformada únicamente por neutrones porque, como acabamos de ver, los electrones y los protones han interaccionado mediante captura electrónica para dar lugar a más neutrones. A partir de ese momento la estrella ya no está constituida por materia ordinaria; se ha transformado en una especie de enorme cristal conformado solo por neutrones.

Y esto nos lleva a la que sin duda es la característica más sorprendente de las estrellas de neutrones: su densidad. El radio medio de uno de estos objetos es de aproximadamente diez kilómetros, pero su masa es enorme. Comparadas, por ejemplo, con las estrellas que se encuentran en la secuencia principal, o, incluso, con las enanas blancas, las estrellas de neutrones son muy pequeñas, y acumular tanta masa en tan poco espacio provoca que un fragmento de un centímetro cúbico de una estrella de neutrones pese aproximadamente, ni más ni menos, mil millones de toneladas.

Qué es un magnetar y qué lo hace tan especial

Ya sabemos con cierta precisión qué es una estrella de neutrones, por lo que podemos indagar en los magnetares con menos esfuerzo y mayores garantías de éxito. Estas magnetoestrellas no son otra cosa que una clase peculiar de estrellas de neutrones capaces de expulsar durante un instante breve de tiempo una gigantesca cantidad de energía en forma de rayos gamma y rayos X. Como hemos visto al principio de este artículo, el magnetar que ha identificado el instrumento ASIM de la Estación Espacial emitió en una décima de segundo tanta energía como nuestro Sol en 100 000 años.

Lo que han conseguido los investigadores del Instituto de Astrofísica de Andalucía, que pertenece al CSIC, durante el análisis minucioso de los datos recogidos por ASIM es medir las oscilaciones del brillo del magnetar durante los instantes de mayor proyección de energía. De esta forma han conseguido entender un poco mejor qué provoca estas colosales erupciones energéticas. Aún queda mucho por hacer para comprender este mecanismo en toda su extensión, pero estos astrofísicos creen que su origen reside en las inestabilidades de su magnetosfera, que son algo así como unos pequeños terremotos que tienen lugar en la corteza de la estrella.

Las ondas de Alfvén rebotan en la corteza de la estrella de neutrones e interactúan entre ellas, provocando la emisión de grandes cantidades de energía

Esta capa tiene aproximadamente un kilómetro de grosor, y en ella se originan unas oscilaciones conocidas como ondas de Alfvén que también están presentes en el Sol. Estas ondas rebotan en la corteza de la estrella e interactúan entre ellas, provocando la emisión de grandes cantidades de energía. La información nueva que arroja este estudio acerca de las tensiones magnéticas que se dan en el interior y la periferia de las estrellas de neutrones ha sido posible gracias a la alta calidad de los datos que ha recogido el instrumento ASIM.

No obstante, Javier Pascual, uno de los investigadores del Instituto de Astrofísica de Andalucía que ha participado en el estudio, nos explica lo complicado que ha sido el análisis de los datos: «La detección de oscilaciones ha supuesto todo un reto desde el punto de vista del análisis de la señal. La dificultad radica en su brevedad, cuya amplitud decae rápidamente y queda embebida en el ruido de fondo. Resulta difícil distinguir la señal del ruido. Debemos este logro a las sofisticadas técnicas de análisis de datos que se han aplicado de manera independiente por los distintos miembros del equipo».

Gracias al esfuerzo de estos astrofísicos españoles, y también al de muchos otros investigadores diseminados por todo el planeta, hoy conocemos un poco mejor las estrellas de neutrones que ayer. Y sí, como hemos comprobado a lo largo de este artículo, son uno de los objetos más asombrosos de cuantos podemos observar en el universo del que formamos parte. Aún queda mucho trabajo por hacer para entender mejor tanto este como otros fenómenos de los que apenas sabemos un puñado de cosas, pero podemos estar seguros de que el esfuerzo merece la pena.

Imágenes | NASA Goddard Space Flight Center

Más información | CSIC | Nature

-
La noticia Esto sí es violencia cósmica: la Estación Espacial ha identificado un pulso electromagnético con la energía emitida por el Sol en 100 000 años fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

Encontrar un exoplaneta es dificilísimo, y los astrónomos ya han dado con más de 4800: así es como están haciendo posible lo casi imposible

Encontrar un exoplaneta es dificilísimo, y los astrónomos ya han dado con más de 4800: así es como están haciendo posible lo casi imposible

4827. Esta es la cantidad exacta de planetas extrasolares que, según la NASA, ya han sido rigurosamente identificados por los astrónomos hasta ahora. No obstante, a pesar de la enorme dificultad que conlleva identificar unos objetos que no emiten luz y que se encuentran situados a unas distancias casi inimaginables de nosotros, esta cifra no deja de incrementarse.

El éxito que están cosechando los astrofísicos en el ámbito de la búsqueda de exoplanetas es la consecuencia de un tesón infatigable, un desarrollo científico muy notable en el que la inteligencia artificial juega un rol esencial, y, sobre todo, de un ingenio desbordante.

Dar con un planeta fuera de nuestro sistema solar es como encontrar una aguja en un pajar, pero los cosmólogos han ideado cinco estrategias extraordinariamente ingeniosas que les están permitiendo encontrarlos.

Los cosmólogos han ideado cinco estrategias extraordinariamente ingeniosas que les están permitiendo encontrar exoplanetas. Ya van más de 4800

En este artículo os proponemos indagar de la forma más didáctica posible en ellas, aunque antes de hacerlo es importante que repasemos que un planeta extrasolar, o un exoplaneta (son dos formas ligeramente diferentes de identificar el mismo tipo de objetos), no es más que un planeta que está situado fuera de nuestro sistema solar. Eso es todo.

Eso sí, los científicos creen que la mayor parte de ellos no reúne las condiciones adecuadas para que puedan ser habitados por el ser humano. Aun así, dar con uno solo de ellos es una proeza científica, y, sobre todo, una sorprendente muestra de ingenio, como estamos a punto de comprobar.

1ª estrategia: la velocidad radial

Las estrellas suelen acumular más masa que los planetas que orbitan en torno a ellas, pero esto no las hace inmunes a la interacción gravitatoria con los demás objetos. Durante su desplazamiento alrededor de una estrella los planetas suelen provocar que esta se tambalee de una forma más o menos pronunciada, dependiendo, como podemos intuir, de la masa de ambos objetos y la distancia que los separa.

Lo curioso es que los astrónomos han ideado un método muy ingenioso que les permite identificar la interacción gravitatoria entre una estrella y un candidato a planeta aunque este último no sea visible utilizando otros procedimientos. Cuando la estrella vibra, aunque sea mínimamente, debido a la interacción gravitatoria con el planeta, la longitud de onda de la luz que emite cambia sutilmente.

Lo que hacen los científicos es identificar estas variaciones en la luz que recogen sus instrumentos para confirmar que, efectivamente, uno o varios planetas están orbitando alrededor de esa estrella. Hasta la fecha este método ha permitido a los investigadores identificar 899 exoplanetas.

Velocidadradial

2ª estrategia: el periodo de tránsito

Cuando un planeta se interpone entre nosotros y una estrella enmascara una parte de su luz. Durante su viaje alrededor de la estrella habrá momentos en los que ocultará una cierta cantidad de luz (justo cuando se interpone entre la estrella y el observador), y momentos en los que no lo hará debido a que estará circulando por la sección de la órbita en la que no se interpone.

Si la luz que recibimos de una estrella varía periódicamente es posible que un planeta esté orbitando en torno a ella

Lo que hacen los astrónomos para identificar que uno o varios planetas están orbitando alrededor de la estrella que están observando es medir la cantidad de luz que reciben. Si esta cifra varía periódicamente y de una forma predecible es probable que un planeta se esté interponiendo entre nosotros y la estrella.

Este método resulta útil incluso para estimar el volumen que puede tener el planeta. No obstante, no siempre es posible aplicarlo; cuando el plano que describe la órbita del planeta es aproximadamente perpendicular al plano desde el que observamos la estrella desde la Tierrano es posible identificar la luz que enmascara. En este caso es necesario utilizar otro método de observación. Aun así, este procedimiento es muy fructífero; de hecho, hasta ahora ha permitido a los astrónomos identificar 3752 planetas extrasolares.

Transito

3ª estrategia: la toma de imágenes directa

En ocasiones, aunque es algo poco frecuente, los astrónomos consiguen recoger directamente la imagen de un planeta. Lo que propone este procedimiento de identificación de exoplanetas es enmascarar expresamente la mayor parte de la luz que emite la estrella directamente hacia nosotros para evitar que su brillo nos deslumbre, impidiéndonos ver el planeta.

Lo que propone este procedimiento es enmascarar expresamente la mayor parte de la luz que emite la estrella directamente hacia nosotros para evitar que su brillo nos deslumbre

Al hacerlo cabe la posibilidad de que podamos percibir una parte de la luz de la estrella reflejada por el planeta. Cuando se dan estas circunstancias es factible ver este último objeto de forma directa, aunque por el momento los investigadores tan solo han identificado 55 planetas extrasolares utilizando este método.

Tomadirecta

4ª estrategia: las microlentes gravitacionales

«El espacio-tiempo le dice a la materia cómo moverse, y la materia le dice al espacio-tiempo cómo curvarse». Esta frase del físico teórico estadounidense John Archibald Wheeler refleja con claridad cómo se manifiesta la interacción entre el continuo espacio-tiempo y la materia. Esta última actúa sobre él curvándolo, de manera que ni siquiera la luz puede permanecer indemne a esta deformación del continuo por el que viaja.

Si un planeta se interpone periódicamente entre nosotros y una estrella distante habrá periodos en los que recibiremos directamente la luz que emite la estrella sin que haya sufrido ningún tipo de alteración, y momentos en los que la deformación del espacio-tiempo introducida por el planeta altere la trayectoria que sigue la luz.

Este fenómeno astronómico se conoce como microlente gravitacional, y los astrofísicos son capaces de identificarlo debido a que cuando se produce reciben una imagen ligeramente distorsionada de la estrella, brindándoles la sensación de que ocupa dos posiciones diferentes en el espacio. Hasta la fecha este procedimiento ha permitido a los investigadores identificar 120 exoplanetas.

Microlentegravitacional

5ª estrategia: astrometría

La última estrategia a la que están recurriendo los astrónomos para identificar exoplanetas se apoya en el mismo principio al que recurre el primer método que hemos explorado en este artículo: la interacción gravitatoria que se produce entre las estrellas y los planetas que orbitan en torno a ellas.

En ocasiones la interacción gravitatoria con un planeta cercano provoca que la distancia entre la estrella en observación y sus vecinas varíe ligerísimamente de forma periódica

La diferencia que existe entre la primera y la quinta estrategia es que en esta última los astrofísicos recurren a técnicas de astrometría para medir la distancia relativa que existe entre la estrella que están observando y las estrellas de su vecindario.

En ocasiones la interacción gravitatoria con un planeta cercano provoca que la distancia entre la estrella en observación y sus vecinas varíe ligerísimamente de forma periódica, de modo que este fenómeno puede delatar la presencia de un objeto que ha sido capturado por su campo gravitatorio.

Este procedimiento requiere llevar a cabo medidas muy precisas que solo son posibles efectuando cálculos muy complejos, por lo que por el momento solo ha permitido a los investigadores localizar un planeta extrasolar.

Astrometria

Imagen de portada | Miriam Espacio

Más información | NASA

-
La noticia Encontrar un exoplaneta es dificilísimo, y los astrónomos ya han dado con más de 4800: así es como están haciendo posible lo casi imposible fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

Unreal Engine 5 tiene una baza colosal para sorprendernos con esos gráficos tan impactantes: Lumen, su motor de iluminación global

Unreal Engine 5 tiene una baza colosal para sorprendernos con esos gráficos tan impactantes: Lumen, su motor de iluminación global

El ray tracing (trazado de rayos) ha llegado a nuestras vidas para quedarse. Cuando NVIDIA lanzó las primeras tarjetas gráficas de la familia GeForce RTX 20 en 2018 nos vimos obligados a moderar nuestras expectativas debido al profundo y negativo impacto que esta exigente técnica de renderizado tiene en el rendimiento. Pero desde entonces han pasado tres años, y el panorama ha cambiado. Mucho, y, sobre todo, a mejor.

Las tarjetas gráficas GeForce RTX 30 actuales han conseguido moderar el impacto que tiene el trazado de rayos en su rendimiento global, especialmente al combinar esta técnica de renderizado con la reconstrucción de la imagen mediante DLSS 2.0. Y NVIDIA ya no está sola en este camino; AMD también ha implementado soporte para ray tracing en sus tarjetas gráficas de la familia Radeon RX 6000, aunque con una filosofía diferente a la utilizada por NVIDIA.

El sorprendente acabado gráfico de 'The Matrix Awakens' se debe en gran medida a lo bien que resuelve Lumen la iluminación global de forma dinámica

Además, el hecho de que PlayStation 5 y Xbox Series X y S incorporen una lógica gráfica afianzada sobre la arquitectura RDNA 2 de AMD también permite a estas consolas de videojuegos poner sobre la mesa su propio trazado de rayos, contribuyendo de forma decisiva a su popularización. Este es, en definitiva, el contexto en el que ha llegado hace unos días la demo 'The Matrix Awakens', una prueba técnica que a muchos aficionados a los juegos nos ha dejado boquiabiertos por su fantástica calidad gráfica.

Esta demostración ha sido programada utilizando el motor gráfico Unreal Engine 5, que sin duda será el que utilizarán en el futuro muchos juegos de nueva generación. Y sí, es espectacular. En gran medida su sorprendente acabado gráfico se debe a lo bien que resuelve este motor la iluminación global de forma dinámica, una responsabilidad que ha asumido Lumen, su sofisticado motor de iluminación.

Gracias a él las imágenes de esta demo técnica tienen en algunos momentos un realismo impactante, por lo que os proponemos indagar en el que sin duda es uno de los componentes estrella de Unreal Engine 5.

Así se las gasta Lumen para resolver la iluminación y los reflejos con tanto realismo

La descripción de este motor de iluminación que nos propone Epic Games es toda una declaración de intenciones: «Lumen es un sistema completamente nuevo de iluminación global dinámica y reflejos integrado en Unreal Engine 5 y diseñado para las consolas de nueva generación».

La alusión directa a PlayStation 5, Xbox Series X y S responde a un hecho evidente: su hardware está preparado para lidiar con el ray tracing, pero sufren más al utilizarlo que un PC equipado con una GeForce RTX 30 o una Radeon RX 6000 de gama media o alta. De ahí que este motor ante todo persiga ayudar a las nuevas consolas a lidiar con el trazado de rayos.

Para resolver la iluminación global y los reflejos de una forma realista, pero, al mismo tiempo, infligiendo al hardware un estrés lo más moderado posible, Lumen utiliza varios métodos de trazado de rayos diferentes. Lo primero que hace es, a grandes rasgos, analizar la escena que va a ser renderizada para identificar las superficies de los objetos y almacenar los parámetros que definen sus características en una memoria intermedia llamada Surface Cache.

De alguna forma esta primera operación permite al motor gráfico familiarizarse con la iluminación global que requiere esa escena, prestando especial atención a los puntos de intersección entre cada uno de los rayos y los objetos de la escena en 3D.

Unrealengine5 2

Justo a continuación Lumen identifica cómo debe reflejar la luz cada uno de los objetos de la escena desde varios ángulos diferentes y teniendo muy presente el material del que está hecho. Y, después, calcula la iluminación directa e indirecta que debe actuar sobre cada una de esas superficies.

A partir de ese momento recurre a un algoritmo conocido como Screen Space Tracing que, a grandes rasgos, calcula la iluminación difusa de la escena y la iluminación directa que incide sobre los objetos, pero teniendo en cuenta únicamente las superficies visibles gracias a la información almacenada en el búfer Z o búfer de profundidad. De esta forma es posible reducir significativamente el esfuerzo computacional que debe realizar el hardware gráfico.

Unrealengine5 3

Lumen puede abordar el trazado de rayos de dos formas diferentes: por software y por hardware. La primera opción no requiere hardware dedicado específicamente al ray tracing, por lo que funciona en un abanico de plataformas amplio. Sin embargo, el trazado de rayos mediante hardware, como podemos intuir, necesita que la lógica gráfica incorpore las unidades funcionales necesarias para llevar a cabo este procedimiento de renderizado.

La ejecución de esta técnica de iluminación mediante software conlleva limitaciones importantes en lo que se refiere a la geometría de los objetos de la escena y el material del que están hechos, por lo que el mejor resultado siempre lo obtendremos utilizando el trazado de rayos mediante hardware.

Unrealengine5 4

El trazado de rayos por hardware implementado en Lumen brinda a los desarrolladores de videojuegos un abanico de geometrías mucho más amplio que el que pone en sus manos el renderizado mediante software, por lo que casi siempre nos ofrecerá un acabado visual más realista. Eso sí, el estrés que impone al hardware es considerable.

Un detalle interesante para concluir: en las imágenes que ilustran este artículo podemos ver la credibilidad con la que Lumen recrea los diferentes materiales utilizados en cada escena y la forma en que reflejan la luz. De hecho, algunos elementos son casi indistinguibles de los que podemos encontrar en una fotografía.

Unrealengine5 5

Más información | Epic Games

-
La noticia Unreal Engine 5 tiene una baza colosal para sorprendernos con esos gráficos tan impactantes: Lumen, su motor de iluminación global fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

Unreal Engine 5 tiene una baza colosal para sorprendernos con esos gráficos tan impactantes: Lumen, su motor de iluminación global

Unreal Engine 5 tiene una baza colosal para sorprendernos con esos gráficos tan impactantes: Lumen, su motor de iluminación global

El ray tracing (trazado de rayos) ha llegado a nuestras vidas para quedarse. Cuando NVIDIA lanzó las primeras tarjetas gráficas de la familia GeForce RTX 20 en 2018 nos vimos obligados a moderar nuestras expectativas debido al profundo y negativo impacto que esta exigente técnica de renderizado tiene en el rendimiento. Pero desde entonces han pasado tres años, y el panorama ha cambiado. Mucho, y, sobre todo, a mejor.

Las tarjetas gráficas GeForce RTX 30 actuales han conseguido moderar el impacto que tiene el trazado de rayos en su rendimiento global, especialmente al combinar esta técnica de renderizado con la reconstrucción de la imagen mediante DLSS 2.0. Y NVIDIA ya no está sola en este camino; AMD también ha implementado soporte para ray tracing en sus tarjetas gráficas de la familia Radeon RX 6000, aunque con una filosofía diferente a la utilizada por NVIDIA.

El sorprendente acabado gráfico de 'The Matrix Awakens' se debe en gran medida a lo bien que resuelve Lumen la iluminación global de forma dinámica

Además, el hecho de que PlayStation 5 y Xbox Series X y S incorporen una lógica gráfica afianzada sobre la arquitectura RDNA 2 de AMD también permite a estas consolas de videojuegos poner sobre la mesa su propio trazado de rayos, contribuyendo de forma decisiva a su popularización. Este es, en definitiva, el contexto en el que ha llegado hace unos días la demo 'The Matrix Awakens', una prueba técnica que a muchos aficionados a los juegos nos ha dejado boquiabiertos por su fantástica calidad gráfica.

Esta demostración ha sido programada utilizando el motor gráfico Unreal Engine 5, que sin duda será el que utilizarán en el futuro muchos juegos de nueva generación. Y sí, es espectacular. En gran medida su sorprendente acabado gráfico se debe a lo bien que resuelve este motor la iluminación global de forma dinámica, una responsabilidad que ha asumido Lumen, su sofisticado motor de iluminación.

Gracias a él las imágenes de esta demo técnica tienen en algunos momentos un realismo impactante, por lo que os proponemos indagar en el que sin duda es uno de los componentes estrella de Unreal Engine 5.

Así se las gasta Lumen para resolver la iluminación y los reflejos con tanto realismo

La descripción de este motor de iluminación que nos propone Epic Games es toda una declaración de intenciones: «Lumen es un sistema completamente nuevo de iluminación global dinámica y reflejos integrado en Unreal Engine 5 y diseñado para las consolas de nueva generación».

La alusión directa a PlayStation 5, Xbox Series X y S responde a un hecho evidente: su hardware está preparado para lidiar con el ray tracing, pero sufren más al utilizarlo que un PC equipado con una GeForce RTX 30 o una Radeon RX 6000 de gama media o alta. De ahí que este motor ante todo persiga ayudar a las nuevas consolas a lidiar con el trazado de rayos.

Para resolver la iluminación global y los reflejos de una forma realista, pero, al mismo tiempo, infligiendo al hardware un estrés lo más moderado posible, Lumen utiliza varios métodos de trazado de rayos diferentes. Lo primero que hace es, a grandes rasgos, analizar la escena que va a ser renderizada para identificar las superficies de los objetos y almacenar los parámetros que definen sus características en una memoria intermedia llamada Surface Cache.

De alguna forma esta primera operación permite al motor gráfico familiarizarse con la iluminación global que requiere esa escena, prestando especial atención a los puntos de intersección entre cada uno de los rayos y los objetos de la escena en 3D.

Unrealengine5 2

Justo a continuación Lumen identifica cómo debe reflejar la luz cada uno de los objetos de la escena desde varios ángulos diferentes y teniendo muy presente el material del que está hecho. Y, después, calcula la iluminación directa e indirecta que debe actuar sobre cada una de esas superficies.

A partir de ese momento recurre a un algoritmo conocido como Screen Space Tracing que, a grandes rasgos, calcula la iluminación difusa de la escena y la iluminación directa que incide sobre los objetos, pero teniendo en cuenta únicamente las superficies visibles gracias a la información almacenada en el búfer Z o búfer de profundidad. De esta forma es posible reducir significativamente el esfuerzo computacional que debe realizar el hardware gráfico.

Unrealengine5 3

Lumen puede abordar el trazado de rayos de dos formas diferentes: por software y por hardware. La primera opción no requiere hardware dedicado específicamente al ray tracing, por lo que funciona en un abanico de plataformas amplio. Sin embargo, el trazado de rayos mediante hardware, como podemos intuir, necesita que la lógica gráfica incorpore las unidades funcionales necesarias para llevar a cabo este procedimiento de renderizado.

La ejecución de esta técnica de iluminación mediante software conlleva limitaciones importantes en lo que se refiere a la geometría de los objetos de la escena y el material del que están hechos, por lo que el mejor resultado siempre lo obtendremos utilizando el trazado de rayos mediante hardware.

Unrealengine5 4

El trazado de rayos por hardware implementado en Lumen brinda a los desarrolladores de videojuegos un abanico de geometrías mucho más amplio que el que pone en sus manos el renderizado mediante software, por lo que casi siempre nos ofrecerá un acabado visual más realista. Eso sí, el estrés que impone al hardware es considerable.

Un detalle interesante para concluir: en las imágenes que ilustran este artículo podemos ver la credibilidad con la que Lumen recrea los diferentes materiales utilizados en cada escena y la forma en que reflejan la luz. De hecho, algunos elementos son casi indistinguibles de los que podemos encontrar en una fotografía.

Unrealengine5 5

Más información | Epic Games

-
La noticia Unreal Engine 5 tiene una baza colosal para sorprendernos con esos gráficos tan impactantes: Lumen, su motor de iluminación global fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

El buque nuclear chino capaz de resistir tifones extremos pone encima de la mesa la exigencia que es necesario tener en seguridad nuclear

El buque nuclear chino capaz de resistir tifones extremos pone encima de la mesa la exigencia que es necesario tener en seguridad nuclear

En China no se andan con delicadezas, y es evidente que en todo lo que tiene que ver con la seguridad vinculada a la operación de reactores nucleares es imprescindible tener la sartén bien agarrada por el mango. Este país asiático está poniendo a punto su primer buque civil equipado con un reactor nuclear modular y compacto (SMR) capaz de entregar una potencia de 60 megavatios. Estará listo en 2022 y será utilizado para dotar de electricidad, calor y agua potable a las plataformas petrolíferas alojadas en el mar del sur de China. Será una auténtica central nuclear flotante.

Los ingenieros que están participando en su diseño y construcción han llevado a cabo una simulación que persigue poner a prueba su capacidad de soportar eventos climáticos adversos. Estas pruebas han tenido lugar en un centro de investigación y diseño naval alojado en Wuhan (China), y según los técnicos que las han llevado a cabo este buque será capaz de soportar tifones extremos y mantener la operatividad bajo vientos cercanos a los 200 km/h, oleaje de gran energía y corrientes de alta intensidad.

Aunque es imposible reducir el riesgo de accidente a cero, en el ámbito de la operación de reactores nucleares es imprescindible poner todo el desarrollo tecnológico que hemos alcanzado al servicio de la seguridad

Aunque es imposible reducir el riesgo de accidente a cero, en el ámbito de la operación de reactores nucleares no se debe aceptar ningún compromiso. Es imprescindible poner todo el desarrollo tecnológico que hemos alcanzado al servicio de la seguridad, de modo que los ingenieros que han diseñado este buque chino aseguran que han puesto toda la carne en el asador para impedir que vuelque incluso aunque la climatología sea extraordinariamente adversa (un vuelco comprometería la seguridad del reactor nuclear de una forma muy seria).

De hecho, según ellos su diseño será capaz de soportar eventos climáticos extremos que se producen «una vez cada 10 000 años». Confiemos en que realmente sea así, pero no debemos pasar por alto que este no es ni mucho menos el primer buque civil que incorpora en su interior uno o varios reactores nucleares. Algunos de los países que tienen, o han tenido, navíos dotados de propulsión nuclear son Estados Unidos, Rusia, Alemania y Japón, y si nos ceñimos a los buques militares hay varios países que tienen portaaviones y submarinos dotados de propulsión nuclear, como Estados Unidos, Rusia, Francia o Reino Unido.

La seguridad de las centrales nucleares se reforzó después de Fukushima

Es comprensible que a muchas personas les preocupe la posibilidad de que alguno de los muchos buques dotados de propulsión nuclear que están operativos actualmente en el mundo tenga un accidente. El navío chino equipado con un reactor SMR al que hemos dedicado este artículo puede contribuir a incrementar este desasosiego, por lo que es un buen momento para recordar qué nos dicen los expertos. Es muy interesante todo lo que se refiere a las mejoras en seguridad introducidas en las centrales nucleares después del accidente de Fukushima, y a las que también está sometido el reactor del nuevo buque chino.

A finales de 2019 tuvimos la ocasión de entrevistar a Ignacio Araluce, físico e ingeniero nuclear que actualmente preside Foro Nuclear, una asociación que representa los intereses de la industria nuclear española. Este técnico nos explicó con bastante detalle cuál es la estrategia implementada en las centrales nucleares actuales para maximizar la seguridad durante la operación de los reactores:

«Desde el accidente de Fukushima las centrales tienen unos equipos móviles que se movilizan si fallasen los generadores»

«Todos los sistemas de la central están diseñados a partir del mismo principio de defensa en profundidad. Esto provoca que sistemas como el de refrigeración del reactor sean redundantes, por lo que si falla uno seguirá cumpliendo su función el otro, que, además, estará alimentado por una energía diferente. Y si los sistemas fallan todo el circuito primario está diseñado para que se establezca una circulación natural, de manera que haya un movimiento del agua a través del núcleo por gravedad y diferencia de temperaturas que lo vaya refrigerando».

«La central nuclear, además, tiene sus propios generadores de energía eléctrica, que son redundantes. Y desde el accidente de Fukushima las centrales tienen unos equipos móviles que se movilizan si fallasen los generadores para inyectar directamente refrigeración al combustible nuclear. Hasta aquí llega la redundancia tecnológica, pero hay otro nivel que es aún más importante: la cultura de seguridad. La formación de todas las personas que trabajan en una central nuclear es individualizada y permanente durante toda su carrera profesional», apunta Ignacio.

Otro experto que también conoce muy bien las medidas de seguridad implementadas en las centrales nucleares actuales es Alfredo García, mucho más conocido en Twitter por su alter ego @OperadorNuclear. Hablamos con él largo y tendido durante la pasada primavera, y, al igual que Ignacio Araluce, durante nuestra conversación hizo hincapié en las medidas de seguridad adicionales que han adoptado todas las centrales nucleares del planeta después del accidente de Japón en marzo de 2011:

«Tras Fukushima se reforzó la seguridad de todas las centrales nucleares del mundo, que fueron sometidas a unas pruebas de estrés muy importantes»

«Tras Fukushima se reforzó la seguridad de todas las centrales nucleares del mundo, que fueron sometidas a unas pruebas de estrés muy importantes durante las que se revisaron todos los parámetros de la central, especialmente aquellos que tenían relación con lo que había pasado en Fukushima, como su capacidad de resistir inundaciones, seísmos o apagones en la red eléctrica. Y una vez que se revisó todo eso se estandarizó en todo el mundo la incorporación de una serie de medidas para mitigar y prevenir ese tipo de accidentes. Esta estrategia se conoce como «flex», que es el apócope de flexibilidad».

La energía nuclear lleva décadas polarizando la opinión tanto de los expertos como de los ciudadanos a causa principalmente de los posibles riesgos derivados de la operación de los reactores. Y también debido a la gestión de los residuos radiactivos. Esto ha provocado que algunos países, como España o Alemania, hayan decidido apagar paulatinamente sus centrales nucleares, mientras que otros, como Estados Unidos, China, Francia o Rusia, mantendrán su apuesta por esta forma de energía en el futuro como respaldo de las fuentes renovables. El tiempo nos confirmará cuál de estas estrategias nos ofrece un resultado mejor a medio y largo plazo.

Imagen de portada | Griffin Wooldridge

Vía | South China Morning Post

-
La noticia El buque nuclear chino capaz de resistir tifones extremos pone encima de la mesa la exigencia que es necesario tener en seguridad nuclear fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

El buque nuclear chino capaz de resistir tifones extremos pone encima de la mesa la exigencia que es necesario tener en seguridad nuclear

El buque nuclear chino capaz de resistir tifones extremos pone encima de la mesa la exigencia que es necesario tener en seguridad nuclear

En China no se andan con delicadezas, y es evidente que en todo lo que tiene que ver con la seguridad vinculada a la operación de reactores nucleares es imprescindible tener la sartén bien agarrada por el mango. Este país asiático está poniendo a punto su primer buque civil equipado con un reactor nuclear modular y compacto (SMR) capaz de entregar una potencia de 60 megavatios. Estará listo en 2022 y será utilizado para dotar de electricidad, calor y agua potable a las plataformas petrolíferas alojadas en el mar del sur de China. Será una auténtica central nuclear flotante.

Los ingenieros que están participando en su diseño y construcción han llevado a cabo una simulación que persigue poner a prueba su capacidad de soportar eventos climáticos adversos. Estas pruebas han tenido lugar en un centro de investigación y diseño naval alojado en Wuhan (China), y según los técnicos que las han llevado a cabo este buque será capaz de soportar tifones extremos y mantener la operatividad bajo vientos cercanos a los 200 km/h, oleaje de gran energía y corrientes de alta intensidad.

Aunque es imposible reducir el riesgo de accidente a cero, en el ámbito de la operación de reactores nucleares es imprescindible poner todo el desarrollo tecnológico que hemos alcanzado al servicio de la seguridad

Aunque es imposible reducir el riesgo de accidente a cero, en el ámbito de la operación de reactores nucleares no se debe aceptar ningún compromiso. Es imprescindible poner todo el desarrollo tecnológico que hemos alcanzado al servicio de la seguridad, de modo que los ingenieros que han diseñado este buque chino aseguran que han puesto toda la carne en el asador para impedir que vuelque incluso aunque la climatología sea extraordinariamente adversa (un vuelco comprometería la seguridad del reactor nuclear de una forma muy seria).

De hecho, según ellos su diseño será capaz de soportar eventos climáticos extremos que se producen «una vez cada 10 000 años». Confiemos en que realmente sea así, pero no debemos pasar por alto que este no es ni mucho menos el primer buque civil que incorpora en su interior uno o varios reactores nucleares. Algunos de los países que tienen, o han tenido, navíos dotados de propulsión nuclear son Estados Unidos, Rusia, Alemania y Japón, y si nos ceñimos a los buques militares hay varios países que tienen portaaviones y submarinos dotados de propulsión nuclear, como Estados Unidos, Rusia, Francia o Reino Unido.

La seguridad de las centrales nucleares se reforzó después de Fukushima

Es comprensible que a muchas personas les preocupe la posibilidad de que alguno de los muchos buques dotados de propulsión nuclear que están operativos actualmente en el mundo tenga un accidente. El navío chino equipado con un reactor SMR al que hemos dedicado este artículo puede contribuir a incrementar este desasosiego, por lo que es un buen momento para recordar qué nos dicen los expertos. Es muy interesante todo lo que se refiere a las mejoras en seguridad introducidas en las centrales nucleares después del accidente de Fukushima, y a las que también está sometido el reactor del nuevo buque chino.

A finales de 2019 tuvimos la ocasión de entrevistar a Ignacio Araluce, físico e ingeniero nuclear que actualmente preside Foro Nuclear, una asociación que representa los intereses de la industria nuclear española. Este técnico nos explicó con bastante detalle cuál es la estrategia implementada en las centrales nucleares actuales para maximizar la seguridad durante la operación de los reactores:

«Desde el accidente de Fukushima las centrales tienen unos equipos móviles que se movilizan si fallasen los generadores»

«Todos los sistemas de la central están diseñados a partir del mismo principio de defensa en profundidad. Esto provoca que sistemas como el de refrigeración del reactor sean redundantes, por lo que si falla uno seguirá cumpliendo su función el otro, que, además, estará alimentado por una energía diferente. Y si los sistemas fallan todo el circuito primario está diseñado para que se establezca una circulación natural, de manera que haya un movimiento del agua a través del núcleo por gravedad y diferencia de temperaturas que lo vaya refrigerando».

«La central nuclear, además, tiene sus propios generadores de energía eléctrica, que son redundantes. Y desde el accidente de Fukushima las centrales tienen unos equipos móviles que se movilizan si fallasen los generadores para inyectar directamente refrigeración al combustible nuclear. Hasta aquí llega la redundancia tecnológica, pero hay otro nivel que es aún más importante: la cultura de seguridad. La formación de todas las personas que trabajan en una central nuclear es individualizada y permanente durante toda su carrera profesional», apunta Ignacio.

Otro experto que también conoce muy bien las medidas de seguridad implementadas en las centrales nucleares actuales es Alfredo García, mucho más conocido en Twitter por su alter ego @OperadorNuclear. Hablamos con él largo y tendido durante la pasada primavera, y, al igual que Ignacio Araluce, durante nuestra conversación hizo hincapié en las medidas de seguridad adicionales que han adoptado todas las centrales nucleares del planeta después del accidente de Japón en marzo de 2011:

«Tras Fukushima se reforzó la seguridad de todas las centrales nucleares del mundo, que fueron sometidas a unas pruebas de estrés muy importantes»

«Tras Fukushima se reforzó la seguridad de todas las centrales nucleares del mundo, que fueron sometidas a unas pruebas de estrés muy importantes durante las que se revisaron todos los parámetros de la central, especialmente aquellos que tenían relación con lo que había pasado en Fukushima, como su capacidad de resistir inundaciones, seísmos o apagones en la red eléctrica. Y una vez que se revisó todo eso se estandarizó en todo el mundo la incorporación de una serie de medidas para mitigar y prevenir ese tipo de accidentes. Esta estrategia se conoce como «flex», que es el apócope de flexibilidad».

La energía nuclear lleva décadas polarizando la opinión tanto de los expertos como de los ciudadanos a causa principalmente de los posibles riesgos derivados de la operación de los reactores. Y también debido a la gestión de los residuos radiactivos. Esto ha provocado que algunos países, como España o Alemania, hayan decidido apagar paulatinamente sus centrales nucleares, mientras que otros, como Estados Unidos, China, Francia o Rusia, mantendrán su apuesta por esta forma de energía en el futuro como respaldo de las fuentes renovables. El tiempo nos confirmará cuál de estas estrategias nos ofrece un resultado mejor a medio y largo plazo.

Imagen de portada | Griffin Wooldridge

Vía | South China Morning Post

-
La noticia El buque nuclear chino capaz de resistir tifones extremos pone encima de la mesa la exigencia que es necesario tener en seguridad nuclear fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

Duplicar el rendimiento y reducir el consumo un 85%: así es como los transistores verticales VTFET pretenden reescribir las reglas de los semiconductores

Duplicar el rendimiento y reducir el consumo un 85%: así es como los transistores verticales VTFET pretenden reescribir las reglas de los semiconductores

La tecnología de semiconductores que aspira a suceder a los transistores FinFET que podemos encontrar en la mayor parte de los chips de alta integración actuales ya asoma por el horizonte. Durante los últimos meses Intel ha ido desvelando paulatinamente las innovaciones en las que está trabajando para desarrollar su tecnología de integración con un propósito ambicioso: conseguir que la ley de Moore siga vigente más allá de 2025.

No obstante, este no es el único fabricante de semiconductores de alta integración que persigue este objetivo. Como os adelantamos brevemente hace dos días, IBM y Samsung han desvelado que están trabajando juntas para poner a punto un nuevo tipo de transistores diseñados para derribar las limitaciones que impone la tecnología FinFET actual.

Sus primeros prototipos ya están listos, y prometen. Prometen mucho. Nada menos que duplicar el rendimiento y reducir en hasta un 85% el consumo de la tecnología más avanzada disponible actualmente. Curiosamente, para hacer posibles estas mejoras los ingenieros de estas compañías han reimaginado la estructura que tienen los transistores incorporados en los circuitos integrados. Y lo han hecho de una forma muy ingeniosa.

La búsqueda de más espacio en los chips está ligada a los transistores verticales

El esfuerzo en el ámbito de la innovación que durante los últimos años han hecho empresas como ASML, TSMC, Intel, Samsung o GlobalFoundries, entre otros productores de semiconductores, ha estado encaminado a refinar sus procesos fotolitográficos para introducir más transistores en el mismo espacio. Dicho así puede no parecer gran cosa, pero, en realidad, los desafíos que es necesario superar para empaquetar cada vez más transistores en el interior de un chip son muy numerosos.

Los desafíos que es necesario superar para empaquetar cada vez más transistores en el interior de un chip son muy numerosos

Dejando a un lado los detalles más complejos, la estrategia que han utilizado durante los últimos años las personas que investigan en el área de los semiconductores para desarrollar la tecnología de integración persigue actuar, entre otros parámetros, sobre la distancia mínima que hay entre las puertas de dos transistores adyacentes (este factor se conoce en inglés como contacted gate pitch), y también sobre la distancia mínima que existe entre dos interconexiones horizontales (conocida como metal pitch).

El problema es que la tecnología FinFET utilizada actualmente ya no puede dar mucho más de sí. Por supuesto, tenemos que agradecerle que nos haya traído hasta aquí y que haya hecho posible la puesta a punto de chips que aglutinan decenas de miles de millones de transistores, pero si queremos sostener el ritmo de desarrollo de los últimos años es necesario elaborar una estrategia diferente. Y lo que proponen IBM y Samsung suena bien.

Fet

En este esquema podemos ver con claridad que las capas que constituyen los transistores FET están dispuestas horizontalmente sobre la oblea, de manera que la corriente eléctrica fluye en la dimensión horizontal.

Los transistores actuales con configuración FET están constituidos por varias capas dispuestas horizontalmente sobre la oblea, de manera que la corriente eléctrica fluye en la dimensión horizontal, circulando de una capa a otra. Esta distribución de los transistores provoca que sea necesario aislar unos de otros para evitar que interfieran, y, como es lógico, estos elementos aislantes ocupan espacio.

Los transistores verticales VTFET ocupan menos espacio que los convencionales, por lo que es posible incorporar muchos más en un circuito integrado

La solución que se les ha ocurrido a los ingenieros de IBM y Samsung para resolver las limitaciones que impone esta topología es ingeniosa, pero también absolutamente razonable: apilar las capas que conforman los transistores en la dimensión vertical sobre la oblea, y no en la horizontal.

De esta forma la corriente eléctrica fluye verticalmente de una capa a otra. No obstante, lo más importante es que los transistores verticales VTFET (Vertical-Transport Nanosheet Field Effect Transistor) ocupan menos espacio que los transistores convencionales, por lo que es posible incorporar muchos más en un circuito integrado.

Vtfet

En los transistores VTFET las capas están dispuestas verticalmente sobre la superficie de la oblea, por lo que la corriente eléctrica fluye también en vertical de una capa a otra. Esta configuración está llamada a reemplazar la tecnología FinFET utilizada actualmente en la fabricación de chips de alta integración.

Al orientar el flujo de la corriente eléctrica verticalmente es posible reducir aún más la distancia mínima que hay entre las puertas de dos transistores adyacentes (el contacted gate pitch del que hemos hablado unas líneas más arriba).

Y, además, ya no son necesarios los elementos que en la configuración FET se responsabilizan de aislar unos transistores de otros. Esto es lo que, según IBM, permite a la tecnología VTFET incrementar drásticamente la densidad de integración frente a la arquitectura FET.

El flujo vertical de la corriente eléctrica tiene un impacto muy beneficioso tanto en su velocidad de conmutación como en su consumo

No obstante, el hecho de que la corriente eléctrica fluya verticalmente en estos nuevos transistores tiene un impacto muy beneficioso tanto en su velocidad de conmutación como en su consumo, que, de nuevo según IBM, se reduce en hasta un 85% al compararlo con los dispositivos FinFET más avanzados disponibles actualmente.

Todo parece estar muy bien atado, y, además, este enfoque huye de la artificiosidad que con frecuencia tienen las tecnologías incipientes para poner encima de la mesa una idea clara y razonablemente sencilla. Crucemos los dedos para que esta tecnología pueda ser utilizada a gran escala lo antes posible.

Más información | IBM Research

-
La noticia Duplicar el rendimiento y reducir el consumo un 85%: así es como los transistores verticales VTFET pretenden reescribir las reglas de los semiconductores fue publicada originalmente en Xataka por Juan Carlos López .

Leer más