La nueva fábrica de chips de Intel estará en Alemania: comienza la ofensiva europea de los semiconductores

La nueva fábrica de chips de Intel estará en Alemania: comienza la ofensiva europea de los semiconductores

Por fin. Ya sabemos dónde estará ubicada la fábrica de circuitos integrados que Intel planea construir en Europa. Pat Gelsinger, el director general de la compañía, acaba de anunciar que su nueva megafactoría europea irá a parar a Magdeburgo, una ciudad del noreste de Alemania situada a unos 150 km de Berlín. La compañía estadounidense invertirá en ella 17 000 millones de dólares, aunque este será solo el primero de los pasos que dará para reforzar el músculo europeo en el mercado de los semiconductores.

Ursula von der Leyen, la presidenta de la Comisión Europea, también ha participado en el anuncio de Intel con un propósito muy claro: dar visibilidad a la estrategia que está poniendo en marcha la Unión Europea para incrementar el peso de Europa en el mercado mundial de la fabricación de chips. Según Intel actualmente el 80% de los circuitos integrados se fabrican en Asia, y los países occidentales están decididos a hacer lo que haga falta para reducir su dependencia de los principales productores asiáticos.

Europa planea hacerse con el 20% de la producción mundial de chips en 2030

Los 17 000 millones de euros que invertirá Intel en la fábrica de Alemania (en realidad en Magdeburgo residirán dos centros de producción, y no únicamente uno) forman parte de la estrategia IDM 2.0 que Pat Gelsinger dio a conocer en marzo de 2021. No obstante, esta compañía invertirá durante la próxima década un total de 80 000 millones de euros para reforzar el papel de Europa en esta industria. Este es, en definitiva, el mensaje más contundente que han defendido Gelsinger y von der Leyen de forma conjunta.

Su plan persigue conseguir que Europa se haga con una cuota del 20% del mercado mundial de los semiconductores en 2030, pero lograrlo no va a ser fácil. Y no va a serlo porque este objetivo requiere multiplicar por dos la producción actual. En cualquier caso, la Unión Europea invertirá 43 000 millones de dólares para crear un ecosistema europeo de los chips mucho más ambicioso que el actual.

Intel's €80 billion European investment plan is a first major achievement under the #EUChipsAct.

This is just the beginning. The #EUChipsAct will make Europe a leader in the global semiconductor production.

Europe is a powerhouse of innovation. And we are open for business. pic.twitter.com/lWPZX4tKE3

— Ursula von der Leyen (@vonderleyen) March 15, 2022

Es evidente que la elección de Intel favorece a Alemania, una decisión que Gelsinger ha defendido aduciendo, no sin razón, que este país europeo ha demostrado durante décadas que tiene una capacidad de producción extraordinariamente sólida. Sin embargo, este ejecutivo también ha anticipado que sus próximas inversiones también recaerán en otros cuatro países europeos hasta que alcancen los 80 000 millones de euros de los que hemos hablado un poco más arriba.

Pat Gelsinger ha anticipado que sus próximas inversiones también recaerán en otros cuatro países europeos

Ursula von der Leyen y Pat Gelsinger han argumentado que es necesario reforzar toda la cadena de producción de semiconductores europea, y las fábricas son solo un eslabón de esta cadena. La Unión Europea pretende que otros fabricantes sigan los pasos de Intel, y planea utilizar como elemento catalizador de esta estrategia la capacidad de innovación  y el músculo científico de este continente. En cualquier caso, Intel pondrá la primera piedra invirtiendo en sus centros de investigación europeos.

Uno de los beneficiados será su laboratorio de Polonia, que verá su presupuesto incrementado en un 50%. Además, Intel está negociando la puesta en marcha de otra fábrica en Italia. Francia, por otra parte, acogerá un nuevo centro de I+D. Y, por último, España también se verá beneficiada a través de la colaboración que Intel planea iniciar con el Centro de Supercomputación de Barcelona. Un último apunte interesante: todas las instalaciones que esta compañía tendrá en Europa utilizarán fuentes de energía 100% renovables, según Gelsinger.

-
La noticia La nueva fábrica de chips de Intel estará en Alemania: comienza la ofensiva europea de los semiconductores fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

La nueva fábrica de chips de Intel estará en Alemania: comienza la ofensiva europea de los semiconductores

La nueva fábrica de chips de Intel estará en Alemania: comienza la ofensiva europea de los semiconductores

Por fin. Ya sabemos dónde estará ubicada la fábrica de circuitos integrados que Intel planea construir en Europa. Pat Gelsinger, el director general de la compañía, acaba de anunciar que su nueva megafactoría europea irá a parar a Magdeburgo, una ciudad del noreste de Alemania situada a unos 150 km de Berlín. La compañía estadounidense invertirá en ella 17 000 millones de dólares, aunque este será solo el primero de los pasos que dará para reforzar el músculo europeo en el mercado de los semiconductores.

Ursula von der Leyen, la presidenta de la Comisión Europea, también ha participado en el anuncio de Intel con un propósito muy claro: dar visibilidad a la estrategia que está poniendo en marcha la Unión Europea para incrementar el peso de Europa en el mercado mundial de la fabricación de chips. Según Intel actualmente el 80% de los circuitos integrados se fabrican en Asia, y los países occidentales están decididos a hacer lo que haga falta para reducir su dependencia de los principales productores asiáticos.

Europa planea hacerse con el 20% de la producción mundial de chips en 2030

Los 17 000 millones de euros que invertirá Intel en la fábrica de Alemania (en realidad en Magdeburgo residirán dos centros de producción, y no únicamente uno) forman parte de la estrategia IDM 2.0 que Pat Gelsinger dio a conocer en marzo de 2021. No obstante, esta compañía invertirá durante la próxima década un total de 80 000 millones de euros para reforzar el papel de Europa en esta industria. Este es, en definitiva, el mensaje más contundente que han defendido Gelsinger y von der Leyen de forma conjunta.

Su plan persigue conseguir que Europa se haga con una cuota del 20% del mercado mundial de los semiconductores en 2030, pero lograrlo no va a ser fácil. Y no va a serlo porque este objetivo requiere multiplicar por dos la producción actual. En cualquier caso, la Unión Europea invertirá 43 000 millones de dólares para crear un ecosistema europeo de los chips mucho más ambicioso que el actual.

Intel's €80 billion European investment plan is a first major achievement under the #EUChipsAct.

This is just the beginning. The #EUChipsAct will make Europe a leader in the global semiconductor production.

Europe is a powerhouse of innovation. And we are open for business. pic.twitter.com/lWPZX4tKE3

— Ursula von der Leyen (@vonderleyen) March 15, 2022

Es evidente que la elección de Intel favorece a Alemania, una decisión que Gelsinger ha defendido aduciendo, no sin razón, que este país europeo ha demostrado durante décadas que tiene una capacidad de producción extraordinariamente sólida. Sin embargo, este ejecutivo también ha anticipado que sus próximas inversiones también recaerán en otros cuatro países europeos hasta que alcancen los 80 000 millones de euros de los que hemos hablado un poco más arriba.

Pat Gelsinger ha anticipado que sus próximas inversiones también recaerán en otros cuatro países europeos

Ursula von der Leyen y Pat Gelsinger han argumentado que es necesario reforzar toda la cadena de producción de semiconductores europea, y las fábricas son solo un eslabón de esta cadena. La Unión Europea pretende que otros fabricantes sigan los pasos de Intel, y planea utilizar como elemento catalizador de esta estrategia la capacidad de innovación  y el músculo científico de este continente. En cualquier caso, Intel pondrá la primera piedra invirtiendo en sus centros de investigación europeos.

Uno de los beneficiados será su laboratorio de Polonia, que verá su presupuesto incrementado en un 50%. Además, Intel está negociando la puesta en marcha de otra fábrica en Italia. Francia, por otra parte, acogerá un nuevo centro de I+D. Y, por último, España también se verá beneficiada a través de la colaboración que Intel planea iniciar con el Centro de Supercomputación de Barcelona. Un último apunte interesante: todas las instalaciones que esta compañía tendrá en Europa utilizarán fuentes de energía 100% renovables, según Gelsinger.

-
La noticia La nueva fábrica de chips de Intel estará en Alemania: comienza la ofensiva europea de los semiconductores fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

La computación cuántica ha puesto en el punto de mira la caza de nuevos materiales con propiedades cuánticas

La computación cuántica ha puesto en el punto de mira la caza de nuevos materiales con propiedades cuánticas

El desarrollo que ha experimentado la computación cuántica durante las últimas dos décadas, y especialmente durante los últimos tres años, nos invita a mirar hacia el futuro con optimismo. El procesador cuántico Eagle de 127 cúbits presentado por IBM a mediados del pasado mes de noviembre nos anima a soñar con la posibilidad de que el incremento de la calidad de los bits cuánticos nos coloque más cerca de la tan ansiada corrección de errores.

De hecho, como os contamos a finales de enero, tres equipos de investigación independientes han logrado poner a punto cúbits superconductores con una precisión extremadamente alta. Estos bits cuánticos pueden ser fabricados utilizando la tecnología de producción de semiconductores basada en silicio que se emplea actualmente para producir chips de alta integración.

No obstante, lo más importante es que su precisión es superior al 99%, y según estos científicos cuando la incidencia de los errores está por debajo del 1% a los protocolos cuánticos de corrección de errores les resulta mucho más fácil llevar a cabo su cometido. Y esto nos coloca más cerca (quizá, incluso, mucho más cerca) de implementar unos algoritmos de corrección de errores que nos permitirían utilizar los ordenadores cuánticos para resolver problemas realmente significativos.

Esta es la coyuntura actual, y, como vemos, nos invita a ser saludable y razonablemente optimistas. No obstante, esto no significa en absoluto que dentro de unos pocos años ya vayamos a tener ordenadores cuánticos plenamente funcionales y mucho más avanzados que los prototipos de ordenadores cuánticos con los que trabajamos actualmente. Los desafíos que aún es necesario superar nos obligan a moderar el entusiasmo, y uno de esos retos pasa por encontrar nuevos materiales con propiedades cuánticas prometedoras.

A la búsqueda de los materiales exóticos con las mejores propiedades cuánticas

Actualmente las dos tecnologías de cúbits más avanzadas son los bits cuánticos superconductores y las trampas de iones, pero esto no significa que sean el único camino que podemos seguir en la búsqueda de un ordenador cuántico plenamente funcional. De hecho, algunos grupos de investigación están trabajando con iones implantados en macromoléculas o átomos neutros por su interesantísimo potencial.

Lo realmente importante es encontrar la forma de producir cúbits de la máxima calidad posible, así como desarrollar tecnologías que favorezcan el escalado de los bits cuánticos para permitir la fabricación de procesadores que aglutinen no ya miles, sino millones de cúbits. Y en este contexto es crucial dar con nuevos materiales cuyas propiedades no solo permitan a los científicos poner a punto cúbits de más calidad; también es esencial desarrollar sistemas que permitan a los ordenadores cuánticos comunicarse entre ellos de la forma más eficiente posible.

En el ámbito de las comunicaciones cuánticas no es nada fácil dar con un material que permita a los investigadores explorar las propiedades cuánticas de la luz, pero ya hay un candidato. Y es prometedor. En un artículo publicado en Nature por científicos del CNRS, que es el equivalente francés del CSIC español, y de la Universidad de Estrasburgo, sus autores describen las propiedades de un nuevo material que presumiblemente puede actuar como interfaz entre el espín de un cúbit y la luz a nivel cuántico.

El europio es una tierra rara que en su forma cristalina es capaz de llevar a cabo transiciones ópticas muy precisas

Lo curioso es que se trata de un cristal constituido por una de las tierras raras más exóticas (por si no fuesen ya de por sí lo suficientemente exóticas todas ellas): el europio. Las tierras raras son elementos químicos no necesariamente escasos en nuestro planeta, pero que, sin embargo, es difícil encontrar en estado puro. Y el europio en particular es un elemento químico con unas peculiares propiedades fisicoquímicas que lo hacen adecuado, entre otras posibles aplicaciones teóricas, como moderador en los reactores nucleares de fisión por su capacidad de captura de neutrones.

Ibmcuantica

Sin embargo, la propiedad de este elemento que, según estos investigadores franceses, lo hacen atractivo en el ámbito de las comunicaciones cuánticas es su capacidad de llevar a cabo transiciones ópticas muy precisas. Esta cualidad permite a los cristales de europio interaccionar a nivel cuántico con la luz, y las primeras pruebas experimentales avalan esta capacidad. Sin embargo, los investigadores involucrados en este hallazgo reconocen que integrar estos cristales en dispositivos fotónicos es complejo.

Lo que persiguen, en definitiva, es poner a punto no solo un sistema de comunicaciones que permita a los ordenadores cuánticos intercambiar información a larga distancia, sino también desarrollar una tecnología de control de los cúbits que emplea la luz como medio de interacción. Si esta línea de investigación consigue prosperar cabe la posibilidad de que en el futuro permita a los investigadores elaborar nuevas arquitecturas de computación cuántica más avanzadas que las actuales.

Imágenes | IBM

Más información | Nature

-
La noticia La computación cuántica ha puesto en el punto de mira la caza de nuevos materiales con propiedades cuánticas fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

El brutal procesador M1 Ultra de Apple frente a los demás chips de la familia

El brutal procesador M1 Ultra de Apple frente a los demás chips de la familia

«El M1 Ultra marca un antes y un después en la historia de los chips de Apple que va a conmocionar el sector del PC de nuevo. Conectar dos chips M1 Max con la arquitectura de empaquetado UltraFusion nos permite llevar los chips de Apple a nuevas cotas». Esta declaración de Johny Srouji, que es uno de los máximos responsables del departamento de tecnologías de hardware de Apple, no deja lugar a dudas acerca de la confianza que tiene esta marca en este chip.

Como explica Srouji, el procesador M1 Ultra es el resultado de la interconexión de dos chips M1 Max, lo que refleja que probablemente Apple lo introdujo en su hoja de ruta cuando esta familia de microprocesadores dio sus primeros pasos. En cualquier caso, los cimientos de las cuatro CPU en las que vamos a indagar son los mismos. Comparten una misma filosofía de diseño, la misma microarquitectura, y también la misma tecnología de fabricación.

Los procesadores M1 Ultra, M1 Max, M1 Pro y M1 están siendo producidos por el fabricantes taiwanés de semiconductores TSMC utilizando fotolitografía de 5 nm. El más ambicioso de estos chips, el modelo Ultra presentado ayer por Apple, aglutina nada menos que 114 000 millones de transistores, una cifra impactante ante la que los 16 000 millones del procesador M1 original palidecen.

Al igual que los demás miembros de la familia M1, el nuevo chip Ultra recurre a dos tipos de núcleos diferentes con el propósito de balancear el rendimiento, el nivel de disipación de energía térmica y el consumo de la CPU en tiempo de ejecución tomando como referencia los requisitos impuestos por los hilos (threads) que están siendo procesados en un instante dado.

Un procesador M1 Max incorpora diez núcleos de propósito general destinados a la CPU, de modo que ocho de ellos son de alto rendimiento, y los dos restantes de alta eficiencia. A partir de aquí y teniendo presente que un chip M1 Ultra es el resultado de unir dos M1 Max podemos concluir con facilidad cuáles son sus cifras: veinte núcleos de CPU, de los cuales dieciséis son de alto rendimiento, y los cuatro restantes de alta eficiencia.

Basta echar un vistazo con un poco de atención a las especificaciones del procesador M1 Ultra para darnos cuenta de que está destinado sobre todo a estaciones de trabajo. Al fin y al cabo el nuevo Mac Studio, que es el primer ordenador que lo integra, más allá de que su diseño sea tan estilizado y compacto, es un equipo con una clara vocación profesional, especialmente la versión que está equipada con un procesador M1 Ultra (también puede apoyarse en un M1 Max).

Apple M1 Ultra, M1 Max, M1 Pro y M1: especificaciones técnicas


M1 ultra

m1 max

m1 pro

m1

FOTOLITOGRAFÍA

5 nm

5 nm

5 nm

5 nm

número de transistores

114 000 millones

57 000 millones

33 700 millones

16 000 millones

FABRICANTE

TSMC

TSMC

TSMC

TSMC

número de núcleos cpu

20

10

10 / 8

8

núcleos de alto rendimiento (AR)

16

8

8 / 6

4

núcleos de alta eficiencia (Ae)

4

2

2

4

caché instrucciones (AR)

192 KB

192 KB

192 KB

192 KB

caché datos (AR)

128 KB

128 KB

128 KB

128 KB

caché nivel 2 compartida (AR)

48 MB

24 MB

24 MB

12 MB

caché instrucciones (Ae)

128 KB

128 KB

128 KB

128 KB

caché datos (AE)

64 KB

64 KB

64 KB

64 KB

caché nivel 2 compartida (ae)

8 MB

4 MB

4 MB

4 MB

número de núcleos gráficos

64

32 / 24

16 / 14

8

unidades de ejecución

8192

4096

2048

1024

fp32

20,8 TFLOPS

10,4 TLOPS

5,2 TFLOPS

2,6 TFLOPS

memoria principal máxima

128 GB

64 GB

32 GB

16 GB

tecnología de memoria

LPDDR5-6400

LPDDR5-6400

LPDDR5-6400

LPDDR4X-4266

ancho de banda de memoria

800 GB/s

400 GB/s

200 GB/s

68 GB/s

núcleos neural engine (NE)

32

16

16

16

operaciones por segundo (NE)

22 billones

11 billones

11 billones

11 billones

Escalabilidad: esta es la mejor baza de los procesadores M1

La tabla que publicamos encima de estas líneas refleja con una claridad enorme la indiscutible escalabilidad que pone encima de la mesa la arquitectura implementada en esta familia de microprocesadores.

Los núcleos de alto rendimiento y alta eficiencia son esencialmente idénticos en estos chips, de manera que los ingenieros de Apple pueden actuar sobre su número, sobre el espacio compartido de las memorias caché de niveles 2 y 3, sobre el número de núcleos gráficos y sobre la interfaz de memoria para balancear con relativa facilidad el rendimiento y el consumo de estas CPU.

La lógica gráfica integrada en los procesadores M1 Pro, y, sobre todo, M1 Max, es muy capaz, pero la del M1 Ultra juega en otra liga. Es el resultado, una vez más, de escalar el hardware de los demás chips de la familia, pero lo que nos propone, si nos ceñimos a la información que tenemos actualmente, que es la que nos ha proporcionado Apple, impresiona.

La fuerza bruta de la lógica gráfica del chip M1 Ultra es equiparable a la de las GPU más ambiciosas que tienen en su catálogo actualmente NVIDIA y AMD

Y es que en teoría su fuerza bruta es perfectamente equiparable a la de los procesadores gráficos más ambiciosos que tienen en su catálogo actualmente NVIDIA y AMD. De hecho, en algunos apartados la lógica gráfica del M1 Ultra es incluso más capaz. Sus 20,8 TFLOPS (FP32) convencen, pero son su tasa de relleno de texturas de 660 Gtexeles/s y los 330 Gpíxeles/s de su tasa de píxeles los que más impactan.

Como referencia podemos fijarnos en las cifras de una GPU GeForce RTX 3080 Ti de NVIDIA. Su tasa de texturas es 532,8 Gtexeles/s, y su tasa de píxeles asciende a 186,5 Gpíxeles/s. Estas cifras solo reflejan una visión parcial del rendimiento de un procesador gráfico porque hay muchos otros subsistemas de la GPU que es necesario considerar, pero nos sirven para poner en contexto los números de la lógica gráfica del chip M1 Ultra.

Apple M1 Ultra Chipset 220308

En la fotografía que publicamos debajo de estas líneas podemos ver la interfaz física utilizada por Apple para resolver la comunicación de los dos chips M1 Max que conforman un procesador M1 Ultra. El corazón de la arquitectura de empaquetado UltraFusion, que es como se llama la innovación que permite a las dos CPU M1 Max trabajar en perfecta sincronía, es un enlace que aglutina más de 10 000 conductores.

El corazón de la tecnología de empaquetado UltraFusion es un enlace de alto rendimiento que aglutina más de 10 000 conductores

Esta vía de comunicación es capaz de alcanzar un ancho de banda máximo teórico de 2,5 TB/s, que es una auténtica barbaridad. No obstante, es imprescindible que los núcleos y las demás unidades funcionales de la lógica de cada M1 Max se puedan comunicar con una latencia mínima. De lo contrario la productividad global del procesador M1 Ultra se resentiría al ejecutar aplicaciones multihilo capaces de alojar threads en los núcleos situados a ambos lados del enlace de alto rendimiento.

Es evidente que lo que han perseguido los ingenieros de Apple durante la fase de diseño de la arquitectura de empaquetado UltraFusion es conseguir que en la práctica no se perciba que un procesador M1 Ultra está constituido por dos chips M1 Max. En este ámbito minimizar la latencia es crucial, pero también es muy importante brindar al sistema operativo la ilusión de que por debajo de él hay una única CPU equipada con 20 núcleos. De esta forma los desarrolladores no tienen que preocuparse de las peculiaridades del chip M1 sobre el que va a ser ejecutado su software.

Ultrafusion

Antes de que echemos un vistazo a las cifras que ha publicado Apple para describir el rendimiento por vatio del procesador M1 Ultra merece la pena que indaguemos brevemente en la memoria principal con la que puede trabajar esta CPU. Al igual que los chips M1 Pro y M1 Max, el M1 Ultra trabaja en tándem con memorias LPDDR5-6400, aunque este último permite la instalación de un mapa de memoria principal unificada con una capacidad máxima de 128 GB. El ancho de banda máximo teórico de este subsistema asciende, según Apple, a 800 GB/s.

Por otro lado, la lógica que se responsabiliza de ejecutar los algoritmos de inteligencia artificial es, de nuevo, el resultado de enlazar dos chips M1 Max. Y es que el motor Neural Engine del procesador M1 Ultra incorpora 32 núcleos (frente a los 16 de cada chip M1 Max), lo que le permite llevar a cabo la monstruosa cifra de 22 billones de operaciones por segundo. Y se trata de billones de los nuestros, no de los anglosajones.

La relación rendimiento por vatio que nos promete Apple es fabulosa

Llegamos a la parte más controvertida de la presentación que Apple hizo ayer. La eficiencia de los procesadores de la familia M1 está fuera de toda duda si nos ceñimos al resultado que hemos obtenido en nuestras pruebas de rendimiento hasta ahora, pero las cifras que nos propone esta marca para describir el rendimiento por vatio del chip M1 Ultra son impactantes.

Según Apple un procesador M1 Ultra casi consigue duplicar el rendimiento de un PC equipado con una CPU Intel Core i9-12900K y memoria DDR5

En la siguiente diapositiva podemos ver que, según Apple, un procesador M1 Ultra casi consigue duplicar el rendimiento de un PC equipado con una CPU Intel Core i9-12900K y memoria DDR5 cuando ambos arrojan un consumo de 60 vatios. Cuando tengamos la oportunidad de analizar el primer ordenador de Apple equipado con un procesador M1 Ultra comprobaremos si, efectivamente, su rendimiento por vatio es tan atractivo como defiende Apple.

Apple M1 Ultra Cpu Performance 02

En la siguiente diapositiva intervienen los mismos púgiles de la gráfica anterior: el procesador M1 en un lado del cuadrilátero, y en el otro un PC equipado con una CPU Intel Core i9-12900K y memoria DDR5. Lo que refleja esta segunda gráfica es que, siempre según Apple, el procesador M1 Ultra consigue igualar el rendimiento relativo del PC cuando el primero arroja un consumo de unos 40 vatios, y el segundo roza los 160 vatios.

Las cifras que ha publicado Apple contribuyen a generar unas expectativas muy altas alrededor del chip M1 Ultra

Es evidente que Apple es parte interesada, y no conocemos con detalle en qué condiciones y con qué software ha elaborado estas gráficas, pero no cabe duda de que estas cifras contribuyen a generar unas expectativas muy altas alrededor del chip M1 Ultra. Posiblemente no tardaremos mucho en poder confirmar si estos números reflejan fielmente la realidad, pero, de nuevo, son muy prometedores.

Apple M1 Ultra Cpu Performance 01

La última gráfica elaborada por Apple persigue hacer aún más profunda la herida que pretende infligir a sus competidores. Y es que los de Cupertino defienden que un equipo con un chip M1 Ultra consigue igualar el rendimiento relativo de un PC equipado con un procesador Intel Core i9-12900K, memoria DDR5 y nada menos que una tarjeta gráfica dotada de una GPU GeForce RTX 3090 de NVIDIA cuando el primero arroja un consumo de poco más de 100 vatios, y el segundo supera con claridad los 300 vatios.

En la última diapositiva Apple pretende poner en valor la capacidad de la lógica gráfica integrada en su procesador M1 Ultra

Resulta cuando menos llamativo que Apple haya decidido introducir en esta diapositiva una tarjeta gráfica tan ambiciosa como la GeForce RTX 3090, que por sí sola según NVIDIA arroja un consumo de 350 vatios bajo carga. No obstante, es probable que su intención sea poner en valor la capacidad que tiene la lógica gráfica integrada en su nuevo procesador M1 Ultra. Será muy interesante comprobar por nosotros mismos si está realmente a la altura de las expectativas cuando el primer ordenador equipado con este chip caiga en nuestras manos.

Apple M1 Ultra Gpu Performance 01

Más información | Apple

-
La noticia El brutal procesador M1 Ultra de Apple frente a los demás chips de la familia fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

Apple lanza el procesador M1 Ultra: el chip más potente de la familia se desmarca con 20 núcleos de CPU y 64 de GPU

Apple lanza el procesador M1 Ultra: el chip más potente de la familia se desmarca con 20 núcleos de CPU y 64 de GPU

Apple acaba de estrenar un nuevo microprocesador de la familia M1. Y, según los de Cupertino, es el más potente de todos. Sus cifras prometen. Mucho. Y es que incorpora 20 núcleos de CPU, 64 núcleos para los gráficos, y tiene una potencia de 21 TFLOPS. No obstante, estas cifras solo nos cuentan una parte de la historia.

Durante la presentación de este chip los portavoces de esta compañía han asegurado que el incremento de la potencia de este microprocesador no condiciona lo más mínimo su eficiencia. Tiene sentido si tenemos presente que su microarquitectura es la misma utilizada por los demás procesadores de esta familia.

Además, los otros chips M1 nos han demostrado en nuestras pruebas que su eficiencia es muy competitiva, por lo que es razonable que esta nueva versión hipervitaminada de esta CPU mantenga intacta esta característica (algo que comprobaremos tan pronto como el primer ordenador equipado con este chip caiga en nuestras manos).

Más potencia que nunca, pero la misma eficiencia de siempre (según Apple)

Una de las primeras diapositivas utilizadas por los portavoces de esta marca para dar a conocer el nuevo chip M1 Ultra reflejaba con claridad que este procesador multiplica por dos la superficie del M1 Max. Lejos de ser anecdótico, este dato nos invita a intuir que la cantidad de transistores integrada por Apple en el procesador M1 Ultra es sensiblemente superior (lo están fabricando utilizando fotolitografía de 5 nm e incorpora 114 000 millones de transistores).

16 de los 20 núcleos de propósito general integrados en la CPU son de alto rendimiento, mientras que los 4 núcleos restantes priorizan la eficiencia, por lo que serán los responsables de procesar aquellos hilos de ejecución (threads) que no son críticos desde el punto de vista del rendimiento.

16 de los 20 núcleos de propósito general integrados en la CPU son de alto rendimiento, mientras que los 4 núcleos restantes priorizan la eficiencia

Los núcleos de alto rendimiento se apoyan en una caché de instrucciones de 192 KB, una caché de datos de 128 KB, y comparten una caché de nivel 2 de 48 MB. Por otro lado, los núcleos de alta eficiencia tienen a su disposición una caché de instrucciones de 128 KB, una caché de datos de 64 KB, y, por último, comparten una caché de nivel 2 de 8 MB.

Estas cifras sobre el papel pintan realmente bien, aunque hasta que no probemos un equipo con el chip M1 Ultra no sabremos con certeza en qué medida aventaja al procesador M1 Max.

Captura De Pantalla 2022 03 08 193023

Vamos ahora con la lógica gráfica. En la siguiente diapositiva podemos ver que el chip M1 Ultra incorpora 64 núcleos dedicados al procesamiento de los gráficos. Ahí van algunas cifras que pretenden ilustrar el rendimiento que nos promete esta lógica: incorpora 8192 unidades de ejecución, puede procesar de forma concurrente nada menos que 196 608 hilos de ejecución, tiene una potencia de cálculo de 21 TFLOPS, una tasa de relleno de texturas de 660 Gtexeles/s, y, para concluir, una tasa de píxeles de 330 Gpíxeles/s.

Será muy interesante comprobar cómo rinde esta lógica gráfica en un escenario de uso real, pero no cabe duda de que promete. Mucho

Estas cifras son absolutamente espectaculares. De hecho, rivalizan sin el más mínimo complejo con las que nos proponen los procesadores gráficos para equipos de sobremesa más potentes disponibles actualmente. Será muy interesante comprobar cómo rinde esta lógica gráfica en un escenario de uso real, pero no cabe duda de que promete. Mucho.

Captura De Pantalla 2022 03 08 193031

Una de las cualidades que los usuarios más apreciamos de los procesadores de la familia M1 es su estupenda relación rendimiento/vatio. Y, según Apple, el nuevo chip M1 Ultra mantiene intacto el pedigrí de las otras CPU de esta familia. La siguiente diapositiva persigue poner en contexto el rendimiento y el consumo del procesador M1 Ultra comparando sus cifras con las que arroja un PC equipado con un procesador Intel Core i9-12900K y memoria DDR5.

Es evidente que Apple es parte interesada, y no conocemos con detalle en qué condiciones y con qué software ha elaborado esta gráfica, pero no cabe duda de que estas cifras contribuyen a generar unas expectativas muy altas alrededor del chip M1 Ultra. Posiblemente no tardaremos mucho en poder confirmar si estos números reflejan fielmente la realidad, pero, de nuevo, son muy prometedores.

Captura De Pantalla 2022 03 08 A Las 19 31 23

Apple ha disparado las expectativas alrededor del procesador M1 Ultra

Las características en las que acabamos de indagar no son las únicas que esta marca ha dado a conocer para describir el potencial del chip M1 Ultra. Apple también ha desvelado que el bus que actúa como interfaz de comunicación entre las distintas unidades funcionales de este microprocesador es capaz de alcanzar una velocidad de transferencia de 2,5 TB/s, una cifra extraordinariamente competitiva si la comparamos con las que nos proponen otras CPU actuales.

La lógica que se responsabiliza de ejecutar los algoritmos de inteligencia artificial (que tiene 32 núcleos) es capaz de llevar a cabo 22 billones de operaciones por segundo

Más datos interesantes. El ancho de banda máximo del bus de memoria asciende a 800 GB/s, y la lógica que se responsabiliza de ejecutar los algoritmos de inteligencia artificial (que tiene 32 núcleos) es capaz de llevar a cabo 22 billones de operaciones por segundo (son billones de los nuestros, no de los anglosajones). Por último, el procesador M1 Ultra puede direccionar un máximo de 128 GB de memoria principal.

Las cifras que ha dado a conocer Apple hoy para 'vendernos' su microprocesador más potente impresionan. Lo más prudente es que no nos dejemos llevar por el entusiasmo hasta que tengamos la oportunidad de probar el primer equipo con este chip, pero tanto el rendimiento global como la relación rendimiento/vatio de los otros procesadores de la familia M1 nos invitan a prever que, efectivamente, el chip M1 Ultra debería ser una CPU muy competitiva. Crucemos los dedos y confiemos en poder averiguarlo muy pronto.

Captura De Pantalla 2022 03 08 193205

-
La noticia Apple lanza el procesador M1 Ultra: el chip más potente de la familia se desmarca con 20 núcleos de CPU y 64 de GPU fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

Qué tiene que pasar (y qué no) para que el asedio de un ejército cause un desastre en una central nuclear

Qué tiene que pasar (y qué no) para que el asedio de un ejército cause un desastre en una central nuclear

Las centrales nucleares ucranianas están en el punto de mira. El asedio al que el ejército ruso está sometiendo algunas de estas instalaciones refleja que su estrategia requiere hacerse con su control para incrementar la presión sobre el Gobierno liderado por Volodímir Zelenski.

No cabe duda de que es saludable intentar no caer en alarmismos injustificados, pero es evidente que combatir en las proximidades de una central nuclear conlleva riesgos.

Ucrania mantiene en operación actualmente quince reactores nucleares distribuidos en cuatro plantas diferentes. La mayor de todas ellas es la de Zaporiyia, ubicada en el sureste del país, debido a que aglutina nada menos que seis reactores.

Según buena parte de los medios de comunicación internacionales esta central nuclear está bajo control del ejército ruso desde hace unas horas, aunque durante la refriega se ha producido un incendio que, afortunadamente, no parece haber amenazado su integridad.

El accidente que se produjo en la planta nuclear de Chernóbil en 1986 provocó que las medidas de seguridad de las centrales que estaban en operación en ese momento en todo el planeta se revisasen de arriba abajo. Y, además, todo lo que se aprendió durante aquel gravísimo incidente se utilizó para hacer más seguras las instalaciones que se construyeron a partir de ese momento.

El accidente de Fukushima, afortunadamente, no tuvo un impacto humano y medioambiental tan grave como el de Chernóbil, pero también provocó que los técnicos revisasen la seguridad de todas las centrales nucleares del planeta.

Las medidas con las que cuentan tanto las instalaciones de Ucrania como todas las demás en operación no son infalibles, pero son muy robustas. Y conocerlas nos viene muy bien para mantenernos a la expectativa, aunque sin dejarnos llevar por un alarmismo innecesario.

Una central nuclear no puede comportarse como una bomba atómica

Esta ilustración elaborada por Alfredo García, más conocido en Twitter por su alter ego @OperadorNuclear, resume muy bien las diferencias fundamentales que existen entre el combustible utilizado en las plantas nucleares y el empleado en las bombas atómicas:

Ante el ataque ruso a la central nuclear #Zaporizhzhya, recordad que una central nuclear NO puede explotar como una bomba atómica por razones puramente físicas. #ApuntesOperador pic.twitter.com/aoKDz2qHz5

— Operador Nuclear (@OperadorNuclear) March 4, 2022

La fisión nuclear, que es el proceso utilizado actualmente en las centrales nucleares, consiste en romper el núcleo de un átomo en dos o más núcleos para liberar una parte de la energía que contiene. Sin embargo, no podemos fragmentar el núcleo de un átomo cualquiera. En teoría sí puede hacerse, pero en la práctica lo interesante es utilizar un átomo que sea relativamente «fácil y económico» romper. Y el del uranio-235 lo es.

El uranio se encuentra presente en la naturaleza en concentraciones muy bajas, normalmente en rocas, tierras y agua. De ahí que su obtención sea cara y su tratamiento complejo, pues exige realizar procesos químicos capaces de separarlo de los demás elementos y las impurezas con las que suele convivir. Tiene 92 protones, y otros tantos electrones orbitando en torno al núcleo, y este último incorpora, además de los protones, entre 142 y 146 neutrones.

Es importante que recordemos que el núcleo de un átomo está habitualmente constituido por un cierto número de protones y neutrones (aunque no siempre: el protio, el isótopo del hidrógeno más abundante, tiene en su núcleo un solo protón y ningún neutrón), así como por unos electrones que orbitan a su alrededor.

El hecho de que el número de neutrones del núcleo del uranio pueda variar, como acabamos de ver, nos indica que existen varios isótopos de este elemento químico, que no son otra cosa que átomos con el mismo número de protones y electrones, pero distinto número de neutrones.

El hecho de que el número de neutrones del núcleo del uranio pueda variar nos indica que existen varios isótopos de este elemento químico

La razón por la que en los reactores de fisión nuclear se utiliza un átomo de uranio-235, y no otro isótopo de este elemento o cualquier otro elemento químico, consiste en que al bombardear su núcleo con un neutrón (un proceso que se conoce como fisión inducida) el uranio-235 se transforma en uranio-236, que es un elemento más inestable.

Esto significa, sencillamente, que el uranio-236 no puede permanecer mucho tiempo en su estado actual, por lo que se divide en dos núcleos, uno de bario-144 y otro de criptón-89, y emite, además, dos o tres neutrones.

Fisionnuclear

Y aquí viene lo realmente interesante: la suma de las masas de los núcleos de bario-144 y criptón-89 es levemente inferior a la del núcleo de uranio-236 del que proceden («desaparece» alrededor del 0,1% de la masa original). ¿Adónde ha ido la masa que nos falta? Solo cabe una respuesta: se ha transformado en energía.

La fórmula E = m c², probablemente la más popular de la historia de la física, relaciona la masa y la energía, y lo que dice es, sencillamente, que una cierta cantidad de masa equivale a una cantidad concreta de energía, incluso aunque la masa se encuentre en reposo.

El núcleo de un átomo aunque esté en reposo contiene una cantidad grande de energía

De hecho, la equivalencia entre la masa y la energía, propuesta por Albert Einstein en 1905, nos dice algo más muy importante. La c de la fórmula representa la velocidad de la luz en el vacío, que, como todos intuimos, es un número muy grande (3 x 10⁸ m/s aproximadamente).

Además, está elevado al cuadrado, lo que significa que incluso una masa muy pequeña, como puede ser la porción del núcleo de un átomo, aunque esté en reposo contiene una cantidad grande de energía. Esto es lo que conocemos como energía en reposo.

Si la masa está en movimiento su energía total es mayor que su energía en reposo. Y, si observamos la equivalencia entre la masa y la energía, es sencillo darse cuenta de que la masa de un cuerpo en movimiento también es mayor que su masa en reposo, un fenómeno que nos introduce de lleno en la física relativista.

En cualquier caso, la energía que obtenemos al fusionar o fisionar núcleos atómicos procede de la fuerza que los mantiene unidos: la interacción nuclear fuerte.

Uranio

Este es el aspecto metálico que adquieren las pastillas de óxido de uranio después de pasar por el horno. En esta etapa sus propiedades mecánicas permiten manipularlas con más sencillez porque no existe riesgo de contaminación, aunque sí de irradiación, por lo que es posible sostenerlas en la mano siempre y cuando nos protejamos con guantes.

Entender con cierta precisión la relación que existe entre la masa y la energía es importante porque nos ayuda a comprender cómo es posible que una masa tan pequeña como la de un átomo nos permita obtener una cantidad de energía tan grande.

En cualquier caso, el proceso de fisión nuclear no termina aquí. Y es que cada uno de los neutrones que hemos obtenido como resultado de la desintegración del núcleo de uranio-236 en los núcleos de bario-144 y criptón-89 puede interaccionar con otros núcleos fisionables, provocando una reacción en cadena.

Cada uno de los neutrones puede interaccionar con otros núcleos fisionables, provocando una reacción en cadena

No obstante, no todos los neutrones emitidos durante la desintegración del núcleo de uranio-236 van a interaccionar con un núcleo fisionable. Pero no hace falta que lo hagan todos ellos. Basta que uno solo de esos neutrones lo consiga para que obtengamos un número de fisiones estable, y, por tanto, una reacción controlada, que es el objetivo de los reactores de las centrales nucleares.

En las bombas atómicas, sin embargo, prevalece el sostenimiento de una reacción en cadena fruto de la presencia de un porcentaje mucho mayor de uranio-235 con el propósito de liberar una enorme cantidad de energía con una terrible capacidad destructiva.

Este es el rol del recinto de contención y los circuitos de refrigeración

Estos son dos de los recursos más importantes, pero no los únicos, con los que cuentan las centrales nucleares para preservar su seguridad y sostener su operatividad a lo largo del tiempo. El recinto de contención es una estructura de hormigón estanca y diseñada para mantener completamente aislado el circuito primario del entorno (enseguida veremos en qué consiste este circuito).

De hecho, este armazón está diseñado para no verse degradado por la dilatación, para soportar la energía de un terremoto, e, incluso, para resistir colisiones muy importantes, como, por ejemplo, el impacto de un avión. No obstante, además de proteger el reactor nuclear de agresiones externas se responsabiliza de evitar que el material radiactivo alojado en el circuito primario quede expuesto y entre en contacto con la atmósfera.

Estas declaraciones de Ignacio Araluce, el presidente de Foro Nuclear, las hemos tomado de la conversación que mantuvimos con él a finales de 2019, y describen con claridad la robustez del recinto de contención:

«No solo es absolutamente estanco debido a que por dentro está recubierto por una envoltura de acero inoxidable, sino que es capaz de resistir la mayor presión que pudiera tener por generación de gases en el caso de que se produjese el mayor accidente nuclear posible. Este edificio tiene unas paredes de hormigón tremendas.

Todas las centrales nucleares están obligadas a comprobar con mucha frecuencia la estanqueidad del edificio de contención, y para hacerlo se le inyecta aire comprimido, como si fuera un globo. De esta forma se hincha hasta alcanzar la presión de diseño del mayor accidente posible durante varios días y se comprueba que estructuralmente no ha sufrido la más mínima alteración. Y que no fuga absolutamente nada.»

El otro elemento de la instalación en el que merece la pena que indaguemos es el circuito de refrigeración. Aunque, en realidad, un reactor nuclear trabaja codo con codo con tres circuitos diferentes.

El circuito primario está constituido por la vasija, el intercambiador de calor y la bomba de circulación

El circuito primario está constituido por la vasija, que es el depósito que contiene las barras de combustible y el agua que debe permanecer en contacto con ellas para absorber su energía térmica; por el intercambiador de calor, que es un segundo depósito al que va a parar el agua caliente procedente de la vasija; y por una bomba que facilita la circulación del agua entre la vasija y el intercambiador de calor.

El circuito primario debe ser cerrado porque el agua que contiene al estar en contacto directo con las barras de combustible está contaminada. Y, por tanto, es radiactiva. En la siguiente imagen podéis ver con claridad los elementos que lo constituyen, con la vasija a la izquierda y el intercambiador de calor a la derecha:

Circuitoprimario

El intercambiador de calor actúa como un generador de vapor, por lo que un segundo circuito se responsabiliza de introducir en su interior el agua fría que al entrar en contacto con el agua caliente del circuito primario entra en ebullición. De ahí procede el vapor necesario para transferir a la turbina la energía cinética que hará posible la obtención de electricidad gracias a la acción del alternador.

Una vez que el fluido atraviesa la turbina el vapor de agua se enfría y se condensa en el interior de un depósito adicional para propiciar la aparición de agua en estado líquido que volverá a ser introducida en el intercambiador de calor, dando lugar así a un segundo circuito cerrado conocido como circuito secundario.

De nuevo una bomba se responsabiliza de que el agua circule entre el depósito de condensación y el intercambiador de calor. En la siguiente imagen podéis identificar todos los elementos del circuito secundario, con el intercambiador de calor en el centro y el binomio turbina-alternador en el extremo derecho:

Circuitosecundario

Hasta ahora hemos descrito dos circuitos cerrados diferentes, el primario y el secundario, pero nos hemos dejado un cabo suelto. Para que el vapor de agua del circuito secundario se condense en el interior del depósito de condensación es necesario introducir en este último agua fría.

Y para hacerlo es preciso recurrir a un tercer circuito conocido como circuito de refrigeración. El agua de esta última instalación procede del mar o de un río próximo a la central nuclear, de ahí que sea necesario alojar este tipo de centrales cerca de uno de estos dos recursos naturales.

El intercambio de energía térmica que se produce entre estos circuitos nos permite obtener la energía eléctrica que necesitamos, que es el fin último de las centrales nucleares, pero también persigue mantener las barras de combustible alojadas en el núcleo del reactor dentro de su rango óptimo de temperatura de trabajo.

La fusión del núcleo puede provocar que una parte del material radiactivo acabe saliendo fuera de la vasija

Si la energía térmica generada por el material fisionable de las barras de combustible como resultado de la fisión sostenida en el tiempo excede, por la razón que sea, la capacidad de los sistemas de refrigeración de transportar esa energía y mantener el núcleo del reactor dentro del rango óptimo de temperatura de trabajo, el combustible podría degradarse. Y si sucede esto podría pasar del estado sólido en el que se encuentra inicialmente a estado semisólido, o, incluso, a estado líquido.

Este fenómeno se conoce como fusión del núcleo, y puede provocar que una parte del material radiactivo acabe saliendo fuera de la vasija. Esto fue, a grandes rasgos y sin entrar en las causas del accidente, lo que sucedió en el reactor 4 de Chernóbil en 1986, pero hay diferencias muy importantes entre la central nuclear que sufrió aquel terrible accidente y las plantas en operación actualmente. Y una de esas diferencias fundamentales es que los reactores de la central de Chernóbil carecían de recintos de contención.

Como hemos visto, uno de los cometidos primordiales del recinto de contención es evitar que el material radiactivo quede expuesto al medio ambiente si se produce un accidente grave en el núcleo del reactor y se funde parcial o totalmente.

El reactor número 2 de la planta estadounidense Three Mile Island, alojada en Pensilvania, se fundió parcialmente en 1979, y gracias al edificio de contención sus consecuencias fueron infinitamente menos graves que las que desencadenó el accidente de Chernóbil.

En cualquier caso, las centrales nucleares en operación cuentan con sistemas redundantes y auxiliares que persiguen minimizar tanto como sea posible, por un lado, que se produzca un accidente, y, por otra parte, sus efectos dañinos si finalmente llegase a producirse. Ignacio Araluce nos explica en qué consiste esta estrategia de defensa proactiva:

«Como medida adicional, todos los sistemas de la central están diseñados a partir del mismo principio de defensa en profundidad. Esto provoca que sistemas como el de refrigeración del reactor sean redundantes, por lo que si falla uno seguirá cumpliendo su función el otro, que, además, estará alimentado por una energía diferente.

Y si los sistemas fallan todo el circuito primario está diseñado para que se establezca una circulación natural, de manera que haya un movimiento del agua a través del núcleo por gravedad y diferencia de temperaturas que lo vaya refrigerando.

La central nuclear, además, tiene sus propios generadores de energía eléctrica, que son redundantes. Y desde el accidente de Fukushima las centrales tienen unos equipos móviles que se movilizan si fallasen los generadores para inyectar directamente refrigeración al combustible nuclear.»

Los operadores nucleares están instruidos para resolver situaciones límite

Ya conocemos cuáles son los principales mecanismos de seguridad implementados en las centrales nucleares en operación, pero es evidente que el escenario que plantea una agresión externa de naturaleza bélica puede ser muy diferente al desencadenado por un accidente ocasionado por un fallo técnico o un error humano.

Es absolutamente razonable que algunas personas estemos preocupadas por las consecuencias que podría tener, por ejemplo, el impacto directo de un misil en el recinto de contención de un reactor nuclear durante uno de los enfrentamientos armados que están teniendo lugar en Ucrania en estos momentos.

Para que algo así desencadene una catástrofe similar a la de Chernóbil el agente externo debe ser capaz de dañar parcial o totalmente el edificio de contención. Y, como hemos visto, no es sencillo porque está diseñado para soportar impactos extremadamente violentos.

«Los operadores supervisan todo lo que hace que un reactor pueda funcionar de forma segura y ante cualquier circunstancia no solo durante una operación normal, sino también cuando se produce cualquier tipo de accidente»

Además, también sería necesario que los elementos del circuito primario, como la vasija o el intercambiador de calor, se viesen afectados. O bien que resultasen dañados seriamente el circuito secundario o el circuito de refrigeración.

Aun así, si se produjesen estos daños, dependiendo de su alcance todavía tenemos una última barrera de contención, y es una de las más importantes: los operadores de la sala de control de la central nuclear. Y es que tienen a su disposición sistemas auxiliares y otros recursos que pueden ayudarles a contener el impacto de los daños. Alfredo García (alias @OperadorNuclear) nos explica cuál es su cometido:

«Su responsabilidad es operar el reactor nuclear y todos los sistemas que tiene asociados, como los sistemas de seguridad o de refrigeración. Supervisa todo lo que hace que un reactor pueda funcionar de forma segura y ante cualquier circunstancia. No solo durante una operación normal, sino también cuando se produce cualquier tipo de accidente. En una sala de control hay dos operadores: el operador de reactor y el operador de turbina.

También hay un jefe de sala de control, que tiene licencia de supervisor y que dirige el trabajo de los dos operadores. Cuando es necesario llevar a cabo maniobras el jefe de sala de control lee los procedimientos, da las órdenes, pide los datos y coordina la operación de los dos operadores. El siguiente escalón está ocupado por el jefe de turno, o el ayudante del jefe de turno, que es el puesto que ocupo desde hace seis años.»

Ignacio Araluce amplía lo que nos cuenta Alfredo, extendiéndolo a todas las personas que trabajan en una central nuclear:

«Hay otro nivel que es aún más importante: la cultura de seguridad. La formación de todas las personas que trabajan en una central nuclear es individualizada y permanente durante toda su carrera profesional. Además, cada operador no solo debe demostrar unos conocimientos teóricos, sino también las habilidades que necesita para desarrollar su puesto de trabajo.

Pero aquí no acaba todo. Por encima de todo esto existe una supervisión interna en las centrales nucleares que se responsabiliza de examinar minuciosamente el trabajo de los operadores. Y más allá de esta hay una supervisión adicional, a nivel de empresa, que examina no solo el desempeño de los trabajadores, sino también el de la organización. Y por encima de esta hay otros equipos de supervisión externos constituidos por expertos internacionales que examinan si los métodos de seguridad utilizados por las empresas son los adecuados.»

El conflicto bélico que está teniendo lugar en Ucrania podría comprometer la seguridad de alguna de las centrales nucleares que se están viendo afectadas, pero, como acabamos de ver, no son tan frágiles como puede parecer si no conocemos cómo están diseñadas.

En cualquier caso, solo nos queda esperar que esta terrible guerra acabe pronto. Y, además, que lo haga sin comprometer la seguridad de unas instalaciones tan sensibles como lo son las centrales nucleares.

Imágenes | DPA Germany | MikeRun

-
La noticia Qué tiene que pasar (y qué no) para que el asedio de un ejército cause un desastre en una central nuclear fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

El primer reactor de fisión nuclear SMR aprobado en Estados Unidos, bajo sospecha

El primer reactor de fisión nuclear SMR aprobado en Estados Unidos, bajo sospecha

La fisión nuclear de cuarta generación es prometedora. Los países que defienden esta tecnología de generación de electricidad confían en su capacidad de dejar atrás muchas de las desventajas de las centrales nucleares en operación. Al fin y al cabo es uno de los ingredientes de la receta que proponen para minimizar la emisión de gases de efecto invernadero.

De hecho, los diseños de cuarta generación proponen tomar un nuevo rumbo para no verse lastrados por las deficiencias introducidas en las generaciones anteriores. Y para lograrlo deben cumplir necesariamente tres requisitos.

Esto es lo que nos promete la fisión nuclear de cuarta generación

El primero de ellos consiste en alcanzar la máxima sostenibilidad posible, de manera que el combustible se aproveche al máximo para producir energía, se minimice la cantidad de residuos radiactivos resultantes del proceso y su gestión sea lo más eficiente posible.

El segundo requisito atañe a la inversión económica que es necesario afrontar para poner en marcha y mantener la central nuclear, que debe ser lo más baja posible para que pueda equipararse al gasto que exigen otras fuentes de energía, reduciendo, de esta forma, el riesgo financiero.

Y el tercer y último requisito estipula que la seguridad y la fiabilidad deben ser lo suficientemente altas para minimizar la probabilidad de que el núcleo del reactor sufra daños. Además, si se produjese un accidente no debería ser necesario tomar medidas de emergencia más allá de las instalaciones de la central nuclear.

Algunas empresas e instituciones públicas de los países que mantienen su apuesta por la fisión nuclear llevan varios años trabajando en el diseño de reactores SMR

Todo esto suena muy bien, pero lo más interesante es que algunas empresas e instituciones públicas de los países que mantienen su apuesta por la fisión nuclear llevan varios años trabajando en el diseño de reactores modulares y compactos (conocidos como SMR por la denominación en inglés Small Modular Reactor). Y algunos de ellos están siendo diseñados de acuerdo con los principios y los requisitos establecidos para los equipos de fisión nuclear de cuarta generación.

No obstante, en realidad esta no es una tecnología incipiente. De hecho, algunos de estos diseños se encuentran en un estado de desarrollo muy avanzado. Uno de los más prometedores es el de la compañía estadounidense NuScale, que cuenta con el respaldo económico y el beneplácito del Departamento de Energía de Estados Unidos (conocido como DOE por su denominación en inglés).

Qué dice el informe que critica con dureza el reactor SMR de NuScale

Actualmente NuScale tiene en marcha simultáneamente varios proyectos de diseño de reactores SMR. Uno de ellos, curiosamente, será el primero con estas características que será instalado en Polonia, pero el más cercano en el tiempo será construido en las instalaciones que tiene el Departamento de Energía de Estados Unidos en Idaho. Precisamente este último proyecto recibió la aprobación de la NRC (Nuclear Regulatory Commission), que es el organismo estadounidense que regula y supervisa la energía nuclear, en 2020.

Sin embargo, no todo son parabienes para el diseño SMR de NuScale. Y es que hace pocos días IEEFA (Institute for Energy Economics and Financial Analysis), que es una institución especializada en el análisis de las tecnologías y los mercados energéticos, ha publicado un artículo en el que arroja dudas muy serias acerca de las cualidades que según NuScale tiene su diseño de reactor SMR. Esta frase literal de IEEFA es muy clarificadora: «Demasiado tarde, demasiado caro, demasiado peligroso y demasiada incertidumbre».

Su rendimiento operacional, según IEEFA, estará por debajo del 95% que proclama NuScale

Según esta institución los principales riesgos que entraña el diseño del reactor SMR de NuScale derivan de su coste, que según el DOE superará los 6800 dólares el kW; el periodo de tiempo que es necesario invertir en su construcción, que según IEEFA no le permitirá entrar en funcionamiento hasta mediados de 2029, y no en 2026, como prevé NuScale; su rendimiento operacional, que según IEEFA estará por debajo del 95% que proclama NuScale; y, por último, sus presumiblemente elevados costes de mantenimiento y operación.

En cualquier caso, no debemos pasar por alto que esta crítica de IEEFA, si es que realmente es atinada, no pone en tela de juicio el diseño y la rentabilidad de todos los reactores SMR; solo involucra a esta propuesta de NuScale en particular. Más allá de este interesante debate es razonable concluir que el futuro de la fisión nuclear en aquellos países que creen en esta forma de obtención de energía pasa por apostar por los reactores de cuarta generación en general, y los de tipo SMR en particular.

Imagen de portada | NuScale

Más información | NuScale | IEEFA

-
La noticia El primer reactor de fisión nuclear SMR aprobado en Estados Unidos, bajo sospecha fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

SWIFT, el arma estratégica de Occidente para atacar la hucha de Rusia: qué lo hace tan importante

SWIFT, el arma estratégica de Occidente para atacar la hucha de Rusia: qué lo hace tan importante

El conflicto que late en Ucrania se está librando en varios frentes. La guerra sobre el terreno es la que habitualmente resulta más impactante, y también la que acapara más titulares, pero no es en absoluto la única forma de infligir daño a las naciones rivales. En un mundo globalizado e hiperconectado como el actual atacar el bolsillo del enemigo puede ser tan eficaz como dañar sus infraestructuras críticas.

Estados Unidos, la Unión Europea y Gran Bretaña están desplegando un paquete de medidas que persigue, precisamente, imponer sanciones económicas severas a Rusia como respuesta a las últimas decisiones tomadas por el Gobierno liderado por Vladímir Putin para reforzar su postura frente a Ucrania. Hay muchas formas de erosionar el sistema financiero de un país, y una de las más eficaces requiere bloquear sus bancos y aislarlo de las economías con las que tiene una mayor relación de interdependencia.

Este es el contexto ya indiscutiblemente bélico en el que los países occidentales han puesto sobre la mesa la posibilidad de expulsar a Rusia del sistema bancario internacional SWIFT. Varios expertos han comparado el impacto destructivo que tendría esta medida sobre el sistema financiero de Rusia con el lanzamiento de un arma nuclear sobre una gran ciudad. Esta metáfora describe intuitivamente que las economías occidentales también se verían dañadas por esta medida, por lo que no puede ser tomada con ligereza.

Según Reuters la expulsión de Rusia del sistema bancario SWIFT ha sido propuesta por los países bálticos, entre los que se encuentran Polonia, Estonia, Letonia o Lituania, pero por el momento Estados Unidos y la Unión Europea en su conjunto han frenado esta medida debido no solo al gran impacto que tendría sobre la economía global; también podría comprometer muy seriamente el papel preponderante que tiene el dólar en los mercados internacionales. Así de importante es el sistema SWIFT.

SWIFT: qué es y cómo funciona

Entender en qué consiste el sistema bancario internacional SWIFT no es difícil. Este acrónimo procede de la denominación en inglés Society for World Interbank Financial Telecommunication, e identifica, sencillamente, al proveedor de servicios que se responsabiliza de administrar de forma segura las transacciones que llevan a cabo los bancos de todo el planeta.

Esta organización es también la responsable de gestionar la infraestructura que necesitan las entidades bancarias para poder llevar a cabo las operaciones de carácter internacional que realizan entre ellas.

Expulsar a un país del sistema SWIFT es el equivalente a aislarlo del sistema bancario internacional

Lo que acabamos de ver nos permite intuir sin esfuerzo que expulsar a un país del sistema SWIFT es el equivalente a aislarlo del sistema bancario internacional. Y es evidente que una medida como esta tendría un impacto profundo tanto en su sistema financiero como en los de aquellos países con los que se relaciona. Todo lo que hemos visto hasta ahora parece sugerirnos que la red SWIFT es algo heterogéneo y muy alejado del ciudadano de a pie, pero nada más lejos de la realidad.

De hecho, las personas que tenemos una cuenta bancaria podemos necesitar el código SWIFT de nuestra entidad, conocido también como BIC (Código de Identificación Bancaria), para llevar a cabo transacciones internacionales.

Esta cadena alfanumérica (está constituida tanto por caracteres como por dígitos) identifica sin ambigüedad el banco y la sucursal que están involucrados en una transacción, y puede tener ocho u once caracteres. Si tiene ocho identificará únicamente la oficina central de la entidad bancaria, pero si utiliza once caracteres estará identificando también la sucursal.

Esta es la estructura que tiene el código SWIFT de una oficina bancaria:

  • Los cuatro primeros caracteres identifican la entidad bancaria. Por ejemplo, el Banco Santander tiene asignados los caracteres 'BSCH', mientras que ING Direct utiliza la cadena 'INGB'.
  • Los dos siguientes caracteres identifican el país en el que reside la entidad bancaria. Los utilizados por los bancos españoles son 'ES'.
  • Los dos próximos caracteres, los que ocupan las posiciones séptima y octava en el código SWIFT, identifican la localidad en la que reside el banco. Como ejemplo, Madrid tiene asignados los caracteres 'MM'; Barcelona, 'BB'; y Valencia, 'VV'.
  • Los tres últimos dígitos son opcionales, pero si aparecen identifican la oficina o sucursal en la que reside la cuenta bancaria que está involucrada en la transacción internacional.

Como acabamos de ver, no es difícil interpretar un código SWIFT si estamos familiarizados con la entidad bancaria a la que está vinculado. El del Banco Santander es 'BSCHESMMXXX'; el de ING Direct, 'INGBNL2AXXX'; el del BBVA, 'BBVAESMMXXX'; y el de Caixabank, 'CAIXESBBXXX'. Hemos elegido estas entidades bancarias para ilustrar con claridad el significado que tiene el código SWIFT, pero cualquier otro banco español o extranjero se identifica en las transacciones internacionales utilizando este mismo procedimiento.

Antes de seguir adelante merece la pena que nos fijemos en algo importante. Acabamos de ver que el código SWIFT identifica tanto la entidad bancaria como la oficina involucradas en una transacción, pero no hace referencia a un número de cuenta concreto.

Esta es la razón por la que en algunas transacciones los usuarios podemos vernos obligados también a indicar un número IBAN, que, a diferencia del código SWIFT, identifica una cuenta bancaria concreta para que pueda ser utilizada en operaciones internacionales. De hecho, el acrónimo IBAN procede de la denominación en inglés International Bank Account Number (número de cuenta bancaria internacional).

Las opciones de Rusia: SPFS y las criptomonedas

Ya sabemos para qué utilizan los bancos los códigos SWIFT, pero no debemos pasar por alto que este sistema es mucho más que un montón de códigos de identificación de entidades bancarias. La organización que los administra proporciona también los protocolos y los mecanismos necesarios para efectuar las transacciones internacionales con seguridad, por lo que excluir a un país de este sistema en la práctica le impediría llevar a cabo transacciones con las entidades extranjeras que continúan utilizándolo.

Esta medida, si la escalada bélica continúa y finalmente Occidente decide ejecutarla, obstaculizaría dramáticamente las exportaciones rusas, y, como es lógico, el negocio de las empresas que viven de ellas se iría a pique. La consecuencia más evidente que tendría es que la economía rusa quedaría en gran medida encerrada sobre sí misma y sin posibilidad de intervenir en los mercados internacionales. No obstante, en este ámbito Rusia no se ha quedado de brazos cruzados.

Y es que coincidiendo con la adhesión de la península de Crimea a Rusia en 2014, y en previsión de que Estados Unidos y Gran Bretaña pudiesen expulsar al país liderado por Putin del sistema SWIFT, este último puso en marcha su propio sistema de transacciones bancarias, conocido como SPFS.

Por el momento solo algo más de 400 entidades bancarias utilizan la red SPFS rusa

La mala noticia para Rusia es que por el momento solo algo más de 400 entidades bancarias lo utilizan. La mayoría son rusas, pero también se han adherido a esta red unos pocos bancos suizos, alemanes, armenios o kazajos, entre otras nacionalidades. Es evidente que a SPFS le queda mucho trabajo por hacer y mucha confianza por recabar para ser relevante.

No obstante, la red SPFS no es la única baza que tiene a su alcance Rusia para contrarrestar, si es que finalmente llega, su exclusión del sistema SWIFT. Como os hemos explicado hoy mismo en otro artículo, Rusia puede esquivar en cierta medida las sanciones económicas impuestas por Occidente utilizando las criptomonedas.

Estas divisas virtuales ya están siendo empleadas por Corea del Norte e Irán para operar de una forma paralela al sistema financiero global, y llegado el momento Rusia podría hacer lo mismo. De hecho, incluso China está pergeñando desde hace meses una versión virtual de su yuan. Pase lo que pase será mejor que nos abrochemos el cinturón. Vienen curvas.

Imagen de portada | Evgenia Novozhenina/Reuters

-
La noticia SWIFT, el arma estratégica de Occidente para atacar la hucha de Rusia: qué lo hace tan importante fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

Los chips para coches moverán 115.000 millones de dólares en 2030. Así pretende Intel devorar el pastel

Los chips para coches moverán 115.000 millones de dólares en 2030. Así pretende Intel devorar el pastel

En Intel lo tienen claro. Según esta compañía en 2030 la industria de los semiconductores facturará 115 000 millones de dólares contabilizando únicamente los circuitos integrados que venderá a los fabricantes de coches. Esta cifra multiplica prácticamente por dos la actual, lo que refleja que la demanda de chips que tiene el sector de la automoción ahora palidece frente a la que alcanzará en tan solo ocho años.

No cabe duda de que es un pastel demasiado jugoso para dejarlo escapar, y los fabricantes de semiconductores se están preparando para responder a esta inminente explosión de la demanda. Resulta sorprendente que en el enorme contexto de déficit de chips en el que nos encontramos actualmente esta industria nos esté anticipando que, lejos de apaciguarse, la demanda va a seguir incrementándose con un ritmo vertiginoso.

Intel tiene un plan, y ya prepara sus cartas

Hace dos días os contamos que Intel ha comprado la empresa de producción de semiconductores israelí Tower Semiconductor por 5400 millones de dólares. Y, precisamente, los nodos de fabricación de los que dispone esta compañía encajan como un guante con los requisitos que deben satisfacer buena parte de los chips que demanda la industria de la automoción. Sin embargo, esta compra es solo uno de los movimientos que está preparando Intel para reforzar su relevancia como fabricante de chips para la industria de los coches.

Intel creará una plataforma de computación automática y abierta que podrá ser utilizada por los fabricantes de coches

De hecho, Intel Foundry Services (IFS), que es la filial especializada en la fabricación de semiconductores, está dando forma actualmente a un departamento que nacerá expresamente con el cometido de dar servicio a los fabricantes de coches. Y la forma de hacerlo no es otra que producir los circuitos integrados que necesitan.

Lo curioso es que Intel parece estar siendo ágil. Y es que ha anunciado que creará una plataforma de computación automática y abierta que podrá ser utilizada por los fabricantes de coches para poner a punto el software que integrarán en sus vehículos.

Lo interesante es que esta plataforma utilizará chiplets, que, a grandes rasgos, son encapsulados que aglutinan varios chips que habitualmente llevan a cabo funciones diferentes y complementarias. Los chiplets son más fáciles de fabricar que los microprocesadores tradicionales que recogen toda la lógica en un único encapsulado. Y, además, tienen una mayor escalabilidad y son más baratos, por lo que tiene sentido que sean adoptados por la industria de la automoción.

Parece razonable asumir que, aunque se trate de una plataforma abierta, priorizará de alguna forma la utilización por debajo del hardware que va a fabricar Intel. No obstante, esto no es todo. Esta compañía también ha anunciado que pondrá a punto nuevos nodos de fabricación adaptados específicamente a las necesidades de los fabricantes de coches.

Y es que buena parte de los circuitos integrados que incorporan los vehículos no requieren utilizar en su fabricación tecnologías tan avanzadas como las empleadas para producir los semiconductores de alta integración que podemos encontrar, por ejemplo, en el interior de nuestros ordenadores y smartphones. De una cosa podemos estar seguros: ya quisieran muchos otros sectores tener unas expectativas de crecimiento como las de la industria de los chips.

Imagen de portada | Mike

Más información | Intel

-
La noticia Los chips para coches moverán 115.000 millones de dólares en 2030. Así pretende Intel devorar el pastel fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

A la fusión nuclear le ha salido un aliado muy valioso para resolver la complejísima estabilización del plasma

A la fusión nuclear le ha salido un aliado muy valioso para resolver la complejísima estabilización del plasma

La fusión nuclear no deja de sumar éxitos en su camino hacia su explotación comercial. Aún queda mucho trabajo por hacer para que llegue a nuestras casas electricidad generada en un reactor de fusión, y los investigadores e ingenieros que trabajan en esta área son los primeros en reconocerlo, pero es incuestionable que durante los últimos veinte años esta tecnología se está desarrollando a un ritmo trepidante.

Las innovaciones relevantes se suceden casi de forma constante, pero este ritmo de desarrollo no es fruto del azar; es el resultado del esfuerzo conjunto que están haciendo algunas de las principales instituciones de investigación del planeta, y también los países con un mayor desarrollo técnico y científico.

El itinerario fijado por EUROfusion, que es el consorcio internacional que se responsabiliza de la puesta a punto de ITER, prevé que si todo sigue su curso la fusión nuclear comercial llegará en la década de los 60. Sin embargo, para alcanzar este importantísimo hito es necesario resolver varios desafíos, y uno de los más complejos consiste en encontrar la forma de controlar con precisión el plasma para estabilizarlo y sostener la reacción a lo largo del tiempo.

El aprendizaje profundo, una herramienta esencial en la ciencia de la fusión nuclear

ITER, el reactor de fusión experimental que un consorcio internacional está construyendo en la localidad francesa de Cadarache, es un reactor de fusión nuclear mediante confinamiento magnético de tipo tokamak. Su propósito es demostrar la viabilidad y la rentabilidad de esta forma de generación de energía, y su estrategia para obtenerla consiste en fusionar los núcleos de deuterio y tritio que conforman un gas a 150 millones de grados Celsius.

Alcanzar esa temperatura es imprescindible porque de esta forma los núcleos ionizados de deuterio y tritio adquieren la energía cinética necesaria para vencer su repulsión eléctrica natural y fusionarse. Sin embargo, lidiar con un plasma a una temperatura tan alta es muy complejo.

En los reactores de confinamiento magnético un sofisticado sistema de imanes de altísima potencia se responsabiliza de confinar este combustible ionizado a altísima temperatura para evitar que entre en contacto con las paredes de la cámara de vacío. Si lo hiciese, las degradaría, y sería imposible sostener la reacción de fusión durante más tiempo. El problema es que el plasma está sometido a unas turbulencias que se originan de forma natural y son especialmente intensas en la capa más externa de este gas.

Es imprescindible entender cómo se comporta el plasma a 150 millones de grados Celsius para conseguir estabilizarlo

Entender cómo se comporta el plasma cuando se inician los procesos de fusión nuclear es esencial en el camino hacia una solución que nos permita controlarlo con precisión, y, por tanto, estabilizarlo. Hace pocas semanas un grupo de investigadores del MIT elaboró un modelo de turbulencias capaz de predecir su comportamiento, y, curiosamente, una pieza esencial de este modelo matemático es el aprendizaje profundo. No obstante, estos no son los únicos científicos que han optado por esta estrategia.

Y es que otro grupo de investigadores acaba de publicar en Nature un interesantísimo artículo en el que describe con todo lujo de detalles un complejo sistema de control magnético que persigue, precisamente, controlar el plasma con una precisión, según sus pruebas, inédita. No es necesario que indaguemos en los detalles más complejos de su propuesta, pero nos interesa saber que su enfoque consiste en monitorizar en tiempo real las fluctuaciones del plasma para actuar sobre él con mucha rapidez y conferirle la forma, la posición y la corriente óptimas.

Modeloarquitecturafusionnuclear

Fuente: Nature

En realidad, esta estrategia no es nueva. Los técnicos involucrados en el desarrollo de la fusión nuclear mediante confinamiento magnético llevan muchos años trabajando en ella. La que sí es nueva es la forma en que estos investigadores proponen resolver este desafío. En la imagen que publicamos encima de estas líneas podemos ver con todo detalle la arquitectura del sistema de control magnético que han diseñado para actuar en tiempo real sobre el plasma a altísima temperatura.

Lo que hace diferente a este sistema de control magnético es que ha sido diseñado utilizando algoritmos de aprendizaje reforzado

Es evidente que los elementos físicos de un sistema de control magnético como este son muy importantes; sin embargo, y aquí reside la originalidad de esta solución, lo que la hace diferente de otras arquitecturas de control es que ha sido diseñada utilizando algoritmos de aprendizaje reforzado. Esta área del aprendizaje automático se utiliza en muchas otras disciplinas técnicas y científicas para resolver problemas de optimización, pero es la primera vez que se emplea para diseñar el sistema de control magnético de un reactor de fusión nuclear.

Los investigadores que han abordado este enfoque aseguran en su artículo que su diseño reduce sensiblemente la complejidad del sistema de control magnético. No obstante, lo más prometedor es que lo han puesto a prueba, al parecer con mucho éxito, en TCV (Tokamak à configuration variable), que es un reactor tokamak de fusión nuclear para investigación alojado en la Escuela Politécnica Federal de Lausana (Suiza).

Lo que hace tan atractivo este reactor mediante confinamiento magnético para los investigadores es que permite estudiar plasmas con distintas configuraciones geométricas. Esto es importante porque la forma de este gas condiciona profundamente el rendimiento del reactor de fusión. Y, según estos investigadores, su sistema de control magnético ha conseguido monitorizar el comportamiento del plasma, actuar sobre su forma en tiempo real y estabilizarlo con éxito. Suena realmente bien.

Sus conclusiones son muy emocionantes: 'El control magnético de un reactor tokamak es uno de los escenarios más complejos en los que se ha utilizado el aprendizaje reforzado. Esta es una nueva y muy prometedora forma de abordar el diseño de los sistemas de control magnético, y tiene el potencial de acelerar la ciencia de la fusión nuclear y de contribuir al desarrollo de futuros reactores tokamak'. Parece razonable aceptar que esta tecnología podría resultar valiosa cuando arranquen en ITER las pruebas de alta potencia con deuterio y tritio. Crucemos los dedos para que sea así.

Imagen de portada | ITER

Más información | Nature

-
La noticia A la fusión nuclear le ha salido un aliado muy valioso para resolver la complejísima estabilización del plasma fue publicada originalmente en Xataka por Juan Carlos López .

Leer más