Ya es hora de separar el grano de la paja en la fusión nuclear: este es el camino que nos queda para alcanzarla

Ya es hora de separar el grano de la paja en la fusión nuclear: este es el camino que nos queda para alcanzarla

La fusión nuclear está, ahora más que nunca, en el centro de atención. Y lo está por partida doble. Por un lado el Departamento de Energía (DOE) de Estados Unidos ha confirmado oficialmente que el experimento NIF (National Ignition Facility) del Laboratorio Nacional Lawrence Livermore ha alcanzado por primera vez la rentabilidad energética. Es un hito muy esperado, y, sobre todo, crucial en el itinerario de esta tecnología de fusión.

Pero esto no es todo. Hace apenas tres meses comenzó en Escúzar, una localidad de Granada, la construcción de los edificios que albergarán los dos aceleradores de partículas lineales de IFMIF-DONES. Esta instalación tendrá un papel fundamental en el camino hacia la energía de fusión mediante confinamiento magnético. Y, de paso, pondrá a España en el mapa de los países que tienen centros de investigación de referencia mundial.

La fusión nuclear nos promete algo muy importante: energía eléctrica en grandes cantidades, limpia, segura, y, además, presumiblemente barata. Suena muy bien. Los hitos de los últimos años nos invitan a ser razonablemente optimistas acerca de la viabilidad de esta tecnología, pero no debemos pasar por alto que tanto la fusión mediante confinamiento inercial como la que recurre al confinamiento magnético deben resolver aún desafíos muy importantes.

Dónde está la fusión por confinamiento inercial ahora y qué le queda por resolver

Para entender por qué es importante el logro que acaban de alcanzar los investigadores del experimento NIF y qué representa realmente merece la pena que repasemos brevemente en qué consiste la fusión nuclear mediante confinamiento inercial. El punto de partida de las dos estrategias de fusión que se están desarrollando actualmente es exactamente el mismo: la fusión de un núcleo de deuterio y otro de tritio nos permite obtener una gran cantidad de energía.

Estos dos elementos químicos son isótopos del hidrógeno, pero el primero de ellos, el deuterio, es relativamente abundante y fácil de obtener, mientras que el otro, el tritio, es muy escaso y tiene que ser producido de manera artificial. Además, es radiactivo. Para conseguir que los núcleos de estos dos elementos venzan su repulsión eléctrica natural y se fusionen la estrategia de confinamiento inercial recurre a una gran cantidad de láseres de alta energía.

En el interior de la cámara esférica están distribuidos nada menos que 192 láseres de alta energía

El combustible constituido por los núcleos de deuterio y tritio se introduce en un encapsulado de diamante en forma de microbola y se coloca en el interior de una cámara esférica en cuyas paredes de aluminio de 10 cm de espesor están distribuidos nada menos que 192 láseres de alta energía muy sofisticados. Su propósito es concentrar de forma simultánea y abrupta toda su energía en el contenido de la cápsula para que el combustible se caliente, se condense y se comprima de forma súbita, dando lugar así a la fusión de los núcleos de deuterio y tritio.

La razón por la que la cápsula es de diamante es que este mineral optimiza la absorción de los rayos X que provocan la condensación de los núcleos de estos dos isótopos del hidrógeno. Los primeros experimentos en NIF se llevaron a cabo en 2009, pero las primeras pruebas relativamente exitosas no llegaron hasta 2014. El problema era que en aquellos tests la cantidad de energía generada mediante la reacción de fusión era muy baja, por lo que la rentabilidad energética quedaba aún abrumadoramente lejos debido a que era necesario invertir en el proceso mucha más energía de la que la fusión podría entregar.

Desde entonces los científicos involucrados en NIF se han dedicado sobre todo a optimizar los láseres y el encapsulado que contiene el combustible, pero también han continuado haciendo pruebas. El 8 de agosto de 2021 llevaron a cabo una especialmente exitosa. Y es que lograron generar 1,3 megajulios de energía. Era una cifra muy superior a las que habían obtenido en los experimentos anteriores, pero seguía sin ser suficiente para alcanzar la rentabilidad energética debido a que los láseres para funcionar requieren una energía de 2,05 megajulios.

NIF ha entregado en esta prueba una energía de 3,15 megajulios, lo que equivale a un beneficio energético del 35%

Y, por fin, llegamos al hito que acabamos de presenciar. Por primera vez el experimento NIF ha conseguido devolver una cantidad de energía superior a la que ha sido necesaria invertir para desencadenar la fusión de los núcleos de deuterio y tritio del combustible. En un principio los primeros datos apuntaban que NIF había generado 2,5 megajulios de energía, lo que equivale a un beneficio energético neto del 20%. Sin embargo, los datos oficiales que ha confirmado el DOE son aún mejores. Y es que asegura que NIF ha entregado en esta prueba una energía de 3,15 megajulios, lo que equivale a un beneficio energético del 35%.

Este hito es muy importante, y, además, nos invita a contemplar la energía de fusión mediante confinamiento inercial con un optimismo muy razonable, pero esto no significa en absoluto que ya esté todo hecho. Para nada. Todavía quedan desafíos muy importantes que es imprescindible resolver, y hasta que no estén bien atados no podremos tener centrales eléctricas con reactores de fusión mediante confinamiento inercial.

Hay quien ya está aventurando la fecha en la que llegarán, pero, en realidad, nadie sabe con certeza cuándo estarán listas. Eso sí, podemos estar seguros de que tardarán varias décadas, y difícilmente llegarán antes de la década de los 50.

Camara Nif

Esta fotografía muestra cómo fue la construcción de la cámara esférica del experimento NIF. En los orificios de sus paredes se instalaron posteriormente los láseres responsables de la condensación del combustible alojado en la microbola.

El experimento NIF ya ha demostrado que la fusión nuclear mediante confinamiento inercial funciona, y también que esta tecnología nos permite obtener un beneficio energético neto. Sin embargo, todavía tiene que lidiar con el neutrón de alta energía (aproximadamente 14 MeV) resultante de la fusión de un núcleo de deuterio y otro de tritio. Esta partícula sale despedida hacia las paredes de la cámara, y, debido a su energía, provoca un daño muy específico en los materiales del reactor.

IFMIF-DONES persigue, entre otras cosas, probar y certificar los materiales que se utilizarán en los reactores de fusión comerciales

Hoy en día no existen bancos de prueba diseñados para probar los materiales candidatos a ser utilizados en los futuros reactores de fusión nuclear, pero en 2033, si todo va como está previsto, estarán listas las instalaciones del proyecto IFMIF-DONES en Granada. Precisamente esta iniciativa persigue, entre otras cosas, probar y certificar los materiales que se utilizarán en los reactores de fusión comerciales.

De hecho, del conocimiento que presumiblemente nos entregará este proyecto se beneficiará tanto la fusión mediante confinamiento magnético del futuro reactor de demostración DEMO, como la fusión mediante confinamiento inercial que nos propone el experimento NIF. En cualquier caso, este no es el único desafío que es necesario resolver.

Otro de los retos relevantes consiste, como nos explicó Carlos Alejaldre, el exdirector general del CIEMAT, durante la conversación que mantuvimos con él a mediados del pasado mes de abril, en desarrollar el respaldo tecnológico necesario para garantizar al reactor un suministro de microbolas de combustible continuo, preciso y muy rápido de al menos diez cápsulas por segundo. De lo contrario la entrega de energía del reactor no podrá sostenerse en el tiempo y su propósito se irá al garete.

Además, cuando estos y otros desafíos tecnológicos estén resueltos será necesario diseñar y construir una central eléctrica de demostración equipada con un reactor de fusión mediante confinamiento inercial, que, entre otros retos, proponga cómo generar electricidad a partir de los pulsos energéticos que entrega el reactor. Esta instalación será equiparable a DEMO, que será la central de demostración dotada de un reactor de fusión mediante confinamiento magnético que recogerá todo el conocimiento entregado por ITER e IFMIF-DONES.

Dónde está la fusión por confinamiento magnético y qué tiene pendiente

Esta es la otra cara de la moneda con la que estamos jugueteando. La fusión nuclear mediante confinamiento magnético propone, muy a grandes rasgos, confinar el plasma a 150 millones de grados Celsius que contiene los núcleos de deuterio y tritio en el interior de un campo magnético muy intenso.

ITER es el gran proyecto público de energía de fusión mediante confinamiento magnético

Esta sopa de partículas se encuentra encerrada en el interior de una cámara de vacío con una geometría particular: la de un toroide. De hecho, los reactores experimentales de fusión mediante confinamiento magnético que se han construido o están en desarrollo, como JET, que está alojado en Oxford (Inglaterra), o ITER, son de tipo tokamak.

El desarrollo que ha experimentado esta tecnología durante las últimas dos décadas ha sido muy notable, lo que nos invita, al igual que la fusión mediante confinamiento inercial, a mirar hacia delante con optimismo. El gran proyecto público de energía de fusión mediante confinamiento magnético es ITER, y en él participan la Unión Europea, Estados Unidos, Rusia, China, India, Japón y Corea del Sur. Ahí es nada.

Llnl Ap

Esta fotografía revela cuál es el aspecto que tiene actualmente la cámara esférica del experimento NIF. Un apunte muy curioso: sus paredes de aluminio tienen un espesor de 10 cm, tiene un diámetro de 10 m y pesa 130 toneladas.

También hay iniciativas privadas muy prometedoras, como, por ejemplo, el reactor SPARC que están desarrollando el MIT y la empresa CFS (Commonwealth Fusion Systems). De hecho, prevén tener su primer prototipo listo en 2025. Sin embargo, y pese a lo mucho que se ha desarrollado durante los últimos años, la fusión nuclear mediante confinamiento magnético también tiene por delante un camino largo que obligará a los investigadores a sortear varios desafíos.

El confinamiento magnético ya ha demostrado que es una forma muy eficaz de hacer fusión. Y, además, también que esta estrategia nos permite obtener grandes cantidades de energía. De hecho, JET, que hasta que entre en operación ITER ejerce como instalación de referencia, ha conseguido generar 59 megajulios de energía durante 5 segundos empleando el mismo combustible que utilizará ITER: deuterio y tritio.

La pelota ahora está en el tejado de ITER. Su propósito cuando esté terminado y comiencen las primeras pruebas con plasma (iban a arrancar en 2025 pero es posible que se retrasen un poco) será demostrar que la fusión nuclear es una herramienta ideal para generar grandes cantidades de energía de una manera limpia y segura. Después, IFMIF-DONES, como hemos visto, tendrá un rol fundamental en la búsqueda de los materiales ideales para soportar la incidencia de los neutrones rápidos.

JET ha generado 59 megajulios de energía durante 5 s empleando el mismo combustible que utilizará ITER

Por el camino los investigadores que están trabajando en la fusión mediante confinamiento magnético tendrán que solventar las dificultades que conlleva el control del plasma debido, sobre todo, a la aparición de turbulencias. Y también tendrán que refinar algunas partes especialmente delicadas del reactor, como, por ejemplo, el divertor, que es el "tubo de escape" por el que salen las impurezas que no deben involucrarse en la reacción de fusión.

Como he mencionado más arriba, todo lo aprendido con ITER e IFMIF-DONES se aplicará en DEMO, que será el reactor de energía de fusión que tendrá que demostrar su viabilidad a la hora de generar electricidad. Y después, si todo va como está previsto, llegarán las centrales eléctricas de fusión. Esta es la gran pregunta: ¿cuándo estarán listas?

Según EUROfusion las primeras se empezarán a construir durante la década de los 60. Y sí, es una previsión plausible porque, como nos ha explicado Moisés Weber, uno de los máximos responsables de IFMIF-DONES en España, actualmente estamos encarando el último escalón de la fusión nuclear. Quedan retos importantes por resolver, y será necesario afrontar grandes esfuerzos, pero ahora más que nunca tenemos las herramientas adecuadas para llevar a buen puerto esta tecnología tan apasionante.

Imágenes: LLNL

Más información: LLNL | DOE

-
La noticia Ya es hora de separar el grano de la paja en la fusión nuclear: este es el camino que nos queda para alcanzarla fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

“Ya estamos en el último escalón”: cómo España se ha hecho con la llave para hacer realidad la fusión nuclear

España está a punto de tener su propia instalación científica de referencia mundial. A mediados del pasado mes de septiembre comenzaron las obras de construcción de IFMIF-DONES (International Fusion Materials Irradiation Facility DEMO-Oriented NEutron Source), un ambicioso proyecto vinculado a ITER, el reactor de fusión experimental que un consorcio internacional liderado por Europa está construyendo en la localidad francesa de Cadarache.

Esta iniciativa tendrá un papel fundamental en el camino hacia DEMO (DEMOnstration Power Plant), que será una instalación que recogerá todo el conocimiento adquirido en ITER e IFMIF-DONES con el propósito de demostrar la viabilidad de los reactores de fusión en la producción de electricidad. Este último proyecto estará ubicado en la localidad granadina de Escúzar, y una de las personas que mejor lo conocen es Moisés Weber, investigador de CIEMAT que actualmente ejerce como Adjunto al Director de IFMIF-DONES España.

Moisés es doctor en ingeniería industrial, y trabaja desde hace casi dos décadas en fusión nuclear. Buena parte de su carrera científica ha discurrido en CIEMAT, aunque también ha tenido un papel relevante en LIPAc, el acelerador de partículas alojado en Rokkasho (Japón), que, de alguna forma, es el precursor de IFMIF-DONES.

Nadie mejor que él para indagar en todo lo que se está cociendo actualmente en este proyecto. De hecho, como estáis a punto de comprobar, Moisés puede ayudarnos a disipar muchas de las dudas que revolotean alrededor de la fusión nuclear. Abrochémonos los cinturones.

IFMIF-DONES es una pieza fundamental en el camino hacia la energía de fusión

¿Podrías explicar de la forma más didáctica posible cuál es el propósito del proyecto IFMIF-DONES?

Los reactores de fusión contienen la reacción entre los núcleos de deuterio y tritio, y esta reacción de fusión produce un tipo de neutrones rápidos con una energía media más alta que los producidos en otro tipo de centrales. No obstante, no son partículas extremadamente rápidas; de hecho, se mueven en un rango intermedio si las comparamos con otros neutrones rápidos.

Moises Retrato

Debido a su energía estas partículas provocan un daño muy específico en los materiales del reactor, y hoy en día no existen bancos de test que nos permitan poner a prueba los materiales que necesitamos para las centrales de fusión.

Yo siempre digo que ITER es una máquina que viene a responder a la pregunta de cómo hay que hacer fusión, pero no va a responder a la pregunta de qué materiales podemos utilizar porque este reactor va a funcionar con un ciclo de trabajo corto.

Esto significa que va a trabajar “a ratos”, por lo que durante todo su ciclo de vida va a producir un daño en los materiales que estará aproximadamente dos órdenes de magnitud por debajo del que van a provocar las verdaderas centrales de fusión.

«Los neutrones que va a aportar IFMIF-DONES no son idénticos a los de la fusión, pero producen un daño muy similar, que es justo lo que queremos ver: cómo dañan los materiales del reactor»

Como es lógico, esta degradación de los materiales tenemos que probarla a fondo antes de construir una central eléctrica de fusión, como DEMO, pero, como he mencionado, hoy en día no tenemos ningún banco de ensayo que nos permita hacerlo. Esta es precisamente la razón por la que vamos a construir IFMIF-DONES.

Los neutrones que va a aportar no son idénticos a los de la fusión, pero producen un daño muy similar, que es justo lo que queremos ver: cómo dañan los materiales del reactor. Además, se van a producir en una cantidad muy grande. De hecho, será suficiente para probar aceleradamente los materiales.

¿Cuál es el estado actual de la candidatura de Granada? España cuenta con el respaldo de Croacia, que era el otro candidato europeo a albergar el proyecto IFMIF-DONES, pero Japón también aspiraba a hacerse con él. ¿Ya hay una decisión firme que respalde la candidatura española?

En un principio los países que participan en el desarrollo de la tecnología de fusión, que son más o menos los mismos que intervienen en ITER, plantearon que era necesario planificar un proyecto de irradiación de los materiales.

Esta estrategia se confirmó a principios de este siglo, y a partir de ese momento surgieron varios potenciales candidatos. En Europa surgieron tres, España, Croacia y Polonia, pero solo los dos primeros países plantearon una candidatura firme. A partir de ese momento se produjo una negociación entre España y Croacia para presentar una única candidatura.

Japón también estaba muy decidido a participar. Lo que sucede es que la propuesta europea firme desde 2018 es Granada, y Europa quiere tener su propio proyecto de irradiación de materiales.

«El producto de esta instalación va a ser una base de datos de materiales que se va a utilizar para compararla con las simulaciones que existen y mejorar los cálculos que se hacen»

Japón está planteando su propio diseño, que es similar al nuestro porque parte de la misma tecnología desarrollada en la fase previa, pero se están celebrando reuniones entre Europa y Japón porque estamos intentando que este país asiático participe en IFMIF-DONES. De hecho, habrá una reunión importante a finales de este año, aunque no sabemos si Japón construirá finalmente su propia instalación.

El producto de esta instalación va a ser una base de datos de materiales que se va a utilizar para compararla con las simulaciones que existen y mejorar los cálculos que se hacen.

Esta información va a tener un valor económico y estratégico, y las grandes potencias, como Europa, Japón o Estados Unidos, quieren tener su propia base de datos, o bien un acceso consolidado a la base de datos que haya. Esto nos permite formarnos una idea muy precisa de la importancia que tiene IFMIF-DONES desde un punto de vista estratégico.

Lo que nos estás explicando nos invita a recordar que la mayor parte de las potencias científicas y económicas del planeta participan en ITER. La Unión Europea, Estados Unidos, Japón o China son algunas de ellas, pero ¿qué sucede con Rusia? ¿Cómo estáis viviendo los científicos que trabajáis en fusión el conflicto actual entre Occidente y Rusia?

Debido al criterio general que se ha adoptado en Europa se han producido varios movimientos que han limitado los nuevos proyectos. Las personas que trabajamos en el ámbito de la ciencia somos reacias a estas cosas, por lo que, hasta donde yo sé, las colaboraciones con Rusia que están en marcha se mantienen.

Aun así, lo cierto es que las organizaciones internacionales que soportan los programas han impuesto algunas restricciones que sobre todo están vinculadas a las nuevas colaboraciones.

En ese caso, ¿podría retrasar el conflicto que mantienen Occidente y Rusia el desarrollo de la fusión?

Es un problema, desde luego. Si los socios no están a gusto trabajando juntos por las razones que sean, se producen problemas. Yo creo que la guerra de Ucrania no tiene necesariamente que retrasar el desarrollo de la fusión en general, aunque puede provocar el retraso de algún proyecto. En ITER hay una participación rusa importante, y hasta donde yo sé se mantiene, pero no tal y como era hasta ahora, lógicamente.

En cualquier caso, los científicos no tenemos actualmente la sensación de que este conflicto vaya a tener un impacto importante en el desarrollo de esta tecnología. De hecho, y esto me parece muy importante, este problema nos ha obligado a identificar la necesidad de tener fuentes de energía, especialmente en los países que no tienen unos recursos equiparables a su capacidad de consumo, como son Europa y Japón.

España merece una instalación científica de referencia mundial

EUROfusion ha definido un itinerario con hitos precisos que nos anticipan que la fusión nuclear comercial llegará en la década de los 60. ¿Qué plazo de tiempo tiene el proyecto IFMIF-DONES para desarrollar los materiales que deberán ser puestos a prueba en DEMO?

Nuestro plan consiste en empezar a irradiar de forma consistente en 2033, de modo que tendremos los primeros datos en dos años, en 2035. Precisamente en la hoja de ruta de fusión que publica EUROfusion se ve que IFMIF-DONES tiene varios momentos en los que debe entregar sus resultados a DEMO. El último será justo antes del inicio de la construcción de este último reactor de fusión de demostración, cuando se otorguen las licencias.

IFMIF-DONES será el proyecto responsable de demostrar que esos materiales pueden utilizarse para construir DEMO. No obstante, durante la fase de diseño de este último reactor de fusión IFMIF-DONES entregará resultados cada poco tiempo de los distintos experimentos que iremos realizando.

Además, nuestro programa tiene una segunda fase que consiste en la puesta a punto de un segundo acelerador que posiblemente se empezará a diseñar unos diez años después de la puesta en marcha. Esta ampliación añadiría como mínimo otros veinte años de programa de irradiación con aproximadamente el doble de flujo de neutrones.

¿Qué perfil tienen los investigadores que están involucrados actualmente en el proyecto IFMIF-DONES? ¿Qué porcentaje de españoles y extranjeros participan en él?

En Granada ahora mismo somos quince personas, aunque acabamos de sacar ocho plazas para distintos tipos de contratos con el propósito de crecer un poco. No obstante, en realidad en este proyecto en España trabajan de manera directa unas 150 personas pertenecientes a varias universidades e instituciones de investigación, como el CIEMAT o la Universidad de Granada, y otras tantas pertenecientes a empresas.

En otros países están involucradas unas 300 personas más. Casi todos ellos son físicos o ingenieros. Ahora mismo probablemente cerca de la mitad de las personas involucradas en IFMIF-DONES son españolas, al menos las que tenemos más localizadas, y este porcentaje se va a mantener en el futuro durante la puesta en marcha del acelerador de partículas.

¿Qué representa este proyecto desde un punto de vista científico y económico para Granada? ¿Qué relevancia tiene para España como uno de los países con participación directa en ITER?

Nosotros empezamos a hablar de este proyecto en 2006, y nos empeñamos en que se tenía que hacer en España. El programa de fusión “le debía” una gran instalación a nuestro país porque hemos participado en este proyecto desde sus inicios de una manera muy relevante, desde el CIEMAT principalmente, aunque también hay otros participantes. Siempre hemos estado en la primera línea con instalaciones como el TJ-II de Madrid, que en su momento era la instalación de referencia en Europa del tipo stellarator.

«IFMIF-DONES es una instalación de primer nivel. De ahí nuestro interés en tenerla desde el principio»

Sin embargo, intentamos traer ITER a España y se truncó en el último momento por negociaciones políticas. No fue un tema técnico. De hecho, desde un punto de vista estrictamente técnico probablemente la española era la mejor candidatura. Sabíamos que había que hacer algo importante en España, e IFMIF-DONES es una instalación de primer nivel. De ahí nuestro interés en tenerla desde el principio. No hay ninguna mesa en la que se sienten las grandes instalaciones científicas y no esté invitada IFMIF-DONES.

Hoy en día España tiene una industria tecnológica potente que está participando por todo el mundo en otras grandes instalaciones, así como grupos científicos y técnicos que están a la altura. Y, sin embargo, no tiene ninguna instalación única y de referencia en todo el mundo. Esto implica, además, que IFMIF-DONES nos da visibilidad.

El impacto económico de una gran instalación científica como esta es muy importante en toda España, pero su intensidad será mayor localmente, en Granada, debido al tejido de soporte de alta tecnología que atraerá para dar apoyo a la instalación. IFMIF-DONES dará visibilidad tanto a Escúzar, que es la población en la que se va a instalar, como a la propia Granada.

ITER e IFMIF-DONES se enfrentan a grandes desafíos

¿Cuáles son los principales retos a los que os enfrentáis los investigadores que participáis en IFMIF-DONES?

En los reactores experimentales de fusión nuclear, como ITER, confinamos las partículas cargadas utilizando un campo magnético. Lo que sucede es que por muy potente que sea siempre tiene un límite, y las partículas cuando se producen adquieren energías muy variadas. Algunas tienen mucha energía, y otras, sin embargo, adquieren poca energía.

Nosotros somos capaces de contener la energía media, pero aquellas partículas que superan este valor de energía tienen la capacidad de escaparse del campo magnético. Y si se escapan muchas partículas perderemos mucha energía y no seremos capaces de mantener la reacción.

Este es uno de los problemas, y se soluciona modulando los campos magnéticos y aumentando el tamaño del plasma. Esta es la razón por la que cada reactor experimental que construimos es más grande que el anterior. Creemos que ITER tiene el tamaño apropiado debido a que cuantas más partículas hay alrededor de una que quiere escapar, más probable es que impacte con otra en su camino de huída y dé la vuelta, o entregue la energía.

En definitiva lo que necesitamos es que la energía que se escapa sea lo suficientemente pequeña para que no tengamos un nivel de energía decreciente dentro de la reacción. Esto ya se ha conseguido en JET, pero se logra durante poco tiempo debido a que no se puede mantener el esfuerzo durante mucho tiempo por falta de tamaño, viéndolo muy simplificadamente.

Ifmif

La instalación IFMIF-DONES contará finalmente con dos aceleradores capaces de acelerar una corriente de 125 mA de deuterones hasta 40 MeV. Construirlos es un reto tecnológico de proporciones casi épicas.

El segundo reto que estamos afrontando consiste en que necesitamos producir dentro del reactor uno de los ingredientes de la reacción: el tritio. El deuterio es económico y es fácil conseguirlo, pero el tritio no se mantiene en la  naturaleza, por lo que hay que producirlo artificialmente. Y lo ideal es generarlo dentro del propio reactor.

Una forma de resolverlo consiste en introducir litio líquido en las paredes del reactor porque cuando impactan con él los neutrones de alta energía se producirá tritio. Después es necesario extraerlo para reutilizarlo en la reacción como combustible. Esta tecnología es complicada, y está en desarrollo.

«Encontrar los materiales que necesitamos utilizar en la fabricación del divertor, así como en la primera pared de la cámara de vacío, es un desafío»

Otra parte compleja es la que yo llamo el “tubo de escape” del reactor, que es por donde salen las cenizas, que son las impurezas que ya no queremos dentro de la reacción. Los campos magnéticos las derivan hacia esta zona, conocida como divertor, que está alojada en la parte inferior del toroide, pero esta sección del reactor sufre mucho, por lo que requiere una tecnología depurada.

El siguiente reto importante consiste en encontrar los materiales que necesitamos utilizar en la fabricación del divertor, así como en la primera pared de la cámara de vacío, debido a que van a sufrir de primera mano el impacto de los neutrones. Este es, precisamente, el desafío en el que está involucrado directamente el proyecto IFMIF-DONES. Y, por último, están las dificultades de control. Necesitamos mantener el plasma estable, y se está trabajando mucho con inteligencia artificial y sistemas de control más rápidos.

¿Qué opinas acerca de la posibilidad de que el conocimiento que nos entregará IFMIF-DONES pueda ser aplicado en otras disciplinas más allá de DEMO?

Lo que vamos a hacer en IFMIF-DONES es esencialmente ciencia de materiales antirradiación, por lo que es nueva ciencia. Además, es una fuente de neutrones muy potente, y ya estamos trabajando en otros experimentos que persiguen utilizar la instalación para otras disciplinas científicas distintas de la fusión, como, por ejemplo, en medicina.

De hecho, estamos diseñando experimentos para producir isótopos radiactivos como los utilizados en radiomedicina. Además vamos a estudiar tejidos para ver qué impacto tienen los neutrones en ellos, y estamos trabajando en una tecnología de hadronterapia que podría ayudar a curar determinados tipos de tumores.

«Vamos a intentar que la instalación esté disponible para la industria con el propósito de probar materiales de distinto tipo bajo irradiación de neutrones o deuterones»

Por otro lado también se va a trabajar en física nuclear, y vamos a intentar que la instalación esté disponible para la industria con el propósito de probar materiales de distinto tipo bajo irradiación de neutrones o deuterones. De hecho, vamos a tener dos salas especialmente dedicadas a estos experimentos.

En una se van a recoger los neutrones sobrantes de nuestra reacción, que son aquellos que atraviesan tanto las muestras como el blindaje (por donde se lo permitimos), y, además, vamos a desviar un poquito de nuestro haz de partículas de deuterones para que en otra sala podamos hacer distintos experimentos con ellos. Nuestra intención es aprovechar la instalación lo máximo posible.

¿Qué tipo de tratamiento requerirán los materiales irradiados del manto interior de la cámara de vacío? En teoría serán menos problemáticos que los residuos radiactivos de las actuales centrales nucleares de fisión. ¿Es así?

Sí, desde luego. De hecho, es una de las cosas que van en el ADN de la fusión, que siempre ha sido la némesis de la fisión. Y es un papel que nos gusta en general a todos los científicos que trabajamos en esto. La mayor parte de las personas que nos hemos metido en la fusión lo hemos hecho porque creemos en ella como una forma de generar energía limpia, masiva y segura. Estas propiedades las hemos tenido siempre como paradigma, y, por supuesto, el hecho de que la fusión sea limpia implica que no produce residuos.

Uno de los papeles de IFMIF-DONES es, precisamente, certificar que los materiales que vamos a utilizar no producen residuos radiactivos de alta actividad y larga vida. El objetivo es que los materiales que se utilizarán en las centrales de fusión se activen muy poco.

Se van a activar algo porque van a recibir el impacto de los neutrones, pero estamos desarrollando materiales que se activan poco. Este es un requisito autoimpuesto. Podríamos hacerlo con otros materiales que se activan más. Sacaríamos pequeñas cantidades de residuos porque nunca vamos a tener un combustible cuyos residuos sean radiactivos. No tenemos cenizas radiactivas.

Aun así, es verdad que los materiales que están expuestos a una reacción de este tipo siempre producen algún tipo de actividad, aunque estamos minimizándola. Tendremos una pequeña cantidad de residuos procedentes de materiales estructurales que se desmontarán unas pocas veces en la vida de la instalación, y tendremos un tiempo de enfriamiento radiactivo de unos cincuenta años como mucho. Probablemente no va a ser necesario llevar los residuos a un almacén externo.

¿Por qué es la fusión nuclear inherentemente más segura que la fisión utilizada actualmente en las centrales nucleares?

Una de las razones es que la cantidad de residuos radiactivos es mucho menor. De hecho, en fusión se liberarán cantidades muy pequeñas, estarán muy controladas y tendrán una duración muy limitada. Esto sucederá en lo que se refiere a los residuos, pero si nos ceñimos a la propia planta de fusión, o, incluso, a IFMIF-DONES en sí mismo, no contiene ningún material radiactivo que pueda producir un accidente salvo el tritio, que está presente en cantidades muy pequeñas.

«En condiciones normales el tritio tiene un riesgo muy limitado y no especialmente más relevante que el que conlleva una fábrica de polímeros ante un incendio»

Hablamos de unos pocos gramos en ITER, y de miligramos en IFMIF-DONES. Es un producto radiactivo y peligroso si lo inhalas en gran cantidad, pero en condiciones normales tiene un riesgo muy limitado y no especialmente más relevante que el que conlleva una fábrica de polímeros ante un incendio, por ejemplo.

Luego está el riesgo por el que todo el mundo pregunta. ¿Esto puede explotar? No. En absoluto. De hecho, llevamos 70 años trabajando en la fusión porque es muy complicado sostener una reacción de este tipo. Si falla cualquier cosa lo más mínimo, la reacción se apaga sola. Y cuando se apaga, se apaga. No hay nada más.

Inicialmente teníamos como combustible deuterio y tritio, que son isótopos del hidrógeno, en una vasija, y cuando se apaga la reacción de fusión tenemos exactamente lo mismo. No hay ningún riesgo de nada que tenga que ver con una explosión nuclear. Lo realmente difícil es mantener la reacción, por lo que es intrínsecamente segura.

Como has explicado el combustible de la fusión está constituido por deuterio y tritio, pero en el futuro cabe la posibilidad de que tengamos otras opciones. Quizá podría ser interesante utilizar protio, el isótopo del hidrógeno más sencillo y abundante, como hace el Sol. O bien solo deuterio y eliminar el tritio. Por el momento estas opciones son inviables desde un punto de vista técnico debido a que las condiciones que requeriría la fusión de estos elementos serían aún más exigentes que las que precisan el deuterio y el tritio, ¿verdad?

Así es. La fusión se puede hacer teóricamente con muchas reacciones, pero, como es lógico, lo ideal es recurrir a los elementos más sencillos, que son los que están alrededor del hidrógeno. Y sí, el protio es el más básico. El problema es que con otros ingredientes necesitamos otra temperatura y otras condiciones de contorno. Las más accesibles se dan con deuterio y tritio porque son los isótopos que se llevan menos mal, o, lo que es lo mismo, los que tienen más ganas de unirse.

Cuando pensamos en una primera generación de reactores lo ideal es optar por la reacción más sencilla, pero en el futuro, cuando seamos capaces de trabajar con mayores campos magnéticos y tengamos sistemas de control más rápidos, puede que podamos utilizar otras reacciones.

Una opción podría ser deuterio con deuterio, que tiene menos dificultades al no usar tritio, pero que es más compleja si nos ceñimos a su producción, o bien helio-3 y deuterio, que incluso permitiría no pasar por un ciclo térmico debido a su capacidad de producir iones y electrones que nos permitirían generar energía eléctrica directamente.

ITER tiene competencia

El MIT promete tener listo su prototipo de reactor de fusión nuclear mediante confinamiento magnético en 2025, y la empresa estadounidense TAE Technologies está trabajando en un reactor de fusión nuclear que prescinde del tritio y lo reemplaza por boro. ¿Qué opinas acerca de la viabilidad de estos y otros proyectos alternativos a ITER?

Es una pregunta muy importante. En mi opinión 2022 será recordado como el año en el que empezó la carrera por la fusión. Tengo algunos compañeros que trabajan en estas empresas, y están desarrollando con mucha seriedad tecnologías que debido a su dificultad no funcionaron correctamente cuando se empezó a trabajar en fusión, como, por ejemplo, la tecnología de espejos.

Se están recuperando conceptos antiguos que son prometedores, pero que en el pasado se vio que tenían dificultades intrínsecas. Sin embargo, todas estas empresas están haciendo algo que yo creo que es muy bueno, y que consiste en poner el foco en decir que la energía de fusión es un campo en el que merece la pena invertir. Esto es fundamental.

«Deberíamos llegar a los niveles de inversión del sector de la energía, y no quedarnos con la inversión habitual de la ciencia»

Además, estas iniciativas privadas están incrementando el mercado de la fusión, y cuando hay un mercado que crece hay mayor inversión en él, más profesionales trabajando en ello y más continuidad. Todo esto es muy positivo. Por otro lado, estas empresas están facilitando que un día una compañía eléctrica llegue y diga “hacedme una central de fusión”.

Yo creo que es muy beneficioso que haya iniciativas privadas que complementan al programa central de fusión público, al que pertenece ITER. Estamos en un momento en el que nos tenemos que dar cuenta de que esencialmente no somos ciencia, somos energía, por lo que deberíamos llegar a los niveles de inversión del sector de la energía, y no quedarnos con la inversión habitual de la ciencia.

Aceleradorlineal

La fuente de emisión de neutrones de IFMIF-DONES servirá para certificar los materiales utilizados en los futuros reactores de fusión, pero también se podrá usar en otras disciplinas, como la radiomedicina o la aeronáutica.

¿Cuál es tu opinión acerca de ese mantra que defiende que la fusión nuclear siempre está a la misma distancia del momento actual, sugiriendo que nunca funcionará correctamente?

Las cosas son así hasta que dejan de serlo. La fusión es un reto en el que te embarcas persiguiendo algo que está varios escalones más allá de la tecnología que tienes, por lo que una vez que escalas el primer peldaño ves mejor cuál es el siguiente escalón. Pero cuando llegas a este último compruebas que tampoco tienes la tecnología que necesitas.

Cada vez que llegamos a un punto en el que creemos saber lo que necesitamos corremos el riesgo de que algunas de esas cosas no existan, por lo que tenemos que desarrollarlas. Y a veces no sabemos cuánto costará su desarrollo.

En cualquier caso, creo que ya estamos en el último escalón. Ya vemos con bastante claridad lo que falta porque ya es tangible. Ya hemos conseguido hacerlo, en JET, por ejemplo. Ya hemos logrado controlar la fusión. Ya sabemos qué necesitamos.

También hemos llegado a un grado de madurez en el que podemos decir que pueden presentarse retrasos tecnológicos similares a los de cualquier otro gran proyecto, pero ya no necesitamos ninguna singularidad científica para desarrollar las nuevas tecnologías en las que estamos trabajando.

El itinerario de EUROfusion prevé que si todo sale como está previsto la fusión nuclear comercial llegue durante la década de los 60. ¿Es una previsión plausible?

Yo creo que es razonable. Hay mucha discusión ahora mismo, incluso dentro de EUROfusion, porque estamos en un punto de inflexión. Nos estamos preguntando cómo podemos integrar en el programa y qué efectos va a tener toda esta inversión privada que se está acercando al mundo de la fusión. Es un debate habitual ahora, y hay varias opiniones.

Las más conservadoras defienden que el programa de fusión público es el más rápido y no se puede acelerar más, y luego estamos los que pensamos que como mínimo toda esta inversión privada va a aumentar el tamaño del mercado, y esto va a provocar que con un mercado mayor la inversión se incremente de manera geométrica.

«La inversión que se está produciendo puede acelerar movimientos capaces de reforzar el programa que tenemos para que no se retrase»

La inversión atrae más inversión, por lo que al menos deberíamos ser capaces de cumplir los plazos que fija el itinerario de EUROfusion. DEMO debería estar en marcha en la década de los 50, pero no tiene por qué ser un único DEMO. Ni siquiera el DEMO público. Ni el DEMO europeo.

DEMO va a ser la máquina que ya estamos diseñando desde hace unos cuantos años que aprovechará los conocimientos de ITER, IFMIF-DONES, y también de otras máquinas que continúan aportando conocimiento acerca de otras tecnologías que también son interesantes en fusión. Pero cuando esta información esté disponible cualquiera podrá utilizarla para desarrollar un DEMO, una primera central demostradora.

Esto puede hacerlo el sector público, y también puede hacerlo el sector privado con ayuda pública. Es posible, incluso, que Europa haga la suya; Estados Unidos, la suya; China, la suya… Creo, en definitiva, que ese itinerario nos lo podemos creer. Y, además, que podemos hacerlo con optimismo. No me atrevo a decir que vayamos a acelerar la fusión, pero creo que la inversión que se está produciendo puede acelerar movimientos capaces de reforzar el programa que tenemos para que no se retrase.

-
La noticia "Ya estamos en el último escalón": cómo España se ha hecho con la llave para hacer realidad la fusión nuclear fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

La guerra de los chips entre Estados Unidos y China es total: Holanda y Japón se han visto metidos de lleno en ella

La guerra de los chips entre Estados Unidos y China es total: Holanda y Japón se han visto metidos de lleno en ella

El Gobierno estadounidense está decidido a poner contra las cuerdas a la industria de los semiconductores china. Los chips son estratégicos para las grandes potencias por el profundo impacto que tienen en su economía, pero también debido a que están íntimamente ligados a su desarrollo tecnológico a corto y medio plazo. En esta tesitura los circuitos de alta integración más avanzados tienen un rol protagonista, y Estados Unidos está haciendo todo lo que está en su mano para impedir que China sea capaz de desarrollarlos.

Sin embargo, su campo de actuación está limitado. Y lo está porque los equipos fotolitográficos más avanzados que podemos encontrar actualmente en las fábricas de chips de TSMC, Intel y Samsung, que son los mayores productores de semiconductores del planeta, no son estadounidenses; son holandeses y japoneses. Eso sí, incorporan componentes de origen estadounidense, lo que permite al Gobierno de Joe Biden incrementar la presión que es capaz de ejercer sobre sus socios.

La tecnología holandesa y japonesa es crucial. Sin ella no hay litografías avanzadas

Jake Sullivan, el Consejero de Seguridad Nacional de la Casa Blanca, ha confirmado hace unas horas que la administración liderada por Biden ha hablado con sus socios con el propósito de limitar la venta a China de los equipos fotolitográficos necesarios para producir chips. Y dos de sus socios más relevantes en este ámbito son Holanda y Japón. Actualmente la única empresa del planeta que es capaz de poner a punto máquinas de litografía de ultravioleta extremo (UVE) es ASML, y es holandesa.

Las fuentes de luz ultravioleta utilizadas por estos equipos las fabrica Cymer, y esta sí es una empresa estadounidense, pero hay más ingredientes en esta receta, algo lógico si tenemos presente que la complejidad de las máquinas de fotolitografía UVE es altísima. ZEISS, por ejemplo, se encarga de producir los elementos ópticos que requieren estos equipos, así como los espejos reflectores que se encargan de transportar la luz desde la fuente emisora hasta la máscara con una uniformidad extrema.

Canon y Nikon se retiraron de la carrera que libraron con ASML durante el desarrollo de los equipos de litografía UVE debido a su extrema complejidad

No obstante, esto no es todo. Esta compañía alemana también diseña y fabrica los sensores y actuadores que se responsabilizan de que el trabajo que llevan a cabo los equipos ópticos de las máquinas de litografía se adecua a las tolerancias que exige este proceso, que son extraordinariamente restrictivas. Todo esto nos permite formarnos una idea muy precisa de las alianzas entre países que es necesario proteger para que los equipos de litografía más avanzados disponibles lleguen a buen puerto.

El papel de Japón en esta industria también es muy relevante. Canon y Nikon se retiraron de la carrera que libraron con ASML durante el desarrollo de los equipos de litografía UVE debido a su extrema complejidad, pero esto no significa que este país ya no tenga nada que decir en esta industria. De hecho, sigue teniendo una voz muy potente debido a que algunos de los equipos que conviven con las máquinas de ASML en las fábricas, como, por ejemplo, los de Tokyo Electron que se encargan de recubrir las obleas con fotorresina, son japoneses. Pudimos verlos durante nuestra reciente visita a la fábrica que tiene Intel en Kiryat Gat (Israel).

Así están las cosas. Sabemos qué pretende Estados Unidos, y también conocemos qué van a hacer otros dos actores protagonistas, que, como acabamos de comprobar, tienen mucho que decir en esta industria. Jake Sullivan ha confirmado que Holanda y Japón están alineados con los intereses estadounidenses, y Yasutoshi Nishimura, que es el Ministro de Economía, Comercio e Industria de Japón, lo ha confirmado, aunque se ha negado a ampliar las explicaciones de la administración estadounidense.

El Gobierno holandés prohíbe a ASML vender equipos fotolitográficos avanzados a China desde 2019

Por otro lado, el portavoz del Ministerio de Asuntos Exteriores de Holanda no ha querido hacer ninguna declaración, aunque Liesje Schreinemacher, que es la Ministra de Comercio Exterior y Cooperación al Desarrollo de los Países Bajos, ha confirmado que el Gobierno del que forma parte está hablando actualmente con la administración estadounidense acerca de las restricciones que pretende imponer a China. En cualquier caso, parece muy poco probable que se produzcan sorpresas debido a que el Gobierno holandés prohíbe a ASML vender equipos fotolitográficos avanzados a este país asiático desde 2019.

Aún nos falta indagar en la otra voz que tiene mucho que decir en todo esto: China. Y, como cabe esperar, el plan de Estados Unidos no le gusta lo más mínimo. De hecho, su Ministro de Comercio ha asegurado que acaba de interponer una demanda legal ante la Organización Mundial del Comercio en respuesta a la agresión estadounidense y en defensa de sus intereses. Además, el Gobierno chino ha confirmado que invertirá la friolera de 143.000 millones de dólares en ayudas directas para su industria de los semiconductores con el propósito de paliar el impacto que está teniendo en ella el embargo estadounidense. Las espadas están en alto.

Imagen de portada: ASML

Más información: Reuters

-
La noticia La guerra de los chips entre Estados Unidos y China es total: Holanda y Japón se han visto metidos de lleno en ella fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

Es ciencia, no ciencia ficción: así logramos manipular el espacio-tiempo de un universo simulado en un laboratorio

Es ciencia, no ciencia ficción: así logramos manipular el espacio-tiempo de un universo simulado en un laboratorio

Entender en toda su complejidad qué son el espacio y el tiempo no es fácil. No lo decimos nosotros; lo dice Álvaro de Rújula, un prestigioso físico de partículas que, entre muchos otros logros, ha dado clase en Harvard y ha liderado la división de física teórica del CERN. Incluso tuvo la oportunidad de viajar en el tiempo para hablar cara a cara con Albert Einstein (en la ficción y con mucha gracia, claro).

"El espacio y el tiempo son tan fundamentales que podemos hablar de ellos, pero sin llegar a identificar con la máxima precisión qué son en realidad. Podríamos asimilar el espacio a una especie de conjunto de fichas de dominó, de manera que podemos pegar unas a otras en un plano y después colocar otro plano encima construido de la misma manera. Obviamente el espacio realmente no es así, pero este símil puede ayudarnos a entender de alguna forma su naturaleza", puntualiza Álvaro.

"En cualquier caso, lo primero que podemos hacer es intentar entender la relación que existe entre el espacio y el tiempo. Si tenemos un espacio plano y en él hay dos hormigas podemos dibujarlas en un cierto instante del tiempo, y luego en un instante posterior podemos dibujar un plano encima con las mismas dos hormigas, pero colocadas en posiciones diferentes. De esta forma podríamos construir una especie de sándwich en el que el espacio discurre en la dirección horizontal de mi dibujo, y el tiempo en la vertical", nos explica el exdirector de física teórica del CERN.

Antes de seguir adelante, y como preludio a la historia en la que estamos a punto de indagar, merece la pena que recordemos que la velocidad de la luz es absoluta. Para encajar esta idea Einstein decidió modificar en su teoría el concepto del tiempo, demostrando que su ritmo depende del estado de movimiento de un objeto, pero también de si estás en un campo gravitacional intenso. Lo explicamos con más detalle en nuestro artículo dedicado a la física de los viajes en el tiempo, pero lo realmente importante es que ya tenemos las herramientas que necesitamos para seguir adelante.

Un espacio-tiempo curvo dentro de un laboratorio. No hay un juguete mejor

Un grupo de investigadores de la Universidad de Heidelberg, en Alemania, logró recrear el año pasado en su laboratorio un espacio-tiempo efectivo que puede ser manipulado de una forma flexible para simular una familia de universos curvados. Suena increíble. Tanto, de hecho, que parece el hilo argumental de una película de ciencia ficción. Pero no lo es. Es real. De hecho, su experimento fue revisado por pares y publicado en Nature.

Los modelos cosmológicos con los que trabajan los físicos actualmente se preguntan acerca de la forma en que el espacio se ha expandido y ha modificado su curvatura

En los primeros párrafos de este artículo hemos repasado varias ideas importantes, y una de ellas expone que el espacio y el tiempo están íntimamente conectados, así como que su estructura es fija. Este conocimiento sirvió como punto de partida a estos científicos para diseñar un experimento que les permitiera entender mejor la interacción entre la materia y el continuo espacio-tiempo, y también para poner a prueba las predicciones de la teoría cuántica de campos.

A grandes rasgos este último modelo teórico propone utilizar la mecánica cuántica, la teoría de campos clásica y la relatividad especial para describir los sistemas clásicos de campos, como, por ejemplo, los campos gravitatorio o electromagnético. Los modelos cosmológicos con los que trabajan los físicos actualmente se preguntan acerca de la forma en que el espacio se ha expandido y ha modificado su curvatura. Y, precisamente, el experimento de estos investigadores puede ayudarnos a entender mejor cómo ha sido la evolución de un espacio-tiempo que en una fase muy temprana pudo ser curvo.

Hasta ahora nos hemos podido formar una idea relativamente certera acerca del propósito de estos investigadores, pero aún nos falta indagar en algo importante: ¿cómo lo hicieron? ¿Cómo simularon en un laboratorio varios universos curvos con el propósito de coquetear con otros tantos escenarios cosmológicos diferentes? Para curvar el continuo espacio-tiempo de una forma fácilmente perceptible necesitamos masas enormes, como la de una estrella, o bien energías casi inconcebibles. Y es evidente que estos físicos no tenían ni masas enormes ni energías descomunales.

En este experimento la forma de la nube de átomos de potasio determina las dimensiones y las propiedades de un continuo espacio-tiempo en particular

Pero lo que sí tenían era un simulador cuántico de campos que pusieron a punto enfriando una nube de átomos de potasio hasta reducir su temperatura a solo unos pocos nanokelvins por encima del cero absoluto. Esta estrategia les permitió obtener un condensado de Bose-Einstein, que, sin entrar en los detalles más complicados, es un estado de la materia especial cuyas propiedades delatan con claridad incluso las más leves perturbaciones de energía a las que se ven sometidos los átomos de la nube.

En este experimento la forma de la nube de átomos de potasio determina las dimensiones y las propiedades de un continuo espacio-tiempo en particular a través del que se propagan las perturbaciones de energía de los átomos bajo la forma de ondas. Además, los investigadores lograron actuar sobre las interacciones entre los átomos ajustando con precisión la intensidad del campo magnético que los confina, por lo que, de alguna forma, consiguieron poner a punto un escenario de test muy dúctil. Es apasionante. Su artículo es complejo, pero si no os dejáis intimidar fácilmente y queréis conocer con más precisión en qué consistió su experimento, no dudéis en consultarlo.

En Xataka | La física de los viajes en el tiempo explicada por dos de los mejores físicos teóricos

Imagen de portada | ThisIsEngineering

Más información | Nature

-
La noticia Es ciencia, no ciencia ficción: así logramos manipular el espacio-tiempo de un universo simulado en un laboratorio fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

Los ingresos de Foxconn han caído un 29%. O espabila o corre el riesgo de afrontar una crisis de grandes proporciones

Los ingresos de Foxconn han caído un 29%. O espabila o corre el riesgo de afrontar una crisis de grandes proporciones

La cartera de clientes de Foxconn es interminable. Sony, Amazon, Apple, Dell, HP, Nintendo, Microsoft o IBM son solo algunas de las muchas compañías a las que proporciona sus servicios de fabricación a gran escala. Y es que en esencia es a eso a lo que se dedica esta empresa taiwanesa: a producir los dispositivos electrónicos que diseñan otras marcas. Y le va bien. Increíblemente bien.

De hecho, un año tras otro la compañía fundada en 1974 por el empresario taiwanés Terry Gou se afianza como el fabricante de dispositivos electrónicos más grande del planeta si nos ceñimos a su capacidad de producción, y también a las personas a las que emplea. Estas dos cifras pueden ayudarnos a poner su gigantismo en perspectiva: fabrica alrededor del 40% de los dispositivos electrónicos del mercado, y actualmente emplea a más de 1,2 millones de personas.

Sin embargo, a pesar de los cuantiosos recursos que tiene a su disposición, no es infalible. La estrategia de atrincheramiento total implementada por el Gobierno chino para combatir la expansión de la enfermedad COVID-19 ha puesto contra las cuerdas a muchas empresas, y Foxconn es una de ellas. De hecho, a principios de noviembre Apple anunció que la producción del iPhone 14 Pro podría verse seriamente afectada por las restricciones que están teniendo lugar en China.

Una posible solución en la coyuntura actual: seguir los pasos de TSMC

Foxconn acaba de dar a conocer los ingresos que ha obtenido durante el pasado mes de noviembre, y han caído un 29,04% si los comparamos con los que obtuvo en octubre, y un 11,36% si los confrontamos con los que alcanzó en noviembre de 2021. En su declaración esta compañía asegura que estas cifras están alineadas con sus expectativas, pero, aun así, es evidente que una caída abrupta de esta envergadura puede tener consecuencias serias.

La planta de Zhengzhou necesita nada menos que 100.000 trabajadores adicionales para normalizar su ritmo de fabricación

Y con toda probabilidad la más importante, la que puede provocar que los cimientos de Foxconn se agrieten, es la posibilidad de que Apple decida limitar a medio plazo su relación con esta empresa. La caída de los ingresos ha estado propiciada por las restricciones impuestas por el Gobierno chino para combatir la pandemia, pero estas mismas limitaciones también se han llevado por delante la producción de hasta seis millones de iPhone de última hornada. Y sí, son muchos teléfonos móviles.

Hace apenas tres semanas el diario asiático South China Morning Post desveló que la fábrica que tiene Foxconn en Zhengzhou, que es la planta en la que se están produciendo buena parte de los iPhone 14, necesita nada menos que 100.000 trabajadores adicionales para normalizar su ritmo de fabricación. Y estas son muchas personas incluso en un país con una mano de obra tan abundante como China.

El Gobierno chino ha aprobado varias medidas que pretenden apaciguar las revueltas a las que se han sumado los ciudadanos que no pueden soportar más su mano extremadamente dura con la justificación de frenar la expansión de la enfermedad COVID-19. De hecho, el Consejo de Estado ha dejado claro que la estrategia COVIDZero está muerta. Lo que aún no está en absoluto claro es cómo piensa dejar atrás esta política, que, en la práctica, no es sino el reflejo de un problema estructural que está íntimamente ligado al régimen político chino.

El Gobierno estadounidense está intentando que sus mayores compañías de tecnología vuelvan a fabricar e invertir en Estados Unidos

Durante los últimos años el Gobierno estadounidense está intentando que sus mayores compañías de tecnología vuelvan a fabricar e invertir en Estados Unidos. Y lo está haciendo a golpe de talón. No obstante, esto no significa necesariamente que sus empresas vayan a romper poco a poco su relación con los fabricantes asiáticos; significa, sencillamente, que el Gobierno de Trump antes y el de Biden ahora han creado el clima propicio para que Apple, Intel, Google y compañía apuesten por crear más riqueza en su país de origen, y menos en el extranjero.

Si nos ceñimos a las empresas taiwanesas la coincidencia de esta política y la creciente tensión entre China y Taiwán está provocando que para ellas sea más atractivo que nunca poner a punto plantas en suelo estadounidense. TSMC ya está equipando su nueva fábrica de 40.000 millones de dólares en Arizona, y Foxconn tiene una instalación de última generación en Mount Pleasant (Wisconsin). En la coyuntura actual no sería en absoluto sorprendente que esta última empresa decida seguir los pasos de TSMC y a medio plazo refuerce su presencia en Estados Unidos. Hagamos apuestas.

Imagen de portada: Foxconn

Vía: Foxconn

-
La noticia Los ingresos de Foxconn han caído un 29%. O espabila o corre el riesgo de afrontar una crisis de grandes proporciones fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

Intel se está poniendo las pilas con los controladores de sus GPU. O lo hace o NVIDIA y AMD le pasarán por encima

Intel se está poniendo las pilas con los controladores de sus GPU. O lo hace o NVIDIA y AMD le pasarán por encima

Hay vida más allá de AMD y NVIDIA. El regreso de Intel al mercado de las tarjetas gráficas dedicadas es una muy buena noticia para los usuarios. Y lo es debido a que una mayor competencia debería provocar que las empresas en liza dediquen más recursos a la innovación, e, incluso, que a medio plazo los precios bajen. Sin embargo, para que se produzcan estas consecuencias la pelea debe estar igualada. Y aún no lo está. No del todo.

NVIDIA y AMD llevan décadas peleando de tú a tú. Las recientes GeForce RTX 4090 y 4080 nos han entregado en algunas de nuestras pruebas un rendimiento espectacular, y confiamos en que las Radeon RX 7900 XTX y XT, que son las tarjetas gráficas que nos propone AMD para pelar con ellas, estén a la altura. Intel por el momento no tiene una GPU diseñada expresamente para competir con lo mejor de AMD y NVIDIA, pero esto no significa que sus Arc no sean interesantes.

Tanto las especificaciones como el rendimiento de su procesador gráfico más ambicioso actualmente, el Arc A770, lo colocan a la altura de las GPU GeForce RTX 3060 Ti de NVIDIA y Radeon RX 6650 XT de AMD, por lo que su pelea se ciñe, por el momento, a la gama media. Sin embargo, la propia Intel reconoció desde el principio que el rendimiento de sus GPU con microarquitectura Alchemist con API más antiguas tenía margen para mejorar.

Los nuevos controladores para las GPU Arc despuntan en DirectX 9 (según Intel)

El hardware gráfico de nueva generación debe necesariamente rendir bien con las API actuales, como DirectX 12 Ultimate o Vulkan, pero también es importante que nos entregue una productividad a la altura con librerías más antiguas utilizadas aún por muchos juegos, como DirectX 11, 10 o 9. Y en este terreno los controladores tienen un rol fundamental porque en gran medida son los responsables de que una GPU nos entregue el 100% de su potencial en cualquier API que se nos ponga a tiro.

AMD y NVIDIA parten con ventaja. Sus ingenieros tienen mucha experiencia refinando sus controladores, y, además, tienen una base de datos descomunal cuyos drivers han sido probados hasta la saciedad en las API más utilizadas. Intel, sin embargo, ha estado muchos años sin pelear en el mercado de las GPU dedicadas (en el de los gráficos integrados siempre ha estado muy presente), por lo que no tiene el bagaje que han alcanzado en este ámbito sus competidores.

Intelarc Rendimiento

Ryan Shrout y Tom Petersen, que son dos de los técnicos de Intel involucrados en el desarrollo de los procesadores gráficos Arc, aseguraron a principios del pasado mes de agosto que estaban trabajando duro para mejorar sus controladores con el propósito de que rindiesen mejor en DirectX 11, 9, y en otras API antiguas. Y sí, parece que están cumpliendo su promesa, aunque por el momento los datos que tenemos son los que ha hecho pública la propia Intel.

En la gráfica que publicamos en este artículo, que ha sido elaborada por Intel, podemos ver que la GPU Arc A770 nos entrega un rendimiento mucho más alto en DirectX 9 al utilizar la revisión 3953 de los drivers frente a la versión 3490. De hecho, según Intel, en 'Counter-Strike: Global Offensive' la productividad se multiplica por más de dos tanto a 1080p como a 1440p, aunque en otros juegos, como 'Guild Wars 2' o 'Payday 2' apenas varía.

En cualquier caso, es muy positivo comprobar que Intel está puliendo sus controladores. Confiemos en que siga así y su hardware gráfico se consolide como una alternativa interesante a las propuestas de AMD y NVIDIA. No cabe ninguna duda de que a los usuarios nos interesa mucho que se desarrolle más la competencia en este mercado, especialmente en el contexto actual, en el que muchas tarjetas gráficas tienen un precio tan alto que quedan fuera del alcance de buena parte de los usuarios.

Más información: Intel

-
La noticia Intel se está poniendo las pilas con los controladores de sus GPU. O lo hace o NVIDIA y AMD le pasarán por encima fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

Chips de un billón de transistores en 2030: el plan de Intel para arrebatar el liderazgo a TSMC

Chips de un billón de transistores en 2030: el plan de Intel para arrebatar el liderazgo a TSMC

Pat Gelsinger, el director general de Intel, parece tenerlo muy claro: su compañía planea tener los mejores transistores y la tecnología de integración más avanzada del mundo en 2025. Esto es, al menos, lo que aseguró durante la entrevista que concedió a The Wall Street Journal a finales de octubre. Suena bien, pero no cabe duda de que es una afirmación muy osada si tenemos presente que actualmente la fotolitografía más avanzada en producción la tiene TSMC.

En cualquier caso, objetivamente esta marca está mejorando sus transistores. De hecho, es una de las razones fundamentales por las que los procesadores Core de 13ª generación con microarquitectura Raptor Lake han rendido en nuestras pruebas mejor que los Alder Lake del año pasado. Actualmente se está celebrando en Estados Unidos IEDM, que es una conferencia de microelectrónica y semiconductores muy importante, e Intel no ha dejado escapar la oportunidad de explicar qué tiene entre manos. Y es muy jugoso.

Intel planea tener chips de un millón de millones de transistores en 2030

La base de datos que recoge las especificaciones de los microprocesadores de Intel ya no revela cuántos transistores integran. Aun así, podemos asumir que los procesadores de 13ª generación más ambiciosos de esta marca, como el Core i9-13900K, aglutinan unas pocas decenas de miles de millones.

No cabe duda de que son muchos transistores, pero esta cifra palidece frente a la cantidad que Intel nos promete integrar en sus CPU en 2030: nada menos que un millón de millones. Un billón de los nuestros, no de los anglosajones.

Para conseguir algo así antes de que finalice esta década Intel tiene que refinar muchísimo sus transistores y su fotolitografía. Y, si nos ceñimos a la información que ha desvelado durante el IEDM, parece que sus ingenieros están en ello.

Curiosamente, los técnicos que están trabajando en esta área son los mismos que han desarrollado otras innovaciones tan relevantes como los transistores FinFET o el silicio tensionado, lo que refleja que Intel parece estar poniendo toda la carne en el asador para incrementar la competitividad de su tecnología de integración.

Intel1

Uno de los objetivos de estos investigadores es desarrollar nuevos materiales y procesos de fabricación que les permitan refinar tanto el empaquetado de sus circuitos integrados como la transferencia de la máscara a la superficie de la oblea de silicio.

Esta estrategia persigue, entre otras mejoras, incrementar drásticamente la densidad de transistores. Y es que este paso es necesario para hacer posible la integración en un único chip del millón de millones de transistores prometido para 2030.

Intel2

Además, Intel ha anticipado que sus ingenieros están poniendo a punto un sistema flexible de interconexión de los chiplets que, en teoría, le permitirá escalar con relativa facilidad la cantidad de núcleos de sus próximos procesadores.

Intel está poniendo a punto un sistema flexible de interconexión de 'chiplets' que le permitirá escalar con facilidad los núcleos de sus próximas CPU

Podemos estar seguros de que durante los próximos años tanto Intel como AMD van a proponernos CPU con una cantidad de núcleos muy superior a la que hoy nos entregan sus chips más ambiciosos. Eso sí, aunque su complejidad se incremente perceptiblemente deberían ser mucho más eficientes que los actuales.

Sorprendentemente una de las áreas de investigación a la que los técnicos de esta marca están dedicando más recursos es la mejora de los contactos que actúan como interfaz de conexión entre transistores.

Desarrollar la tecnología de los transistores es tan importante como refinar la litografía de forma estricta

Una de las posibilidades que están explorando consiste en refinar la utilización de las fuerzas de Van der Waals (os hablamos de ellas con cierto detalle en este artículo). Esta estrategia es similar a la que utiliza AMD en sus procesadores X3D.

Esta área de trabajo parece muy exótica, pero, en realidad, no lo es en absoluto. Y no lo es porque los contactos de los transistores 2D condicionan profundamente su rendimiento. Todo esto nos invita a llegar a una conclusión razonable: desarrollar la tecnología de los transistores como objetos con entidad propia es tan importante como refinar la litografía de forma estricta.

Imagen de portada: Intel

-
La noticia Chips de un billón de transistores en 2030: el plan de Intel para arrebatar el liderazgo a TSMC fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

Ahora tiene más sentido que nunca volver a la Luna: el helio-3 espera para relanzar la energía de fusión

Ahora tiene más sentido que nunca volver a la Luna: el helio-3 espera para relanzar la energía de fusión

Han transcurrido exactamente 50 años desde que el ser humano pisó la superficie de la Luna por última vez. Los astronautas estadounidenses Eugene Cernan y Harrison Schmitt, que junto a Ronald Evans completaban la tripulación del Apolo 17, caminaron sobre la superficie lunar en diciembre de 1972. Desde entonces ningún otro ser humano ha repetido esta proeza, pero esto está a punto de cambiar.

Si todo va como está previsto, el ‘Programa Artemis’, que está liderado por la NASA pero en el que también participan otras agencias espaciales, como la europea o la mexicana, e, incluso, varias empresas privadas, volverá a colocar al ser humano sobre la Luna en 2025. Su propósito es muy ilusionante: persigue establecer una presencia sostenible tanto en la superficie como en la órbita lunar, así como afianzar las bases de una economía lunar.

El ser humano no ha regresado hasta ahora a la Luna porque este proyecto es extremadamente costoso y muy complejo desde un punto de vista técnico. Pero, sobre todo, debido a que no había una razón de peso para volver. Ahora sí la hay. Y no solo una; tenemos varios motivos para establecer en este satélite una base estable. Disponer de una infraestructura lunar simplifica enormemente el viaje a Marte que la NASA planea realizar durante la próxima década. Pero hay más razones.

El helio-3 es el ingrediente estrella de la fusión nuclear. Y nos está esperando

Como os hemos explicado en otros artículos, el combustible que, si todo sale como está previsto, utilizarán los futuros reactores de fusión nuclear será un plasma extremadamente caliente conformado por núcleos de deuterio y tritio. Este gas debe alcanzar una temperatura de al menos 150 millones de grados Celsius para que estos dos isótopos del hidrógeno adquieran la energía necesaria para vencer su repulsión natural y puedan fusionarse.

Cuando se dan las condiciones necesarias, que, como acabamos de ver, son extremadamente exigentes, y la fusión de un núcleo de deuterio y otro de tritio tiene lugar, se produce un núcleo de helio-4, que es un elemento estable, y, por tanto, no radiactivo y completamente inofensivo, y se libera un neutrón. Precisamente, esta última partícula es en gran medida la responsable de que esta “receta” de la fusión nuclear sea tan compleja.

Y es que este neutrón sale despedido con una energía enorme (14 MeV), y, para rizar el rizo, como su carga eléctrica global es neutra no puede ser confinado en el interior del campo magnético que mantiene el plasma bajo control. Estos neutrones de altísima energía son muy importantes debido a que son los que en la práctica van a permitirnos producir la energía eléctrica que necesitamos.

El neutrón resultante de la fusión de los núcleos de deuterio y tritio sale despedido con una energía de 14 MeV

Sin embargo, no podemos pasar por alto que también representan una forma de radiación muy agresiva que puede degradar sensiblemente los materiales utilizados en el reactor. Los componentes que se verán más afectados por el impacto directo de los neutrones de alta energía y el flujo de calor más intenso son la pared interna del reactor y el blanket, que es un manto que la recubre y que tiene como propósito regenerar el tritio que es necesario utilizar como combustible en la reacción de fusión nuclear.

Precisamente, el proyecto IFMIF-DONES, que está arrancando actualmente en Granada, persigue, entre otras cosas, poner a punto un acelerador de partículas lineal que actuará como una fuente de neutrones. Su propósito es evaluar la forma en que interaccionan los neutrones de alta energía y los materiales candidatos a ser utilizados en la construcción de DEMO, que será el reactor de fusión experimental que pretende demostrar la viabilidad de esta tecnología para producir electricidad.

Ifmif Dones

La instalación IFMIF-DONES de Granada contará con dos aceleradores capaces de acelerar una corriente de 125 mA de deuterones hasta 40 MeV. Construirlos es un reto tecnológico de proporciones casi épicas.

Los materiales que mejor soporten esta forma de radiación llegarán a DEMO, y, posiblemente, también a los reactores de fusión nuclear comerciales que deberían sucederle si todo va como está previsto. Sin embargo, ¿qué sucedería si no se produjese ese neutrón? Sencillamente, esquivaríamos de un plumazo y en gran medida la degradación del reactor. Este es, precisamente, el momento en el que entra en juego el helio-3.

Y es que si reemplazamos el tritio, que es radiactivo y muy escaso, por helio-3 con el propósito de fusionar un núcleo de deuterio y otro de este isótopo del helio, nos libraríamos del neutrón de alta energía. Si somos capaces de recrear las condiciones necesarias para que un núcleo de helio-3 se fusione con un núcleo de deuterio, que tiene un protón y un neutrón, obtendremos un núcleo de helio-4, un protón y se liberará mucha energía.

El resultado de la fusión entre un núcleo de helio-3 y otro de deuterio es el mismo de la fusión del tritio y el deuterio, pero en vez de liberarse un neutrón se libera un protón

El resultado de la fusión nuclear entre un núcleo de helio-3 y un núcleo de deuterio es el mismo de la fusión de un núcleo de tritio y un núcleo de deuterio, pero en vez de liberarse un neutrón se libera un protón. Y como esta última partícula tiene carga positiva puede quedar confinada en el interior del campo magnético utilizado para atrapar el plasma ionizado dentro del contenedor, evitando de esta forma que impacte con los núcleos de las paredes y previniendo así su degradación.

Todo esto suena muy bien, pero esta estrategia tiene un problema. Uno muy grande. En la Tierra prácticamente no hay helio-3, y su producción industrial a partir de la desintegración radiactiva del tritio es muy cara. Además, la temperatura que debe alcanzar el plasma que contiene los núcleos de helio-3 y deuterio debe ser muy superior a la de por sí monstruosa temperatura del plasma que combina tritio y deuterio. De lo contrario, la fusión no tendrá lugar.

Aun así, tenemos una buena noticia: en la Luna hay mucho helio-3. Los científicos creen que bajo la superficie del satélite natural de nuestro planeta, a pocos metros de profundidad, se acumulan algo más de un millón de toneladas métricas de este elemento. Este cálculo ha sido efectuado a partir de los datos que recogieron las misiones del programa Apolo, y matizado por las medidas que se han llevado a cabo con posterioridad, como las que tomó el satélite Chandrayaan-1 que la Agencia India de Investigación Espacial colocó en órbita polar en torno a la Luna en 2008.

Los científicos creen que bajo la superficie de la Luna se acumulan algo más de un millón de toneladas métricas de helio-3

La ausencia de atmósfera y la presencia de un campo magnético mucho más débil que el de la Tierra han provocado que el viento solar lleve casi 4.500 millones de años acumulándolo. No obstante, para sacar partido al helio-3 diseminado por la superficie de la Luna es imprescindible resolver dos desafíos. El más inmediato consiste en afrontar el procesado del regolito lunar, que es la capa poco compacta de suelo y fragmentos de roca que recubre la superficie del satélite.

Y es que será necesario tratar 150 millones de toneladas de polvo lunar para obtener tan solo una tonelada de helio-3. Es un reto muy importante, pero, al parecer, según los técnicos se trata de un desafío asumible porque esta concentración es compatible con los procedimientos de minería terrestre de los que disponemos actualmente.

En cualquier caso, aún nos queda otro desafío. Y es titánico. Todavía nadie sabe cómo traerlo a la Tierra. Aun así, numerosos países, como Estados Unidos, China, Rusia, India, Japón o la Unión Europea, están interesados en el helio-3 lunar. Aquí tenemos otro motivo de peso para regresar a la Luna e ir trazando un plan que nos permita aprovechar este tesoro.

Imágenes: NASA | IFMIF-DONES

-
La noticia Ahora tiene más sentido que nunca volver a la Luna: el helio-3 espera para relanzar la energía de fusión fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

La primera pantalla LCD de 600 Hz para juegos ya está lista. El refresco de los paneles se nos está yendo de las manos

La primera pantalla LCD de 600 Hz para juegos ya está lista. El refresco de los paneles se nos está yendo de las manos

El fabricante chino de paneles de visualización BOE acaba de presentar una pantalla LCD con una característica espectacular: puede trabajar con una frecuencia de refresco de nada menos que 600 Hz. Ahora mismo no hay ningún otro panel que sea capaz de alcanzar un refresco tan rápido, aunque lo que no está claro es si opera a esta frecuencia de forma nativa, o, en realidad, se trata de un panel de 480 o 500 Hz forzado.

No obstante, este no es el único dato que esta marca todavía no ha dado a conocer. Tampoco sabemos qué tecnología de panel utiliza, pero es razonable asumir que se trata de un panel TN con resolución Full HD (1.920 x 1.080 puntos) similar a los que nos proponen las pantallas de alta frecuencia de refresco que ya están disponibles.

Es evidente que un panel como este está dirigido claramente a los entusiastas del juego competitivo y a los jugadores profesionales. Aun así, y a falta de probarlo, no está claro que un panel de 600 Hz nos entregue mejoras tangibles si lo comparamos con las alternativas para deportes electrónicos disponibles. A nosotros nos parece que la apuesta por incrementar la frecuencia de refresco a algunas marcas se les está yendo de las manos.

Deja en el aire demasiadas incógnitas

Para habilitar una frecuencia de reloj tan alta el panel debe estar necesariamente respaldado por un hardware a su altura. Los componentes críticos son el chip de control que se responsabiliza del procesado de las imágenes, que debe ser extremadamente rápido; el controlador de temporización TCON, que, a grandes rasgos, actúa sobre la gestión del brillo, el color, el refresco y el consumo de energía; y, por último, la CPU que coordina el trabajo de los otros dos componentes.

El controlador de temporización TCON actúa sobre la gestión del brillo, el color, el refresco y el consumo de energía

Podemos asumir que los ingenieros de BOE habrán puesto a punto los componentes adecuados para sacar el máximo partido a su panel, trabaje o no a 600 Hz de forma nativa, pero lo que no está claro es que la lógica de control consiga evitar el ghosting a esa frecuencia.

Por otro lado, será interesante comprobar cómo han resuelto la sincronización adaptativa para que pueda operar a ese refresco máximo. En la fotografía del portátil que publicamos en la portada de este artículo podemos ver el logo de una GPU de NVIDIA, por lo que es razonable asumir que implementa la tecnología G-SYNC.

Otro desafío que merece la pena que no pasemos por alto está derivado de la interfaz necesaria para entregar a la matriz un torrente de hasta 600 imágenes 1080p por segundo. Con un enlace DisplayPort 1.4 no es posible hacerlo, por lo que el panel debería tener dos de estas conexiones, o bien una que implemente la norma 2.0 o 2.1. El problema es que las nuevas GeForce RTX 40 solo implementan DisplayPort 1.4a. Las inminentes Radeon RX 7000 de AMD sí son compatibles con la revisión 2.1 de esta norma.

A todo lo que acabamos de ver hasta este momento tenemos que sumar la necesidad de contar con una GPU que sea capaz de entregar una cadencia media cercana a los 600 FPS a 1080p. Una brutal GeForce RTX 4090 entrega algo más de 400 FPS en un juego tan bien optimizado como 'Doom Eternal' a 1080p, por lo que es evidente que esto no está ni mucho menos chupado.

Y, por último, está por ver si los entusiastas y los jugadores profesionales son capaces de sacar partido a la mínima latencia que se le presupone a esta pantalla. Sea como sea, si en algún momento cae en nuestras manos os prometemos exprimirla hasta extraer la última gota de jugo.

Imagen de portada: IT House

Vía: IT House

-
La noticia La primera pantalla LCD de 600 Hz para juegos ya está lista. El refresco de los paneles se nos está yendo de las manos fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

Los ordenadores cuánticos acaban de abrir de par en par un ventanal: el de nuestro conocimiento del universo

Los ordenadores cuánticos acaban de abrir de par en par un ventanal: el de nuestro conocimiento del universo

A los ordenadores cuánticos no se les va a dar bien todo. Con los prototipos propensos a cometer errores que tenemos actualmente solo podemos hacer unas pocas cosas, pero si siguen desarrollándose al ritmo al que lo están haciendo actualmente y llegan los ordenadores cuánticos plenamente funcionales, podremos utilizarlos para enfrentarnos a muchos otros problemas.

Este vaticinio que compartió con nosotros Ignacio Cirac, que es uno de los padres fundacionales de la computación cuántica, concreta muy bien de qué estamos hablando: "Si en algún momento desarrollamos los ordenadores cuánticos sin errores, serán universales. Esto no quiere decir que sean útiles para todo, sino que será posible programarlos y hacer con ellos muchas cosas".

Aun así, incluso cuando llegue ese momento tendremos que averiguar qué problemas podrán resolver con más rapidez que los superordenadores clásicos. Juan José García Ripoll, que es físico e investigador del CSIC, cree que los ordenadores cuánticos serán mejores cuando se enfrenten a problemas de optimización, a la física estocástica o a la simulación de sistemas cuánticos.

La primera simulación cuántica de un agujero de gusano es muy prometedora

Parece algo extraordinariamente exótico, pero, en realidad, no lo es tanto. Hasta ahora cuando los científicos hablaban de la simulación de sistemas cuánticos estaban haciendo alusión a la simulación de objetos, como pequeñas moléculas o macromoléculas, o, incluso, materiales. Estos sistemas se describen con mecánica cuántica, por lo que ya hay investigadores trabajando en cómo traducirlos para que un ordenador cuántico pueda enfrentarse a ellos de una forma eficiente.

Un grupo de investigadores ha llevado a cabo con éxito la simulación de un sistema cuántico muy especial: un agujero de gusano

De hecho, se han publicado artículos que proponen soluciones a problemas con pequeñas moléculas de dos o tres átomos que nos permiten comprender cómo se puede abordar este procedimiento y desarrollar las técnicas. Sin embargo, y llegamos a un giro relativamente inesperado de los acontecimientos, un grupo de investigadores ha publicado un artículo en Nature en el que explica con todo lujo de detalles el procedimiento que ha elaborado para llevar a cabo con éxito la simulación de un sistema cuántico muy especial: un agujero de gusano.

Como os explicamos ayer, estos científicos no han recreado en un laboratorio un sistema de dos agujeros negros entrelazados. Estamos muy lejos de poder hacer algo así, y quizá nunca esté a nuestro alcance. Lo que han logrado ha sido crear un modelo teórico o una simulación que les ha permitido entender mejor qué sucede en el interior de un agujero de gusano. Curiosamente, para llevar a cabo este experimento han utilizado el ordenador cuántico de Google con el que el equipo liderado por John Martinis alcanzó la supremacía cuántica a finales de 2019.

Este hito no solo es importantísimo porque arroja un poco de luz sobre un objeto teórico cuya existencia en el mundo real aún no ha sido demostrada; también lo es debido a que pone en las manos de los investigadores una herramienta muy valiosa que en el futuro podría ayudarles a reconciliar la mecánica cuántica y la relatividad general. Elaborar una teoría unificadora, o una teoría del todo, como también se la conoce, nos permitirá entender mucho mejor los mecanismos que rigen las interacciones físicas fundamentales.

Los átomos neutros y las trampas de iones son dos tecnologías de cúbits alternativas a los superconductores

Como hemos visto, para llevar a cabo este experimento estos investigadores han simulado el agujero de gusano entrelazando dos subsistemas del procesador cuántico de Google, pero hay otras formas de implementar los cúbits más allá de los superconductores. Dos de las tecnologías alternativas más desarrolladas son las trampas de iones y los átomos neutros. Precisamente, varios grupos de investigación están trabajando con estos últimos, y están obteniendo resultados muy prometedores.

De hecho, están consiguiendo reunir más cúbits manteniendo la exactitud y la falta de errores de los otros sistemas. Y es probable que en el futuro los científicos desarrollen otras tecnologías aplicables a los cúbits. En este contexto es razonable asumir que las simulaciones de sistemas cuánticos que llegarán en el futuro pueden ir ligadas en cierta medida a la tecnología de cúbit utilizada, por lo que con toda probabilidad este hito solo es el primer eslabón de una cadena que, con un poco de suerte, nos permitirá desarrollar mucho más nuestro conocimiento del universo. Crucemos los dedos para que sea así.

-
La noticia Los ordenadores cuánticos acaban de abrir de par en par un ventanal: el de nuestro conocimiento del universo fue publicada originalmente en Xataka por Juan Carlos López .

Leer más