El reactor de fusión nuclear japonés JT-60SA acaba de hacer a ITER un favor impagable

El reactor de fusión nuclear japonés JT-60SA acaba de hacer a ITER un favor impagable

El mayor reactor experimental de fusión nuclear que tenemos en Europa, JET (Joint European Torus), ubicado en Oxford (Inglaterra), está allanando el camino a ITER. Su última gran aportación se hizo pública el 9 de febrero de 2022. Ese fue el día elegido por los científicos que lo operan para anunciar oficialmente que habían logrado generar 59 megajulios de energía de fusión durante un periodo de 5 segundos. Puede parecer poco, pero no lo es. Es un hito importante.

No obstante, JET no es el único reactor de fusión experimental que tiene como cometido fundamental probar soluciones tecnológicas que formarán parte de ITER; hay otro aún más ambicioso. Esta prometedora máquina se llama JT-60SA y está en Naka, una pequeña ciudad no muy alejada de Tokio (Japón). A principios del pasado mes de febrero os hablamos de él debido a que las pruebas con plasma empezarán a finales de este año.

La construcción de este reactor experimental de fusión nuclear comenzó en enero de 2013, pero no lo hizo desde cero; lo hizo tomando como punto de partida el reactor JT-60, su precursor, una máquina que entró en operación en 1985 y que durante más de tres décadas ha alcanzado hitos muy importantes en el ámbito de la energía de fusión. El ensamblaje del JT-60SA finalizó a principios de 2020, y las pruebas con plasma con toda probabilidad entregarán un conocimiento que resultará muy valioso en la puesta a punto de ITER y DEMO.

Las bobinas del JT-60SA han sido refrigeradas con éxito a -268 ºC

Actualmente los ingenieros europeos y japoneses que trabajan en la puesta a punto del reactor previa a las pruebas con plasma están ultimando el ajuste fino de los subsistemas más importantes de esta complejísima máquina. Todos ellos son críticos, pero uno de los más sofisticados es el motor magnético que se responsabiliza de confinar y estabilizar el plasma que contiene los núcleos involucrados en la fusión. Y sus componentes fundamentales son los imanes superconductores distribuidos en la parte exterior de la cámara de vacío y el solenoide superconductor colocado en el orificio central del reactor tokamak.

El solenoide central tanto de ITER como del JT-60SA tiene la responsabilidad de optimizar la geometría del plasma, estabilizarlo, y también de ayudar a calentarlo

En ITER los imanes que envuelven la cámara de vacío tendrán un peso cuando estén instalados de 10.000 toneladas y estarán fabricados en una aleación de niobio y estaño, o niobio y titanio, que adquiere la superconductividad cuando se enfría con helio supercrítico. Por otro lado, el solenoide central tanto de ITER como del JT-60SA tiene la responsabilidad de optimizar la geometría del plasma, estabilizarlo, y también de ayudar a calentarlo gracias a un mecanismo conocido como efecto Joule.

Para que los imanes y el solenoide central de los reactores de fusión adquieran la superconductividad es imprescindible refrigerarlos con el propósito de que alcancen una temperatura extremadamente baja. Y no es fácil lograrlo. Afortunadamente, los ingenieros del JT-60SA acaban de tener éxito en sus muy exigentes pruebas de refrigeración del motor magnético del reactor. Y es que han conseguido refrigerar las bobinas a 4,8 kelvin (-268 ºC); el solenoide central a 17 kelvin (-256 ºC); y, por último, las 18 bobinas de campo toroidal y las 6 bobinas de estabilización alcanzaron los -264 ºC. Es una auténtica proeza.

Este hito es un paso fundamental en el camino hacia las primeras pruebas con plasma en el reactor JT-60SA, pero no es una buena noticia solo para esta máquina japonesa; también lo es para ITER debido a que el motor magnético del equipo nipón implementa algunas de las innovaciones que presumiblemente llegarán al reactor que está siendo construido en la localidad francesa de Cadarache. No obstante, esto no es todo. Los ingenieros del JT-60SA se han apuntado un tanto más al lograr simultáneamente calentar la cámara de vacío a 194 ºC para eliminar cualquier impureza presente en su superficie.

Imagen de portada: F4E/QST

Más información: Fusion for Energy

En Xataka: Europa es el auténtico "Señor de los Anillos" en ITER: estas moles son cruciales para que la fusión nuclear funcione

-
La noticia El reactor de fusión nuclear japonés JT-60SA acaba de hacer a ITER un favor impagable fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

El plan de NASA para llevar al ser humano a Marte tiene un ingrediente fundamental: la propulsión termonuclear

El plan de NASA para llevar al ser humano a Marte tiene un ingrediente fundamental: la propulsión termonuclear

La agencia espacial estadounidense y las organizaciones internacionales que colaboran con ella se están tomando la planificación de la primera misión tripulada a Marte muy en serio. Si todo va tal y como han previsto colocarán varios astronautas en la superficie del planeta rojo a finales de la década de 2030, o bien a principios de la de 2040. No cabe duda de que esta fecha parece más plausible que la que está barajando Elon Musk para la misión a Marte que respalda.

NASA ya ha dado algunos pasos importantes con el propósito de ir afianzando poco a poco este proyecto, y está pergeñando algunos más. Uno de ellos es la puesta a punto de un hábitat terrestre que simula las condiciones ambientales de Marte. Está diseñado para ser ocupado por cuatro personas durante algo más de un año para comprobar cómo se adaptan a las extremadamente exigentes condiciones de vida que impone este planeta. Este hábitat reside en el Centro Espacial Johnson de Houston (Texas), y sus primeros inquilinos lo ocuparon el pasado 25 de junio.

No obstante, este es solo uno de los proyectos que conforman el itinerario planificado por NASA para llevar a buen puerto la primera misión tripulada a Marte. Otro de los más sorprendentes lo está desarrollando en colaboración con DARPA, la Agencia de Proyectos de Investigación Avanzados de Defensa, y persigue acortar perceptiblemente la duración del viaje al planeta rojo recurriendo a un ingrediente esencial: la propulsión termonuclear.

Las luces y las sombras del proyecto DRACO

Hace apenas cinco días la compañía aeroespacial Lockheed Martin (en adelante nos referiremos a ella como LM) anunció que había sido seleccionada por NASA y DARPA para encargarse de la puesta a punto del sistema de propulsión termonuclear que será utilizado en la futura misión tripulada a Marte. Aunque esto no es todo. Para reforzar este anuncio esta empresa lo acompañó de varias promesas que, sobre el papel, pintan muy bien. Y es que según LM esta tecnología será de dos a cinco veces más eficiente que la propulsión química convencional.

El motor termonuclear entrará en acción a una distancia de entre 700 y 2.000 km de la Tierra

Un apunte interesante antes de seguir adelante: la propulsión termonuclear convivirá con la propulsión química. Esta estrategia permitirá utilizar este último y bien conocido sistema de propulsión para conseguir que el vehículo espacial despegue, de modo que el motor termonuclear se pondrá en marcha únicamente cuando la nave se encuentre en órbita alta y a una distancia entre 700 y 2.000 km de la Tierra.

Por otro lado, según LM la utilización de la propulsión termonuclear permitirá acortar el viaje a Marte perceptiblemente debido a que su capacidad de empuje es mayor que la proporcionada por los sistemas de propulsión química. Acortar el tiempo invertido en el viaje es muy importante porque reducirá el periodo durante el que la tripulación está expuesta a la radiación cósmica (todavía no conocemos con detalle cómo resolverán las agencias espaciales involucradas en este proyecto la protección de los astronautas frente a esta forma de radiación).

Inicialmente LM había previsto iniciar las pruebas de este sistema de propulsión en 2027, pero los últimos anuncios de NASA y DARPA proponen adelantar esta fecha a 2025. Suena bien, pero no debemos pasar por alto que este proyecto pone encima de la mesa varios interrogantes muy importantes. El más evidente de todos ellos consiste en que el combustible empleado por el motor termonuclear será uranio de bajo enriquecimiento, y, al igual que los astronautas, estará expuesto a unas condiciones ambientales extremadamente rigurosas que es necesario prever.

Además, es imprescindible garantizar la estabilidad del sistema de propulsión durante los meses que durarán los viajes de ida y regreso para proteger a la tripulación y asegurar que la misión llegará a buen puerto. En cualquier caso, la información que han desvelado NASA, DARPA y LM acerca de este proyecto nos invita a observarlo con un optimismo razonable. Le seguiremos la pista muy de cerca para contaros cualquier otro avance significativo que pueda contribuir a colocar al ser humano un poco más cerca del planeta rojo.

Imagen de portada: Lockheed Martin

Más información: Earth.com

En Xataka: Así son los reactores nucleares que la NASA espera enviar a Marte: planean tenerlos listos para 2022

En Xataka: El CERN tiene algo que no tiene nadie más y que va a catapultar (con suerte) nuestra comprensión del universo

-
La noticia El plan de NASA para llevar al ser humano a Marte tiene un ingrediente fundamental: la propulsión termonuclear fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

Christopher Nolan nos ha explicado el final de ‘Origen’ con un propósito: prepararnos para el de ‘Oppenheimer’

Christopher Nolan nos ha explicado el final de 'Origen' con un propósito: prepararnos para el de 'Oppenheimer'

Algunos aficionados al cine celebran la llegada de una nueva película de Christopher Nolan como un auténtico acontecimiento. Se lo ha ganado a pulso. Muchos cinéfilos lo adoran, mientras que otros defienden que, en realidad, su cine no es para tanto. En cualquier caso, cuando menos es justo reconocer que la complejidad argumental de algunas de las películas de este director británico ha propiciado debates muy interesantes.

Lo han hecho 'Memento', 'Interstellar' o 'Tenet'. Y, sobre todo, lo ha logrado 'Origen' (Inception). En el estelar reparto de esta película de 2010 intervienen Leonardo DiCaprio, Joseph Gordon-Levitt, Marion Cotillard, Tom Hardy, Cillian Murphy, Elliot Page o Michael Caine, entre otros actores, aunque, en mi opinión, su principal atractivo reside en un hilo argumental extraordinariamente original y también inusual e intencionadamente complejo. Tanto, de hecho, que su final ha dado lugar a la elaboración de teorías variopintas.

Por qué Nolan ha decidido explicar el final de 'Origen' precisamente ahora

Antes de seguir adelante me veo en la obligación de anticiparos que a pesar de que en este artículo no vamos a indagar con detalle en la trama de 'Origen' necesitamos explicar algunas partes de su argumento, por lo que quizá los lectores que todavía no la habéis visto prefiráis darle una oportunidad antes de seguir leyendo. Dicho esto es importante que recordemos que la idea central de esta película coquetea con la posibilidad de acceder a los sueños de una persona bien para descubrir información que le pertenece en exclusiva, bien para implantar en ellos ciertas premisas.

La complejidad de 'Origen' reside en la dificultad que tenemos los espectadores para descubrir si lo que estamos viendo es real o solo es una manifestación del mundo onírico

Dom Cobb, el personaje interpretado por Leonardo DiCaprio, es un prófugo buscado por la justicia estadounidense debido a su supuesta responsabilidad en la muerte de su esposa. Cobb es un consumado experto capaz de infiltrarse en los sueños de otras personas utilizando un dispositivo de alta tecnología, una habilidad que le lleva a dirigir un equipo al servicio de un magnate japonés y a verse involucrado en un conflicto entre dos grandes empresas rivales.

No es necesario que indaguemos mucho más en el argumento de esta película, pero hay un ingrediente esencial en el que aún no hemos reparado: la autenticidad de los sueños es tal que los soñadores necesitan recurrir a un objeto en particular conocido como tótem para ser capaces de identificar si las experiencias en las que están participando en un momento en particular son reales, o, por el contrario, forman parte de un sueño. Precisamente la complejidad de esta película reside en la dificultad que tenemos los espectadores para descubrir si lo que estamos viendo es real o solo es una manifestación del mundo onírico.

Este dilema queda exacerbado justo al final de la película en un momento en el que el tótem de Cobb, que no es otro objeto que una sencilla peonza, permanece girando en una secuencia final que se interrumpe de forma abrupta sin permitirnos confirmar si el movimiento giratorio de este objeto se ve o no interrumpido. De ser así lo que estamos viendo, el reencuentro de Cobb con sus hijos, será real; de lo contrario solo formará parte de un sueño. Nolan ha explicado la intención de esta secuencia hace unos pocos días durante una entrevista en Wired:

"El final de 'Origen' es exactamente así. Hay una visión nihilista de esa conclusión de la trama, pero también [Cobb] ha seguido hacia delante y está con sus hijos. La ambigüedad no es emocional. Se trata de una ambigüedad intelectual dedicada a los espectadores. Es curioso, pero creo que hay una relación interesante entre los finales de 'Origen' y 'Oppenheimer' que merece la pena explorar. 'Oppenheimer' tiene un final complicado. Sentimientos complicados".

Nolan mantiene la postura que ha adoptado desde que 'Origen' llegó a los cines y nos invita a los espectadores a decidir cómo debemos resolver esa pretendida ambigüedad. No obstante, su explicación más reciente es probablemente la más clara que nos ha ofrecido hasta ahora. En cualquier caso, resulta inquietante que compare el final de 'Origen' con el de 'Oppenheimer', que llegará a los cines españoles el próximo 21 de julio.

A priori la trama de ambas películas no tiene absolutamente nada que ver ('Oppenheimer' describe las circunstancias reales en las que se desarrolló el Proyecto Manhattan que dio lugar a la fabricación de las primeras bombas atómicas). Sea como sea será interesante averiguar qué comparten el final dedicado a Dom Cobb, el personaje ficticio interpretado por DiCaprio, y el de Robert Oppenheimer, el científico real encarnado en la gran pantalla por Cillian Murphy. Muy pronto saldremos de dudas.

En Xataka: "Tendrás que volver a verla": Nolan explica el giro más impactante de 'Interstellar' y deja su final a interpretación

-
La noticia Christopher Nolan nos ha explicado el final de 'Origen' con un propósito: prepararnos para el de 'Oppenheimer' fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

Spotify quiere dejar de ser el patito feo del HiFi: prepara un plan con sonido sin pérdida de calidad, según Bloomberg

Spotify quiere dejar de ser el patito feo del HiFi: prepara un plan con sonido sin pérdida de calidad, según Bloomberg

Más vale tarde que nunca. Si esta filtración está en lo cierto, y es razonable asumir que es así porque Bloomberg es un medio fiable, Spotify está preparando una modalidad de suscripción que nos entregará sonido de alta fidelidad sin pérdida de calidad. Lo mismo que nos proponen algunos de sus competidores desde hace tiempo. No obstante, merece la pena que no pasemos por alto que este servicio de música vía streaming tiene, según Statista, una cuota aproximada del 30%, la mayor de este mercado, por lo que su alcance es multitudinario.

La calidad de sonido de la música grabada importa en la medida en que condiciona su capacidad de emocionarnos. De hecho, de ella depende en gran parte nuestra experiencia. Esta es la razón por la que es una buena noticia que un servicio tan exitoso como Spotify ponga esta opción en manos de sus usuarios, aunque es importante que no pasemos por alto que la experiencia que nos ofrece el sonido codificado sin pérdida de calidad está condicionada por las características del hardware involucrado en la reproducción.

Cuándo llegará. La información que ha dado a conocer Bloomberg nos anticipa que Spotify planea lanzar su plan de servicio 'Supremium' (al parecer es así como va a llamarlo) en algunos mercados antes de que finalice 2023, por lo que probablemente llegará durante el cuarto trimestre de este año.

Qué podemos esperar. En esencia lo mismo que ya nos ofrecen otros servicios de música vía streaming que también nos proponen audio sin pérdida de calidad: un mayor nivel de detalle, una mayor riqueza armónica y una recreación de la escena sonora más precisa. En ocasiones la mejora es sutil, si es que existe, pero en algunos cortes musicales, los que están realmente bien grabados y codificados, la mejora puede llegar a ser claramente perceptible.

Cuánto costará. Spotify todavía no ha dado a conocer oficialmente este servicio, por lo que aún no sabemos cuánto costará. Lo que sí sabemos es que tendrá un precio más alto que el plan actual, que cuesta 9,99 euros al mes si nos quedamos con la suscripción estándar, o 15,99 euros al mes si elegimos el plan familiar.

Qué alternativas tenemos. Muchas. Ahora mismo Apple Music, Amazon Music, Tidal, Deezer o Qobuz son algunos de los servicios de música vía streaming que ya nos ofrecen audio codificado sin pérdida de calidad. A la hora de elegir uno de ellos lo interesante es ponderar su precio y su catálogo para identificar la opción que resuelve mejor las necesidades de cada usuario. Os hablamos de ellos con detalle en nuestra última comparativa de servicios de streaming musical.

Qué necesitamos para disfrutarlo. Nuestro punto de partida debe ser un dispositivo preparado para reproducir el contenido de la plataforma, como un smartphone con la app de Spotify o un reproductor de música en red compatible con este servicio, entre otras opciones. No obstante, para aprovechar los beneficios del audio de alta calidad también merece la pena cuidar los altavoces o los auriculares que van a restituir el audio. Unos auriculares con cable o unos inalámbricos con Bluetooth aptX o aptX Lossless representan a menudo una buena opción.

Más información: Bloomberg

En Xataka: Tenemos que hablar de auriculares: uso, volumen y pérdida de audición

-
La noticia Spotify quiere dejar de ser el patito feo del HiFi: prepara un plan con sonido sin pérdida de calidad, según Bloomberg fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

Intel tiene un plan para volver a liderar la industria de los chips. Le va a costar un auténtico dineral

Intel tiene un plan para volver a liderar la industria de los chips. Le va a costar un auténtico dineral

Pat Gelsinger, el director general de Intel, no va de farol. Durante la entrevista que concedió a The Wall Street Journal a finales de octubre este ejecutivo aseguró que su estrategia a medio plazo en el ámbito de la industria de los chips pasa por tener los mejores transistores y la tecnología de integración más avanzada del mundo en 2025. Ahora mismo TSMC y Samsung, que son sus principales competidores, están fabricando circuitos integrados con procesos litográficos más avanzados que los de Intel, por lo que es evidente que no va a tenerlo fácil.

Para pelear de tú a tú con estas dos compañías a Intel no le va a quedar más remedio que incrementar su competitividad, y para hacerlo tendrá necesariamente que realizar un gran esfuerzo en investigación y mejora de su infraestructura de fabricación. Tenemos razones sólidas para asumir que lo está haciendo. Si nos ceñimos a la investigación merece la pena que recordemos que a principios del pasado mes de febrero Wang Rui, la presidenta de la filial de Intel en China, afirmó que sus ingenieros ya han completado el desarrollo de sus tecnologías de integración de 2 y 1,8 nm.

Intel prevé tener preparado el nodo Intel 3 para iniciar la fabricación durante el segundo semestre de este año, así como empezar la producción de chips en el nodo Intel 20A (2 nm) durante la primera mitad de 2024. Y, lo que si cabe es más sorprendente, también planea tener listo el nodo litográfico 18A (1,8 nm) durante la segunda mitad del próximo año. Llevar a buen puerto este plan requiere contar con un fuerte respaldo económico, y parece que en este terreno esta empresa está poniendo toda la carne en el asador.

Estas son las plantas en las que va a invertir al menos 80.000 millones de dólares

Benjamin Netanyahu, el primer ministro de Israel, acaba de oficializar un movimiento importante: Intel se va a gastar 25.000 millones de dólares en una nueva planta de fabricación de semiconductores que estará alojada junto a su actual fábrica de chips de Kiryat Gat, ubicada no muy lejos de Tel Aviv. A finales de septiembre de 2022 tuve la oportunidad de visitar estas instalaciones y pude ver los equipos litográficos de ASML y Tokyo Electron que constituyen el auténtico corazón de esta planta trabajando a pleno rendimiento.

Intel ha previsto que esta nueva fábrica israelí inicie las pruebas de producción de chips en 2027

Intel ha previsto que esta nueva fábrica israelí inicie las pruebas de producción de circuitos integrados en 2027, un plazo que encaja bien con el tiempo que es necesario invertir en la puesta a punto de una nueva planta de fabricación de semiconductores. Según Netanyahu la puesta en marcha de estas instalaciones representará la mayor inversión realizada por una empresa extranjera en Israel, aunque no debemos pasar por alto que Intel no afrontará el pago íntegro de esos 25.000 millones de dólares; una parte estará subvencionada por el estado.

En cualquier caso, la compañía liderada por Pat Gelsinger planea hacer más movimientos importantes para desarrollar su infraestructura de fabricación de chips en Europa e Israel. En este último país además de poner en marcha la nueva planta de Kiryat Gat a corto plazo prevé completar la compra del fabricante de circuitos integrados israelí Tower Semiconductor. Esta operación le costará 5.400 millones de dólares, y, aunque sabemos que se estaba pergeñando desde febrero de 2022, su consolidación llegará durante los próximos meses.

No obstante, esto no es todo. Intel también ha confirmado que se gastará 4.600 millones de dólares en unas nuevas instalaciones que estarán alojadas en Breslavia (Polonia), así como 13.000 millones de dólares más en la expansión de su fábrica de Leixlip (Irlanda). El propósito de la mejora de esta última planta será duplicar su capacidad de fabricación y habilitar en Europa una fábrica preparada para producir chips en el nodo Intel 4.

El coste conjunto de las instalaciones en las que acabamos de indagar y el de la fábrica de Magdeburgo asciende a 80.000 millones de dólares

El coste conjunto de las instalaciones en las que acabamos de indagar y el de la fábrica que esta empresa planea construir en Magdeburgo (Alemania) asciende a 80.000 millones de dólares. Y no podemos pasar por alto que, además, está poniendo a punto dos nuevas plantas de semiconductores en Arizona (Estados Unidos) que costarán 20.000 millones de dólares. Esta vez sí. Intel parece estar aplicándose a fondo.

Imagen de portada: Intel

Más información: ReutersSCMP

En Xataka: La estrategia del mayor fabricante de memorias de EEUU refleja lo cara que puede salir la enemistad con China

-
La noticia Intel tiene un plan para volver a liderar la industria de los chips. Le va a costar un auténtico dineral fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

Esto lo cambia todo: IBM ha demostrado que los ordenadores cuánticos funcionan bien sin corrección de errores

Esto lo cambia todo: IBM ha demostrado que los ordenadores cuánticos funcionan bien sin corrección de errores

No todos los científicos confían a pies juntillas en las capacidades de los ordenadores cuánticos. Algunos, como el matemático israelí Gil Kalai, que da clase en la Universidad Yale (Estados Unidos), defienden que nunca funcionarán bien. Este académico en particular cree que el aumento de la complejidad de los sistemas cuánticos provocará que acaben comportándose como los ordenadores clásicos, por lo que la superioridad de los primeros acabará evaporándose.

Otros investigadores, sin embargo, son mucho más optimistas. Ignacio Cirac, el físico español considerado de forma unánime junto a Peter Zoller el padre fundacional de la computación cuántica, sostiene que "desarrollar un ordenador cuántico que no tenga errores es muy complicado. No tengo ninguna duda de que va a pasar (en este ámbito no estoy de acuerdo con lo que dice Gil Kalai), pero creo que va a tardar mucho tiempo".

El centro de este debate está ocupado por la corrección de errores. Los científicos que investigan en el ámbito de la computación cuántica lidian también con otros desafíos, pero la necesidad de implementar un sistema de corrección capaz de garantizar que los resultados que devuelven los sistemas cuánticos son correctos es fundamental. De lo contrario no podrán enfrentarse a la resolución de problemas realmente significativos. O esto creían los expertos hasta ahora.

Y es que un equipo de investigadores de IBM acaba de entregarnos evidencias muy sólidas que defienden que los ordenadores cuánticos pueden resolver problemas complejos sin necesidad de contar con un sistema de corrección de errores. Su trabajo acaba de ser publicado en Nature, y es extraordinariamente esperanzador debido a que pone sobre la mesa con argumentos tangibles la posibilidad de que los ordenadores cuánticos puedan ser utilizados para resolver problemas significativos antes de que llegue la tan ansiada corrección de errores.

Hasta que llegue la corrección la mitigación va a marcar la diferencia

Este hallazgo no significa que la corrección de errores ya no es importante. Por supuesto que lo es. De hecho, sigue siendo la meta final de buena parte de los investigadores en computación cuántica debido a que cuando llegue presumiblemente estas máquinas podrán intervenir en la resolución de un abanico muy amplio de problemas. En esencia lo que han demostrado estos investigadores de IBM es que por el camino los sistemas cuánticos van a ser capaces de funcionar correctamente y resolver algunos problemas relevantes sin contar con este recurso.

El artículo que han publicado en Nature recoge con todo lujo de detalles cómo han llevado a cabo su experimento. No es necesario que indaguemos en él a fondo debido a que su complejidad excede el alcance de este artículo, pero merece la pena que nos detengamos un momento en él para hacernos una idea certera acerca de la estrategia que han diseñado. A grandes rasgos lo que han hecho ha sido implementar un sistema de mitigación de errores, que no de corrección, tomando como base un ordenador cuántico equipado con un procesador Eagle de 127 cúbits.

Estos investigadores han optimizado la calibración de los cúbits superconductores para minimizar el ruido e incrementar la coherencia

Los ingenieros de IBM involucrados en este experimento han contado con la ayuda de varios investigadores de la Universidad de California en Berkeley y del Laboratorio Nacional Lawrence Berkeley. Trabajando juntos han logrado refinar la calibración de los cúbits superconductores de este procesador cuántico con el propósito de minimizar el ruido al que está expuesto e incrementar su coherencia.

Su objetivo era dilatar el tiempo durante el que los cúbits preservan los efectos cuánticos, que es lo que permite utilizarlos para llevar a cabo cálculos aprovechando las ventajas que conlleva operar con un sistema cuántico y no con uno clásico. Cuando desaparecen los efectos cuánticos surge un fenómeno conocido como decoherencia cuántica, y a partir de ese instante el ordenador cuántico pierde su ventaja y pasa a comportarse como un ordenador clásico.

No obstante, esto no es todo. Para poner a prueba su estrategia y averiguar si realmente su tecnología de calibración de los cúbits superconductores y reducción del ruido es eficaz compararon su salida con la de un circuito verificable. Y concluyeron su experimento con un último reto: el ordenador cuántico de 127 cúbits se enfrentó a un superordenador clásico de última generación. Lo sorprendente es que en al menos uno de los cálculos el ordenador cuántico entregó los resultados correctos, pero el superordenador clásico fracasó en el intento.

Algunos algoritmos cuánticos, como la factorización o la estimación de fase, requieren la corrección de errores, pero otros problemas pueden ser abordados sin ella

Aún queda mucho trabajo por hacer en este ámbito, pero estos científicos han llegado a una conclusión muy importante: un procesador cuántico de poco más de 100 cúbits que no cuenta con corrección de errores puede ser utilizado para resolver problemas científicos significativos. Eso sí, para que sea capaz de entregar resultados fiables es necesario mitigar los errores calibrando los cúbits con un procedimiento extraordinariamente avanzado y riguroso.

Algunos algoritmos cuánticos, como la factorización o la estimación de fase, entre otros, no podrán ser resueltos con un ordenador cuántico hasta que cuente con un sistema de corrección de errores eficaz, pero otros problemas del mundo real un poco más sencillos sí podrán ser abordados con los ordenadores cuánticos actuales. Esta declaración de Sajant Anand, uno de los autores del experimento, nos invita a ser razonablemente optimistas: "Nos estamos adentrando en un terreno en el que los ordenadores cuánticos serán capaces de hacer cosas que los algoritmos actuales no pueden hacer cuando los ejecutamos sobre un ordenador clásico".

Imagen de portada: Xataka con Midjourney

Más información: Nature

En Xataka: Por primera vez se ha medido el espín de un electrón. Es lo mejor que le puede pasar a las tecnologías cuánticas

-
La noticia Esto lo cambia todo: IBM ha demostrado que los ordenadores cuánticos funcionan bien sin corrección de errores fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

TSMC advierte a sus empleados en EEUU: o aceptan sus condiciones de trabajo o tendrán que buscarse otro empleo

TSMC advierte a sus empleados en EEUU: o aceptan sus condiciones de trabajo o tendrán que buscarse otro empleo

La fábrica de chips que está construyendo TSMC en Arizona (Estados Unidos) ha iniciado el tramo final de su puesta a punto. El propósito de esta compañía es poner en marcha la producción de semiconductores en estas instalaciones en 2024, y parece que va a conseguirlo. Sin embargo, los circuitos integrados que saldrán de esta planta serán hasta un 30% más caros que los chips con idénticas características fabricados en las instalaciones que tiene TSMC en Taiwán.

Morris Chang, el fundador de esta empresa, sostiene que los costes de producción de sus plantas ubicadas fuera de Taiwán se duplicarán en el futuro, lo que tendrá un impacto directo en el precio de los chips. Este incremento está ocasionado por los altos costes derivados de la construcción de fábricas de chips de vanguardia fuera del continente asiático, y también por las condiciones salariales de los trabajadores estadounidenses.

No obstante, el recelo con el que Chang encara los desafíos que plantea la expansión de su compañía en el extranjero no termina aquí. Y es que este veterano ingeniero ha destacado en varias ocasiones el que para él es el ingrediente fundamental que ha llevado al éxito tanto a TSMC como a otros fabricantes de chips japoneses y surcoreanos: su cultura del trabajo. Esto es lo que los hace tan competitivos para este ejecutivo, y vaticina que EEUU no tendrá esto a su favor.

TSMC no va a sacrificar su cultura del trabajo en Occidente. Al menos no del todo

Actualmente este fabricante de chips sostiene su negocio sobre un margen de beneficio de aproximadamente el 53%, y según los medios asiáticos no está dispuesto a sacrificarlo para ofrecer a sus clientes al mismo precio los circuitos integrados que produce dentro y fuera de Taiwán. Tanto Morris Chang como Mark Liu, que es el actual presidente de TSMC, han declarado que su competitividad está estrechamente ligada a su cultura del trabajo, y no están dispuestos a renunciar a ella en las instalaciones que tienen fuera de su país de origen. Al menos no completamente.

A TSMC le está costando encontrar los 4.500 trabajadores que necesita para poner en marcha sus nuevas plantas de Arizona

Un artículo publicado por la revista Fortune hace unos pocos días recoge que a TSMC le está costando encontrar los 4.500 trabajadores que necesita para poner en marcha sus nuevas plantas de Arizona. Según este medio esta empresa se ha granjeado la fama de defender una cultura corporativa "brutal", y, al parecer, a muchos trabajadores estadounidenses esta filosofía los intimida. Algunos antiguos empleados en EEUU aseguran que las jornadas laborales de 12 horas y los turnos de fin de semana son muy habituales. "En TSMC todo es obediencia. No está preparada para América", asegura uno de sus ingenieros sin desvelar su identidad.

Mark Liu no ha dudado en saltar a la palestra y dar una respuesta contundente a estas críticas durante un viaje muy reciente que ha hecho a EEUU para, entre otros motivos, reunirse con el presidente Joe Biden: "Aquellos que no están dispuestos a aceptar turnos no deberían trabajar en la industria de fabricación de semiconductores". No obstante, también ha intentado apaciguar un poco a los críticos con su compañía asegurando que no va a pedir a sus empleados en EEUU que asuman exactamente los mismos estándares derivados de la cultura del trabajo que impera en sus plantas de Taiwán.

Actualmente la cúpula directiva de TSMC está negociando con el Gobierno alemán las condiciones que requiere para aprobar la construcción de una planta de semiconductores en el estado de Sajonia. El Gobierno japonés también está interesado en tener una fábrica de circuitos integrados de esta compañía taiwanesa dentro de sus fronteras, pero Europa necesita imperiosamente reforzar su posición en la industria de los chips y difícilmente va a dejar escapar esta oportunidad.

Eso sí, en Alemania, Francia, Italia, España o cualquier otro país europeo sucedería lo mismo que en EEUU. A TSMC no le va a quedar más remedio que renunciar en parte a la cultura de trabajo interiorizada por sus empleados taiwaneses.

Imagen de portada: TSMC

Más información: Focus TaiwanFortune

En Xataka: China tiene un plan oculto para desarrollar sus propios chips de vanguardia. O al menos eso cree el CEO de NVIDIA

-
La noticia TSMC advierte a sus empleados en EEUU: o aceptan sus condiciones de trabajo o tendrán que buscarse otro empleo fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

El plan de IBM para ganar la computación cuántica pasa por Europa: ya sabemos dónde estará y cómo será su centro de datos cuánticos

El plan de IBM para ganar la computación cuántica pasa por Europa: ya sabemos dónde estará y cómo será su centro de datos cuánticos

La apuesta de IBM por los ordenadores cuánticos es muy sólida. Hace dos semanas esta compañía estadounidense nos sorprendió con un anuncio impactante: planea tener listo su primer ordenador cuántico de 100.000 cúbits no más allá de 2033. Puede parecer que una década es mucho tiempo en el ámbito de la tecnología. Y sí, sin duda lo es. Sin embargo, en el campo de juego de la computación cuántica es un suspiro debido a la gran cantidad de desafíos que plantea esta disciplina.

Durante los últimos años IBM ha forjado alianzas con instituciones públicas y centros de investigación con el propósito de fomentar el desarrollo de la computación cuántica. Precisamente a finales del pasado mes de marzo planificó con la Fundación Vasca para la Ciencia la instalación en San Sebastián de un Centro de Computación Cuántica que estará equipado con un ordenador cuántico System One. Esta máquina incorpora un procesador Eagle de 127 cúbits y contribuirá a poner en el mapa de las infraestructuras cuánticas a España.

Sin embargo, una de las instalaciones de este tipo más ambiciosas del planeta se está cocinando ahora mismo. Y es que IBM acaba de confirmar que en 2024 iniciará la operación en Europa de un centro de datos cuánticos muy avanzado que estará a disposición de las instituciones, las empresas y los investigadores en computación cuántica europeos. De hecho, actualmente esta compañía solo tiene un centro dotado de una infraestructura similar en todo el planeta, y está en Nueva York (Estados Unidos).

Ibmsystemone

Este será el primer centro de datos cuánticos de IBM en Europa

Estas instalaciones estarán alojadas en el campus que tiene IBM en Ehningen (Alemania), y no incorporarán un solo ordenador cuántico; aglutinarán varios sistemas cuánticos equipados con procesadores de más de 100 cúbits. Esta empresa aún no ha detallado qué chips cuánticos utilizará en estas máquinas, pero es probable que en una primera iteración se trate del procesador Eagle de 127 cúbits que va a instalar en el Centro de Computación Cuántica de San Sebastián. No obstante, aunque solo es una conjetura, es probable que en el futuro lleguen otras máquinas equipadas con los procesadores cuánticos Osprey, que tiene 433 cúbits, o Condor, que llegará a finales de este año y tendrá 1.121 cúbits.

El primer centro de datos cuánticos de IBM en Europa estará alojado en Ehningen (Alemania)

En cualquier caso lo que sabemos con certeza es en qué proyectos de investigación participarán estos ordenadores cuánticos. Actualmente los centros de investigación y las empresas que trabajan con IBM están explorando estrategias que permitan usar las infraestructuras cuánticas para desarrollar nuevos materiales, fármacos innovadores, y también para elaborar nuevo conocimiento en el ámbito de la física de alta energía, la transición energética, las comunicaciones cuánticas, e, incluso, las aplicaciones financieras. Suena bien, aunque aún es necesario resolver algunos desafíos para conseguir que los ordenadores cuánticos puedan ser utilizados para proponer soluciones a problemas realmente significativos.

Imagen de portada: IBM

En Xataka: Los ordenadores cuánticos se preparan para dar un gran salto. Uno que al fin les va a permitir resolver problemas reales

-
La noticia El plan de IBM para ganar la computación cuántica pasa por Europa: ya sabemos dónde estará y cómo será su centro de datos cuánticos fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

Apple lanza su mejor procesador por todo lo alto: el M2 Ultra llega en los nuevos Mac Pro y Mac Studio

Apple lanza su mejor procesador por todo lo alto: el M2 Ultra llega en los nuevos Mac Pro y Mac Studio

Una vez más las filtraciones han dado en la diana. Durante las últimas semanas ha sonado con insistencia en algunos medios que los de Cupertino lanzarían la versión Ultra de su procesador M2 en el evento que se está celebrando en estos momentos. Y así ha sido. Ya sabemos cómo se las gastará este chip. Y también qué ordenadores serán los primeros en montarlo.

Algunos detalles acerca de esta CPU para ir abriendo boca. Al igual que los anteriores procesadores de la familia M2 este chip está fabricado utilizando la fotolitografía de 5 nm de segunda generación de TSMC. De hecho, su auténtica seña de identidad consiste en que el M2 Ultra son dos chips M2 Max interconectados mediante un enlace de alto rendimiento. En cualquier caso, de momento solo hemos arañado la superficie.

Las especificaciones del procesador más potente de Apple intimidan

Conociendo como conocemos la microarquitectura de los anteriores procesadores M2 y sus especificaciones es difícil que el nuevo chip de los de Cupertino nos impacte, pero lo cierto es que sus cifras son de las que intimidan. Y es que aglutina hasta 24 núcleos de CPU y nada menos que 76 núcleos de GPU. Estas especificaciones sobre el papel nos invitan a prever que el rendimiento de este microprocesador en cualquier aplicación que conlleve un esfuerzo de cálculo importante debería ser sobresaliente.

Según Apple el chip M2 Ultra es un 20% más rápido que su predecesor, el M1 Ultra

Según Apple el chip M2 Ultra es un 20% más rápido que su predecesor, el M1 Ultra, y su lógica gráfica incrementa el rendimiento en un 30%. Si estas cifras se confirman lo cierto es que no están nada mal. Además, su motor neuronal tiene 32 núcleos, por lo que debería lidiar sin problema con los algoritmos de inteligencia artificial y aprendizaje profundo.

No obstante, hay otro dato que merece la pena que no pasemos por alto. Y es que esta CPU puede convivir con un mapa de memoria unificada de hasta 192 GB, lo que representa un incremento del 50% frente al procesador M1 Ultra. En cualquier caso, esta característica es una consecuencia de la peculiar arquitectura de este chip. En la práctica, si nos ceñimos a las promesas de Apple, los ordenadores que incorporan esta CPU son capaces de reproducir simultáneamente hasta 22 transmisiones de vídeo 8K, así como de trabajar codo con codo con hasta seis Pro Display XDR empleando una única salida de vídeo.

El M2 Ultra se estrena en los nuevos Mac Pro y Mac Studio

Os proponemos empezar indagando en las características del nuevo Mac Pro. A diferencia del Mac Studio en el que vamos a indagar a continuación, la nueva revisión de este equipo con vocación profesional llega solo con la versión Ultra del procesador M2, por lo que todas las especificaciones que acabamos de repasar están presentes en esta máquina de sobremesa.

En lo que se refiere a la conectividad el nuevo Mac Pro va bien servido. Y en potencia, sobre el papel, también

Además de sus 24 núcleos de CPU, sus 76 núcleos de GPU, los 32 núcleos del motor Neural Engine y sus 192 GB como máximo de memoria unificada el Mac Pro nos entrega dos salidas HDMI, conexión Ethernet Dual de 10 Gb, ocho puertos Thunderbolt 4, Bluetooth 5.3 y Wi-Fi 6E. En lo que se refiere a la conectividad parece que va bien servido. Y en potencia, sobre el papel, también.

Macpro

Vamos ahora con el también interesante Mac Studio. Esta revisión de este equipo compacto llega en dos versiones equipadas con los procesadores M2 Max y M2 Ultra. Su conectividad no es tan generosa como la del Mac Pro debido a las evidentes limitaciones que impone el tamaño del chasis de esta máquina, pero si nos ceñimos a su potencia la presencia del SoC M2 Ultra nos anticipa que en su revisión más ambiciosa este Mac Studio también es una auténtica bestia.

La presencia del SoC M2 Ultra nos anticipa que en su revisión más ambiciosa este Mac Studio también es una auténtica bestia

Los 24 núcleos de CPU, los 76 núcleos de GPU, los 192 GB como máximo de memoria unificada y el ancho de banda de memoria de 800 GB/s siguen presentes en la revisión más ambiciosa del Mac Studio equipada con el procesador M2 Ultra. Y su conectividad aunque, como hemos visto, es más limitada, tampoco pinta mal. De hecho, nos entrega una salida HDMI, el pertinente puerto Ethernet de 10 Gb, una ranura para tarjetas SDXC y conectividad Thunderbolt 4. También nos propone Wi-Fi 6E y Bluetooth 5.3.

Macstudio

Nuevos Mac Pro y Mac Studio de Apple: precio y disponibilidad






Artículo en desarrollo...

-
La noticia Apple lanza su mejor procesador por todo lo alto: el M2 Ultra llega en los nuevos Mac Pro y Mac Studio fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

Europa tiene un plan para proteger su único gran éxito en la industria de los chips del acoso de China

Europa tiene un plan para proteger su único gran éxito en la industria de los chips del acoso de China

China tiene, con toda seguridad, espías dentro de ASML. No lo aseguramos nosotros, aunque lo compartimos; lo defiende Chris Miller en su muy recomendable libro 'Chip War'. Es más, este respetado profesor de la Universidad Tufts, en Massachusetts (Estados Unidos), está convencido de que el Gobierno chino ha desplegado a algunos de sus mejores espías con el propósito de que estudien los procesos de producción de esta compañía de Países Bajos.

Hay mucho en juego. Muchísimo, en realidad. Y sí, la auténtica protagonista de todo este entramado es ASML. Esta compañía es la joya de la corona de Europa en el ámbito de la industria de los semiconductores. Y lo es porque es la única empresa del planeta que ha sido capaz de diseñar y fabricar los equipos de litografía de ultravioleta extremo (UVE) que utilizan TSMC, Intel y Samsung para producir sus chips de vanguardia. Las japonesas Nikon y Canon también intentaron desarrollar esta máquina, pero fracasaron en el intento.

Esto es, precisamente, lo que hace a ASML tan valiosa. Para China. Y también para la alianza liderada por Estados Unidos. De hecho, esta última ha "estimulado" al Gobierno de Países Bajos para que le prohíba vender a las empresas chinas sus equipos de litografía UVE y UVP (ultravioleta profundo), que son los más avanzados que tiene. Lo que persiguen EEUU y sus aliados es, en teoría, impedir el desarrollo tecnológico de la industria de los semiconductores china para frenar su capacidad armamentística.

Y la forma más eficaz de lograrlo pasa por evitar que los equipos más sofisticados no solo de ASML, sino también de Tokyo Electron, Canon, Nikon y otras compañías, estén al alcance de los fabricantes chinos de circuitos integrados. Algunos expertos, como Zeng Liaoyuan, que es profesor asociado de ingeniería de telecomunicaciones en la Universidad de Tecnología y Electrónica de Chengdu, en China, defienden que su país necesitará al menos dos décadas para desarrollar las tecnologías necesarias para fabricar chips avanzados sin necesidad de recurrir a las innovaciones extranjeras. Pero China tiene otras opciones que podrían permitirle recortar mucho este plazo.

Asml Uve

El plan de Europa pasa por tener pronto la máquina UVE de alta apertura

En varios pasajes de su texto Chris Miller asevera que el espionaje industrial está a la orden del día en las grandes corporaciones, y es difícil evitar que ASML consiga impedir que los espías chinos se hagan con la información que necesita el Gobierno de Xi Jinping para desarrollar sus propios equipos de litografía UVE. Aun así, hay algo que juega a favor de la alianza liderada por EEUU: la complejidad de esta máquina es tal que ni siquiera la disponibilidad de los planos y el conocimiento de los procesos establecidos por los ingenieros de ASML garantizan que sea posible llevar este equipo de litografía a buen término.

El láser del equipo de litografía UVE contiene nada menos que 457.329 componentes, e identificarlos y ensamblarlos es extremadamente complejo

Para muestra, un botón: el láser del equipo de litografía UVE contiene nada menos que 457.329 componentes, e identificarlos y ensamblarlos es extremadamente complejo. Además, este es solo uno de los subsistemas de la máquina de litografía. Pese a todo esto tarde o temprano China tendrá sus propias máquinas UVE. Esta gran potencia tiene la capacidad económica y tecnológica para desarrollarlas, y no cabe ninguna duda de que las conseguirá. No obstante, Europa tiene un as en la manga. Uno muy importante: el equipo de litografía UVE de alta apertura que ya está siendo desarrollado por ASML. De hecho, tenemos motivos de peso para prever que está muy avanzado.

En la práctica podemos observar esta máquina como un equipo UVE de segunda generación. Cuando ASML lo tenga listo y lo ponga en las manos de TSMC, Intel, Samsung, y quizá de alguna otra empresa afín, los chips fabricados por una hipotética máquina UVE de China ya no serán los mejores. No serán los más avanzados. La alianza en la que intervienen Europa, EEUU, Japón, Taiwán y Corea del Sur, entre otros países, volverá a ir un paso por delante de China, y sus chips de vanguardia perderán valor. Incluso aunque estuviesen producidos en una máquina UVE de fabricación china, no serían de auténtica vanguardia.

Además, ASML prevé tener listo su equipo de fotolitografía UVE de alta apertura a mediados de este década, y es imposible que China tenga lista su propia máquina UVE en tan poco tiempo. Por esta razón incluso aunque la tuviese a finales de esta década, algo que es muy poco probable, los fabricantes de semiconductores vinculados a la alianza llevarían ya varios años trabajando con los equipos UVE de alta apertura, y este bagaje les permitiría ser más competitivos que sus competidores chinos más aventajados. Un apunte interesante: un equipo de litografía UVE de alta apertura costará aproximadamente 300 millones de dólares (el doble que una máquina UVE de primera generación).

ASML prevé tener listos sus primeros equipos UVE de alta apertura a mediados de esta década. Cada uno costará 300 millones de dólares

Antes de concluir este artículo merece la pena que repasemos brevemente qué es el parámetro 'NA' (numerical aperture) en un equipo litográfico. Quien quiera conocerlo con detalle puede leer el artículo en el que explicamos con bastante profundidad qué es el criterio de Rayleigh, pero en este texto nos basta saber que esta variable identifica el valor de apertura de la óptica utilizada por el equipo litográfico. En este contexto este parámetro refleja esencialmente lo mismo que el valor de apertura cuando hablamos de la óptica de una cámara de fotos, por lo que condiciona la cantidad de luz que los elementos ópticos son capaces de recoger. Como podemos intuir, cuanta más luz recaben, mejor.

Imágenes: ASML

Bibliografía: 'Chip War', de Chris Miller

En Xataka: TSMC está a favor de las sanciones contra China y su industria de los chips

-
La noticia Europa tiene un plan para proteger su único gran éxito en la industria de los chips del acoso de China fue publicada originalmente en Xataka por Juan Carlos López .

Leer más