China tiene un nuevo superordenador y es probablemente el más potente del planeta. Tanto que intimida

China tiene un nuevo superordenador y es probablemente el más potente del planeta. Tanto que intimida

China tiene un nuevo superordenador. Y no se trata simplemente de uno más. Aunque aún no han trascendido sus capacidades tenemos razones bien fundadas para prever que se trata de una máquina capaz de superar la barrera de la exaescala. Actualmente el superordenador más potente del mundo, conocido como Frontier, está instalado en el Laboratorio Nacional Oak Ridge (Estados Unidos), incorpora procesadores AMD EPYC 64C y aglutina 8,7 millones de núcleos. Por supuesto, es de tipo exaescala (entrega 1,1 exaFLOPS).

Europa, por su parte, prepara desde hace tiempo JUPITER, su propio superordenador exaescala. Está siendo construido en el Centro de Supercomputación Jülich, que está alojado en Jülich (Alemania), y cuando entre en operación será con toda seguridad uno de los superordenadores más potentes del planeta. Estas máquinas son muy importantes por una razón: juegan un papel fundamental en el desarrollo científico y tecnológico de un país.

Esta es la razón fundamental por la que algunas de las sanciones desplegadas por EEUU y sus aliados persiguen evitar la llegada a China de los microprocesadores que necesita para poner a punto nuevos superordenadores. Sin embargo, esta medida no está evitando que este país asiático siga adelante. De hecho, es una potencia en superordenadores. Desde 2021 tiene listo su Sunway Oceanlite, una bestia con una potencia estimada de 1 exaFLOP, y es muy probable que su nueva máquina sea todavía más capaz.

El Centro de Supercomputación Nacional es la joya de la corona de China

El Gobierno liderado por Xi Jinping mantiene un secretismo casi absoluto en materia de supercomputación. En este ámbito sus dos instituciones más importantes son el Laboratorio de Computación de Jiangnan, que es el responsable del diseño de los microprocesadores Sunway, y el Centro de Supercomputación Nacional, que ha sido el responsable de la puesta a punto tanto del superordenador Sunway Oceanlite como de la máquina a la que estamos dedicado este artículo, que presumiblemente es todavía más potente que este último.

El nuevo superordenador chino aglutina nada menos que 49.230 nodos y un total de 19,2 millones de núcleos

La opacidad de la Administración china ha impedido que trasciendan las características detalladas de sus superordenadores más potentes, pero podemos formarnos una idea bastante certera acerca de las capacidades de la máquina más ambiciosa con la que cuenta el Centro de Supercomputación Nacional. Según Supercomputing.org el nuevo superordenador chino incorpora procesadores Sunway derivados de la CPU SW26010 que vio la luz en 2021. No obstante, lo más impactante es que, de nuevo de acuerdo con Supercomputing.org, que es una fuente fiable, aglutina nada menos que 49.230 nodos y un total de 19,2 millones de núcleos.

El Centro de Supercomputación Nacional no ha desvelado cuál es el rendimiento de este superordenador, y probablemente no lo hará en el futuro, pero es muy razonable asumir que es más capaz que el Sunway Oceanlite. Por esta razón con toda probabilidad supera la barrera de la exaescala. De hecho, incluso cabe la posibilidad de que en realidad el superordenador más potente del planeta sea esta máquina china, y no Frontier, el superordenador del Laboratorio Nacional Oak Ridge.

En la coyuntura de tensión actual la aparición de este superordenador chino es un nuevo quebradero de cabeza al que con toda seguridad la alianza liderada por EEUU tiene en el punto de mira. Al fin y al cabo está en marcha una auténtica "guerra fría" en la que los superordenadores clásicos y los ordenadores cuánticos tienen un rol indiscutiblemente protagonista.

Imagen de portada: Top500.org

Más información: Supercomputing.orgTom's Hardware

En Xataka: El pulso de China y EEUU en la guerra de las memorias ya tiene un vencedor, y no es ninguno de los dos

-
La noticia China tiene un nuevo superordenador y es probablemente el más potente del planeta. Tanto que intimida fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

Los ordenadores cuánticos también aspiran a revolucionar algo crucial en la medicina: el análisis genómico

Los ordenadores cuánticos también aspiran a revolucionar algo crucial en la medicina: el análisis genómico

Los prototipos de ordenadores cuánticos que tienen actualmente IBM, Google, Honeywell o Intel, entre otras empresas, están permitiendo a los científicos que trabajan en esta área de investigación explorar algunas de las aplicaciones que presumiblemente llegarán en el futuro. La implementación de un sistema de corrección de errores será un hito crucial para que algunas de ellas sean posibles, pero este desafío no está impidiendo a los investigadores indagar en los posibles usos de los ordenadores cuánticos.

Algo que merece la pena que no pasemos por alto es que estas máquinas no van a reemplazar a los superordenadores clásicos. En realidad, convivirán con ellos. Y es que los expertos confían en que marquen la diferencia en criptografía, inteligencia artificial, aprendizaje automático y otras disciplinas científicas, como la física, la ingeniería o la química. No obstante, esto no es todo; también confían en la capacidad del hardware cuántico de dar un empujón a la medicina en áreas tan disruptivas como lo son el desarrollo de nuevos fármacos o la terapia genética.

El análisis genómico ultrarrápido está en el punto de mira de los científicos

Precisamente en este último ámbito, en el de la genoterapia, tenemos razones bien fundadas para otear el horizonte con optimismo. Y se lo debemos a un grupo de investigadores de la Universidad de Osaka, en Japón. Estos científicos han utilizado con éxito un ordenador cuántico para identificar el nucleósido adenosina y distinguirlo con precisión de otros tres nucleótidos. A grandes rasgos se trata de moléculas que son sintetizadas por todos los seres vivos y que desempeñan un rol fundamental en el sostenimiento de la vida tal y como la conocemos.

Este hito abre de par en par la puerta a la posibilidad de que en el futuro los ordenadores cuánticos puedan ser utilizados para secuenciar el ADN

La importancia de este logro reside en lo difícil que es desarrollar nuevos algoritmos que puedan ser ejecutados en un ordenador cuántico. Y, además, este hito en particular abre de par en par la puerta a la posibilidad de que en el futuro los ordenadores cuánticos puedan ser utilizados para secuenciar el ADN en muchísimo menos tiempo que el que requieren los procedimientos actuales. De hecho, este es el propósito que tienen en el punto de mira estos investigadores japoneses. No obstante, hasta ahora solo hemos arañado la superficie.

Y es que si finalmente los ordenadores cuánticos plenamente funcionales llegan a buen término y esta investigación prospera el análisis genómico ultrarrápido tendrá con toda probabilidad un papel fundamental en el ámbito del diseño de nuevos fármacos, en el de la investigación en materia de enfermedades infecciosas o en el de la elaboración de nuevas técnicas de diagnóstico del cáncer, entre otras posibles aplicaciones.

El abanico de disciplinas en el que los ordenadores cuánticos tienen la capacidad de marcar la diferencia gracias a su extraordinaria capacidad de cálculo es muy amplio, pero no cabe duda de que su irrupción en el ámbito de la medicina es una buenísima noticia que merece la pena seguir con entusiasmo.

Más información: The Quantum Insider

En Xataka: El impacto del superconductor LK-99 en los ordenadores cuánticos será colosal (si cumple lo prometido)

-
La noticia Los ordenadores cuánticos también aspiran a revolucionar algo crucial en la medicina: el análisis genómico fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

Los ordenadores cuánticos también aspiran a revolucionar algo crucial en la medicina: el análisis genómico

Los ordenadores cuánticos también aspiran a revolucionar algo crucial en la medicina: el análisis genómico

Los prototipos de ordenadores cuánticos que tienen actualmente IBM, Google, Honeywell o Intel, entre otras empresas, están permitiendo a los científicos que trabajan en esta área de investigación explorar algunas de las aplicaciones que presumiblemente llegarán en el futuro. La implementación de un sistema de corrección de errores será un hito crucial para que algunas de ellas sean posibles, pero este desafío no está impidiendo a los investigadores indagar en los posibles usos de los ordenadores cuánticos.

Algo que merece la pena que no pasemos por alto es que estas máquinas no van a reemplazar a los superordenadores clásicos. En realidad, convivirán con ellos. Y es que los expertos confían en que marquen la diferencia en criptografía, inteligencia artificial, aprendizaje automático y otras disciplinas científicas, como la física, la ingeniería o la química. No obstante, esto no es todo; también confían en la capacidad del hardware cuántico de dar un empujón a la medicina en áreas tan disruptivas como lo son el desarrollo de nuevos fármacos o la terapia genética.

El análisis genómico ultrarrápido está en el punto de mira de los científicos

Precisamente en este último ámbito, en el de la genoterapia, tenemos razones bien fundadas para otear el horizonte con optimismo. Y se lo debemos a un grupo de investigadores de la Universidad de Osaka, en Japón. Estos científicos han utilizado con éxito un ordenador cuántico para identificar el nucleósido adenosina y distinguirlo con precisión de otros tres nucleótidos. A grandes rasgos se trata de moléculas que son sintetizadas por todos los seres vivos y que desempeñan un rol fundamental en el sostenimiento de la vida tal y como la conocemos.

Este hito abre de par en par la puerta a la posibilidad de que en el futuro los ordenadores cuánticos puedan ser utilizados para secuenciar el ADN

La importancia de este logro reside en lo difícil que es desarrollar nuevos algoritmos que puedan ser ejecutados en un ordenador cuántico. Y, además, este hito en particular abre de par en par la puerta a la posibilidad de que en el futuro los ordenadores cuánticos puedan ser utilizados para secuenciar el ADN en muchísimo menos tiempo que el que requieren los procedimientos actuales. De hecho, este es el propósito que tienen en el punto de mira estos investigadores japoneses. No obstante, hasta ahora solo hemos arañado la superficie.

Y es que si finalmente los ordenadores cuánticos plenamente funcionales llegan a buen término y esta investigación prospera el análisis genómico ultrarrápido tendrá con toda probabilidad un papel fundamental en el ámbito del diseño de nuevos fármacos, en el de la investigación en materia de enfermedades infecciosas o en el de la elaboración de nuevas técnicas de diagnóstico del cáncer, entre otras posibles aplicaciones.

El abanico de disciplinas en el que los ordenadores cuánticos tienen la capacidad de marcar la diferencia gracias a su extraordinaria capacidad de cálculo es muy amplio, pero no cabe duda de que su irrupción en el ámbito de la medicina es una buenísima noticia que merece la pena seguir con entusiasmo.

Más información: The Quantum Insider

En Xataka: El impacto del superconductor LK-99 en los ordenadores cuánticos será colosal (si cumple lo prometido)

-
La noticia Los ordenadores cuánticos también aspiran a revolucionar algo crucial en la medicina: el análisis genómico fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

EEUU ha redoblado su presión sobre la industria de los chips de China con un arma muy eficaz: las inversiones

EEUU ha redoblado su presión sobre la industria de los chips de China con un arma muy eficaz: las inversiones

El pulso entre la alianza liderada por EEUU y China no cesa. Los dos frentes en los que la Administración de Joe Biden ha trabajado con más ahínco hasta ahora persiguen impedir que la mayor parte de los chips de vanguardia llegue al país liderado por Xi Jinping (hay algunas excepciones que cuentan con la aprobación del Gobierno estadounidense), y, por otro lado, evitar que China pueda producir sus propios equipos litográficos avanzados.

La estrategia de EEUU y sus aliados consiste, en definitiva, en privar a China de los semiconductores más avanzados disponibles actualmente y demorar todo lo posible el momento en el que este país asiático sea capaz de producirlos por sí mismo. No obstante, el Gobierno de Joe Biden puede ir más lejos. Durante las últimas semanas ha tomado forma la posibilidad de que prohibiese a sus propias empresas invertir en algunos sectores estratégicos en China, y, como cabía esperar, esta medida acaba de consolidarse.

Las inversiones de las empresas de EEUU en China, en el punto de mira

Hace apenas unas horas Joe Biden ha firmado una Orden Ejecutiva que prohíbe expresamente las inversiones de las compañías estadounidenses en tres sectores estratégicos tanto para EEUU como para China: la industria de los semiconductores, las tecnologías vinculadas a la computación cuántica y la inteligencia artificial. El Departamento del Tesoro será la institución estadounidense que se responsabilizará de velar por el cumplimiento de esta Orden Ejecutiva.

El propósito de esta Orden Ejecutiva es impedir que los recursos financieros y el conocimiento estadounidenses ayuden a China a reforzar su ejército

No obstante, esto no es todo. Y es que las empresas estadounidenses que hayan previsto realizar cualquier tipo de inversión en algún sector tecnológico de China deberán comunicárselo previamente al Gobierno de EEUU, que tendrá la facultad de prohibirla si considera que puede socavar los intereses del país. El alcance de esta medida no se ciñe solo a las compañías de tecnología; también deben acatarla las firmas de capital riesgo, las empresas conjuntas (joint ventures) y las de nuevas inversiones (greenfield investments).

El propósito de esta Orden Ejecutiva es, de acuerdo con el Gobierno de Joe Biden, impedir que los recursos financieros y el conocimiento estadounidenses ayuden a China a desarrollar tecnologías que podrían reforzar la modernización de su ejército, y, por tanto, comprometer la seguridad de EEUU. Además, esta medida se ha consolidado sobre un telón de fondo que acentúa la tensión que existe entre estos dos países: la declaración por el presidente Joe Biden de una emergencia nacional ante la amenaza que China y otros países representan para los intereses de EEUU.

La respuesta de China, como cabía prever, no ha tardado en llegar. El Gobierno encabezado por Xi Jinping se ha mostrado extremadamente preocupado por esta medida de la Administración estadounidense y ha anticipado que se reserva el derecho de tomar las medidas de respuesta que estime pertinentes. Concretamente el Ministerio de Comercio chino ha emitido una declaración en la que sostiene que esta Orden Ejecutiva firmada por Joe Biden socava la economía y el comercio internacionales.

Imagen de portada: David Lienemann | Xataka con Midjourney

Más información: Reuters

En Xataka: Se suponía que las sanciones de Estados Unidos iban a impedir que sus chips llegaran a Rusia. Se suponía

-
La noticia EEUU ha redoblado su presión sobre la industria de los chips de China con un arma muy eficaz: las inversiones fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

El invento español que sustituye una tarea peligrosísima: operar sobre líneas eléctricas de alta tensión

El invento español que sustituye una tarea peligrosísima: operar sobre líneas eléctricas de alta tensión

Las operaciones de mantenimiento de las líneas eléctricas de alta tensión entrañan riesgos importantes para los técnicos que deben llevarlas a cabo. La altura a la que a menudo tienen que abordar la manipulación de la infraestructura eléctrica y la posibilidad de sufrir una descarga son los principales riesgos que se ven obligados a asumir estos operarios. Afortunadamente ahora cuentan con algo a su favor: el notable desarrollo que está experimentando la robótica aérea.

En España reside un centro de investigación vinculado a la Universidad de Sevilla que cuenta con mucha experiencia en esta disciplina: el Grupo de Robótica, Visión y Control (GRVC). Este equipo está liderado por Aníbal Ollero, doctor ingeniero y catedrático de Robótica en la Universidad de Sevilla especializado en el diseño y la puesta a punto de robots aéreos y vehículos aéreos no tripulados. Actualmente el GRVC trabaja en más de 20 proyectos, y uno de ellos persigue, precisamente, mejorar la seguridad de los técnicos que velan por la infraestructura eléctrica.

El proyecto AERIAL-CORE ya está entregando resultados muy prometedores

A grandes rasgos el propósito de esta iniciativa es desarrollar nuevas tecnologías y sistemas robóticos aéreos con capacidades cognitivas que les permitan afrontar operaciones de inspección y mantenimiento de infraestructuras de difícil acceso. No cabe duda de que el tendido de las líneas eléctricas encaja como un guante en esta premisa, por lo que este grupo de investigadores ha puesto a punto un robot ligero que lleva a cabo la instalación en las líneas eléctricas de los dispositivos espantapájaros exigidos por la regulación para evitar que las aves choquen con los cables y corran el riesgo de sufrir una descarga eléctrica.

Los dos brazos permiten al robot instalar en la línea eléctrica el dispositivo espantapájaros exigido por la regulación actual

Este ingenioso robot pesa 3 kg y tiene dos brazos y una base rodante que lo dotan de una gran polivalencia. De hecho, como podéis ver en el vídeo que publicamos debajo de estas líneas, la base rodante le permite afianzarse de una manera estable sobre la línea eléctrica y desplazarse por ella. Además, los dos brazos le capacitan para instalar en la línea el dispositivo espantapájaros exigido por la regulación actual. Esta estrategia evita que deban llevar a cabo este procedimiento los técnicos de mantenimiento de una forma completamente manual y asumiendo los riesgos que conlleva esta operación.

Su solución consiste en recurrir a un dron multirrotor diseñado para "agarrarlo" y desacoplarse correctamente

No obstante, no debemos pasar por alto la estrategia por la que se han decantado los ingenieros del GRVC para colocar este robot sobre la línea eléctrica. Y es que su solución consiste en recurrir a un dron multirrotor diseñado para "agarrarlo" y desacoplarse correctamente una vez que el robot está alojado sobre la línea de alta tensión a unos 10 metros de altura. En el vídeo podemos ver la precisión con la que ambas máquinas llevan a cabo su cometido.

Una vez que el robot de dos brazos ha finalizado la instalación del dispositivo espantapájaros sobre la línea eléctrica el dron regresa para acoplarse a él nuevamente y depositarlo en el suelo sin que haya sufrido ningún daño. El tiempo invertido en la colocación del robot sobre la línea es de aproximadamente 80 s, y el lapso necesario para recuperarlo cuando ha finalizado su función es de unos 110 s, por lo que la operación completa requiere aproximadamente 4 minutos (este tiempo contempla la instalación de los dispositivos espantapájaros). No cabe duda de que todo el esfuerzo que se realiza para mejorar la seguridad de las personas que trabajan en este tipo de instalaciones merece mucho la pena.

Imagen de portada: Grupo de Robótica, Visión y Control (GRVC)

Más información: Grupo de Robótica, Visión y Control (GRVC)

En Xataka: China ya tiene al primer robot "producido en masa". Su misión es sorprendente: ejercer de enfermero

-
La noticia El invento español que sustituye una tarea peligrosísima: operar sobre líneas eléctricas de alta tensión fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

El nuevo éxito de la fusión nuclear inercial no enmascara la realidad: su aplicación comercial está aún muy lejos

El nuevo éxito de la fusión nuclear inercial no enmascara la realidad: su aplicación comercial está aún muy lejos

El Laboratorio Nacional Lawrence Livermore se ha apuntado un tanto. Uno importante. Este centro de investigación estadounidense alojado en California es el hogar del experimento de fusión nuclear mediante confinamiento inercial NIF (National Ignition Facility), y hace unos pocos días sus portavoces confirmaron que habían logrado repetir con éxito el hito que dieron a conocer a mediados de diciembre de 2022: habían conseguido generar una energía de 3,15 megajulios.

Según los responsables del experimento esta entrega de energía representa un beneficio energético neto del 35%, una afirmación que cuando menos es matizable. En cualquier caso, lo interesante es que al parecer han logrado repetir este resultado una segunda vez después de múltiples intentos infructuosos. Este logro es importante debido a que demuestra que el procedimiento que han utilizado se puede reproducir, aunque aún tienen que dar a conocer los detalles de su experimento con el propósito de que pueda ser revisado por pares.

En cualquier caso, hay algo muy importante que no debemos pasar por alto: el experimento NIF es un reactor de energía de fusión mediante confinamiento inercial, por lo que su estrategia es muy diferente a la fusión mediante confinamiento magnético utilizada en los reactores JET (Joint European Torus), JT-60SA o en el futuro ITER (International Thermonuclear Experimental Reactor), que está siendo construido en estos momentos en la localidad francesa de Cadarache.

La fusión inercial sigue avanzando, pero su viabilidad comercial está lejísimos

El punto de partida de las dos estrategias de fusión que se están desarrollando actualmente es exactamente el mismo: la fusión de un núcleo de deuterio y otro de tritio nos permite obtener una gran cantidad de energía. Para conseguir que los núcleos de estos dos elementos venzan su repulsión eléctrica natural y se fusionen la estrategia de confinamiento inercial recurre a una gran cantidad de láseres de alta energía.

Los láseres concentran de forma simultánea y abrupta toda su energía en el contenido de la cápsula para que el combustible se caliente, se condense y se comprima de forma súbita

El combustible constituido por los núcleos de deuterio y tritio se introduce en un encapsulado de diamante en forma de microbola y se coloca en el interior de una cámara esférica en cuyas paredes de aluminio de 10 cm de espesor están distribuidos nada menos que 192 láseres de alta energía muy sofisticados. Su propósito es concentrar de forma simultánea y abrupta toda su energía en el contenido de la cápsula para que el combustible se caliente, se condense y se comprima de forma súbita, dando lugar así a la fusión de los núcleos de deuterio y tritio.

Sin embargo, la fusión nuclear por confinamiento magnético propone una estrategia muy diferente: confinar el plasma a 150 millones de grados Celsius que contiene los núcleos de deuterio y tritio en el interior de un campo magnético muy intenso. La energía cinética que adquieren los núcleos en estas condiciones es tan alta que algunos de ellos consiguen vencer su repulsión eléctrica natural y fusionarse, liberando una gran cantidad de energía.

Ambas estrategias tienen que resolver todavía varios desafíos muy importantes, como la necesidad de lidiar con el neutrón de alta energía (aproximadamente 14 MeV) resultante de la fusión de un núcleo de deuterio y otro de tritio. Esta partícula sale despedida hacia las paredes de la cámara, y, debido a su energía, provoca un daño muy específico en los materiales del reactor. Además, la fusión inercial necesita contar con el respaldo tecnológico necesario para garantizar al reactor un suministro de microbolas de combustible continuo, preciso y muy rápido de al menos diez cápsulas por segundo.

La fusión inercial necesita contar con el respaldo tecnológico necesario para garantizar al reactor un suministro de microbolas de combustible óptimo

De lo contrario la entrega de energía del reactor no podrá sostenerse en el tiempo y su propósito se irá al garete. Además, cuando estos y otros desafíos tecnológicos estén resueltos será necesario diseñar y construir una central eléctrica de demostración equipada con un reactor de fusión mediante confinamiento inercial, que, entre otros retos, proponga cómo generar electricidad a partir de los pulsos energéticos que entrega el reactor.

Esta instalación será equiparable a DEMO, que será la central de demostración dotada de un reactor de fusión mediante confinamiento magnético que recogerá todo el conocimiento entregado por ITER e IFMIF-DONES. EUROfusion prevé que la primera central eléctrica comercial equipada con un reactor de fusión mediante confinamiento magnético esté lista durante la década de los años 60, pero la aplicación comercial de la fusión inercial todavía no tiene fecha. Al menos no una fecha razonablemente creíble. De hecho, si tuviese que apostar defendería que si aceptamos que ambas tecnologías van a llegar a buen puerto (ya lo veremos) la fusión mediante confinamiento magnético comercial estará lista antes que su alternativa inercial.

Imagen de portada: Laboratorio Nacional Lawrence Livermore

Más información: Reuters

En Xataka: El reactor de fusión nuclear japonés JT-60SA acaba de hacer a ITER un favor impagable

-
La noticia El nuevo éxito de la fusión nuclear inercial no enmascara la realidad: su aplicación comercial está aún muy lejos fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

El impacto del superconductor LK-99 en los ordenadores cuánticos será colosal (si cumple lo prometido)

El impacto del superconductor LK-99 en los ordenadores cuánticos será colosal (si cumple lo prometido)

En todo lo que se refiere al superconductor LK-99 debe prevalecer la máxima prudencia. Durante las dos últimos semanas os hemos explicado en varios artículos que un grupo de investigadores surcoreanos liderado por los científicos Sukbae Lee, Ji-Hoon Kim y Young-Wan Kwon asegura haber puesto a punto una estructura de apatita de plomo dopada con cobre llamada 'LK-99' que adquiere la superconductividad con una temperatura crítica igual o superior a 400 kelvin (127 ºC) y a presión ambiental.

Actualmente algunos de los mejores centros de investigación del planeta están intentando replicar el experimento de estos investigadores surcoreanos. Dos de ellos son el Laboratorio Nacional Argonne, en Estados Unidos, o la Universidad de Ciencia y Tecnología de Huazhong, en China. Ya han visto la luz algunos experimentos que prometen haber conseguido repetir el resultado obtenido por Lee, Kim y Kwon, pero por el momento todos ellos arrojan dudas tanto acerca de las condiciones en las que se ha recreado el hallazgo como del resultado que han obtenido.

En cualquier caso, estamos en un momento propicio para indagar en una de las aplicaciones más interesantes en las que encajará este superconductor si finalmente se confirma que sus características son las que prometen sus diseñadores. Podemos encontrar superconductores en los reactores experimentales de fusión nuclear, en los trenes de levitación magnética o en los aceleradores de partículas, entre otros ingenios. No obstante, una estructura con las propiedades del superconductor LK-99 también daría un espaldarazo a una disciplina extraordinariamente prometedora: la computación cuántica.

El superconductor LK-99 irá (con suerte) de la mano de los ordenadores cuánticos

Los prototipos de ordenadores cuánticos con cúbits superconductores que tienen actualmente IBM, Google o Intel operan a una temperatura de trabajo de unos 20 milikelvin (aproximadamente -273 ºC), lo que nos permite intuir que el sistema de refrigeración que es necesario poner a punto para alcanzar y mantener una temperatura tan extremadamente baja es complejo. Esta estrategia permite preservar durante un lapso de tiempo más prolongado las condiciones necesarias para que los efectos cuánticos perduren y los cúbits puedan llevar a cabo su trabajo sin sucumbir a la decoherencia cuántica.

Los prototipos de ordenadores cuánticos superconductores operan a una temperatura de trabajo de unos 20 milikelvin (aproximadamente -273 ºC)

La importancia de trabajar a una temperatura lo más cercana posible al cero absoluto reside en que en este estado la energía interna del sistema es la más baja posible, lo que provoca que las partículas fundamentales carezcan de movimiento según los principios de la mecánica clásica. No obstante, aunque fuésemos capaces de alcanzar el cero absoluto, que no es posible, seguirá existiendo una energía residual, conocida en mecánica cuántica como energía del punto cero, que es el nivel de energía más bajo que puede tener un sistema físico.

En cualquier caso, y aquí viene lo interesante, la disponibilidad de un material capaz de exhibir la superconductividad en condiciones de temperatura y presión ambientales permitiría a los ingenieros que trabajan en el ámbito de los ordenadores cuánticos poner a punto sistemas de refrigeración más simples y eficientes desde un punto de vista energético. Además, con toda probabilidad estas soluciones de refrigeración serían más baratas y más fáciles de mantener, aunque es difícil pronosticar en qué medida aventajarían a los sistemas criogénicos actuales.

Incluso cabe la posibilidad, si la simplificación del sistema de refrigeración fuese lo suficientemente rupturista, de que el coste de los futuros ordenadores cuánticos se redujese drásticamente, por lo que quizá podrían estar al alcance de un abanico más amplio de empresas, instituciones de investigación y centros de enseñanza.

En cualquier caso, hay otros desafíos que los ordenadores cuánticos deben sortear y en los que es poco probable que un superconductor con las características de la estructura LK-99 ayude, como, por ejemplo, la implementación de un sistema de corrección de errores o la puesta a punto de nuevos algoritmos cuánticos. Veremos si finalmente el material que nos proponen estos científicos surcoreanos está a la altura de lo que promete.

Más información: The Quantum Insider

En Xataka: La teoría de la información cuántica es nuestra mejor baza para entender qué sucede dentro de un agujero negro

-
La noticia El impacto del superconductor LK-99 en los ordenadores cuánticos será colosal (si cumple lo prometido) fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

La teoría de la información cuántica es nuestra mejor baza para entender qué sucede dentro de un agujero negro

La teoría de la información cuántica es nuestra mejor baza para entender qué sucede dentro de un agujero negro

Los agujeros negros son misteriosos. Fascinantes. Y no lo son solo para los aficionados a la ciencia; también ejercen una atracción irresistible sobre muchos astrofísicos. Los cosmólogos ya son capaces de entender con razonable precisión cómo se desencadena el colapso de una estrella con las características apropiadas para "romper" el continuo espacio-tiempo y provocar el nacimiento de un agujero negro. Sin embargo, lo que sucede en su interior es un auténtico enigma.

A muchos cinéfilos y entusiastas de la ciencia ficción nos encanta 'Interstellar', la película que estrenó Christopher Nolan en 2014, por el rigor con el que aborda la física. Es fácil percibir el asesoramiento de Kip Thorne, sobre todo si nos ceñimos a la recreación de Gargantúa, el agujero negro que aparece en la película. En mayo de 2022 tuve la oportunidad de hablar con José Luis F. Barbón acerca de la física de los viajes en el tiempo, y no dejé escapar la oportunidad de preguntar a este físico teórico del CSIC experto en teoría cuántica de campos, gravedad cuántica y agujeros negros su opinión acerca de esta aclamada película de Nolan.

"Hay muchas partes de la película que están muy bien calculadas, aunque otras no tanto, como, por ejemplo, las fuerzas de marea que actúan sobre el planeta que está sometido al intenso campo gravitacional del agujero negro [...] Todo lo que sucede en la parte final, cuando el protagonista entra en el interior del agujero negro, es una pura elucubración. No obstante, utiliza un lenguaje que no es del todo trivial gracias en gran medida al asesoramiento de Kip Thorne", me explicó Barbón.

La reflexión de este reputado físico teórico español nos invita a reparar en una idea muy interesante: en el interior de un agujero negro las leyes de la física tal y como las conocemos se resquebrajan. De lo contrario probablemente la relatividad general y la mecánica cuántica permitirían a los físicos indagar con cierta precisión en los fenómenos que tienen lugar cuando la materia y la luz se adentran más allá del horizonte de sucesos. Y no es así. Al menos por ahora. No obstante, nuestro limitado conocimiento no ha impedido a los físicos teóricos percatarse de la existencia de una paradoja vinculada a la pérdida de información en el interior de los agujeros negros.

La física de la información cuántica ha acudido para rescatarnos (con suerte)

A mediados de la década de los 70 los físicos teóricos Stephen Hawking y Jacob D. Bekenstein utilizaron las leyes de la mecánica cuántica y la relatividad general para demostrar que los agujeros negros emiten una forma de radiación conocida desde entonces como 'radiación de Hawking'. Casi medio siglo más tarde el eco de esta observación perdura debido a las consecuencias de este fenómeno. En su trabajo Hawking sostuvo que esta radiación es independiente del estado inicial del agujero negro, por lo que depende solo de su masa, momento angular y carga eléctrica. No obstante, hay algo más: si los agujeros negros emiten radiación pierden masa y energía, y, por tanto, están condenados a evaporarse.

Un horizonte cosmológico es una medida del tamaño y la escala del universo observable que describe la distancia desde la que es posible recuperar información

Esta observación acarrea un problema muy serio. Para entender con precisión por qué lo hace deberíamos indagar en varios teoremas y leyes físicas que complicarían este artículo más allá de lo asumible. Por esta razón merece la pena que sacrifiquemos un poco de precisión con el propósito de que su contenido sea razonablemente asequible. A grandes ragos la paradoja a la que se enfrentan los físicos desde mediados de los 70 consiste en que la emisión de la radiación de Hawking conlleva la pérdida de la información asociada al estado cuántico original de la materia que ha atravesado el horizonte de sucesos. Y este fenómeno viola el principio de la mecánica cuántica que defiende que la información debería conservarse.

Dos décadas más tarde, a mediados de los 90, los físicos Gerard 't Hooft primero y Leonard Susskind poco después propusieron el principio holográfico como una herramienta de la teoría de cuerdas que sugiere que las tres dimensiones espaciales que podemos observar en el universo y con las que estamos familiarizados son solo una representación de una estructura de dos dimensiones proyectada sobre un horizonte cosmológico. De ahí la idea de que el universo que percibimos en cierto sentido puede ser considerado un holograma. Un pequeño apunte: un horizonte cosmológico es una medida del tamaño y la escala del universo observable que describe la distancia desde la que es posible recuperar información.

El problema es que por el momento el principio holográfico no goza de una aceptación generalizada en el seno de la comunidad científica, y ninguna de las otras soluciones propuestas por los físicos para resolver la paradoja de la pérdida de información cuenta con un apoyo total. Afortunadamente, el panorama parece estar a punto de cambiar. Y es que los fenómenos vinculados a los agujeros negros de los que apenas sabemos nada están espoleando a una generación de físicos, muchos de ellos jóvenes, que están decididos a elaborar la teoría necesaria para entender mucho mejor la naturaleza de estos objetos.

La teoría de la información cuántica es una herramienta muy valiosa que puede ayudarnos a entender mejor la naturaleza de los agujeros negros

Daniel Harlow, del MIT (Massachusetts Institute of Technology); Tom Hartman, de la Universidad Cornell (Nueva York); Geoff Penington, de la Universidad de California en Berkeley; u Oliver DeWolfe, de la Universidad de Colorado en Boulder, entre otros físicos teóricos, están utilizado la teoría de la información cuántica para proponer soluciones ingeniosas y originales que aspiran a ampliar nuestro conocimiento acerca de los fenómenos que tienen lugar tanto en las proximidades de los agujeros negros como en su interior.

Una de las áreas de trabajo más interesantes en las que están indagando estos investigadores toma como punto de partida la idea que propuso Stephen Hawking acerca de la posibilidad de que el continuo espacio-tiempo perdure en el interior de los agujeros negros. También están elaborando soluciones nuevas que persiguen resolver de una forma satisfactoria la paradoja de la pérdida de información en el interior de estos objetos.

Al fin y al cabo la teoría de la información cuántica se erige sobre la física cuántica, las matemáticas y la informática para ayudar a los físicos a entender mejor cuál es la naturaleza de la información cuántica y cómo se transmite. Emocionante, ¿verdad? Quién sabe, quizá no tengamos que esperar mucho para conocer la respuesta a algunos de los enigmas con los que hemos coqueteado en este artículo.

Imagen de portada: NASA

Más información: QuantaMagazine

En Xataka: El CERN tiene tres buenísimas razones para dedicar sus recursos a la caza del esquivo neutrino estéril

En Xataka: Es ciencia, no ciencia ficción: se ha logrado manipular el espacio-tiempo de un universo simulado en un laboratorio

-
La noticia La teoría de la información cuántica es nuestra mejor baza para entender qué sucede dentro de un agujero negro fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

Rusia ha recurrido a los ‘hackers’ de su servicio de inteligencia para lanzar un ataque masivo contra Occidente

Rusia ha recurrido a los 'hackers' de su servicio de inteligencia para lanzar un ataque masivo contra Occidente

El conflicto que sostienen Rusia y la alianza liderada por Estados Unidos se está librando en varios frentes. Y uno de ellos es internet. Con la infraestructura y los recursos adecuados es posible utilizar esta red para acceder a información sensible y desestabilizar cualquier nación rival. Uno de los capítulos más controvertidos de esta liza se produjo en 2015. El diario estadounidense The Wall Street Journal desveló que hackers vinculados al servicio de inteligencia ruso habían logrado acceder a la red de la NSA (la Agencia Nacional de Seguridad de EEUU).

El propósito de este ataque fue robar varios documentos secretos que describían los protocolos de la respuesta de EEUU frente a las amenazas en internet, así como la estrategia del país liderado en aquel momento por Barack Obama para acceder a las redes informáticas de otros países. Los hackers rusos tuvieron éxito y consiguieron hacerse con la estrategia de ciberseguridad estadounidense. Este capítulo fue muy importante, pero antes y después de este suceso se han producido otros similares que tienen como protagonistas a las principales potencias del planeta. El último de ellos está teniendo lugar en estos momentos.

El grupo ruso Midnight Blizzard ha lanzado un ataque a través de Microsoft Teams

Los hackers rusos reclutados por el grupo Midnight Blizzard (también se le conoce como APT29 o Cozy Bear, entre otros distintivos) son unos viejos conocidos de los servicios de inteligencia occidentales. Los Gobiernos de EEUU y Reino Unido aseguran que estos expertos en seguridad informática están estrechamente vinculados al servicio de inteligencia ruso (concretamente a la oficina de inteligencia exterior y al servicio federal de seguridad). Este grupo suele recurrir al phishing a gran escala para recabar información relevante de los países con intereses contrarios a los de Rusia, así como de grandes corporaciones y organizaciones no gubernamentales.

Su 'modus operandi' consiste en conseguir las credenciales de los usuarios haciéndose pasar por el servicio técnico oficial de Microsoft

Su último ataque comenzó a finales del pasado mes de mayo, y aún persiste. Lo ha confirmado Microsoft, que es la propietaria de la herramienta utilizada por los hackers rusos para infiltrarse en unas 40 organizaciones extranjeras. Su modus operandi consiste en conseguir las credenciales de identificación de los usuarios haciéndose pasar por el servicio técnico oficial de la compañía de Redmond. Lo curioso es que los piratas informáticos se están poniendo en contacto con sus víctimas a través del chat de Microsoft Teams, lo que les permite establecer una relación de confianza a la que, al parecer, algunos usuarios de esas organizaciones han sucumbido.

Según Reuters la embajada de Rusia en Washington D.C. (Estados Unidos) por el momento no ha emitido ninguna declaración oficial a pesar de que los medios de comunicación han preguntado a sus responsables acerca de este conflicto. Y con toda seguridad el Gobierno ruso no va a admitir ser el responsable de este ataque que, según Microsoft, ha sido articulado por Midnight Blizzard. Los de Redmond han publicado un artículo en su blog oficial en el que aseguran estar haciendo todo lo que está en su mano para combatir y limitar el impacto de este ataque.

En esta entrada también sugieren a las organizaciones afectadas qué deben hacer para evitar caer en la red de los hackers rusos y explican cuáles son los indicadores que revelan que sus sistemas informáticos pueden haber sido comprometidos. En la coyuntura actual parece poco probable que las embestidas de las grandes potencias vayan finalmente a moderarse. Os seguiremos contando cuando tengamos más información fiable.

Imagen de portada: Tima Miroshnichenko

Más información: MicrosoftReuters

En Xataka: Rusia ya tiene listo su propio PC para esquivar las sanciones de Occidente. Y no, no está a la altura

-
La noticia Rusia ha recurrido a los 'hackers' de su servicio de inteligencia para lanzar un ataque masivo contra Occidente fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

El reactor de fusión nuclear japonés JT-60SA acaba de hacer a ITER un favor impagable

El reactor de fusión nuclear japonés JT-60SA acaba de hacer a ITER un favor impagable

El mayor reactor experimental de fusión nuclear que tenemos en Europa, JET (Joint European Torus), ubicado en Oxford (Inglaterra), está allanando el camino a ITER. Su última gran aportación se hizo pública el 9 de febrero de 2022. Ese fue el día elegido por los científicos que lo operan para anunciar oficialmente que habían logrado generar 59 megajulios de energía de fusión durante un periodo de 5 segundos. Puede parecer poco, pero no lo es. Es un hito importante.

No obstante, JET no es el único reactor de fusión experimental que tiene como cometido fundamental probar soluciones tecnológicas que formarán parte de ITER; hay otro aún más ambicioso. Esta prometedora máquina se llama JT-60SA y está en Naka, una pequeña ciudad no muy alejada de Tokio (Japón). A principios del pasado mes de febrero os hablamos de él debido a que las pruebas con plasma empezarán a finales de este año.

La construcción de este reactor experimental de fusión nuclear comenzó en enero de 2013, pero no lo hizo desde cero; lo hizo tomando como punto de partida el reactor JT-60, su precursor, una máquina que entró en operación en 1985 y que durante más de tres décadas ha alcanzado hitos muy importantes en el ámbito de la energía de fusión. El ensamblaje del JT-60SA finalizó a principios de 2020, y las pruebas con plasma con toda probabilidad entregarán un conocimiento que resultará muy valioso en la puesta a punto de ITER y DEMO.

Las bobinas del JT-60SA han sido refrigeradas con éxito a -268 ºC

Actualmente los ingenieros europeos y japoneses que trabajan en la puesta a punto del reactor previa a las pruebas con plasma están ultimando el ajuste fino de los subsistemas más importantes de esta complejísima máquina. Todos ellos son críticos, pero uno de los más sofisticados es el motor magnético que se responsabiliza de confinar y estabilizar el plasma que contiene los núcleos involucrados en la fusión. Y sus componentes fundamentales son los imanes superconductores distribuidos en la parte exterior de la cámara de vacío y el solenoide superconductor colocado en el orificio central del reactor tokamak.

El solenoide central tanto de ITER como del JT-60SA tiene la responsabilidad de optimizar la geometría del plasma, estabilizarlo, y también de ayudar a calentarlo

En ITER los imanes que envuelven la cámara de vacío tendrán un peso cuando estén instalados de 10.000 toneladas y estarán fabricados en una aleación de niobio y estaño, o niobio y titanio, que adquiere la superconductividad cuando se enfría con helio supercrítico. Por otro lado, el solenoide central tanto de ITER como del JT-60SA tiene la responsabilidad de optimizar la geometría del plasma, estabilizarlo, y también de ayudar a calentarlo gracias a un mecanismo conocido como efecto Joule.

Para que los imanes y el solenoide central de los reactores de fusión adquieran la superconductividad es imprescindible refrigerarlos con el propósito de que alcancen una temperatura extremadamente baja. Y no es fácil lograrlo. Afortunadamente, los ingenieros del JT-60SA acaban de tener éxito en sus muy exigentes pruebas de refrigeración del motor magnético del reactor. Y es que han conseguido refrigerar las bobinas a 4,8 kelvin (-268 ºC); el solenoide central a 17 kelvin (-256 ºC); y, por último, las 18 bobinas de campo toroidal y las 6 bobinas de estabilización alcanzaron los -264 ºC. Es una auténtica proeza.

Este hito es un paso fundamental en el camino hacia las primeras pruebas con plasma en el reactor JT-60SA, pero no es una buena noticia solo para esta máquina japonesa; también lo es para ITER debido a que el motor magnético del equipo nipón implementa algunas de las innovaciones que presumiblemente llegarán al reactor que está siendo construido en la localidad francesa de Cadarache. No obstante, esto no es todo. Los ingenieros del JT-60SA se han apuntado un tanto más al lograr simultáneamente calentar la cámara de vacío a 194 ºC para eliminar cualquier impureza presente en su superficie.

Imagen de portada: F4E/QST

Más información: Fusion for Energy

En Xataka: Europa es el auténtico "Señor de los Anillos" en ITER: estas moles son cruciales para que la fusión nuclear funcione

-
La noticia El reactor de fusión nuclear japonés JT-60SA acaba de hacer a ITER un favor impagable fue publicada originalmente en Xataka por Juan Carlos López .

Leer más