El MIT no va de farol: promete tener listo su primer prototipo de reactor de fusión nuclear en 2025

El MIT no va de farol: promete tener listo su primer prototipo de reactor de fusión nuclear en 2025

La crisis energética global agudizada por la delicada coyuntura geoestratégica internacional ha colocado a la fusión nuclear en el punto de mira. Esta tecnología nos promete entregarnos una enorme cantidad de energía eléctrica de una forma segura y sin emitir por el camino gases de efecto invernadero. Además, los residuos radiactivos que genera son moderados y más fáciles de tratar que los derivados de la fisión nuclear.

ITER, el reactor experimental de fusión nuclear que un consorcio internacional liderado por la Unión Europea está construyendo en la localidad francesa de Cadarache, sigue adelante a buen ritmo. Actualmente prosigue el ensamblaje de la cámara de vacío, y en varias semanas llegarán a estas instalaciones las últimas fuentes de alimentación que intervendrán en el calentamiento del plasma. Sin embargo, ITER no es el único proyecto ambicioso que persigue poner en nuestras manos la fusión nuclear comercial.

Una de las iniciativas más prometedoras está en manos del Instituto Tecnológico de Massachusetts (MIT), la empresa Commonwealth Fusion Systems (CFS) y el grupo empresarial italiano Eni. El MIT aporta sus recursos en el ámbito de la investigación y la innovación; CFS se está encargando de la construcción de SPARC, que es como llaman a su prototipo de reactor de fusión nuclear mediante confinamiento magnético, y Eni participa en CFS aportando sus recursos económicos e industriales.

La baza del MIT son sus imanes superconductores ReBCO

Al igual que ITER, el reactor SPARC recurre al confinamiento magnético de los núcleos de deuterio y tritio que conforman el combustible utilizado en esta reacción en el interior de un reactor de tipo tokamak. Estos núcleos tienen carga eléctrica positiva, por lo que un campo magnético de alta potencia puede evitar que entren en contacto directo con las paredes de la cámara de vacío en la que tiene lugar la fusión nuclear.

Tan solo los neutrones de alta energía producidos por la fusión de los núcleos de deuterio y tritio consiguen escapar al confinamiento del campo magnético. Y lo hacen debido a que su carga eléctrica global es neutra. Lidiar con la irradiación de los materiales que revisten el interior de las paredes de la cámara de vacío de estos reactores es uno de los desafíos que plantea la fusión nuclear, y, precisamente, el proyecto IFMIF-DONES que ya se está poniendo a punto en Granada persigue desarrollar los materiales que serán capaces de soportar la agresión de los neutrones de alta energía.

Los imanes ReBCO por los que apuesta SPARC están constituidos por óxido de cobre, bario y tierras raras

Sin embargo, este no es el único reto que se interpone hoy entre el ser humano y la fusión nuclear comercial. El plasma que contiene los núcleos de deuterio y tritio alcanza una temperatura de al menos 150 millones de grados Celsius, por lo que es crucial evitar que entre en contacto con las paredes de la cámara de vacío. Si lo hiciese las dañaría irreversiblemente. El campo magnético puede mantenerlo a raya, pero en algunos momentos surgen turbulencias en la parte más externa del plasma que pueden comprometer la integridad del reactor de fusión nuclear.

Para evitarlo SPARC cuenta con unos imanes superconductores de alta potencia y alta temperatura que, según las simulaciones de los investigadores del MIT, consiguen mantener a raya con eficacia las turbulencias que provocan la desestabilización del plasma. Según Martin Greenwald, el subdirector del centro especializado en fusión nuclear del MIT y uno de los fundadores de CFS, la energía que requieren estos imanes para generar el campo magnético responsable del confinamiento del plasma es mucho menor que la que es necesario invertir en otros motores magnéticos, como, por ejemplo, el que emplea ITER.

Esta propiedad sobre el papel permite a SPARC alcanzar un balance energético positivo, de manera que la energía que es necesario suministrar al reactor para iniciar y sostener en el tiempo la reacción de fusión es menor que la que produce. La propuesta del equipo liderado por Greenwald parece demasiado optimista, pero tiene a su favor algo que merece la pena que no pasemos por alto.

En octubre de 2020 los investigadores del MIT y CFS publicaron siete artículos revisados por pares en la revista Journal of Plasma Physics en los que explican las claves de su tecnología. Y ya en ese momento Greenwald defendió que estos artículos les permiten confiar en que la estrategia que han desarrollado es lo suficientemente fiable para llevar la construcción del reactor de fusión nuclear SPARC a buen puerto.

Además, este proyecto tiene otra baza a su favor: su reactor tokamak es mucho más pequeño que el que utiliza ITER, por lo que el tiempo que es necesario invertir en su construcción teóricamente debería ser menor.

El MIT ha puesto fecha a su primer diseño comercial. Y está a la vuelta de la esquina

En el titular de este artículo os adelantamos cuál es el propósito del MIT y CFS: tener preparado el primer prototipo operativo de SPARC en 2025. El propósito de este reactor de fusión experimental no será producir electricidad; su objetivo será demostrar empíricamente la viabilidad de las tecnologías que han desarrollado los investigadores del MIT y CFS. Sin embargo, y esto es si cabe todavía más sorprendente, su itinerario también recoge cuándo estará preparado su primer candidato a reactor de fusión comercial.

El consorcio constituido por el MIT, CFS y Eni prevé tener preparado un reactor capaz de inyectar electricidad en la red en 2028

Durante la feria Maker Faire que se celebró la semana pasada en Roma (Italia) varios portavoces de Eni confirmaron que el consorcio del que forman parte junto al MIT y CFS prevé tener preparado un reactor capaz de inyectar electricidad en la red en 2028. Parece una previsión muy optimista, quizá excesivamente optimista, pero si alcanzan su propósito la fusión nuclear comercial podría llegar a nuestras vidas durante la próxima década. Y no cabe duda de que sería una noticia buenísima. Les seguiremos la pista.

Imágenes: CFS

Más información: CFS

-
La noticia El MIT no va de farol: promete tener listo su primer prototipo de reactor de fusión nuclear en 2025 fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

Así es como la Estación Espacial Internacional ha resuelto uno de sus grandes retos: nos lo explica el ingeniero de IBM al frente del proyecto

Así es como la Estación Espacial Internacional ha resuelto uno de sus grandes retos: nos lo explica el ingeniero de IBM al frente del proyecto

Los desafíos técnicos que plantea sostener en el tiempo una instalación tan compleja como la Estación Espacial Internacional son numerosos. Y, además, algunos de ellos son críticos y muy difíciles de resolver. Proteger la salud de los astronautas, que se encuentran sometidos durante varios meses consecutivos a los efectos de la microgravedad y la radiación cósmica, es crucial, y una herramienta que contribuye a hacerlo posible es la secuenciación del ADN a bordo de la propia estación.

Utilizando esta tecnología es posible monitorizar su salud con mucha precisión porque, entre otros factores, les permite identificar microbios y otros agentes infecciosos. Además, resulta muy valiosa para llevar a buen puerto algunos de los experimentos con organismos vivos que se están realizando actualmente en la Estación Espacial Internacional. Sin embargo, la secuenciación del ADN plantea un gran problema: cada muestra genera aproximadamente medio terabyte de información, y es necesario enviar esos datos a la Tierra para que sean procesados.

El informe que contiene el resultado de la secuenciación tarda entre seis y ocho semanas en estar listo y a disposición de los astronautas. Demasiado tiempo. Los técnicos de NASA enseguida se dieron cuenta de que esa latencia no es asumible, y pusieron en marcha un proyecto que perseguía resolver este problema de la forma más eficaz posible. Y aquí entra en escena nuestro protagonista. Se llama Naeem Altaf, y es el director de tecnología espacial de IBM. Es una persona joven, pero, curiosamente, trabaja en esta compañía desde hace 20 años, y durante su periplo profesional ha pronunciado numerosas conferencias y ha desarrollado varias patentes.

No obstante, ante todo Naeem es un experto en edge computing, un paradigma de computación distribuida con una enorme proyección de futuro que podemos identificar en español como computación en la frontera o computación de frontera. Precisamente él ha sido el ingeniero que ha liderado el proyecto de NASA responsable de resolver el problema derivado del procesado de los datos que genera la secuenciación del ADN en la Estación Espacial Internacional. Hemos tenido la ocasión de hablar con él largo y tendido, y nos ha contado con todo lujo de detalles los pormenores de este proyecto tan apasionante. Esto es lo que nos ha explicado Naeem.

La computación de frontera ha resuelto uno de los grandes problemas de NASA

Como acabamos de ver, el germen del proyecto de NASA en el que vamos a indagar en este artículo es la computación de frontera, por lo que es una buena idea pedir a Naeem que nos explique de la forma más didáctica posible en qué consiste esta tecnología y qué implica en la práctica. Esta es su respuesta:

Naeemretrato

«Una manera sencilla de definir qué es la computación de frontera consiste en identificarla como la capacidad de procesar los datos allí donde están siendo generados. En esencia lo que estamos haciendo es reducir la necesidad de mover la información. Para hacerlo posible necesitas tener un modelo en esa ubicación que sea capaz de procesar los datos de entrada y entregarnos como salida una acción o una recomendación derivada de esa entrada», nos explica Naeem.

Su respuesta nos invita a intuir que la computación de frontera debe necesariamente acarrear ventajas desde el punto de vista de la reducción de la latencia derivada del procesado de la información. Pero esto no es todo. También debería ayudar a mermar el tráfico que circula por la red involucrada en la comunicación entre el lugar en el que se generan los datos y la ubicación en la que inicialmente se procesaban.

Naeem nos explica con detalle cuál es el propósito del proyecto que ha liderado para NASA:

«La Estación Espacial Internacional es un laboratorio fruto de la colaboración entre muchos países, y su función primordial es permitirnos llevar a cabo experimentos en condiciones de microgravedad. Todos los días se realizan muchos experimentos en estas instalaciones, y la mayor parte de ellos genera una gran cantidad de datos. Precisamente, esta estación es un caso extremo de computación de frontera si tomamos como referencia la Nube», apunta Naeem.

«Los smartphones y los coches autónomos con los que todos estamos familiarizados son algunos de los casos de uso de la computación de frontera. La Estación Espacial Internacional va un poco más lejos porque se encuentra en órbita, pero esencialmente es lo mismo. Este proyecto nació de la mano de los equipos de NASA y la propia estación con el propósito de identificar cuáles son los experimentos que generan un mayor volumen de datos, y también de entender cómo podemos lidiar con la necesidad de procesarlos».

«La secuenciación del ADN nos permite monitorizar la salud de los astronautas e identificar enfermedades infecciosas»

«Uno de los experimentos que enseguida reclamó nuestra atención fue la secuenciación del ADN. En la estación hay un secuenciador utilizado por los astronautas, entre otras cosas, para analizar muestras y buscar microbios, y cada análisis genera aproximadamente medio terabyte de información. Esta tecnología nos permite monitorizar la salud de los astronautas e identificar enfermedades infecciosas. Actualmente es necesario enviar todos esos datos a los centros de cálculo de la Tierra para que puedan ser procesados, y esta estrategia plantea varios problemas», nos asegura Naeem.

«El más relevante consiste en que el enlace de comunicación de la Estación Espacial Internacional con la Tierra también se utiliza para muchas otras cosas, y algunas son críticas, por lo que no siempre está disponible para transferir los datos derivados de los experimentos. Después de analizar a fondo este escenario nos dimos cuenta de que una forma eficaz de resolver este desafío consistía en llevar a cabo el procesado de los datos en el mismo lugar en el que se generan implementando una solución inspirada en el paradigma de la computación de frontera. Y para hacerlo posible recurrimos a los equipos Spaceborne Computer-2 (SBC-2) fabricados por HPE (Hewlett Packard Enterprise), a la plataforma multicloud híbrida IBM Cloud sobre el sistema operativo Red Hat y al gestor de contenedores Kubernetes».

Issastronauta 0

Actualmente el japonés Akihiko Hoshide, el astronauta de la agencia aeroespacial japonesa que se encuentra en la Estación Espacial Internacional, es el responsable de liderar la investigación derivada de la secuenciación del ADN.

«Una vez que tuvimos toda la plataforma a punto con el nuevo código preparamos una prueba generando datos en bruto con el secuenciador de ADN, y los equipos SBC-2 se encargaron de llevar a cabo el procesado en la Estación Espacial Internacional. Era justo lo que estaba buscando NASA. Todo el proceso requirió invertir entre 6 y 8 horas, por lo que era perfectamente posible llevarlo a cabo en un solo día. Bastaba un único día para tomar la muestra con el secuenciador, procesarla y obtener el resultado del análisis, que es un informe que pesa menos de un megabyte y que puede ser enviado rápidamente a la Tierra», concluye Naeem dando muestras claras de su satisfacción con el resultado del proyecto.

«Gracias a la computación de frontera los astronautas pueden tomar sus muestras y tener los resultados del análisis solo unas horas después»

«La computación de frontera está demostrando ser muy útil en la Estación Espacial Internacional, pero hay otros escenarios de uso en los que también encaja a la perfección. Actualmente algunos científicos están desarrollando su investigación en áreas remotas del planeta, como la Antártida, el Polo Norte o en desiertos. Si cada vez que toman una muestra se ven obligados a enviarla a su laboratorio para que sea analizada, y después tienen que esperar la llegada de los resultados, su investigación se ralentiza mucho. Pero gracias a la computación de frontera pueden tomar sus muestras y tener los resultados del análisis solo unas horas después. Es el mismo concepto que hemos trasladado al espacio», nos asegura este técnico.

Antes de concluir su explicación Naeem remarca lo importante que es para NASA haber conseguido reducir la latencia que implicaba el procesado de la información generada por la secuenciación del ADN. Esta mejora es crucial porque permite al personal de la agencia espacial y a los astronautas que se encuentran en la estación reaccionar mucho más rápido frente a cualquier contingencia que pueda comprometer su salud:

«Este proyecto nos ha permitido reducir drásticamente el tiempo que los científicos de la Estación Espacial Internacional deben esperar desde el momento en el que toman las muestras hasta que reciben el resultado del análisis. Originalmente se veían obligados a esperar entre seis y ocho semanas, y ahora gracias a la infraestructura que hemos diseñado solo tienen que esperar varias horas. En un solo día, o, en el peor de los casos, en dos días, ya tienen a su disposición el análisis de las muestras que han tomado. En este ámbito la computación de frontera marca una gran diferencia», concluye Naeem.

La estancia en la Estación Espacial implica riesgos serios para la salud

Cuando el ser humano deja atrás el ambiente protector de la Tierra se ve expuesto a multitud de amenazas que pueden comprometer seriamente su salud. Naeem nos explica por qué es tan importante que las agencias espaciales hagan todo lo que está en su mano para proteger a los astronautas no solo de las amenazas más evidentes, sino también de las que aparentemente son más nimias, como, por ejemplo, los microbios:

«El traje espacial también se beneficia de la computación de frontera debido a su capacidad de tomar muestras y analizarlas»

«En las misiones que tienen lugar en el espacio, no solo dentro de la Estación Espacial Internacional, sino también en todas las demás, como, por ejemplo, la que en el futuro nos permitirá viajar a Marte, es esencial monitorizar la salud de los astronautas. La exposición a la radiación cósmica es uno de los riesgos a los que se enfrentan, pero hay otras muchas amenazas para su salud, como, por ejemplo, la posible proliferación de microbios. Cuidar al máximo la salud de los astronautas es crucial porque, en primer lugar, tienen ese derecho, y, además, si su salud no es óptima la misión puede quedar comprometida», apunta Naeem.

«En este contexto, más allá de la enorme relevancia que tiene la posibilidad de llevar a cabo la secuenciación del ADN con rapidez, el traje espacial que utilizan los astronautas tiene una enorme importancia debido a que incorpora la tecnología necesaria para monitorizar constantemente los parámetros vitales de su organismo. De hecho, este traje es en sí mismo un dispositivo que también se beneficia de la computación de frontera debido a su capacidad de recoger muestras, analizarlas y tomar decisiones a partir de los resultados que ha obtenido. Si es necesario el traje puede por sí mismo emitir una alerta para reaccionar rápidamente ante cualquier circunstancia que amenace la salud de un astronauta», concluye el ingeniero de IBM.

Issastronauta 1

La posible proliferación de los microbios puede comprometer seriamente la salud de los astronautas que se encuentran en la Estación Espacial Internacional, pero, afortunadamente, la secuenciación del ADN les está ayudando a mantener este riesgo bajo control.

La computación de frontera tiene muchas aplicaciones. Muchísimas, en realidad. Como estamos comprobando está resultando muy valiosa para las personas que pasan largos periodos de tiempo en la Estación Espacial Internacional, pero también puede marcar la diferencia en muchos otros ámbitos. Incluso puede ayudarnos a identificar vida en otros planetas. Naeem nos explica por qué.

«Nosotros estamos involucrados en algunas aplicaciones de esta tecnología, pero hay muchas otras. Actualmente también colaboramos con un grupo de científicos que trabaja en Lhasa, en el Tíbet, y que está estudiando la salud de las plantas cuando están sometidas a la gran altitud de esta ciudad. Están combinando la computación de frontera y el aprendizaje profundo para identificar cuándo la salud de las plantas se degrada, y están obteniendo muy buenos resultados», señala Naeem.

«En lo que se refiere a la detección de vida fuera de nuestro planeta, sí, definitivamente la computación de frontera puede marcar la diferencia»

«Y en lo que se refiere a la detección de vida fuera de nuestro planeta, que es una iniciativa que estará presente en las próximas misiones a la Luna y Marte, sí, definitivamente la computación de frontera puede marcar la diferencia. Gracias a ella será posible acceder con mucha rapidez a la información, que es lo que ya están consiguiendo los astronautas de la Estación Espacial Internacional que se están encargando de la secuenciación del ADN. No sería viable tener que esperar semanas, o incluso meses, hasta que estén disponibles los resultados de las muestras».

«Creo que en el futuro veremos cómo la computación de frontera se expande con rapidez, especialmente en los proyectos que tendrán lugar en el espacio. En ellos será posible trabajar de una forma completamente autónoma y sin necesidad de enviar de forma frecuente abundante información a la Tierra. Lo podrán hacer todo por sí mismos. Y probablemente las empresas que fabricarán los dispositivos y desarrollarán el software de computación de frontera abrirán sus API. Los proveedores de software, como nosotros, podemos construir nuestros modelos y transferirlos sin dificultad a los dispositivos en los que van a ser ejecutados», concluye este experto.

Todos los proyectos de cierta envergadura se enfrentan a desafíos, y el que ha liderado Naeem para NASA no ha sido una excepción a esta regla tan firmemente asentada. Este técnico nos explica cuáles han sido los factores que se lo han puesto más difícil a pesar de que, afortunadamente, el proyecto finalmente ha llegado a buen puerto:

«El principal reto al que nos hemos enfrentado son los datos. Están en el corazón mismo del aprendizaje automático. No nos vale cualquier dato; necesitamos buenos datos. Los científicos invierten muchísimo tiempo en limpiar la información con la que trabajan debido principalmente a que en los datos se cuela mucho ruido; mucha información de la que no es posible extraer conocimiento. Si, además, el volumen de datos es muy grande, el tiempo que es necesario invertir en la limpieza puede ser enorme».

«Otro desafío que también es muy importante es la necesidad de compartir los datos. Y no es nada fácil resolverlo porque no todo el mundo está dispuesto a compartir la información que genera o maneja debido a la existencia de una multitud de restricciones de todo tipo. En resumen yo diría que los principales retos a los que nos enfrentamos son garantizar la calidad de los datos con los que trabajamos, asegurar que tenemos la cantidad de información necesaria para extraer el aprendizaje correcto, y, por último, hacer posible el acceso a los datos», sintetiza Naeem.

Issastronauta 2

La Estación Espacial Internacional contiene un hábitat específicamente diseñado para estudiar cómo se desarrollan las plantas en condiciones de microgravedad. Es asombroso lo mucho que podemos aprender gracias a la experimentación en el espacio.

La computación de frontera y el 5G dibujan un futuro esperanzador

Antes de concluir nuestra conversación no dejé escapar la oportunidad de preguntar a Naeem acerca del rol que tiene la tecnología 5G en el contexto de la computación de frontera. Es fácil intuir que estas dos innovaciones forman un tándem muy sólido capaz de marcar la diferencia en muchos ámbitos. Y sí, Naeem confirma estas sospechas de una forma contundente:

«La computación en la Nube comenzó hace algo más de una década, y creo firmemente que estamos iniciando el siguiente salto evolutivo de esta tecnología debido a que los sensores, los dispositivos que generan datos, están por todas partes. Casi todo es un sensor. Los smartphones, los termostatos, los coches autónomos… todos estos dispositivos ya están utilizando la computación de frontera. Pero, además, la industria también se está beneficiando de una forma muy profunda de esta tecnología».

«En unos tres años el despliegue de nuevos satélites conseguirá que la conectividad 5G llegue a prácticamente todos los rincones del planeta»

«Si una empresa tiene una gran fábrica puede mantener todos sus dispositivos interconectados a través de una red 5G de alta velocidad. Estos dispositivos son inteligentes, por lo que pueden comunicarse con los demás elementos de la red de una forma proactiva e inteligente para optimizar su funcionamiento e incrementar la productividad de la fábrica. Este es el futuro. La computación en la Nube tal y como la conocíamos va a quedar en el pasado debido a que esta tecnología está migrando hacia un modelo de computación de frontera en el que la conectividad 5G juega un rol protagonista», sentencia Naeem.

«De hecho, creo que el próximo gran paso consistirá en extender los satélites de comunicaciones 5G para garantizar la cobertura fuera de las áreas metropolitanas. Cuando te alejas de las grandes ciudades la conectividad 5G cae drásticamente. Este problema no tiene la misma envergadura en todos los países, pero lo habitual es que en las grandes ciudades tengamos una conectividad 5G muy rápida, y fuera de ellas nuestras conexiones sean mucho más lentas. Cabe la posibilidad de que en unos tres años gracias a los satélites la cobertura de esta red llegue a prácticamente todos los rincones del planeta. Será un paradigma nuevo en el que la computación de frontera tendrá un papel absolutamente protagonista», vaticina este afable ingeniero de IBM sin disimular lo más mínimo su entusiasmo por un futuro que nos invita a ser optimistas.

Imágenes: NASA

-
La noticia Así es como la Estación Espacial Internacional ha resuelto uno de sus grandes retos: nos lo explica el ingeniero de IBM al frente del proyecto fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

A Einstein se le daban bien las matemáticas y siempre fue un estudiante sobresaliente: por qué la historia que defiende lo contrario es un mito

A Einstein se le daban bien las matemáticas y siempre fue un estudiante sobresaliente: por qué la historia que defiende lo contrario es un mito

«Las cosas también le iban bien a Einstein desde el punto de vista académico. En sus exámenes parciales de octubre de 1898 había terminado el primero de su clase, con una media de 5,7 sobre un máximo de 6. El segundo, con un 5,6, era su amigo y encargado de tomar apuntes de matemáticas Marcel Grossmann».

Este párrafo procede de la biografía de Albert Einstein que el periodista estadounidense Walter Isaacson publicó en 2007, titulada 'Einstein. Su vida y su universo', y refleja con mucha claridad lo buen estudiante que era. Estaba a punto de graduarse en una de las universidades más prestigiosas de Europa, la Escuela Politécnica Federal de Zúrich, en Suiza, y era uno de los estudiantes más aventajados de su clase.

Un alumno descarado y con una predisposición natural a rechazar la autoridad

Desde su infancia Einstein había demostrado tener la capacidad de apasionarse por todo aquello que despertaba su curiosidad, pero también contemplaba con desdén aquello que consideraba anecdótico o poco relevante. Aunque se lo impusiesen sus profesores. Este carácter le granjeó fama de rebelde, e, incluso, de alumno insolente, durante sus estudios en Múnich, cuando era un adolescente.

El mito que defiende que se le daban mal las matemáticas, e, incluso, que era un mal estudiante, se ha erigido sobre una mala interpretación de algunos de los sucesos que tuvieron lugar durante su vida académica

En la universidad se granjeó la fama de ser un alumno muy inteligente e intuitivo, pero algunos de sus profesores, entre los que se encontraba Heinrich Weber, el director del departamento de física, lo consideraban un estudiante descarado y con una predisposición constante a rechazar sistemáticamente la autoridad. Esta actitud provocó que Einstein diese algún que otro traspié durante su formación, pero no invalida la enorme capacidad que tenía como estudiante.

El mito que defiende que se le daban mal las matemáticas, e, incluso, que era un mal estudiante, se ha erigido sobre una mala interpretación de algunos de los sucesos que tuvieron lugar durante su vida académica. La mayor parte de ellos se produjeron como una consecuencia de su carácter rebelde y contrario a aceptar las imposiciones que para él carecían de fundamento, y sus biógrafos, entre los que se encuentran Walter Isaacson y su amigo Philipp Frank, lo explican muy bien.

En este artículo os proponemos explorar tres de los sucesos de la vida académica de Einstein que han contribuido a forjar esa reputación de mal estudiante absolutamente inmerecida. Hay otros hechos cuya mala interpretación también ha podido reforzar esa imagen tergiversada que aún hoy tienen algunas personas acerca de él, pero estos tres en particular nos bastan para desmontar un mito que en cierta medida nubla la figura del que sin lugar a dudas es uno de los físicos más importantes de la historia.

En su baremo de notas un 1 era un sobresaliente

Einstein siempre fue uno de los mejores estudiantes de la clase. A menudo, el mejor de todos ellos. Isaacson y Frank apuntan en sus biografías que con menos de 15 años dominaba el cálculo diferencial e integral, lo que no deja lugar a dudas acerca de lo cómodo que se sentía con las matemáticas. Durante sus estudios de preparación de las pruebas de acceso a la Escuela Politécnica Federal de Zúrich obtuvo una calificación de 1 en muchas asignaturas.

Esta nota se repitió más tarde, durante los exámenes para acceder a la universidad, pero es crucial que tengamos en cuenta que en aquellos años el baremo de calificaciones que se utilizaba en Suiza, a diferencia del que se empleaba en Alemania, proponía el 1 como nota más alta y un 6 como nota más baja. Einstein obtuvo muchos 1 y 2, dos notas que equivalen a un sobresaliente y un notable alto actuales, y que como estudiante lo dejan en una posición mucho más favorable que la que le corresponde según el mito.

Las pruebas de acceso a la Escuela Politécnica Federal de Zúrich

La primera vez que Einstein se presentó a las pruebas de acceso a la universidad tenía dieciséis años. Dos menos de lo habitual. Sus calificaciones en matemáticas y física impresionaron a Heinrich Weber, que, como he mencionado unas líneas más arriba, era el director del departamento de física de la Escuela Politécnica Federal de Zúrich.

Weber quedó tan impresionado por su rendimiento académico que le invitó a asistir a sus clases como oyente

El joven Albert suspendió los exámenes de algunas materias no científicas, pero Weber quedó tan impresionado por su rendimiento académico que le invitó a asistir a sus clases como oyente y le propuso que permaneciese en Zúrich un año más y se presentase de nuevo a los exámenes de acceso durante el curso siguiente.

Einstein aceptó su oferta, y preparó mejor, aunque a regañadientes, las asignaturas no científicas. Le sobraba capacidad para obtener buenas calificaciones en todas las asignaturas, pero en aquella época ya mostraba un poco interés muy acusado en todo lo que no tenía que ver con la ciencia.

Le parecía que estaba desperdiciando un tiempo muy valioso en la preparación de aquellas asignaturas que no aportaban nada a su carrera científica. Aun así, en su segundo intento superó las pruebas de acceso con buenas calificaciones, y en octubre de 1896, con solo diecisiete años, se matriculó en la Escuela Politécnica Federal de Zúrich. Como acabamos de ver es cierto que Einstein no superó las pruebas de acceso a la universidad a la primera, pero el contexto en el que las hizo no le dejan en una mala posición.

Einstein se graduó en la universidad con una nota de 4,9

Durante los años en los que Einstein ejerció como estudiante en la Escuela Politécnica Federal de Zúrich las autoridades educativas cambiaron el baremo de las calificaciones para hacerlo coincidir con el que se utilizaba en otros países, como Alemania. En adelante un 6 sería la nota más alta, y un 1 (o un 0 si el desconocimiento de la materia era absoluto), la más baja.

El expediente académico de Einstein estaba repleto de 6. Como he mencionado en el primer párrafo de este artículo, durante sus exámenes parciales de octubre de 1898 había terminado el primero de su clase, con una media de 5,7. A pesar de sus encontronazos con algunos profesores, sus notas eran sobresalientes, pero para graduarse debía presentar un trabajo de investigación similar a los trabajos de fin de grado que los estudiantes universitarios deben preparar actualmente.

Einstein14anos

Con solo 14 años, que es la edad que tiene en esta fotografía, Einstein dominaba el cálculo diferencial e integral, lo que no deja lugar a dudas acerca de lo cómodo que se sentía con las matemáticas.

Einstein propuso a Weber llevar a cabo un experimento con el que pretendía dividir un rayo de luz, reflejarlo en dos direcciones diferentes y comprobar si se producía una diferencia de energía en función de si su dirección era o no la misma que la del movimiento de la Tierra a través del éter. Weber rechazó su propuesta porque otros estudiantes habían llevado a cabo antes que Einstein experimentos similares, y no tuvieron éxito.

Einstein se apasionaba con todo aquello que despertaba su curiosidad, pero mostraba desdén hacia todo lo que considerase anecdótico o poco relevante

La segunda idea que Einstein propuso a Weber consistió en explorar la relación entre la capacidad de varios materiales de conducir el calor y la electricidad, pero su director de trabajo de graduación también la rechazó. Al final Einstein y Mileva Marić, una compañera de estudios aventajada con la que se casó poco más tarde, hicieron un trabajo dedicado a una de las especialidades de Weber: la conducción del calor.

Las calificaciones que obtuvieron fueron las más bajas de la clase, un 4,5 Einstein y un 4 Marić, ambas sobre 6, lo que no impidió que Albert se graduase finalmente con un 4,9. De nuevo sobre 6. No cabe duda de que la relativamente mala nota que Einstein obtuvo en su trabajo de graduación fue el reflejo de su disconformidad con el tema que se vio obligado a desarrollar ante la negativa de Weber a sus dos primeras propuestas.

Como he mencionado unas líneas más arriba, Einstein se apasionaba con todo aquello que despertaba su curiosidad, pero mostraba desdén hacia todo lo que considerase anecdótico o poco relevante.

Imagen de portada: Google (coloreada por Michael W. Gorth)

Bibliografía: 'Mi visión del mundo', Albert Einstein | 'Einstein. Su vida y su universo', Walter Isaacson | 'Einstein: His Life And Times', Philipp Frank

-
La noticia A Einstein se le daban bien las matemáticas y siempre fue un estudiante sobresaliente: por qué la historia que defiende lo contrario es un mito fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

Estas son las tres razones por las que el astrofísico Martin Rees, profesor en Cambridge, cree que el CERN podría destruir la Tierra

Estas son las tres razones por las que el astrofísico Martin Rees, profesor en Cambridge, cree que el CERN podría destruir la Tierra

Martin Rees no es un astrofísico del montón (si es que se puede ser un astrofísico «del montón»). Este cosmólogo británico ha sido presidente de la prestigiosa Royal Society de Londres, rector del no menos reputado Trinity College, y ejerce como profesor emérito de Cosmología y Astrofísica en la Universidad de Cambridge. Además, por si su currículo no fuese ya suficientemente impresionante, desde 1995 ostenta el título honorario de Astrónomo Real, lo que lo coloca en la misma senda por la que han caminado antes que él otros astrónomos célebres, como Edmund Halley o Sir Harold Spencer Jones.

Durante su carrera ha estudiado fenómenos tan apasionantes y complejos como el rol que puede tener la materia oscura en la formación de las galaxias, la existencia de las ondas gravitacionales, la formación de los agujeros negros o cómo se distribuyen los cuásares a lo largo y ancho del Universo. También ha publicado varios centenares de artículos científicos y nueve libros de divulgación. Precisamente este artículo está dedicado al último de ellos. Y es que en un capítulo de ‘En el futuro: perspectivas para la humanidad’ Rees plantea la posibilidad de que los experimentos que llevamos actualmente a cabo en los aceleradores de partículas puedan destruir la Tierra. O, incluso, todo el Universo.


Leer más

Ya no soy un ‘hater’ de la música multicanal. Y “la culpa” la tienen Dolby y Sony

Ya no soy un 'hater' de la música multicanal. Y

La música multicanal nunca me ha gustado. Empecé a coquetear con ella hace algo más de veinte años, en 2001, recurriendo a grabaciones de formaciones que me interesaban y que estaban disponibles en DVD-Audio, SACD o DTS, pero no tardé en darme cuenta de que aquella no era la experiencia que yo buscaba. Reconozco que al principio tuvo en mí un impacto positivo por su capacidad de inmersión, pero su efectismo me espantó.

La aportación del sonido envolvente al cine me parece fundamental porque contribuye de una forma muy profunda a sumergir al espectador en la experiencia cinematográfica. Sin embargo, en mi opinión utilizar más de dos canales para reproducir música, ya sean reales o virtuales, puede no tener un impacto positivo en nuestra experiencia si lo que pretendemos es recrear el acontecimiento musical original con la máxima credibilidad posible.

Las decisiones que toman el artista y el ingeniero de sonido son fundamentales

Antes de seguir adelante me parece necesario hacer un pequeño inciso: algunas grabaciones de música en formato multicanal sí me parecen acertadas. Aquellas que reproducen el contenido musical exclusivamente por los canales principales, que son los mismos que utiliza una grabación estereofónica, y aprovechan la presencia de los canales de efectos para restituir el sonido de ambiente y recrear, por ejemplo, la emoción de un concierto, sí me gustan.

Sin embargo, las producciones musicales que usan los canales de efectos para reproducir voces e instrumentos me sacan de la experiencia. Y lo hacen porque cuando escuchamos música en vivo, sobre todo si es acústica, la escena sonora suele estar colocada delante de nosotros, y no se extiende alrededor del espectador. Los altavoces colocados habitualmente en el perímetro de los estadios y las grandes salas de conciertos persiguen que todas las personas del recinto puedan escuchar la música con un nivel de presión sonora elevado, pero no discriminan de ninguna manera el contenido musical.

La posibilidad de utilizar los canales adicionales para reproducir a través de ellos voces e instrumentos es una opción creativa muy respetable a disposición de los artistas, los productores y los ingenieros de sonido, pero, en mi opinión, esta decisión se aparta de la recreación de un acontecimiento musical en vivo. Cuando es algo premeditado desde su origen puede proponernos una experiencia interesante y una inmersión sorprendente, pero cuando el punto de partida es una grabación tradicional o un concierto en vivo creo que no consigue entregarnos una experiencia fidedigna.

La posibilidad de utilizar los canales adicionales para reproducir voces e instrumentos es una opción creativa muy respetable a disposición de los artistas, los productores y los ingenieros de sonido

Todo lo que he defendido hasta ahora se sostiene sobre mis preferencias personales, por lo que, por supuesto, no es ni siquiera mínimamente más valioso que la opinión de un entusiasta de la música multicanal que cree todo lo contrario. En cualquier caso, y aquí llega el giro de los acontecimientos que os he anticipado en el titular de este artículo, hace unos días mi opinión acerca de la música multicanal ha cambiado. Y lo ha hecho porque he descubierto algo que había pasado por alto durante años: su impacto tangible y profundamente beneficioso en la calidad de sonido.

Musicamulticanal Mesa

Gracias a su capacidad de manejar decenas de objetos simultáneamente Dolby Atmos pone en las manos de los ingenieros de sonido unas capacidades creativas sorprendentes tanto al lidiar con contenido cinematográfico como con música.

La toma de sonido de una buena grabación multicanal marca la diferencia

Hace unos pocos días tuve la oportunidad de viajar a Ámsterdam (Holanda) para participar en varias sesiones técnicas organizadas por Sony con el propósito de mostrar a varios periodistas especializados las capacidades de sus barras de sonido más avanzadas: los modelos HT-A7000, HT-A5000 y HT-A3000. Lo curioso es que los responsables de esta marca decidieron llevar a cabo sus demostraciones en las salas de STMPD Studios, que no es otra cosa que un reputado estudio de grabación en el que han grabado algunos de sus álbumes Pharrell Williams, Lady Gaga, Snoop Dogg, The Black Eyed Peas o David Guetta, entre muchos otros artistas.

En el rendimiento de las barras de sonido de Sony indagaremos en otros artículos si se presenta la oportunidad de analizarlas a fondo (aunque os anticipo que la virtualización del sonido envolvente que nos entregan los dos modelos más avanzados está muy lograda). Acertadamente, los responsables de Sony no nos propusieron únicamente escuchar música multicanal a través de sus barras de sonido dotadas de la tecnología 360 Spatial Sound Mapping; también pudimos escucharla en la sala principal del estudio de grabación, que está equipada con una espectacular instalación Dolby Atmos.

Durante la demostración me di cuenta de que aquel ambicioso equipo multicanal estaba logrando recuperar mucho más detalle de bajo nivel y mucha más información armónica que cualquier equipo de alta fidelidad que hubiese escuchado hasta ese momento, por complejo y caro que fuese. Y el mérito no podía recaer únicamente en las cajas acústicas y el procesado del audio que estaba llevando a cabo el equipo Atmos; la grabación original tenía que estar involucrada en la experiencia que estaba disfrutando en ese instante.

Aquella instalación Dolby Atmos estaba logrando recuperar mucho más detalle de bajo nivel y mucha más información armónica

No podía dejar escapar la oportunidad de indagar un poco más en lo que había escuchado, por lo que en cuanto pude compartí con Roel Verberk, que es ingeniero de sonido y el máximo responsable de este estudio de grabación, mis sensaciones. Y, además, le pregunté cuántos micrófonos utilizan para registrar una grabación ideada expresamente para ser reproducida en formato multicanal. Y sí, confirmó lo que yo había escuchado: allí estaba presente la información necesaria para recrear los armónicos y capturar más detalle de bajo nivel que en una grabación estereofónica tradicional.

Una forma sencilla de intuir qué son los armónicos consiste en identificarlos como las variaciones a menudo sutiles que están ligadas a un rango de frecuencias determinado y que intervienen en el timbre propio de un instrumento musical o de la voz humana. Recuperar más información vinculada a los armónicos nos ayuda a recrear con más precisión la capacidad emotiva del acontecimiento musical original. Además, Verberk me confirmó que en las grabaciones ideadas originalmente para ser reproducidas en formato multicanal suelen intervenir una gran cantidad de micrófonos.

Su propósito no es solo recuperar la mayor cantidad de información posible de cada instrumento, sino también capturar la interacción de las ondas sonoras con el recinto en el que se llevó a cabo la grabación. Esto es lo que yo había escuchado, y este descubrimiento fue posible gracias tanto a la calidad de la grabación como a las capacidades del equipo Dolby Atmos que se responsabilizó de su reproducción.

Mi opinión acerca de la música multicanal efectista que coloca algunas voces y algunos instrumentos alrededor del espectador no ha cambiado, pero ahora aprecio mucho la capacidad que tiene esta tecnología de capturar la información necesaria para mantener intacta la capacidad emotiva del acontecimiento musical original. En adelante en estas condiciones la música multicanal pasará a formar parte con toda la frecuencia posible del menú del que me alimento como melómano, algo que no ha sucedido hasta ahora.

-
La noticia Ya no soy un 'hater' de la música multicanal. Y "la culpa" la tienen Dolby y Sony fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

El hardware cuántico no basta: necesitamos más herramientas de desarrollo cuánticas, y las de Intel ya están aquí

El hardware cuántico no basta: necesitamos más herramientas de desarrollo cuánticas, y las de Intel ya están aquí

El desarrollo que ha experimentado la computación cuántica durante los últimos cinco años es asombroso. De hecho, probablemente a principios de la década pasada nadie se habría atrevido a pronosticar que actualmente tendríamos procesadores cuánticos funcionales con más de 100 cúbits. Y que varios equipos de investigación diferentes ya habrían alcanzado la supremacía cuántica.

Los muros que ya ha derribado esta disciplina parecían infranqueables hace pocos años, pero a pesar de lo mucho que ha avanzado solo hemos dado unos pocos pasos en este camino. Los ordenadores cuánticos actuales son prototipos, y, desafortunadamente, todavía no podemos utilizarlos para resolver problemas realmente significativos. Eso sí, cada avance, sea grande o modesto, nos coloca un poco más cerca de este objetivo.

En cualquier caso, la computación cuántica aún debe superar grandes desafíos para poner en nuestras manos las capacidades que en teoría nos propone. Necesitamos cúbits de más calidad que sean más resistentes a la decoherencia cuántica. También es importante que tengamos un sistema de corrección de errores que nos garantice que los resultados que nos entrega el ordenador cuántico son correctos.

Por otro lado, es crucial desarrollar nuevas herramientas que nos permitan controlar los bits cuánticos con precisión y llevar a cabo más operaciones lógicas con ellos. Y, por supuesto, necesitamos nuevos algoritmos cuánticos, y también herramientas de desarrollo implementadas expresamente para facilitar la escritura de software cuántico. Afortunadamente, ya están disponibles varios QDK (Quantum Development Kit) muy avanzados, y acaba de llegar uno más que pinta realmente bien.

Intel tiene lista la beta de su QDK, y la versión final está muy cerca

Antes de seguir adelante merece la pena que nos detengamos un momento para repasar qué es exactamente un QDK y por qué esta herramienta es tan importante en el contexto de la computación cuántica. En español podemos traducir esta sigla anglosajona como ‘paquete de desarrollo cuántico’, y no es otra cosa que un conjunto de herramientas de software ideadas para facilitar la implementación de algoritmos cuánticos que puedan ser ejecutados bien en ordenadores cuánticos, bien en simuladores o emuladores cuánticos.

Unas líneas más arriba hemos indagado brevemente en la necesidad de desarrollar nuevos algoritmos cuánticos que sean capaces de ayudarnos a abordar los problemas que no podemos resolver con los superordenadores clásicos más potentes que tenemos hoy en día. Estos algoritmos son los que permitirán a los ordenadores cuánticos marcar la diferencia, y para ponerlos a punto es esencial entregar a los investigadores y los estudiantes las herramientas que necesitan.

Una vez que está listo un nuevo algoritmo cuántico puede ser ejecutado en un ordenador cuántico experimental como los que tienen Intel, IBM, Google o Honeywell, o bien puede ser procesado en un simulador, que a grandes rasgos es una implementación de las puertas lógicas cuánticas que se ha llevado a cabo utilizando puertas lógicas clásicas. Precisamente Intel tiene un simulador cuántico que es capaz de simular puertas lógicas cuánticas con el propósito de poner a prueba el software cuántico.

Al igual que IBM y Google, Intel ha apostado por el desarrollo de cúbits superconductores

Algunas de las empresas que ya han publicado paquetes de desarrollo de software cuántico son Microsoft, Google, IBM, 1QBit o Amazon, entre otras, y habitualmente estas herramientas permiten a los programadores utilizar lenguajes clásicos, como Python, o bien lenguajes de programación que han sido diseñados expresamente para escribir algoritmos cuánticos, como, por ejemplo, Q#, de Microsoft.

Este es el contexto en el que Intel, que es una de las grandes compañías que más recursos están dedicando al desarrollo de la computación cuántica, ha presentado su propio QDK, aunque todavía se encuentra en fase beta. Esta compañía está presente en todos los estratos de la puesta a punto de un prototipo de ordenador cuántico, por lo que era de esperar que también elaborase su propio software de desarrollo.

Intelquantum

Intel también pone a punto los chips de control que utilizan sus ordenadores cuánticos, como el circuito integrado Horse Ridge II.

Al igual que IBM y Google, Intel ha apostado por el desarrollo de cúbits superconductores, y su dilatada experiencia en el ámbito de la fabricación de semiconductores de alta integración le está viniendo de perlas durante la fase de puesta a punto de sus procesadores cuánticos. Además, esta compañía también pone a punto los chips de control de sus ordenadores cuánticos, como el circuito integrado Horse Ridge II.

Justo encima del chip de control, en una capa superior, se encuentran el compilador cuántico y las demás herramientas de desarrollo de software cuántico, como el QDK que acaba de dar a conocer Intel, que, por cierto, permite a los programadores escribir código en Python. Como he mencionado, este QDK se encuentra en fase beta, pero Intel ha confirmado que espera tener lista la versión 1.0 durante el primer trimestre de 2023. No pinta nada mal.

-
La noticia El hardware cuántico no basta: necesitamos más herramientas de desarrollo cuánticas, y las de Intel ya están aquí fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

Intel pisa el acelerador de la computación neuromórfica: ya tiene una placa con 1000 millones de sinapsis artificiales

Intel pisa el acelerador de la computación neuromórfica: ya tiene una placa con 1000 millones de sinapsis artificiales

Parece que ha pasado mucho menos tiempo, pero no, ya han transcurrido cinco años desde que Intel presentó su chip neuromórfico Loihi. La computación neuromórfica es una disciplina apasionante en la que solo nos hemos adentrado tímidamente, pero es muy prometedora. Lo que persigue es, según Intel, y es una cita textual, “poner a punto un nuevo paradigma tecnológico y de programación inspirado en el conocimiento actual del cerebro”.

A bote pronto parece una idea muy ambiciosa, y si rascamos más allá de la superficie comprobaremos que, efectivamente, lo es. Actualmente nuestros conocimientos acerca de la complejidad del cerebro humano son muy limitados. Extraordinariamente limitados. Aun así, los descubrimientos en neurociencia que se han consolidado durante los últimos años han actuado como un acicate a la hora de poner a punto los procesadores neuromórficos para investigación que ya están disponibles.

Lo que propone la computación neuromórfica es imitar el comportamiento del sistema nervioso animal en general, y el del cerebro en particular. El punto de partida lo describió Carver Mead, que fue el ingeniero eléctrico estadounidense que propuso en los años 60 esta idea. Varios grupos de investigación recogieron su testigo, y actualmente ya tenemos sistemas electrónicos que imitan, aunque lo hacen de una forma muy básica, el comportamiento de un cerebro orgánico.

El cerebro de un animal es capaz de llevar a cabo mucho trabajo con muy poca energía, y, además, la manera en que procesa la información lo hace muy hábil cuando se enfrenta a algunos problemas, pero también muy ineficiente ante otros. Esto explica por qué un procesador neuromórfico para investigación puede resolver algunos problemas en menos tiempo e invirtiendo menos energía que un ordenador clásico, pero en otros puede ser mucho más ineficiente que este último.

Kapoho Point: 8 millones de neuronas y 1000 millones de sinapsis artificiales

Del chip neuromórfico Loihi de Intel os hemos hablado varias veces en Xataka. Está fabricado con fotolitografía de 14 nm e incorpora 128 núcleos y algo más de 130 000 neuronas artificiales. Tomando como punto de partida este chip Intel ha desarrollado sistemas neuromórficos más complejos que combinan varias unidades Loihi para adaptarse a cargas de trabajo sensiblemente más altas y a procesos más exigentes.

El más sencillo de estos sistemas es Kapoho Bay, y contiene dos chips Loihi con 262 000 neuronas que le permiten, según Intel, identificar gestos en tiempo real y leer braille, entre otros procesos. Algunos de los problemas que se les dan bien a los sistemas neuromórficos son la identificación de patrones, el aprendizaje automático, la selección de la solución óptima entre un abanico amplio de opciones y los algoritmos de satisfacción de requisitos.

Las cifras de Kapoho Bay impresionan, pero las de una placa Nahuku son todavía más impactantes. Y es que está constituida por 32 chips Loihi y es, según Intel, hasta dieciséis veces más eficiente que una infraestructura de hardware con una potencia equiparable, pero integrada por procesadores gráficos similares a los que podemos encontrar en el interior de nuestros ordenadores.

Una placa Kapoho Point aglutina 8 millones de neuronas y 1000 millones de sinapsis artificiales

No obstante, esto no es todo. Una de las propiedades más importantes que tiene la plataforma de computación neuromórfica que ha desarrollado Intel es su escalabilidad, por lo que los ingenieros de esta compañía no han dejado escapar la oportunidad de poner a punto placas más complejas que aglutinan más chips neuromórficos de última generación. La nueva placa Kapoho Point ejemplifica a las mil maravillas esta estrategia.

Y es que está constituida por ocho chips Loihi 2 interconectados, dando forma así a un sistema neuromórfico conformado por 8 millones de neuronas artificiales y nada menos que 1000 millones de sinapsis artificiales. Además, es posible combinar varias de estas placas para integrar sistemas neuromórficos más complejos y potencialmente capaces de enfrentarse a problemas que conllevan un mayor esfuerzo de cálculo.

Intelneuromorfica

El circuito integrado de esta imagen es un chip Loihi 2. Impresiona que algo tan diminuto pueda contener en su interior, según Intel, un millón de neuronas artificiales.

Intel asegura que una placa Kapoho Point es lo suficientemente pequeña para poder ser instalada sin problema en el interior de un dron, un coche, e, incluso, en un pequeño satélite. No obstante, no es esto precisamente lo que está haciendo el laboratorio de investigación de la Fuerza Aérea de Estados Unidos. Y es que Intel ha confirmado que sus ingenieros han interconectado varias placas Kapoho Point para poner a prueba con ellas sus algoritmos de optimización y aprendizaje en tiempo real.

Según Intel una placa Kapoho Point es capaz de lidiar con modelos de inteligencia artificial diseñados para combinar hasta 1000 millones de parámetros. Este hardware, según sus diseñadores, también puede enfrentarse a problemas de optimización en los que están involucradas un máximo de 8 millones de variables invirtiendo en este proceso una cantidad de energía que puede ser hasta 1000 veces menor que la que requiere una CPU de propósito general de última hornada. No suena pero que nada mal.

-
La noticia Intel pisa el acelerador de la computación neuromórfica: ya tiene una placa con 1000 millones de sinapsis artificiales fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

Así se fabrican los procesadores Core de 13ª generación ‘Raptor Lake’: visitamos la fábrica de chips de Intel en Israel

Así se fabrican los procesadores Core de 13ª generación 'Raptor Lake': visitamos la fábrica de chips de Intel en Israel

La industria de los semiconductores de alta integración se la reparten tan solo tres compañías. La taiwanesa TSMC acapara, según Visual Capitalist, nada menos que el 54% del mercado, y tras ella y prácticamente a la misma distancia del liderato se abren paso a codazos Intel y Samsung, que tienen aproximadamente un 17% del mercado global cada una.

La posición que tienen estas tres compañías actualmente está soportada en gran medida, curiosamente, por los equipos fotolitográficos de una única empresa: ASML. Y es que esta organización holandesa es la única que suministra las máquinas de litografía ultravioleta extremo (UVE) utilizadas por las tres para producir sus circuitos integrados más avanzados.

A diferencia de AMD, que es cliente de TSMC, Intel fabrica sus propios procesadores. La compañía liderada por Pat Gelsinger tiene fábricas en Estados Unidos, Europa y Asia. De hecho, una de las que tiene en este último continente, la de Kiryat Gat, en Israel, tiene un rol central en su estructura. Hace poco más de una semana tuvimos la ocasión de visitarla, y es una de esas experiencias que no se olvidan fácilmente. Os la contamos.

La sala limpia, el auténtico corazón de una fábrica de circuitos integrados

Antes de seguir adelante es importante que os hagamos una confesión: los responsables de Intel que nos guiaron durante nuestra visita a la fábrica de Kiryat Gat nos pidieron que no tomásemos fotografías ni grabásemos vídeos en el interior de las instalaciones, por lo que todas las imágenes que hemos utilizado para ilustrar este artículo han sido tomadas por la propia Intel en el interior de la Fab 28. En cualquier caso, nos sirven perfectamente para reforzar el texto y transmitir las ideas que nos gustaría compartir con vosotros.

Metámonos en harina. Lo primero que hicimos antes de entrar en la zona en la que se manipulan las obleas de silicio fue cubrirnos el pelo con un gorro de tela ligera y desechable; las manos, con guantes; y los zapatos con unas fundas de papel maleable. Además, todos los periodistas nos pusimos la indumentaria que podéis ver en algunas de las fotografías que ilustran este artículo. Todos los trabajadores de Intel que llevan a cabo sus funciones en el interior de la sala limpia utilizan esta misma indumentaria, y es imprescindible que sea así.

En el interior de esta habitación se manipulan las obleas de silicio, y, por tanto, aquí es donde se fabrican los microprocesadores, por lo que es imprescindible que el aire esté libre de las más ínfimas partículas de polvo. De lo contrario si una de ellas se deposita sobre una oblea podría dañar irreversiblemente uno o varios chips, y este proceso es lo suficientemente complejo y costoso para hacer todo lo posible para minimizar la probabilidad de que se produzca este tipo de contaminación.

Actualmente esta fábrica está produciendo microprocesadores Core de 13ª generación con microarquitectura Raptor Lake

Uno de los recursos con los que cuenta la sala limpia para minimizar drásticamente las partículas que se encuentran en suspensión en el aire es un sofisticado sistema de filtrado y refrigeración que captura y retiene partículas tan pequeñas que son completamente imperceptibles para el ojo humano. De hecho, el filtrado del aire suministrado a una sala limpia como la de esta fábrica de Intel es mucho más exigente incluso que el de un quirófano.

Actualmente esta fábrica está produciendo microprocesadores Core de 13ª generación con microarquitectura Raptor Lake, por lo que el proceso de integración que está implantado en sus equipos litográficos es la última revisión de la tecnología Intel 7, que emplea fotolitografía de 10 nm. Lo primero que nos llamó a todos la atención nada más entrar en la sala limpia fueron los robots que se responsabilizan de transportar las obleas en paquetes entre un equipo y otro empleando unos raíles instalados en el techo de la habitación. Sorprendentemente se mueven a una velocidad casi vertiginosa.

Itt Day3 176

Este es el aspecto que teníamos los periodistas especializados a los que Intel nos permitió visitar su fábrica de Kiryat Gat justo antes de acceder al interior de la sala limpia. Sorprendentemente esta indumentaria es bastante cómoda.

Como cabía esperar, no pude moverme por la sala limpia con total libertad, por lo que no pude ver con todo detalle cómo se lleva a cabo todo el proceso de manipulación de las obleas. Aun así, sí pude ver en acción las que sin dudas son las auténticas joyas no solo de esta fábrica de Intel, sino también de las que tienen TSMC y Samsung: los equipos de fotolitografía UVE de ASML. Antes de entrar en su interior otro equipo especializado se encarga de recubrir las obleas con fotorresina. Este tratamiento debe ser llevado a cabo antes de que las obleas queden expuestas a la luz UVE.

Una sola de las máquinas de litografía UVE de ASML contiene más de 100 000 piezas, 3000 cables, 40 000 pernos y nada menos que dos kilómetros de conexiones eléctricas. Ahí queda eso. No obstante, el hardware es solo uno de los ingredientes de la receta. El otro, y también es esencial, es el software integrado que se responsabiliza de dirigir y supervisar el correcto funcionamiento de cada uno de los equipos de litografía. Un apunte importante: en el interior de la Fab 28 de Intel pude ver varias decenas de estas máquinas de fotolitografía tan avanzadas.

Asml

Los equipos de fotolitografía más avanzados que diseña y fabrica ASML son extraordinariamente complejos. La fuente de luz ultravioleta está alojada en la parte inferior del extremo derecho de la máquina, y las obleas se desplazan por su interior con una precisión asombrosa.

Dado que estamos metidos en harina merece la pena que indaguemos un poco más en las características de la luz utilizada por los equipos de litografía UVE. Y su propiedad más llamativa consiste en que pertenece a la porción más energética de la región ultravioleta del espectro electromagnético. De hecho, su longitud de onda se extiende en el rango que va desde los 10 hasta los 100 nanómetros (nm).

La luz UVE debe viajar desde la fuente hasta la oblea de silicio sin interaccionar con la más mínima partícula de polvo

El problema es que no es nada fácil generar y lidiar con esta forma de radiación electromagnética. Y no lo es, entre otras razones, debido a que es tan energética que altera la estructura de los elementos físicos con los que interacciona en el interior de la máquina de litografía.

Además, la luz UVE debe viajar desde la fuente hasta la oblea de silicio sin interaccionar con la más mínima partícula de polvo, por lo que es necesario que todo el proceso de producción de los chips se lleve a cabo en el interior de una cámara diseñada para proporcionar un vacío de mucha calidad. Afortunadamente, como os contamos en este artículo, está siendo desarrollado un nuevo procedimiento de medida del vacíoque posiblemente marcará la diferencia en los procesos litográficos que llegarán en el futuro.

Otro elemento de estos equipos de litografía de ASML en el que merece la pena que nos detengamos brevemente es la óptica fabricada por la compañía alemana ZEISS. Se responsabiliza de trasladar la luz UVE con una longitud de onda de 13,5 nm desde la fuente que se encarga de su emisión hasta la máscara que contiene el patrón geométrico que es necesario plasmar en la oblea de silicio.

Pero esto no es todo. A partir de este momento entra en acción la óptica de proyección con el propósito de transferir la radiación UVE que ya contiene el patrón geométrico a la oblea de material semiconductor. Dicho así no parece muy complejo, pero lo es. Es un proceso complejísimo. Si los espejos que intervienen en la propagación de la luz UVE no están fabricados con una enorme precisión el patrón geométrico definido por la máscara se verá alterado, y los chips se irán al garete.

Además, los espejos reflectores que se encargan de transportar la luz desde la fuente emisora hasta la máscara deben conseguir que la radiación UVE llegue a esta última con una uniformidad extrema. De lo contrario, de nuevo, el proceso de fabricación de circuitos integrados no tendrá éxito. No obstante, ZEISS no produce únicamente los espejos involucrados en este delicadísimo proceso.

También se encarga de diseñar y fabricar los sensores y actuadores que se responsabilizan de que el trabajo que llevan a cabo los equipos ópticos de las máquinas de litografía se adecua a las tolerancias que exige este proceso, que son extraordinariamente restrictivas. Y de escribir el software que supervisa en tiempo real el correcto funcionamiento de este subsistema.

Itt Idc Labs Tour 23

El interior de la sala limpia está completamente automatizado, y todo se lleva a cabo bajo el escrutinio de los operadores de mantenimiento y la supervisión de los ingenieros de la sala de control.

La sala de análisis tiene un rol esencial: corregir errores y optimizar procesos

Una vez que salimos de la sala limpia y nos despojamos de la indumentaria con la que la recorrimos los responsables de Intel nos pidieron que entrásemos en una habitación que había justo al lado. Era mucho más pequeña que la sala limpia, pero su función era igualmente crucial. En su interior un grupo de algo más de una decena de ingenieros se dedica a analizar los datos que recibe del análisis de las obleas que se muestrean aleatoriamente en el interior de la sala limpia.

La función de los ingenieros de la sala de análisis es identificar patrones en los fallos localizados en las obleas para encontrar su origen y resolver el problema

Su propósito es, ni más ni menos, identificar patrones en los fallos localizados en las obleas para encontrar su origen y resolver el problema. Es una labor casi detectivesca, aunque, eso sí, estos técnicos tienen un recurso muy valioso a su disposición: la inteligencia artificial. Y es que esta herramienta les ayuda no solo a identificar los desperfectos más minúsculos en las obleas, sino también, precisamente, a encontrar los patrones que pueden establecer algún tipo de relación entre los desperfectos de algunas de esas obleas.

La pericia de estos ingenieros también les permite idear estrategias para optimizar algunos de los procesos que tienen lugar dentro de la sala limpia, de manera que la tecnología de integración que está siendo utilizada en un periodo determinado alcance la madurez lo antes posible. Cuando sucede esto es más fácil llevar a cabo optimizaciones en los procesos que intervienen en la fabricación de los circuitos integrados.

Itt Clean Room 71

Los técnicos de la sala limpia no intervienen directamente en la fabricación de los chips. De hecho, se limitan a acometer las tareas de mantenimiento que les indican los operarios de las salas de control y análisis.

La sala de control es el centro neurálgico de la fábrica de semiconductores

Antes de que esta pequeña aventura llegase a su final los periodistas invitados por Intel pudimos entrar en una tercera habitación que ejerce de sala de control. En ella trabajan varias decenas de ingenieros (no los conté, pero apostaría que había unos 35 o 40), y, tal y como nos explicó el jefe de operaciones que estaba de guardia en ese momento, su función es exactamente la misma que tiene la torre de control de un aeropuerto: supervisar y administrar todo lo que sucede en el interior de la sala limpia.

Los operarios de la sala de control administran a distancia tanto los equipos de litografía como los robots que operan con las obleas

Los operarios que trabajan enfundados en sus vestimentas blancas en el interior de esta última sala son los responsables de las tareas de mantenimiento de los equipos de la sala limpia, pero no intervienen directamente en la fabricación de los chips. De hecho, se limitan a acometer las tareas que les indican los operarios de la sala de control, que son los que controlan a distancia tanto los equipos de litografía como los robots que operan con las obleas.

Algo que, honestamente, me llamó la atención fue el entusiasmo con el que los ingenieros de la sala limpia, los de la sala de análisis, y, por último, los de la sala de control, defienden su trabajo en la cadena de fabricación. Cada uno de ellos es un eslabón esencial de esta cadena, y si uno de ellos falla, todo falla. Llevar a cabo de forma óptima unos procesos tan complejos como los que tienen lugar en el interior de una fábrica de semiconductores de alta integración no es fácil, y es vital que toda la cadena esté bien engrasada. Y sí, definitivamente la de la fábrica que tiene Intel en Kiryat Gat parece estarlo.

Itt Fab 28 Contruction 3

Actualmente Intel está construyendo su Fab 38, que está ubicada justo al lado de la Fab 28 que hemos podido visitar. La puesta a punto de nuevas fábricas es esencial para incrementar la producción y dar una respuesta contundente al aumento de la demanda de semiconductores.

Imágenes: Intel | ASML

-
La noticia Así se fabrican los procesadores Core de 13ª generación 'Raptor Lake': visitamos la fábrica de chips de Intel en Israel fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

Intel y AMD se han lanzado a la carrera del GHz con un propósito: batir a la competencia en rendimiento monohilo

Intel y AMD se han lanzado a la carrera del GHz con un propósito: batir a la competencia en rendimiento monohilo

La batalla que están a punto de librar los procesadores que nos proponen Intel y AMD para el curso 2022-2023 va a ser encarnizada. Y es que esta nueva generación va a poner sobre la mesa dos estrategias muy diferentes que ya han alcanzado una madurez plena. Por un lado AMD esgrime unos Ryzen 7000 que nos prometen ser competitivos si nos ceñimos a su fuerza bruta, pero que también aspiran a sobresalir por su rendimiento por vatio.

Intel, sin embargo, tomó un camino diferente durante la generación pasada con su microarquitectura Alder Lake. Sus nuevos procesadores Core de 13ª generación con microarquitectura Raptor Lake consolidan su apuesta por una arquitectura híbrida que combina núcleos de alto rendimiento (AR) y núcleos de alta eficiencia (AE), y aspiran abiertamente a imponerse a sus competidores por su rendimiento bruto.

Pronto tendremos la oportunidad de analizar a fondo estas dos familias de microprocesadores, y, por supuesto, cuando lo hagamos compartiremos con vosotros nuestras conclusiones y comprobaremos juntos si ambas marcas cumplen lo que prometen. Aun así, los Ryzen 7000 de AMD y los Core de 13ª generación de Intel tienen algo importante en común: ambas familias han subido claramente el listón de la frecuencia de reloj máxima a la que son capaces de trabajar. Y lo han hecho con un propósito ambicioso.

La barrera de los 6 GHz (sin 'overclocking') está a un tiro de piedra

El rendimiento de un microprocesador está condicionado por un abanico amplio de parámetros. La frecuencia de reloj a la que trabaja tiene un impacto profundo en su productividad, pero hay otros factores que también son muy relevantes. El trabajo que la CPU es capaz de llevar a cabo en cada uno de los ciclos de la señal de reloj también es decisivo, y, curiosamente, está descrito por un gran número de características de la microarquitectura.

El IPC (Instructions Per Cycle) refleja el número promedio de instrucciones que ejecuta el procesador en cada uno de los ciclos de la señal de reloj. Y es importantísimo. También tiene un impacto directo en el rendimiento la memoria caché, pero no solo son relevantes su tamaño y el número de niveles; importan, y mucho, las estrategias que utiliza tanto para actualizar el contenido de los subniveles de caché como para mantener la coherencia entre esta y la memoria principal. Pero aquí no acaba todo.

El rendimiento de la CPU también está condicionado por su número de núcleos, la implementación de la tecnología SMT y por otras características esenciales de la microarquitectura, como son el número de unidades de ejecución, la estrategia de los algoritmos de predicción de bifurcaciones o el diseño del cauce de ejecución (pipeline). No es necesario que conozcamos con detalle en qué consisten estos componentes, pero todo esto nos recuerda que el rendimiento de un procesador está condicionado por muchos parámetros, y no solo por la frecuencia de reloj a la que trabaja.

Tanto AMD como Intel en esta generación han pisado a fondo el acelerador de la frecuencia de reloj

Aun así, hay un contexto en el que la frecuencia de reloj máxima a la que es capaz de trabajar uno de los núcleos de la CPU tiene un impacto monumental en sus prestaciones: el escenario de ejecución monohilo. Los juegos cada vez aprovechan mejor la presencia de varios núcleos en la CPU, pero la mayor parte de ellos sigue siendo muy dependiente del rendimiento que puede entregarnos un solo núcleo cuando trabaja bajo estrés.

En cualquier caso, no cabe duda de que tanto AMD como Intel en esta generación han pisado a fondo el acelerador de la frecuencia de reloj, y lo han hecho con el firme propósito de batir a su competidor en un escenario de ejecución monohilo. Además, el incremento de frecuencia que nos proponen no es ni mucho menos tímido. Todo lo contrario. Tanto los Ryzen 7000 como los Core de 13ª generación pueden trabajar a una frecuencia de reloj máxima perceptiblemente más alta que sus predecesores.

En la siguiente tabla hemos recogido las especificaciones de los Core de 13ª generación de Intel que nos interesan para este artículo. La frecuencia de reloj base de los núcleos AR y AE es similar en Alder Lake y Raptor Lake, pero, sin embargo, la frecuencia de reloj máxima es notablemente más alta en los nuevos procesadores de Intel. De hecho, como podemos ver, el Core i9-13900K es capaz de alcanzar los 5,8 GHz. No está pero que nada mal.


Intel core i9-13900k

intel core i7-13700k

intel core i5-13600k

serie

Raptor Lake-S

Raptor Lake-S

Raptor Lake-S

fotolitografía

Intel 7

Intel 7

Intel 7

núcleos totales

24

16

14

núcleos de alto rendimiento (ar)

8

8

6

núcleos de alta eficiencia (ae)

16

8

8

hilos de ejecución

32

24

20

frecuencia de reloj máxima

5,8 GHz

5,4 GHz

5,1 GHz

frecuencia turbo boost max 3.0

5,7 GHz

5,4 GHz

No disponible

frecuencia base núcleos ar

3 GHz

3,4 GHz

3,5 GHz

frecuencia máxima núcleos ar

5,4 GHz

5,3 GHz

5,1 GHz

frecuencia base núcleos ae

2,2 GHz

2,5 GHz

2,6 GHz

frecuencia máxima núcleos ae

4,3 GHz

4,2 GHz

3,9 GHz

AMD también ha tomado este camino. Y lo ha hecho con la misma convicción que Intel. De hecho, sus nuevos Ryzen 7000 son mucho más rápidos si nos ceñimos a su frecuencia de reloj que los Ryzen 5000. La frecuencia de reloj base de estos últimos no supera en ningún caso los 4 GHz, mientras que este parámetro en varios Ryzen 7000 alcanza los 4,7 GHz. Y si nos fijamos en la frecuencia de reloj máxima los 4,9 GHz del Ryzen 9 5950X palidecen frente a los 5,7 GHz del Ryzen 9 7950X.


amd ryzen 9 7950x

AMD RYZEN 9 7900X

AMD RYZEN 7 7700X

AMD RYZEN 5 7600X

serie

AMD Ryzen 7000 (Zen 4)

AMD Ryzen 7000 (Zen 4)

AMD Ryzen 7000 (Zen 4)

AMD Ryzen 7000 (Zen 4)

fotolitografía

TSMC 5 nm FinFET

TSMC 5 nm FinFET

TSMC 5 nm FinFET

TSMC 5 nm FinFET

núcleos totales

16

12

8

6

hilos de ejecución

32

24

16

12

frecuencia de reloj máxima

5,7 GHz

5,6 GHz

5,4 GHz

5,3 GHz

frecuencia de reloj base

4,5 GHz

4,7 GHz

4,5 GHz

4,7 GHz

Las cartas están sobre la mesa. Y bocarriba. Sobre el papel tanto Intel como AMD nos proponen procesadores competitivos, pero nuestro veredicto llegará cuando los probemos a fondo y tanto en un escenario de ejecución monohilo como en un contexto multihilo exigente. Veremos qué sucede cuando llegue ese momento. Las espadas están en alto, y a los usuarios nos viene de perlas que estas dos marcas nos propongan soluciones realmente competitivas. Confiemos en que ambas estén a la altura de las expectativas que están generando.

-
La noticia Intel y AMD se han lanzado a la carrera del GHz con un propósito: batir a la competencia en rendimiento monohilo fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

“Queremos liderar en rendimiento”: Tomer Sasson, vicepresidente de Intel y responsable de Raptor Lake

Durante nuestra estancia en Israel con motivo de la presentación de los procesadores Intel Core de 13ª generación se presentó una oportunidad que no podíamos dejar escapar: entrevistar a Tomer Sasson, un ingeniero industrial israelí que actualmente ejerce como vicepresidente en Intel de la división Client Computing Group.

No obstante, lo que ha provocado que su perfil sea interesante para Xataka es que es el máximo responsable del desarrollo tanto de los procesadores Intel Core de 12ª generación (Alder Lake) como de los nuevos Intel Core de 13ª generación (Raptor Lake). Como estáis a punto de descubrir, este afable técnico conoce al dedillo la microarquitectura de los chips que nos propone Intel para el curso 2022-2023.

Pero esto no es todo. Tomer trabaja en Intel desde hace casi 26 años, por lo que también está profundamente familiarizado no solo con el día a día de la filial de esta compañía en Israel, sino también con las intimidades que tiene a nivel global la empresa que lidera actualmente Pat Gelsinger. Y se nota.

De hecho, ahí va un pequeño espóiler: durante nuestra conversación ha compartido con nosotros cuál es el secreto del milagro israelí. O, lo que es lo mismo, cómo ha conseguido esta filial afianzarse como el auténtico corazón de una compañía con la colosal envergadura que tiene Intel. Y, además, su relevancia se extiende no solo a la fase de diseño; también a las de validación y fabricación de los microprocesadores. Ahí queda eso.

Diseñar un microprocesador implica afrontar grandes desafíos

¿Cuáles son los principales retos que habéis tenido que superar durante el diseño y la implementación de los microprocesadores ‘Raptor Lake’?

El primer y mayor reto al que nos enfrentamos durante el desarrollo de Raptor Lake fue la compatibilidad. El equipo de ingeniería tenía la capacidad de hacer muchas cosas, pero debía mantener el zócalo, las características térmicas y la compatibilidad con las placas base existentes con el propósito de que los integradores no necesitasen cambiar nada.

Tomersassonretrato

De esta forma podrían coger cualquiera de nuestros nuevos productos e integrarlos en sus soluciones con mucha rapidez utilizando las placas base con chipset Z690 que están disponibles desde hace un año, o bien en las nuevas placas con chipset Z790, que llegarán muy pronto.

En cualquier caso, nuestro mayor desafío consistía en alcanzar el mayor rendimiento posible y la mayor productividad disponible, pero preservando íntegras la compatibilidad y la flexibilidad. El equipo aceptó el reto, por lo que todo lo que hemos hecho persigue mantener el mismo empaquetado, el mismo zócalo y las mismas propiedades térmicas, y, a la par, maximizar el rendimiento.

Para lograrlo hemos dado varios pasos. El primero consistió en añadir hasta ocho núcleos de alta eficiencia adicionales que tienen el potencial de marcar la diferencia en escenarios de ejecución multihilo. Esta estrategia nos ha permitido incrementar el rendimiento en hasta un 41%, una cifra impresionante en un producto que mantiene el mismo zócalo y las mismas características base.

En lo que se refiere a los núcleos de alto rendimiento en Raptor Lake mantenemos el mismo número que en los procesadores Alder Lake equivalentes, pero hemos aumentado mucho su frecuencia de reloj. También lo hemos hecho con los núcleos de alta eficiencia.

«Nuestra estrategia nos ha permitido incrementar el rendimiento en hasta un 41%, una cifra impresionante en un producto que mantiene el mismo zócalo y las mismas características base»

Para hacerlo posible hemos recogido todo el aprendizaje de Alder Lake, de manera que una vez que obtuvimos la cualificación de la fase de fabricación de esta última arquitectura buscamos la forma de ir más allá optimizándola e introduciendo mejoras adicionales que no estaban presentes en Alder Lake. Este ha sido el enfoque que nos ha permitido incrementar la velocidad tanto de los núcleos de alto rendimiento como de los de alta eficiencia.

Otro paso muy importante está vinculado a nuestra tecnología de integración. Y es que hemos conseguido incrementar significativamente la velocidad de los transistores que utilizamos en el nodo Intel 7.

Intel1

La diapositiva que podemos ver en esta fotografía recoge algunos de los hitos que ha alcanzado la filial de Intel en Israel durante algo más de cuatro décadas.

De esta forma combinando las mejoras que hemos introducido en el diseño con las que hemos implementado en la fotolitografía hemos conseguido aumentar la frecuencia de reloj máxima de los núcleos en 600 MHz, pasando de los 5,2 GHz de Alder Lake a 5,8 GHz en Raptor Lake. Es una mejora muy grande, y el mérito se lo reparten a partes iguales las optimizaciones de la microarquitectura y las mejoras de nuestra tecnología de integración.

«Hemos conseguido aumentar la frecuencia de reloj máxima de los núcleos en 600 MHz, pasando de los 5,2 GHz de Alder Lake a 5,8 GHz en Raptor Lake»

Cuando llevas a cabo cambios en la microarquitectura muy profundos, que fue lo que hicimos con Alder Lake, en ocasiones no tienes tiempo para desarrollar todas las optimizaciones que admite esa implementación. Por esta razón lo que hicimos durante el desarrollo de Raptor Lake fue aprovechar todo lo que aprendimos durante la puesta a punto de Alder Lake para optimizar esta tecnología.

Todas estas mejoras ya están presentes en nuestros procesadores Intel Core de 13ª generación. Nuestra estrategia, en definitiva, consiste en desarrollar microprocesadores que sean líderes en rendimiento con una cadencia de un año.

La fotolitografía Intel 4 ya está lista

Intel ha confirmado que introducirá su litografía Intel 4 en la próxima generación de microprocesadores Intel Core, y estoy seguro de que también implementaréis mejoras importantes en la microarquitectura de estos chips. ¿Es esta vuestra nueva estrategia ‘Tick-Tock’?

El modelo que hemos utilizado durante el desarrollo de Alder Lake, Raptor Lake, y el que emplearemos en Meteor Lake y en las siguientes generaciones de procesadores, es similar a la estrategia Tick-Tock que hemos usado en el pasado. Consiste en introducir grandes cambios en la arquitectura seguidos por avances significativos en la tecnología de integración.

«El modelo que hemos utilizado durante el desarrollo de Alder Lake, Raptor Lake, y el que emplearemos en Meteor Lake, es similar a la estrategia Tick-Tock que hemos usado en el pasado»

Creo que esta es la estrategia correcta porque nos proporciona el tiempo necesario para optimizar nuestra tecnología y para aplicar todo lo que hemos aprendido, proponiendo de esta forma a los usuarios valor añadido con una inversión razonable y dentro de un plazo de tiempo razonable. Creo que este es el modelo correcto porque favorece la maduración de nuestra tecnología de integración, nuestro diseño y nuestros procesos de fabricación, y confío en que seguiremos aplicándolo en nuestros próximos productos.

Durante la presentación de los procesadores Raptor Lake habéis hablado del rol que ha tenido la inteligencia artificial en el proceso de optimización de su microarquitectura. ¿Puedes explicar cómo estáis utilizando esta tecnología?

A grandes rasgos, sí. Estamos utilizando la inteligencia artificial en varios frentes. Uno de ellos está vinculado a las fases de fabricación. Cuando produces cientos, o, incluso, miles de unidades cada día, estás recogiendo muchos datos, de manera que puedes utilizar la inteligencia artificial para analizarlos y mejorar el rendimiento de los procesos de fabricación, la métrica de los productos, e, incluso, para encontrar el producto idóneo para cada segmento de nuestro porfolio.

Otro frente en el que también estamos utilizando la inteligencia artificial es la operación. Cuando la CPU está activa en el interior de tu PC está recogiendo permanentemente datos acerca del entorno de ejecución, de modo que es posible usar las capacidades de la inteligencia artificial para optimizar al máximo el comportamiento de la CPU en tu sistema en particular.

«Puedes utilizar la inteligencia artificial para mejorar los procesos de fabricación, la métrica de los productos, e, incluso, para encontrar el producto idóneo para cada segmento»

Esto es posible porque entendiendo la carga de trabajo con la que debe lidiar el procesador podemos decidir cuántos núcleos necesitas, cuántos deben permanecer activos, cuáles son los núcleos idóneos para resolver la carga de trabajo que estás ejecutando en un instante dado o si es conveniente desplazar uno o varios hilos de ejecución de los núcleos de alta eficiencia a los de alto rendimiento, o viceversa.

Todo esto podemos hacerlo utilizando las herramientas de inteligencia artificial que hemos integrado en nuestros microprocesadores. Además, la CPU puede entregar toda esta información al sistema operativo con el propósito de ofrecer al usuario el mejor rendimiento y la mejor experiencia posible.

Esta tecnología es muy interesante, pero lo que acabas de explicarme se parece mucho al módulo Intel Thread Director que ya estaba presente en los procesadores Alder Lake. ¿Está integrada esta inteligencia artificial en el núcleo de este componente?

Una parte de ella sí. Intel Thread Director es una implementación al nivel del sistema operativo, aunque tiene una capa dedicada en la microarquitectura de la CPU que permite a cada núcleo comunicarse con el propio sistema operativo.

En cualquier caso, la tecnología que subyace debajo de esta estrategia es la inteligencia artificial, y nos permite recoger datos y aprender permanentemente de las características del entorno de ejecución, identificar los requisitos y emplear toda esta información para optimizar el rendimiento.

Intel2

La tecnología de integración Intel 7 ya ha alcanzado la madurez, e Intel 4 está a la vuelta de la esquina. Después vendrán Intel 3 y la litografía 20A, y en 2025 Intel planea tener listo su nodo de 18 ángstroms.

El rendimiento bruto importa, pero también es crucial el rendimiento por vatio

Nuestra experiencia con los procesadores Alder Lake y las características de la microarquitectura Raptor Lake anticipan que los nuevos Intel Core de 13ª generación tendrán un rendimiento competitivo. Sin embargo, ¿también son competitivos si nos ceñimos a su rendimiento por vatio? ¿Jugarán en la misma liga de sus competidores más avanzados, como los nuevos Ryzen 7000 de AMD?

Todavía no tenemos los nuevos productos de nuestro competidor, por lo que los mediremos y los compararemos con los nuestros cuando los consigamos. Y, por supuesto, sacaremos conclusiones. En cualquier caso, creo que nosotros somos competitivos tanto si nos ceñimos al rendimiento por vatio como si nos fijamos únicamente en el rendimiento de nuestros procesadores.

«Nosotros somos competitivos tanto si nos ceñimos al rendimiento por vatio como si nos fijamos únicamente en el rendimiento de nuestros procesadores»

Si nos ceñimos al rendimiento por vatio ofrecemos a los usuarios la flexibilidad de elegir la CPU que resuelve mejor sus necesidades. Si eres un entusiasta del overclocking extremo o un jugador avanzado y necesitas el máximo rendimiento posible, puedes configurar tu sistema para sacarle el máximo partido. Pero si no necesitas toda esta potencia puedes configurarlo para que trabaje a 125 vatios nominales. Y si tampoco necesitas este rendimiento tenemos procesadores para equipos de escritorio con una potencia base de 65 y 35 vatios.

Nuestra estrategia consiste en entregar a los usuarios la máxima flexibilidad posible, de manera que tengan a su disposición todas las opciones necesarias para hacer lo que necesitan y resolver su escenario de uso. Creo que esta es la belleza de este modelo: proponer un abanico amplio de soluciones que encajan en cualquier escenario de uso.

Antes has descrito brevemente las mejoras que habéis introducido en vuestra tecnología de integración Intel 7, pero ¿en qué se diferencia en la práctica la litografía de los procesadores Alder Lake de la que estáis utilizando en la fabricación de los chips Raptor Lake?

En esencia la mejora más relevante es el incremento de la velocidad de los transistores, lo que junto a otras optimizaciones nos ha permitido incrementar perceptiblemente la frecuencia de reloj máxima a la que son capaces de trabajar los núcleos de nuestras CPU Raptor Lake. No obstante, si nos ceñimos al proceso litográfico en sí mismo es importante que tengamos en cuenta que ahora es más estable. Ha alcanzado la madurez, de manera que las optimizaciones ahora son más previsibles.

Cuando los ingenieros involucrados en el desarrollo de nuestra tecnología de integración refinan los transistores y los parámetros del proceso fotolitográfico sabemos exactamente qué podemos esperar. Estas mejoras les han permitido entregarnos lo que nos prometieron. Creo que esto es lo más importante. De hecho, aquí en Israel nuestra fábrica de Kiryat Gat ya está produciendo procesadores Raptor Lake empleando esta revisión de nuestra tecnología Intel 7.

Intel3

Todos los fabricantes de chips sin excepción persiguen minimizar el número de circuitos integrados por oblea de silicio que han resultado dañados durante la transferencia del patrón geométrico que contiene la máscara a la oblea y su posterior manipulación.

Actualmente TSMC ya está fabricando chips en sus nodos litográficos de 4 y 5 nm para clientes como Apple o AMD. ¿Es competitiva la litografía Intel 7 si nos ceñimos al rendimiento por vatio y la comparamos con las tecnologías de integración más avanzadas que tiene TSMC?

Nosotros no hablamos acerca de nuestras tecnologías de integración frente a las de la competencia. De hacerlo se encargan terceros. Pero sí hablamos de nuestros productos, y son competitivos. Juegan, sin duda alguna, en la primera división, y creo que este es nuestro mensaje más importante. A mí no me interesa comparar nuestra visión o nuestra litografía con otras. Estamos concentrados en nuestro próximo producto, y nuestros equipos ya están trabajando en él.

El milagro israelí

Actualmente Intel Israel ocupa una posición central dentro de la estructura global de Intel gracias a su protagonismo durante el desarrollo de productos tan competitivos como Alder Lake. ¿Qué hace a Intel Israel diferente? ¿Qué opinas acerca del ‘milagro israelí’?

Creo que es parte de nuestra cultura. Como sabes, nosotros hablamos en hebreo, no en inglés, y las personas que utilizamos esta lengua somos muy directas. Agarramos los problemas y no les damos vueltas. Nos concentramos en ellos, en los desafíos que plantean, y buscamos la forma de resolverlos, lo que nos permite comprometernos con nuestro objetivo de una manera muy intensa.

No obstante, también sabemos cómo colaborar con los equipos que tenemos en otros países, como Estados Unidos o India, en áreas como el diseño, la fabricación, la validación o la gestión de las plataformas, que es precisamente de lo que me encargo yo.

En cualquier caso, todo esto es fruto del trabajo en equipo, y no del esfuerzo de una sola persona o de un único país, por lo que ha sido posible gracias al esfuerzo que hemos hecho para colaborar con otras oficinas de Intel y planificar actividades conjuntas. Creo que todo esto unido a la dedicación, la motivación y un enfoque que nos permite afrontar los retos de cara, ir al grano, es lo que nos hace tan únicos.

«Agarramos los problemas y no les damos vueltas. Nos concentramos en ellos, en los desafíos que plantean, y buscamos la forma de resolverlos»

No obstante, otro ingrediente muy importante es la ubicación de los recursos. Con frecuencia los departamentos de diseño, fabricación y validación no coexisten en un mismo lugar, pero en nuestro caso sí lo hacen. Aquí en Israel podemos afrontar todos estos procesos.

Puedo reunirme en una habitación con los responsables de estas áreas y discutir cualquier eventualidad durante 30 minutos, de manera que una vez que tomamos una decisión la discusión termina y todo el mundo sale de la reunión sabiendo exactamente qué es lo que tiene que hacer.

Intel4

La microarquitectura Alder Lake fue tan solo la punta de lanza de la arquitectura híbrida de Intel. Raptor Lake ya está aquí, y después vendrán Meteor Lake y Arrow Lake. Estas dos últimas implementaciones incorporarán refinamientos relevantes en inteligencia artificial y gráficos.

Podemos discutir tanto como sea necesario y defender lo que creamos acertado. Y, por supuesto, todos podemos equivocarnos. Es completamente normal. Eso sí, una vez que llegamos a un acuerdo y tomamos una decisión, salimos de la habitación y cada uno se encarga de su parte.

Si en el futuro fuese necesario volver a discutir de nuevo ese mismo asunto, volver a buscar la solución de ese mismo problema, es que no hemos hecho algo bien. Y no es una buena señal. Este es el estilo hebreo, y creo que marca la diferencia.

Para concluir nuestra conversación te propongo hacer un ejercicio de proyección hacia el futuro cercano. ¿Cuáles son las mejoras más relevantes que implementaréis en vuestros próximos procesadores Intel Core? ¿Cómo serán los chips que lanzaréis dentro de tres o cuatro años?

Ahora mismo prefiero no hablar de nuestros próximos productos, pero sí puedo decirte que nuestras áreas de trabajo, aquellas en las que creemos que hay margen para introducir mejoras, son similares a las áreas en las que estamos trabajando actualmente.

Algunas de ellas son la ejecución monohilo, multihilo, el rendimiento gráfico o la inteligencia artificial. Estas áreas dan forma a los cimientos de nuestros productos.

«La industria cambia constantemente, de manera que necesitamos adaptarnos a estos cambios con cada producto que lanzamos»

No obstante, la industria cambia constantemente, y las cargas de trabajo también varían, de manera que necesitamos adaptarnos a estos cambios con cada producto que lanzamos para entregar a los usuarios las características y las capacidades que necesitan en el momento en que nuestras soluciones llegan al mercado.

Cuando llevamos a cabo la definición de un proyecto necesitamos prever qué requisitos deberán cumplir nuestros productos una vez que lleguen al mercado con un plazo de anticipación de hasta cinco años.

-
La noticia "Queremos liderar en rendimiento": Tomer Sasson, vicepresidente de Intel y responsable de Raptor Lake fue publicada originalmente en Xataka por Juan Carlos López .

Leer más