Esta es la máquina de fabricación de chips más avanzada del planeta. Es espectacular y su complejidad roza lo inaudito

Esta es la máquina de fabricación de chips más avanzada del planeta. Es espectacular y su complejidad roza lo inaudito

Pesa tanto como dos Airbus A320 e incorpora más de 100.000 piezas, 3.000 cables, 40.000 pernos, y también más de 2 km de conexiones eléctricas. El equipo de fotolitografía TWINSCAN EXE:5000 diseñado y fabricado por ASML es la máquina de producción de circuitos integrados más sofisticada que existe. Y también la más cara. La información más actualizada que tenemos refleja que uno solo de estos equipos cuesta 350 millones de euros, lo que con toda seguridad provocará que algunos fabricantes de chips se lo piensen dos veces antes de comprarlo.

Actualmente solo hay una de estas máquinas en fase de pruebas, y la tiene Intel en su planta de Hillsboro (EEUU) desde finales del pasado mes de diciembre. Los ingenieros de ASML han invertido una década en el desarrollo de la tecnología necesaria para poner a punto esta máquina, que, en realidad, es un equipo de litografía de ultravioleta extremo (UVE) de segunda generación. Esta compañía de Países Bajos prevé entregar a sus clientes anualmente a partir de 2025 unos 20 equipos de este tipo con un propósito: poner en sus manos la posibilidad de producir chips de 2 nm y más allá.

El equipo de litografía UVE High-NA es una de las máquinas más complejas que existen

Para desarrollar el equipo de litografía UVE de alta apertura (EUV High-NA por su sigla en inglés) al que merecidamente dedicamos este artículo los ingenieros de ASML han puesto a punto una arquitectura óptica muy avanzada que tiene una apertura de 0,55 frente al valor de 0,33 que tienen los equipos de litografía UVE de primera generación. Este refinamiento de la óptica permite transferir a la oblea patrones de mayor resolución, de ahí que sea posible fabricar chips empleando tecnologías de integración más avanzadas que las utilizadas actualmente en los nodos de 3 nm.

La sofisticada arquitectura óptica de los equipos UVE de alta apertura permite transferir a la oblea patrones de mayor resolución

En el artículo que dedicamos al criterio de Rayleigh explicamos con mucho detalle en qué consiste el parámetro 'NA' (numerical aperture), pero en este texto nos basta saber que esta variable identifica el valor de apertura de la óptica utilizada por el equipo litográfico. En este contexto este parámetro refleja esencialmente lo mismo que el valor de apertura cuando hablamos de la óptica de una cámara de fotos, por lo que condiciona la cantidad de luz que los elementos ópticos son capaces de recoger. Como podemos intuir, cuanta más luz recaben, mejor.

Asml 1

No obstante, esto no es todo. ASML también ha mejorado los sistemas mecánicos que se responsabilizan de la manipulación de las obleas con el propósito de hacer posible que una sola máquina UVE de alta apertura sea capaz de producir más de 200 obleas por hora. Las fotografías que ilustran este artículo nos permiten intuir la extrema complejidad y la sofisticación que tiene uno de estos equipos, que, por cierto, no sería posible sin la cooperación de otras empresas, como la alemana ZEISS o Cymer, una compañía de origen estadounidense que actualmente está bien afianzada dentro de la estructura de ASML.

Asml 2

De algún modo esta última empresa entrega a ASML la materia prima que necesitan sus máquinas de fotolitografía. Y esa materia prima no es otra que la luz ultravioleta que se responsabiliza de transportar el patrón geométrico descrito por la máscara para que pueda ser transferido con muchísima precisión a la superficie de la oblea de silicio. La luz utilizada por el equipo de alta apertura pertenece a la porción más energética de la región ultravioleta del espectro electromagnético. De hecho, su longitud de onda se extiende en el rango que va desde los 10 hasta los 100 nanómetros (nm).

El problema es que no es nada fácil generar y lidiar con esta forma de radiación electromagnética. Y no lo es, entre otras razones, debido a que es tan energética que altera la estructura de los elementos físicos con los que interacciona en el interior de la máquina de litografía. Además, la luz UVE debe viajar desde la fuente hasta la oblea de silicio sin interaccionar con la más mínima partícula de polvo, por lo que es necesario que todo el proceso de producción de los chips se lleve a cabo en el interior de una cámara diseñada para proporcionar un vacío de mucha calidad.

Asml 3

En la fotografía que podemos ver debajo de estas líneas aparece uno de los elementos ópticos anamórficos utilizados en las máquinas de litografía UVE de alta apertura de ASML mientras está siendo verificado en el laboratorio de ZEISS. Su rol es crucial debido a que se responsabilizan de trasladar la luz UVE con una longitud de onda de 13,5 nm desde la fuente que se encarga de su emisión hasta la máscara que contiene el patrón geométrico que es necesario plasmar en la oblea de silicio. A partir de este momento entra en acción la óptica de proyección con el propósito de transferir la radiación UVE que ya contiene el patrón geométrico a la oblea de material semiconductor.

Asml 4

Es un proceso complejísimo. Si los espejos que intervienen en la propagación de la luz UVE no están fabricados con una enorme precisión el patrón geométrico definido por la máscara se verá alterado, y los chips se irán al garete. Además, los espejos reflectores que se encargan de transportar la luz desde la fuente emisora hasta la máscara deben conseguir que la radiación UVE llegue a esta última con una uniformidad extrema. De lo contrario, de nuevo, el proceso de fabricación de circuitos integrados no tendrá éxito.

Además, los espejos utilizados en los equipos de alta apertura son más grandes que los que emplean las máquinas UVE convencionales, por lo que su fabricación es aún más compleja. Definitivamente, como hemos comprobado a lo largo de este artículo, cada equipo de fotolitografía UVE de alta apertura es un auténtico prodigio de la ingeniería.

Imágenes | ASML

Más información | ASML

En Xataka | El nuevo equipo de litografía de ASML divide a los fabricantes de chips. TSMC se plantea no usarlo hasta 2030

-
La noticia Esta es la máquina de fabricación de chips más avanzada del planeta. Es espectacular y su complejidad roza lo inaudito fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

El nuevo equipo de litografía de ASML divide a los fabricantes de chips. TSMC se plantea no usarlo hasta 2030

El nuevo equipo de litografía de ASML divide a los fabricantes de chips. TSMC se plantea no usarlo hasta 2030

Peter Wennink, el director general de ASML, anticipó a principios de septiembre de 2023 que su compañía entregaría el primer equipo de litografía UVE de alta apertura (EUV High-NA por su sigla en inglés) a uno de sus clientes antes de que expirase el año en curso. Y lo cumplió. A finales de diciembre la máquina de fabricación de circuitos integrados más avanzada que existe abandonó Países Bajos rumbo a la planta de semiconductores que tiene Intel en Hillsboro (EEUU).

El itinerario que se ha marcado la compañía liderada por Pat Gelsinger en lo que se refiere a la puesta a punto de nuevas tecnologías de integración es extremadamente ambicioso, y el equipo de litografía UVE de alta apertura de ASML tiene un papel protagonista en él. Durante la primera mitad de 2024 prevé tener preparado el nodo Intel 20A, y a lo largo del segundo semestre de 2024 promete estar preparada para fabricar circuitos integrados en el nodo 18A.

Con toda probabilidad los equipos de litografía que utilizará Intel en estos nodos serán las máquinas UVE de primera generación que tiene en algunas de sus plantas desde hace ya varios años, por lo que el equipo UVE de alta apertura reclamará el protagonismo a partir del nodo 18A. Esto significa que durante los próximos dos años los ingenieros de Intel probarán a fondo esta tecnología con el propósito de iniciar la producción masiva de chips con ella presumiblemente en 2026. Intel no lo ha confirmado oficialmente, pero estos plazos son razonables.

TSMC ha adoptado una postura más conservadora que Intel

Como os contamos hace dos días, cada vez tenemos más evidencias que reflejan que TSMC, el mayor fabricante de semiconductores del planeta, no va a instalar en sus fábricas aún el nuevo equipo de litografía de ASML. A mediados del pasado mes de enero C. C. Wei, el director general de esta compañía taiwanesa, se mostró extremadamente cauto durante una reunión en lo que se refiere a la posibilidad de que su compañía adopte las nuevas máquinas UVE de alta apertura.

Varios analistas de la industria de los semiconductores defienden que TSMC no usará los equipos UVE High-NA hasta que introduzca su litografía de 1 nm

"Estamos estudiándolo minuciosamente, evaluando la madurez de la herramienta y examinando sus costes. Nosotros siempre tomamos la decisión adecuada en el momento oportuno con el propósito de ofrecer el mejor servicio a nuestros clientes", aseguró Wei durante su intervención. No obstante, ahora sabemos algo más. Hace un mes Szeho Ng, un analista de China Renaissance, vaticinó que TSMC no utilizaría los equipos UVE de alta apertura de ASML hasta que introdujese su tecnología de integración de 1 nm. En aquel momento parecía un vaticinio prematuro, pero ahora otras voces fiables defienden lo mismo.

El medio DigiTimes Asia, que habitualmente maneja información muy fiable, se ha mojado esta misma semana y, al igual que Szeho Ng, defiende que TSMC no utilizará los equipos de litografía más avanzados de ASML en sus nodos de 2 y 1,4 nm. De ser así esta decisión tendría repercusiones muy importantes. Por un lado la postura de TSMC nos recuerda que con los refinamientos adecuados los equipos de litografía UVE de primera generación pueden ser utilizados para producir chips de 2 nm, e, incluso, más allá (ya veremos con qué rendimiento por oblea).

Y, además, si finalmente TSMC confirma esta estrategia no empezaría a producir circuitos integrados de forma masiva empleando la máquina UVE High-NA de ASML hasta finales de esta década. Probablemente hasta 2029 o 2030. Veremos qué tal le va a Intel con estos equipos. Cabe la posibilidad de que si la apuesta le sale bien a Pat Gelsinger esta empresa estadounidense consiga colocar en el mercado chips de vanguardia con un coste muy competitivo. Esta es, precisamente, una de las bazas que según ASML propone su equipo de litografía más avanzado.

Imagen de portada | ASML

Más información | Tom's Hardware

En Xataka | TSMC ya es el fabricante de chips con mayores ingresos del planeta. Ha batido a dos gigantes de los semiconductores

-
La noticia El nuevo equipo de litografía de ASML divide a los fabricantes de chips. TSMC se plantea no usarlo hasta 2030 fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

El Futuro Colisionador Circular del CERN costará 20.000 millones de euros. Será una ganga si cumple su cometido

El Futuro Colisionador Circular del CERN costará 20.000 millones de euros. Será una ganga si cumple su cometido

El Futuro Colisionador Circular (FCC) que ya están planeando los físicos e ingenieros del CERN (Organización Europea para la Investigación Nuclear) es sin duda uno de los proyectos científicos más apasionantes en desarrollo. Su puesta a punto comenzó a fraguarse en 2019 y su propósito será, ni más ni menos, reemplazar al HL LHC (High Luminosity Large Hadron Collider o LHC de alta luminosidad), el acelerador de partículas que en su versión con luminosidad "estándar" ha permitido a los físicos del CERN, entre otros hallazgos, descubrir el bosón de Higgs.

Si el itinerario que ha planificado el CERN sigue su curso tal y como lo ha hecho hasta ahora el HL LHC estará listo a finales de esta década. En 2030. Y será capaz de producir nada menos que 40 millones de colisiones por segundo. La cantidad de información que generará será tan enorme que, tal y como nos explicó el físico español Santiago Folgueras en la conversación que mantuvimos con él a principios de diciembre, será necesario poner a punto un sistema que sea capaz de analizar los datos en tiempo real y tomar una decisión respecto a la colisión que se acaba de producir.

No obstante, el plan de los físicos del CERN no acaba con el HL LHC. Cuando finalmente concluyan todos sus ciclos de operación esta institución planea construir el FCC, un acelerador mucho más grande y capaz de llegar a energías mucho más altas. Presumiblemente tendrá una circunferencia de 91 km (la del actual LHC mide 27 km), y su construcción arrancará en 2038. El propósito de los físicos del CERN es que el FCC sea capaz de alcanzar durante la segunda etapa del proyecto una energía de 100 TeV (teraelectronvoltios). Para formarnos una idea precisa acerca de qué estamos hablando solo tenemos que recordar que el LHC actual trabaja con una energía de 16 TeV.

El FCC aspira a ser una herramienta crucial en la búsqueda de nueva física

Algunas de las preguntas que los físicos del CERN tienen la esperanza de poder responder con la ayuda del HL LHC son qué es y qué propiedades tiene la materia oscura, por qué los neutrinos tienen masa y por qué no hay antimateria en el universo. No cabe duda de que son preguntas apasionantes. Aún es pronto para concretar con precisión qué preguntas podrán responder con la ayuda del FCC, pero no cabe duda de que la energía con la que trabajará debería permitirles llegar más lejos que el HL LHC. De hecho, es probable que la nueva física que con un poco de suerte llegará gracias a este último acelerador de partículas les dé ideas acerca de dónde merece la pena indagar con el FCC.

Si finalmente el FCC es aprobado y logra alcanzar su cometido el conocimiento que nos entregará en el ámbito de la ciencia básica justificará plenamente el dinero invertido en él

Según las previsiones del CERN el FCC costará 20.000 millones de euros. Puede parecer mucho dinero, pero si tenemos presente que será una máquina que persigue afianzarse como una herramienta fundamental en la elaboración de física de vanguardia no lo es. Es una inversión muy razonable. De hecho, construir y equipar una fábrica de chips de última generación puede costar mucho más. La que Intel planea construir en Magdeburgo (Alemania) tendrá un coste de 30.000 millones de euros. Si finalmente el FCC es aprobado y logra alcanzar su cometido el conocimiento que nos entregará en el ámbito de la ciencia básica justificará plenamente el dinero invertido en él.

Javier Santaolalla, divulgador científico, ingeniero y físico que participó en el descubrimiento del bosón de Higgs, defiende que "el CERN desarrolla tecnologías que luego se aplican en la industria. De hecho, uno de sus pilares básicos es la transferencia tecnológica, que consiste en buscar aplicaciones para aquello que investiga. Las patentes que se desarrollan en el CERN son abiertas. Están buscando constantemente enlaces con la industria para aplicar lo que se descubre en cámaras de vacío, criogenia y muchas otras áreas. Es una forma directa de generar riqueza".

Santiago Folgueras, el joven físico español que ha ganado una ayuda Starting Grant del Consejo Europeo de Investigación dotada con 1,5 millones de euros para liderar el proyecto INTREPID para el CERN considera que "la investigación en ciencia básica entrega grandes avances tecnológicos a la sociedad. Si no hay personas haciendo ciencia básica esto no ocurre. Además, estos desarrollos tecnológicos llegan gratis a la sociedad porque no producen patentes. En el CERN se han desarrollado, entre muchas otras innovaciones tecnológicas, la world wide web, la tecnología de aceleradores de partículas que se emplea actualmente para tratar el cáncer o la levitación magnética empleada por algunos trenes de última generación".

Imagen de portada | CERN

Más información | The Guardian

En Xataka | Ya puedes descargar los 800 TB de información que acaba de liberar el CERN. Son un tesoro de la física de partículas

-
La noticia El Futuro Colisionador Circular del CERN costará 20.000 millones de euros. Será una ganga si cumple su cometido fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

Los caminos de Intel y TSMC hacia los 2 nm están a punto de separarse. El motivo: el equipo de litografía High-NA de ASML

Los caminos de Intel y TSMC hacia los 2 nm están a punto de separarse. El motivo: el equipo de litografía High-NA de ASML

El equipo de litografía UVE de alta apertura (EUV High-NA por su sigla en inglés) de ASML es un prodigio de la tecnología. Esta sofisticada y complejísima máquina ha sido diseñada por esta compañía neerlandesa para derribar la barrera de los 3 nm y reducir la complejidad del proceso de fabricación de chips de vanguardia drásticamente. Para lograrlo los ingenieros de esta empresa han puesto a punto una arquitectura óptica muy avanzada que tiene una apertura de 0,55 frente al valor de 0,33 que tienen los equipos de litografía UVE de primera generación.

Este refinamiento de la óptica permite transferir a la oblea patrones de mayor resolución, de ahí que sea posible fabricar chips empleando tecnologías de integración más avanzadas que las utilizadas actualmente en los nodos de 3 nm. Todo lo que acabamos de ver suena muy bien, pero los equipos UVE de alta apertura tienen algo en su contra: cada uno de ellos cuesta unos 300 millones de dólares, mientras que una máquina UVE de primera generación se mueve en la órbita de los 150 millones de dólares.

Por el momento ASML ha entregado una sola máquina dotada de esta tecnología, y la tiene Intel en su planta de Hillsboro, en EEUU. La compañía de Países Bajos tiene la intención de entregar a sus clientes anualmente a partir de 2025 600 máquinas de litografía de ultravioleta profundo (UVP), 90 equipos de litografía UVE y 20 equipos de litografía UVE de alta apertura. Es razonable prever que estas últimas máquinas irán a parar a las plantas de Intel, Samsung y TSMC, pero cabe la posibilidad de que esta última aún no apueste por lo último de ASML.

TSMC no se ha pronunciado oficialmente, pero parece que va a extremar la cautela

La relación que mantienen actualmente TSMC y ASML es muy estrecha. Es lo que cabe esperar del mayor fabricante de circuitos integrados del planeta y de la empresa que produce los equipos de litografía más avanzados del mercado. A mediados del pasado mes de enero C. C. Wei, el director general de TSMC, se mostró extremadamente cauto durante una reunión en lo que se refiere a la posibilidad de que su compañía adopte los nuevos equipos de litografía de ASML.

El 'multiple patterning' es una técnica de litografía que consiste en transferir el patrón a la oblea en varias pasadas con el propósito de incrementar la resolución del proceso litográfico

"Estamos estudiándolo minuciosamente, evaluando la madurez de la herramienta y examinando sus costes. Nosotros siempre tomamos la decisión adecuada en el momento oportuno con el propósito de ofrecer el mejor servicio a nuestros clientes", aseguró Wei durante su intervención. Esta declaración ha despertado algunas suspicacias debido a que Jeff Koch, un analista de la industria de los semiconductores que ha trabajado en ASML hasta hace apenas dos meses, defiende que a pesar de la reducción de la complejidad que conlleva el uso de una máquina de alta apertura el single patterning del equipo High-NA deviene en un coste perceptiblemente más alto que el del double-patterning de las máquinas UVE convencionales.

El multiple patterning es una técnica de litografía que consiste en transferir el patrón a la oblea en varias pasadas con el propósito de incrementar la resolución del proceso litográfico. Según Koch este incremento del coste de la producción de circuitos integrados unido al elevado precio de cada equipo de litografía UVE de alta apertura merma el potencial interés de estas máquinas para algunos clientes de ASML.

Esta es la razón por la que resulta razonable concluir a partir de las declaraciones de C. C. Wei que TSMC va a pensarse dos veces dar el salto a los equipos UVE High-NA de ASML. Posiblemente aún tiene margen para refinar sus procesos en los equipos UVE de primera generación, aunque a medio plazo es probable que a pesar de su aparente reticencia inicial acabe haciéndose con las máquinas más avanzadas de la compañía de Países Bajos. Todo sea por superar los límites físicos impuestos por la tecnología de los equipos de litografía UVE convencionales.

Imagen de portada | TSMC

Más información | DigiTimes Asia

En Xataka | TSMC ya es el fabricante de chips con mayores ingresos del planeta. Ha batido a dos gigantes de los semiconductores

-
La noticia Los caminos de Intel y TSMC hacia los 2 nm están a punto de separarse. El motivo: el equipo de litografía High-NA de ASML fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

Cuando Newton llegó a las leyes fundamentales de la física ya había un cartel que decía “Leonardo estuvo aquí”

Cuando Newton llegó a las leyes fundamentales de la física ya había un cartel que decía

La leyenda de Leonardo da Vinci sigue agigantándose. El valor artístico y científico de la obra que nos ha legado este genio nacido a mediados del siglo XV en Anchiano (Florencia) es indudable. Y es que seis siglos después de su paso por este mundo los estudiosos de sus escritos continúan descubriendo en ellos un conocimiento que a priori parecería estar fuera del alcance de cualquier persona de la Edad Media, por muy erudita que fuese.

Pero no. Leonardo se niega a ser encasillado junto a sus coetáneos. Sabemos desde hace mucho que su ingenio no conocía límites, y el descubrimiento que ha realizado un equipo de ingenieros de Caltech, que es el prestigioso Instituto Tecnológico de California, reafirma aún con más intensidad este axioma. Y es que estos investigadores se han dado cuenta de que su comprensión de la gravedad estaba adelantada varios siglos a su época. Punto para Leonardo.

Los textos de da Vinci siguen deparándonos grandes sorpresas

Resulta sorprendente que a estas alturas todavía queden descubrimientos por hacer en los escritos de Leonardo da Vinci. Enigmas ocultos entre sus trazos y aún pendientes de ser resueltos. Pero sí, es evidente que no lo sabemos todo acerca del genio florentino. Estos investigadores de Caltech han inspeccionado minuciosamente, como han hecho otros científicos antes que ellos, el códice Arundel, que es una colección de textos manuscritos por Leonardo entre 1480 y 1518 que abordan varias disciplinas científicas, como las matemáticas o la física.

El códice Arundel ha sido digitalizado y está disponible gratuitamente en la página web de la Biblioteca Británica

Actualmente cualquiera de nosotros puede examinar gratuitamente este códice debido a que ha sido digitalizado y está disponible en la página web de la Biblioteca Británica, que es la institución que lo conserva. Así es, precisamente, como lo han hecho los ingenieros de Caltech. En cualquier caso, lo importante es que han descubierto que Leonardo diseñó y llevó a cabo varios experimentos que le permitieron formarse una idea razonablemente precisa acerca de la naturaleza de la gravedad.

De hecho, según estos técnicos sus pruebas persiguieron demostrar que la gravedad es una forma de aceleración, lo que sugiere que Leonardo intuía con precisión las características del fenómeno físico que quería estudiar. Y llegó muy lejos, especialmente si tenemos presente lo rudimentarios que eran los recursos que tenía a su disposición. Tanto es así que a pesar de no tener instrumentos avanzados de medida consiguió estimar la constante de gravitación universal, según los investigadores de Caltech, con una precisión del 97%.

Leonardo Ap

El códice Arundel está repleto de dibujos y esquemas. Leonardo los utilizaba para describir con precisión sus experimentos.

El experimento que diseñó Leonardo para llevar a cabo un cálculo tan preciso en una época en la que no tenía un instrumental de medida sofisticado derrocha ingenio. Y los investigadores de Caltech lo han reproducido. De hecho, esto es lo que les ha permitido evaluarlo y poner sobre la mesa, una vez más, lo astuto que era el polímata florentino. Y es que a da Vinci se le ocurrió desplazar una jarra de agua a lo largo de una trayectoria paralela al suelo con el propósito de ir vertiendo poco a poco una sustancia que le permitiese observar con la máxima precisión posible si la velocidad con la que caía era o no constante (podéis ver el esbozo de este experimento en la imagen de portada de este artículo).

En sus notas concluye de una forma taxativa que la sustancia vertida no se precipita a una velocidad constante, sino que está sometida a una aceleración

Al parecer Leonardo no indica en sus textos qué sustancia empleó en este experimento, pero los ingenieros de Caltech sospechan que debió de utilizar agua o arena. En cualquier caso, en sus notas concluye de una forma taxativa que la sustancia vertida no se precipita a una velocidad constante, sino que está sometida a una aceleración. Incluso se percató de que cuando no está bajo la influencia de la persona que realiza el experimento, la sustancia no está sometida a una aceleración horizontal, lo que le llevó a concluir que la aceleración vertical únicamente puede estar propiciada por la gravedad. Ingenioso, ¿verdad?

Para poner en perspectiva la relevancia del hallazgo de Leonardo da Vinci nos interesa tener en cuenta que murió en 1519, y Galileo Galilei, que también hizo aportaciones relevantes en esta área, elaboró sus teorías en 1604. Y Newton, que, como todos sabemos, desarrolló, entre muchas otras cosas, una teoría de la gravedad cuyo eco todavía perdura, vivió durante la segunda mitad del siglo XVII y las primeras tres décadas del XVIII. No cabe la más mínima duda: Leonardo fue un auténtico adelantado a su tiempo.

Imagen de portada | Caltech

Más información | Caltech | MIT Press Direct | British Library

En Xataka | El que probablemente sea el experimento más extraño de Isaac Newton requería dos cosas: una aguja y un ojo

*Una versión anterior de este artículo se publicó en febrero de 2023


-
La noticia Cuando Newton llegó a las leyes fundamentales de la física ya había un cartel que decía "Leonardo estuvo aquí" fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

ASML tiene el mejor equipo de litografía del mercado. Eso sí, es tan caro que los fabricantes de chips van a sufrir

ASML tiene el mejor equipo de litografía del mercado. Eso sí, es tan caro que los fabricantes de chips van a sufrir

El equipo de fabricación de chips más avanzado del planeta lo tiene ASML. Esta compañía de Países Bajos ha liderado durante los últimos años el mercado de las máquinas de litografía gracias a sus equipos de ultravioleta extremo (UVE), pero desde hace poco más de un mes su liderazgo se ha vuelto si cabe aún más sólido gracias a la entrega de su primera máquina UVE de segunda generación. La tiene Intel en su planta de Hillsboro, en EEUU, y es todavía más avanzada que un equipo UVE convencional.

Empleando este equipo de litografía UVE de alta apertura (EUV High-NA por su sigla en inglés) los fabricantes de semiconductores pueden en teoría producir circuitos integrados más allá de la barrera de los 3 nm. Para hacerlo posible ASML ha implementado una arquitectura óptica muy avanzada que tiene una apertura de 0,55 frente al valor de 0,33 que tienen los equipos de litografía UVE de primera generación.

Este refinamiento de la óptica permite transferir a la oblea patrones de mayor resolución, de ahí que sea posible fabricar chips empleando tecnologías de integración más avanzadas que las utilizadas actualmente en los nodos de 3 nm. No obstante, esto no es todo. Y es que ASML también ha mejorado los sistemas mecánicos que se responsabilizan de la manipulación de las obleas con el propósito de hacer posible que una sola máquina UVE de alta apertura sea capaz de producir más de 200 obleas por hora.

El equipo de litografía UVE High-NA de ASML cuesta el doble que su predecesor

Un equipo de litografía de ultravioleta extremo (UVE) de primera generación contiene más de 100.000 piezas, 3.000 cables, 40.000 pernos y nada menos que dos kilómetros de conexiones eléctricas, y las nuevas máquinas UVE de alta apertura de ASML son todavía más complejas. De hecho, uno de estos últimos equipos cuesta unos 300 millones de dólares, mientras que una máquina UVE de primera generación se mueve en la órbita de los 150 millones de dólares.

ASML tiene la intención de entregar anualmente a partir de 2028 nada menos que 20 equipos de litografía UVE de alta apertura

ASML tiene la intención de entregar a sus clientes anualmente a partir de 2025 600 máquinas de litografía de ultravioleta profundo (UVP) y 90 equipos de litografía UVE. No cabe duda de que es un plan ambicioso, pero resulta creíble porque es razonable asumir que los ingenieros de esta compañía conocen al dedillo la tecnología de sus máquina UVP y UVE. Lo que no está tan claro es que también consiga entregar anualmente a partir de 2028 nada menos que 20 equipos de litografía UVE de alta apertura.

La fabricación de cada una de estas máquinas conlleva enormes desafíos técnicos, pero hay otro parámetro que no debemos pasar por alto: su precio. Jeff Koch, un analista de la industria de los semiconductores que ha trabajado en ASML hasta hace apenas dos meses, defiende que a pesar de la reducción de la complejidad que conlleva el uso de una máquina de alta apertura el single patterning del equipo High-NA deviene en un coste perceptiblemente más alto que el del double-patterning de las máquinas UVE convencionales.

Un apunte antes de seguir adelante: el multiple patterning es una técnica de litografía que consiste en transferir el patrón a la oblea en varias pasadas con el propósito de incrementar la resolución del proceso litográfico. Según Koch este incremento del coste de la producción de circuitos integrados unido al elevado precio de cada equipo de litografía UVE de alta apertura merma el potencial interés de estas máquinas para algunos clientes de ASML, que, posiblemente, podrían tener dificultades para amortizar la inversión.

Roger Dassen, el director financiero de ASML, no está de acuerdo con las conclusiones a las que ha llegado Jeff Koch. En una entrevista que ha concedido a Bits&Chips este ejecutivo sostiene que evitar el doble e incluso el cuádruple patterning reduce la complejidad del proceso de fabricación de chips de vanguardia drásticamente, por lo que en la práctica el nuevo equipo UVE High-NA de ASML es la solución más rentable disponible en el mercado. Será interesante comprobar si TSMC y Samsung siguen los pasos de Intel y también apuestan por estos equipos en un plazo de tiempo breve. Ya lo veremos.

Imagen de portada | ASML

Más información | SemiAnalysis | Bits&Chips

En Xataka | La "guerra de los chips" se está cobrando muchas víctimas, pero la principal empresa europea no es una de ellas: ASML

-
La noticia ASML tiene el mejor equipo de litografía del mercado. Eso sí, es tan caro que los fabricantes de chips van a sufrir fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

La IA ya está cambiando las reglas de la fusión nuclear. Palabra de los ingenieros de ITER

La IA ya está cambiando las reglas de la fusión nuclear. Palabra de los ingenieros de ITER

Esta no es la primera vez que os hablamos de la alianza entre la fusión nuclear y la inteligencia artificial (IA). En enero de 2022 os contamos que un equipo de investigadores del Instituto Tecnológico de Massachusetts (MIT), en EEUU, había elaborado un modelo de turbulencias utilizando algoritmos de aprendizaje profundo. Gracias a esta estrategia estaban pudiendo poner a prueba su modelo y evaluando su capacidad predictiva con mucha eficacia.

Su plan en aquel momento consistía en utilizar esta tecnología para entender con la máxima precisión posible cómo se comporta el plasma en el interior de la cámara de vacío del reactor de fusión nuclear. El plasma no es otra cosa que el gas extremadamente caliente que contiene los núcleos de deuterio y tritio involucrados en la reacción de fusión, y comprender su dinámica es fundamental para que la energía de fusión comercial llegue a buen puerto.

En cualquier caso, en esta ocasión es F4E (Fusion for Energy), la organización de la Unión Europea que coordina la contribución de Europa al desarrollo de ITER (International Thermonuclear Experimental Reactor), quien nos habla del rol que tiene la inteligencia artificial en el desarrollo de la energía de fusión. Varios expertos de F4E, algunos de ellos españoles, como María Ortiz de Zúñiga o Cristian Casanova, han trabajado durante más de dos años en el ámbito de la IA para identificar qué puede aportar a la ingeniería nuclear. Y sí, ya está marcando la diferencia.

La IA ya tiene un impacto muy profundo en el ensamblaje de la cámara de vacío de ITER

La cámara de vacío es el auténtico corazón de este reactor de fusión nuclear. Este recinto de 8.000 toneladas está fabricado en acero inoxidable, aunque en su composición también hay una pequeña cantidad de boro (alrededor de un 2%). En su interior tiene lugar la fusión de los núcleos de deuterio y tritio, por lo que una de sus funciones más importantes es actuar como primera barrera de contención de la radiación residual que podría no ser retenida por el manto (blanket).

La cámara de vacío está herméticamente sellada y su interior preserva el alto vacío necesario para que se produzca la fusión de los núcleos del plasma

La cámara de vacío está herméticamente sellada y su interior preserva el alto vacío necesario para que se produzca la fusión de los núcleos del plasma. Su forma toroidal contribuye a la estabilización del gas, de manera que los núcleos giran a mucha velocidad alrededor del hueco central de la cámara, pero sin tocar en ningún momento las paredes del toro. Por otro lado, la temperatura a la que está sometida esta cámara es muy alta, por lo que es necesario introducir agua en circulación en un compartimento alojado entre sus paredes interna y externa para refrigerarla y evitar que alcance su umbral máximo de temperatura.

Ya sabemos cómo es la cámara de vacío de ITER y cuál es su función, pero hay algo en lo que aún no hemos indagado: qué desafíos plantea su ensamblaje. El descomunal tamaño de este esencial componente del reactor de fusión nuclear ha provocado que sea necesario fragmentarla en nueve sectores. Europa es la responsable de fabricar cinco de ellos, y Corea del Sur se responsabiliza de los cuatro restantes. Una vez que han sido meticulosamente fabricados en su país de procedencia con unas tolerancias extraordinariamente exigentes es necesario enviarlos a Cadarache (Francia), la sede de ITER, para que sean ensamblados.

El propósito de este proyecto es que finalmente los nueve sectores que conforman la cámara de vacío se comporten desde un punto de vista estructural como una única pieza una vez que se haya completado el ensamblaje. Y para lograrlo el proceso de soldadura de cada sector tiene necesariamente que ser extraordinariamente meticuloso porque están implicadas tolerancias locales de tan solo el 0,1%. Además, la cámara de vacío tiene una forma muy complicada, y, para rizar el rizo, utiliza chapas con espesores de hasta 60 mm.

Las tolerancias de ITER son muy exigentes, por lo que es necesario corregir cualquier soldadura mínimamente defectuosa

Toda esta retahíla de dificultades ha provocado que los técnicos de ITER hayan encomendado a la empresa española ENSA (Equipos Nucleares, S.A.) la puesta a punto de una tecnología de soldadura robotizada muy avanzada que les está permitiendo afrontar la soldadura de los sectores de la cámara de vacío con garantías. Además, los segmentos que conforman cada uno de los sectores están siendo soldados con una técnica muy avanzada conocida como soldadura de haz de electrones (electron beam welding).

Y, por fin, llegamos al papel de la inteligencia artificial en este proyecto. A pesar de lo sofisticadas que son las técnicas de soldadura que están siendo empleadas en la fabricación de los sectores y el ensamblaje de la cámara de vacío pueden producirse errores. La mayor parte de ellos son minúsculos, casi indetectables, pero, como hemos visto, las tolerancias de ITER son muy exigentes, por lo que es necesario corregir cualquier soldadura mínimamente defectuosa. Para afrontar este desafío a María Ortiz de Zúñiga y Cristian Casanova se les ocurrió poner en marcha un proyecto piloto que proponía la utilización de la IA para predecir qué soldaduras en progreso iban a tener algún defecto.

Para entrenar su modelo de IA decidieron utilizar los datos recogidos previamente durante la ejecución de 2.662 soldaduras sin defectos y otras 266 soldaduras con defectos. Lo impactante, y esto es realmente asombroso, es que el modelo de IA fue capaz de predecir con un acierto del 100% cuántas soldaduras de las 100 que se estaban efectuando en ese momento iban a tener algún defecto y cuántas iban a ajustarse escrupulosamente a las tolerancias prefijadas por los responsables de ITER.

Como podemos intuir tener esta información con anticipación es crucial para que la ejecución final de todas las soldaduras sea la idónea. F4E está trabajando en nuevas aplicaciones de la IA durante la puesta a punto de ITER, pero, como acabamos de ver, esta tecnología ya está marcando la diferencia.

Imagen de portada | F4E

Más información | F4E

En Xataka | Tokamak Energy tiene un plan revolucionario: conseguir la fusión nuclear comercial durante la próxima década

-
La noticia La IA ya está cambiando las reglas de la fusión nuclear. Palabra de los ingenieros de ITER fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

Estas vanguardistas obras de ingeniería son las “catedrales” de nuestra era. Y de ellas depende nuestro progreso científico

Estas vanguardistas obras de ingeniería son las

Aunque algunas de ellas, las más antiguas, tienen más de un milenio y medio, las catedrales continúan siendo unos edificios asombrosos y sobrecogedores. De hecho, resulta sorprendente que el ser humano haya sido capaz de erigir estas obras arquitectónicas en muchos casos con unos medios extraordinariamente rudimentarios. Hoy es difícil encontrar una obra de similar envergadura si nos ceñimos exclusivamente a la arquitectura, aunque quizá algunos rascacielos u otros edificios modernos especialmente ambiciosos encajan en la idea de "obra arquitectónica faraónica".

Sin embargo, si desviamos nuestra mirada más allá de la arquitectura, hacia la ciencia, no nos costará encontrar obras de ingeniería contemporáneas que rivalizan sin miramientos por su complejidad y ambición con las grandes catedrales de la antigüedad. En este artículo os proponemos indagar en cuatro de estas maravillosas máquinas con el propósito no solo de conocer cuál es su finalidad, sino también qué pueden aportar al desarrollo de la ciencia de vanguardia y cómo pueden enriquecer nuestro conocimiento. Ahí va un pequeño anticipo: todas ellas son sobrecogedoras.

ATLAS: el titánico experimento del CERN

Atlas

ATLAS es el mayor detector construido hasta la fecha para trabajar codo con codo con un colisionador de partículas. Tiene nada menos que 46 metros de longitud y 25 metros de diámetro. Y a él le debemos algunos de los hallazgos más importantes del LHC (Large Hadron Collider o Gran Colisionador de Hadrones), que es el acelerador de partículas al que está vinculado dentro de las instalaciones del CERN (Conseil Européen pour la Recherche Nucléaire u Organización Europea para la Investigación Nuclear).

El propósito de ATLAS es ayudarnos a entender cuáles son los elementos constituyentes de la materia, qué es la materia oscura y qué son las fuerzas fundamentales de la naturaleza

El propósito de este experimento, si nos ceñimos a lo que nos dicen los científicos que lo han diseñado, es ayudarnos a entender mejor cuáles son los elementos constituyentes de la materia, qué es la materia oscura y qué son las fuerzas fundamentales de la naturaleza, entre otras preguntas esenciales.

Precisamente hace apenas cinco meses los físicos y los ingenieros que trabajan en ATLAS lograron entregarnos nuevo conocimiento acerca de la interacción nuclear fuerte. Hay una razón contundente por la que este hito es muy importante: hasta ahora esta interacción fundamental es la que se había medido con menos precisión de las cuatro. Y por fin se ha podido caracterizar mejor.

ITER: el mayor y más avanzado reactor experimental de fusión nuclear está en camino

Iter

ITER (International Thermonuclear Experimental Reactor) es uno de los proyectos más ambiciosos y complejos a los que se está enfrentando la humanidad. Su propósito es imitar los procesos que permiten obtener energía a las estrellas mediante la fusión de los núcleos de su combustible, que está constituido aproximadamente por un 70% de protio, que es el isótopo del hidrógeno que carece de neutrones, y que, por tanto, tiene solo un protón y un electrón; entre un 24 y un 26% de helio, y entre un 4 y un 6% de elementos químicos más pesados que el helio.

ITER producirá 500 megavatios de potencia durante no menos de 500 segundos utilizando solo 1 gramo de tritio como parte del combustible

El problema es que imitar los procesos de fusión nuclear que tienen lugar de forma natural en el núcleo de las estrellas no es nada fácil. Y no lo es, entre muchas otras razones, porque no contamos con un aliado muy valioso que se lo pone mucho más fácil a las estrellas: el confinamiento gravitatorio. Y es que su masa es tan enorme que la gravedad consigue comprimir los gases del núcleo estelar lo necesario para recrear de forma natural las condiciones en las que los núcleos de hidrógeno comienzan a fusionarse espontáneamente. Así obtienen su energía las estrellas.

El reactor de fusión nuclear ITER ha sido diseñado para demostrar que la fusión nuclear a la escala que el hombre puede manejar funciona. Y también que es rentable desde un punto de vista energético debido a que genera más energía de la que es necesario invertir para iniciar el proceso. Su objetivo es producir alrededor de 500 megavatios de potencia durante no menos de 500 segundos utilizando solo 1 gramo de tritio como parte del combustible y después de invertir unos 50 megavatios de energía en la ignición del reactor de fusión.

La máquina que un consorcio internacional está poniendo a punto en la localidad francesa de Cadarache es extraordinariamente compleja. De hecho, probablemente solo los detectores de partículas del CERN rivalizan por la complejidad de su ingeniería con ITER. Un proyecto de esta envergadura solo es posible reuniendo los recursos de las principales potencias del planeta, lo que ha llevado a China, Japón, Rusia, la Unión Europea, Estados Unidos, India y Corea del Sur a unirse para llevar a buen puerto esta asombrosa máquina.

LIGO: un prodigio de la ingeniería que es capaz de identificar ondas gravitacionales

Ligo

La observación directa de las primeras ondas gravitacionales que el ser humano ha sido capaz de identificar hace ya algo más de ocho años es sin duda lo mejor que le ha pasado a la cosmología reciente. Estas perturbaciones gravitatorias generadas por los objetos masivos que están sometidos a una cierta aceleración se propagan a través del continuo espacio-tiempo a la velocidad de la luz bajo la forma de unas ondas, que, en determinadas condiciones, los científicos son capaces de detectar.

La sensibilidad de los interferómetros requiere que las ondas gravitacionales hayan sido originadas por eventos de una gran magnitud, como la colisión de dos agujeros negros

Durante los últimos ocho años las ondas gravitatorias, como también se las conoce, nos han demostrado que son una herramienta muy valiosa que puede ayudarnos a conocer mejor la historia del universo. Y lo son debido a que transportan información acerca del evento cósmico que las originó. La sensibilidad de los interferómetros que utilizamos actualmente para identificarlas requiere que estas perturbaciones hayan sido originadas por eventos de una gran magnitud, como, por ejemplo, la colisión de dos agujeros negros.

De hecho, a finales de junio de 2021 los grupos de investigación que se encargan del análisis de los datos recogidos por los interferómetros LIGO, en Estados Unidos, y Virgo, en Italia, aseguraron tener razones muy sólidas para sospechar que sus experimentos habían identificado las ondas gravitacionales producidas por la fusión de dos sistemas binarios constituidos por un agujero negro y una estrella de neutrones. Este es el tipo de cataclismos cósmicos que actualmente podemos identificar a través de las perturbaciones que introducen en el tejido del espacio-tiempo.

Al igual que las demás obras de ingeniería que recogemos en este artículo, LIGO es una máquina extraordinariamente compleja. Dos, en realidad. Uno de los observatorios de ondas gravitacionales está alojado en Hanford Site (Washington), y el otro en Livingston (Luisiana), ambos en EEUU. El interferómetro láser de Livingston está constituido por dos brazos perpendiculares con una longitud de 4 km cuyo interior está sometido a condiciones de vacío. La detección de las ondas gravitacionales se efectúa gracias a la identificación del ínfimo movimiento de los espejos alojados en ambos brazos. El observatorio de Hanford funciona esencialmente de la misma forma, pero sus brazos perpendiculares miden 2 km, por lo que su sensibilidad es inferior.

Super-Kamiokande: esta infraestructura colosal nos ayuda a desvelar los misterios de los neutrinos

Super K

Super-K, que es como se conoce habitualmente al Super-Kamiokande japonés, es una auténtica mole. Este observatorio está situado en Hida, una ciudad ubicada en el área central de Honshu, la mayor isla del archipiélago japonés. Está construido en una mina, a 1 km de profundidad, y mide 40 metros de alto y otros 40 metros de ancho, lo que le da un volumen parecido al de un edificio de quince pisos.

En su interior se acumulan nada menos que 50.000 toneladas de agua con una pureza extrema rodeadas por 11.000 tubos fotomultiplicadores, que, sin entrar en detalles complejos, son los sensores que nos permiten «ver» los neutrinos. Lo que realmente somos capaces de observar es la radiación Cherenkov que generan los neutrinos al pasar por el agua.

El Super-Kamiokande japonés está construido en una mina, a 1 km de profundidad, y mide 40 metros de alto y otros 40 metros de ancho

En agosto de 2020 los científicos que trabajan en el interior de Super-K descubrieron que utilizando un agua un poco menos pura podían observar neutrinos que habían recorrido una distancia mayor, y que, por tanto, procedían de supernovas más antiguas. La "impureza" que añadieron al agua es el gadolinio, un elemento químico que pertenece al grupo de las tierras raras, y que, si se incorpora en la proporción adecuada, incrementa de una forma importante la sensibilidad del detector.

Su estrategia consistió en añadir al agua del Super-K 13 toneladas de un compuesto de gadolinio, por lo que la concentración total de este elemento es del 0,01%. Justo la necesaria, según estos técnicos, para amplificar la señal de los neutrinos más débiles y poder observarlos. Este esfuerzo está justificado por la importancia de los neutrinos como una herramienta esencial que puede proporcionarnos mucha información acerca de las supernovas, que son esas explosiones tan violentas que se producen en aquellas estrellas que en un momento dado son incapaces de soportar la presión de degeneración de los electrones, entre otros posibles orígenes. Este conocimiento es vital para entender mejor cuál es la estructura del Universo.

Imágenes: CERN | ITER | Umptanum | Universidad de Tokio

En Xataka: Sabíamos que los agujeros negros supermasivos eran enormes. Gracias al James Webb, ahora sabemos que nos quedábamos cortos

-
La noticia Estas vanguardistas obras de ingeniería son las "catedrales" de nuestra era. Y de ellas depende nuestro progreso científico fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

Ya sabemos qué país asiático es la principal puerta de entrada de chips prohibidos hacia China: Singapur

Ya sabemos qué país asiático es la principal puerta de entrada de chips prohibidos hacia China: Singapur

El pasado 15 de enero un artículo de Reuters confirmó una sospecha bien fundada desde hacía meses: el ejército chino, los centros de investigación especializados en inteligencia artificial (IA) controlados por el Estado chino y las universidades han comprado durante 2023 semiconductores de vanguardia cuya exportación a China estaba expresamente prohibida por las sanciones aprobadas por el Gobierno estadounidense.

Para EEUU y sus aliados es materialmente imposible garantizar que los semiconductores de vanguardia controlados por las prohibiciones no llegarán al país liderado por Xi Jinping. De hecho, como acabamos de comprobar, están llegando. Sin embargo, los datos que tenemos reflejan que están aterrizando con dificultad y en cantidades inferiores a las que presumiblemente necesita China para sostener el desarrollo tanto de su investigación científica en el ámbito de la IA como para garantizar la innovación en el terreno de su capacidad militar.

Las sanciones son eficaces en la medida en que son un instrumento que permite a la Administración estadounidense controlar la exportación de los bienes cuya distribución necesita supervisar, pero el Gobierno chino y las empresas de este gigantesco país asiático pueden recurrir a las vías de importación paralelas para conseguir lo que necesitan. Es precisamente lo que están haciendo. A priori India parecía ser la principal puerta de entrada hacia China de los circuitos integrados prohibidos por EEUU, pero ahora sabemos que el responsable es un país del sudeste asiático.

Singapur ahora está en el punto de mira

Durante el último trimestre de 2023 NVIDIA multiplicó por cinco la cantidad de productos que entregó a sus clientes de Singapur frente al mismo periodo de 2022. Este incremento de las ventas tan desmedido sería difícil de justificar en una coyuntura diferente a la actual, pero dado el clima de tensión que se impone entre EEUU y China el diario The Economist ha concluido que, como podemos sospechar, las empresas de Singapur están vendiendo buena parte de los chips para aplicaciones de IA que compran a NVIDIA en China.

Singapur no está sometido a las sanciones aprobadas por el Gobierno de EEUU, a diferencia de Corea del Sur, Japón o Taiwán

Singapur no está sometido a las sanciones aprobadas por el Gobierno de EEUU, a diferencia de Corea del Sur, Japón o Taiwán, que sí lo están. Esta es la auténtica razón por la que las empresas de este país del sudeste asiático pueden vender los productos que adquieren a las empresas estadounidenses sin contar con la aprobación del Departamento de Comercio de EEUU. Sin embargo, la organización liderada por Gina Raimondo aún tiene margen de actuación para ponérselo difícil a las empresas singapurenses.

Jensen Huang, el director general de NVIDIA, se comprometió después de la entrada en vigor del último paquete de sanciones aprobado por EEUU a respetar las reglas del juego y negociar pormenorizadamente con la Administración estadounidense qué productos puede vender en China y cuáles no puede entregar a sus clientes chinos.

Presumiblemente el Departamento de Comercio tiene la potestad de impedir que NVIDIA y otras empresas vendan sus productos a los países que facilitan la llegada de los chips prohibidos a China, por lo que con toda seguridad Singapur no continuará siendo la puerta de entrada de estos semiconductores durante mucho más tiempo. Aun así, otro país ocupará su lugar. Os lo contaremos cuando suceda.

Imagen de portada: NVIDIA

Más información: The Economist

En Xataka: La tensión entre China y Taiwán ha desencadenado algo insólito: el "made in Taiwan" está en peligro de extinción

-
La noticia Ya sabemos qué país asiático es la principal puerta de entrada de chips prohibidos hacia China: Singapur fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

Nadie dijo que fuera necesario gastarse un millón de dólares para tener un auténtico equipo Hi-Fi. Ni siquiera Ken Fritz, que tenía uno

Nadie dijo que fuera necesario gastarse un millón de dólares para tener un auténtico equipo Hi-Fi. Ni siquiera Ken Fritz, que tenía uno

Ken Fritz fue audiófilo y melómano desde su juventud. Este estadounidense falleció con una edad avanzada el 21 de abril de 2022, y su vida estuvo regida por una pasión por la música que le llevó a confeccionar un equipo de alta fidelidad cuyo coste total era de aproximadamente un millón de dólares. Este equipo de música ya no existe. Al menos no tal y como Fritz lo concibió. Después de su muerte sus hijos decidieron venderlo pieza a pieza con el propósito de recuperar la inversión que hizo su padre. O una parte de ella.

Este apasionado por la música empezó a orquestar su ambiciosísimo equipo en 1989 y terminó de ponerlo a punto en 2016. Sí, invirtió nada menos que 27 años en su proyecto de vida. Porque es lo que era para él: un proyecto de vida. Lo dejó muy claro en el interesantísimo reportaje que ha publicado The Washington Post hace unos pocos días (os recomiendo encarecidamente su lectura si os interesan la música y la alta fidelidad).

Ken Fritz también protagoniza varios vídeos que podemos encontrar en YouTube sin dificultad, pero mi favorito, por si os apetece echarle un vistazo, se titula 'One Man's Dream - Ken Fritz Documentary about the world's best stereo system'. Su historia nos sugiere hacernos varias preguntas muy interesantes. Os propongo que dejemos a un lado el debate de carácter ético que suscita gastarse un millón de dólares en un equipo de alta fidelidad o en cualquier otro elemento que pueda ser considerado un lujo.

No obstante, merece la pena que indaguemos en la experiencia que puede ofrecernos un equipo de alta fidelidad tan ambicioso (el mismo Ken Fritz lo explica en el artículo del The Washington Post), y, en consecuencia, en si tiene sentido o no invertir tantísimo dinero en un equipo de música. Afortunadamente, y ahí va un anticipo de lo que veremos a continuación, no es en absoluto necesario gastar tanto dinero para tener un equipo de música fabuloso.

Lo que realmente importa es preservar la capacidad emotiva de la música

He tenido la oportunidad de hablar con muchos audiófilos durante las últimas dos décadas, y todos ellos sin excepción han defendido una máxima que comparto: lo más importante no es el hardware. No son los aparatos. Lo que realmente importa es reproducir la música manteniendo su capacidad emotiva intacta. Si además consigues recrearla con una escena sonora de grandes dimensiones y te puedes permitir disfrutar tu música con un nivel de presión sonora realista, miel sobre hojuelas.

Un buen equipo de alta fidelidad debería ser capaz de reproducir la música recuperando un nivel de detalle muy alto y preservando la riqueza armónica de cada instrumento

Hasta ahora no he tenido la oportunidad de escuchar un equipo de alta fidelidad de un millón de dólares como el de Ken Fritz, pero sí he escuchado en varias ferias y tiendas especializadas equipos de varios cientos de miles de euros. Al margen de su coste, un buen equipo de alta fidelidad debería ser capaz de reproducir la música recuperando un nivel de detalle muy alto, preservando la riqueza armónica de cada instrumento, y, por supuesto, restituyendo la voz y todos los instrumentos involucrados en la grabación con mucha precisión tonal.

Si además recrea una escena sonora amplia y precisa en la que cada instrumento está en su lugar, fetén. Cuando coinciden todas estas características el equipo responsable suele ser capaz de entregarnos la música con toda su capacidad emotiva. Si nos ceñimos a sus declaraciones concluiremos que Ken Fritz alcanzó su objetivo, pero, como os he anticipado unas líneas más arriba, y como seguro que muchos de vosotros estaréis pensando, no hace falta para nada gastar tanto dinero para conseguir ese mismo resultado.

Tenemos un artículo en el que os proponemos varias configuraciones que os pueden inspirar durante la puesta a punto de un equipo de auténtica alta fidelidad y precio realista. Si seleccionamos bien nuestros componentes podemos conseguir un hardware estupendo y de precio razonable. Eso sí, es crucial mimar también las condiciones acústicas de la habitación en la que vamos a instalarlo.

De hecho, merece la pena dedicar una parte importante de nuestro presupuesto al correcto acondicionamiento acústico de nuestra sala. Es con toda seguridad el componente más importante de nuestro equipo, por definirlo de alguna manera. Resulta muy interesante descubrir una historia como la de Ken Fritz, pero, afortunadamente, ese no es el camino que estamos decididos a seguir la mayor parte de los entusiastas de la alta fidelidad.

Imagen de portada: Wilson Audio

Más información: The Washington Post

En Xataka: China se está abriendo paso a empujones en un mercado en el que ni estaba ni se la esperaba: el de la alta fidelidad

-
La noticia Nadie dijo que fuera necesario gastarse un millón de dólares para tener un auténtico equipo Hi-Fi. Ni siquiera Ken Fritz, que tenía uno fue publicada originalmente en Xataka por Juan Carlos López .

Leer más