El Futuro Colisionador Circular del CERN costará 20.000 millones de euros. Será una ganga si cumple su cometido

El Futuro Colisionador Circular del CERN costará 20.000 millones de euros. Será una ganga si cumple su cometido

El Futuro Colisionador Circular (FCC) que ya están planeando los físicos e ingenieros del CERN (Organización Europea para la Investigación Nuclear) es sin duda uno de los proyectos científicos más apasionantes en desarrollo. Su puesta a punto comenzó a fraguarse en 2019 y su propósito será, ni más ni menos, reemplazar al HL LHC (High Luminosity Large Hadron Collider o LHC de alta luminosidad), el acelerador de partículas que en su versión con luminosidad "estándar" ha permitido a los físicos del CERN, entre otros hallazgos, descubrir el bosón de Higgs.

Si el itinerario que ha planificado el CERN sigue su curso tal y como lo ha hecho hasta ahora el HL LHC estará listo a finales de esta década. En 2030. Y será capaz de producir nada menos que 40 millones de colisiones por segundo. La cantidad de información que generará será tan enorme que, tal y como nos explicó el físico español Santiago Folgueras en la conversación que mantuvimos con él a principios de diciembre, será necesario poner a punto un sistema que sea capaz de analizar los datos en tiempo real y tomar una decisión respecto a la colisión que se acaba de producir.

No obstante, el plan de los físicos del CERN no acaba con el HL LHC. Cuando finalmente concluyan todos sus ciclos de operación esta institución planea construir el FCC, un acelerador mucho más grande y capaz de llegar a energías mucho más altas. Presumiblemente tendrá una circunferencia de 91 km (la del actual LHC mide 27 km), y su construcción arrancará en 2038. El propósito de los físicos del CERN es que el FCC sea capaz de alcanzar durante la segunda etapa del proyecto una energía de 100 TeV (teraelectronvoltios). Para formarnos una idea precisa acerca de qué estamos hablando solo tenemos que recordar que el LHC actual trabaja con una energía de 16 TeV.

El FCC aspira a ser una herramienta crucial en la búsqueda de nueva física

Algunas de las preguntas que los físicos del CERN tienen la esperanza de poder responder con la ayuda del HL LHC son qué es y qué propiedades tiene la materia oscura, por qué los neutrinos tienen masa y por qué no hay antimateria en el universo. No cabe duda de que son preguntas apasionantes. Aún es pronto para concretar con precisión qué preguntas podrán responder con la ayuda del FCC, pero no cabe duda de que la energía con la que trabajará debería permitirles llegar más lejos que el HL LHC. De hecho, es probable que la nueva física que con un poco de suerte llegará gracias a este último acelerador de partículas les dé ideas acerca de dónde merece la pena indagar con el FCC.

Si finalmente el FCC es aprobado y logra alcanzar su cometido el conocimiento que nos entregará en el ámbito de la ciencia básica justificará plenamente el dinero invertido en él

Según las previsiones del CERN el FCC costará 20.000 millones de euros. Puede parecer mucho dinero, pero si tenemos presente que será una máquina que persigue afianzarse como una herramienta fundamental en la elaboración de física de vanguardia no lo es. Es una inversión muy razonable. De hecho, construir y equipar una fábrica de chips de última generación puede costar mucho más. La que Intel planea construir en Magdeburgo (Alemania) tendrá un coste de 30.000 millones de euros. Si finalmente el FCC es aprobado y logra alcanzar su cometido el conocimiento que nos entregará en el ámbito de la ciencia básica justificará plenamente el dinero invertido en él.

Javier Santaolalla, divulgador científico, ingeniero y físico que participó en el descubrimiento del bosón de Higgs, defiende que "el CERN desarrolla tecnologías que luego se aplican en la industria. De hecho, uno de sus pilares básicos es la transferencia tecnológica, que consiste en buscar aplicaciones para aquello que investiga. Las patentes que se desarrollan en el CERN son abiertas. Están buscando constantemente enlaces con la industria para aplicar lo que se descubre en cámaras de vacío, criogenia y muchas otras áreas. Es una forma directa de generar riqueza".

Santiago Folgueras, el joven físico español que ha ganado una ayuda Starting Grant del Consejo Europeo de Investigación dotada con 1,5 millones de euros para liderar el proyecto INTREPID para el CERN considera que "la investigación en ciencia básica entrega grandes avances tecnológicos a la sociedad. Si no hay personas haciendo ciencia básica esto no ocurre. Además, estos desarrollos tecnológicos llegan gratis a la sociedad porque no producen patentes. En el CERN se han desarrollado, entre muchas otras innovaciones tecnológicas, la world wide web, la tecnología de aceleradores de partículas que se emplea actualmente para tratar el cáncer o la levitación magnética empleada por algunos trenes de última generación".

Imagen de portada | CERN

Más información | The Guardian

En Xataka | Ya puedes descargar los 800 TB de información que acaba de liberar el CERN. Son un tesoro de la física de partículas

-
La noticia El Futuro Colisionador Circular del CERN costará 20.000 millones de euros. Será una ganga si cumple su cometido fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

Los caminos de Intel y TSMC hacia los 2 nm están a punto de separarse. El motivo: el equipo de litografía High-NA de ASML

Los caminos de Intel y TSMC hacia los 2 nm están a punto de separarse. El motivo: el equipo de litografía High-NA de ASML

El equipo de litografía UVE de alta apertura (EUV High-NA por su sigla en inglés) de ASML es un prodigio de la tecnología. Esta sofisticada y complejísima máquina ha sido diseñada por esta compañía neerlandesa para derribar la barrera de los 3 nm y reducir la complejidad del proceso de fabricación de chips de vanguardia drásticamente. Para lograrlo los ingenieros de esta empresa han puesto a punto una arquitectura óptica muy avanzada que tiene una apertura de 0,55 frente al valor de 0,33 que tienen los equipos de litografía UVE de primera generación.

Este refinamiento de la óptica permite transferir a la oblea patrones de mayor resolución, de ahí que sea posible fabricar chips empleando tecnologías de integración más avanzadas que las utilizadas actualmente en los nodos de 3 nm. Todo lo que acabamos de ver suena muy bien, pero los equipos UVE de alta apertura tienen algo en su contra: cada uno de ellos cuesta unos 300 millones de dólares, mientras que una máquina UVE de primera generación se mueve en la órbita de los 150 millones de dólares.

Por el momento ASML ha entregado una sola máquina dotada de esta tecnología, y la tiene Intel en su planta de Hillsboro, en EEUU. La compañía de Países Bajos tiene la intención de entregar a sus clientes anualmente a partir de 2025 600 máquinas de litografía de ultravioleta profundo (UVP), 90 equipos de litografía UVE y 20 equipos de litografía UVE de alta apertura. Es razonable prever que estas últimas máquinas irán a parar a las plantas de Intel, Samsung y TSMC, pero cabe la posibilidad de que esta última aún no apueste por lo último de ASML.

TSMC no se ha pronunciado oficialmente, pero parece que va a extremar la cautela

La relación que mantienen actualmente TSMC y ASML es muy estrecha. Es lo que cabe esperar del mayor fabricante de circuitos integrados del planeta y de la empresa que produce los equipos de litografía más avanzados del mercado. A mediados del pasado mes de enero C. C. Wei, el director general de TSMC, se mostró extremadamente cauto durante una reunión en lo que se refiere a la posibilidad de que su compañía adopte los nuevos equipos de litografía de ASML.

El 'multiple patterning' es una técnica de litografía que consiste en transferir el patrón a la oblea en varias pasadas con el propósito de incrementar la resolución del proceso litográfico

"Estamos estudiándolo minuciosamente, evaluando la madurez de la herramienta y examinando sus costes. Nosotros siempre tomamos la decisión adecuada en el momento oportuno con el propósito de ofrecer el mejor servicio a nuestros clientes", aseguró Wei durante su intervención. Esta declaración ha despertado algunas suspicacias debido a que Jeff Koch, un analista de la industria de los semiconductores que ha trabajado en ASML hasta hace apenas dos meses, defiende que a pesar de la reducción de la complejidad que conlleva el uso de una máquina de alta apertura el single patterning del equipo High-NA deviene en un coste perceptiblemente más alto que el del double-patterning de las máquinas UVE convencionales.

El multiple patterning es una técnica de litografía que consiste en transferir el patrón a la oblea en varias pasadas con el propósito de incrementar la resolución del proceso litográfico. Según Koch este incremento del coste de la producción de circuitos integrados unido al elevado precio de cada equipo de litografía UVE de alta apertura merma el potencial interés de estas máquinas para algunos clientes de ASML.

Esta es la razón por la que resulta razonable concluir a partir de las declaraciones de C. C. Wei que TSMC va a pensarse dos veces dar el salto a los equipos UVE High-NA de ASML. Posiblemente aún tiene margen para refinar sus procesos en los equipos UVE de primera generación, aunque a medio plazo es probable que a pesar de su aparente reticencia inicial acabe haciéndose con las máquinas más avanzadas de la compañía de Países Bajos. Todo sea por superar los límites físicos impuestos por la tecnología de los equipos de litografía UVE convencionales.

Imagen de portada | TSMC

Más información | DigiTimes Asia

En Xataka | TSMC ya es el fabricante de chips con mayores ingresos del planeta. Ha batido a dos gigantes de los semiconductores

-
La noticia Los caminos de Intel y TSMC hacia los 2 nm están a punto de separarse. El motivo: el equipo de litografía High-NA de ASML fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

Cuando Newton llegó a las leyes fundamentales de la física ya había un cartel que decía “Leonardo estuvo aquí”

Cuando Newton llegó a las leyes fundamentales de la física ya había un cartel que decía

La leyenda de Leonardo da Vinci sigue agigantándose. El valor artístico y científico de la obra que nos ha legado este genio nacido a mediados del siglo XV en Anchiano (Florencia) es indudable. Y es que seis siglos después de su paso por este mundo los estudiosos de sus escritos continúan descubriendo en ellos un conocimiento que a priori parecería estar fuera del alcance de cualquier persona de la Edad Media, por muy erudita que fuese.

Pero no. Leonardo se niega a ser encasillado junto a sus coetáneos. Sabemos desde hace mucho que su ingenio no conocía límites, y el descubrimiento que ha realizado un equipo de ingenieros de Caltech, que es el prestigioso Instituto Tecnológico de California, reafirma aún con más intensidad este axioma. Y es que estos investigadores se han dado cuenta de que su comprensión de la gravedad estaba adelantada varios siglos a su época. Punto para Leonardo.

Los textos de da Vinci siguen deparándonos grandes sorpresas

Resulta sorprendente que a estas alturas todavía queden descubrimientos por hacer en los escritos de Leonardo da Vinci. Enigmas ocultos entre sus trazos y aún pendientes de ser resueltos. Pero sí, es evidente que no lo sabemos todo acerca del genio florentino. Estos investigadores de Caltech han inspeccionado minuciosamente, como han hecho otros científicos antes que ellos, el códice Arundel, que es una colección de textos manuscritos por Leonardo entre 1480 y 1518 que abordan varias disciplinas científicas, como las matemáticas o la física.

El códice Arundel ha sido digitalizado y está disponible gratuitamente en la página web de la Biblioteca Británica

Actualmente cualquiera de nosotros puede examinar gratuitamente este códice debido a que ha sido digitalizado y está disponible en la página web de la Biblioteca Británica, que es la institución que lo conserva. Así es, precisamente, como lo han hecho los ingenieros de Caltech. En cualquier caso, lo importante es que han descubierto que Leonardo diseñó y llevó a cabo varios experimentos que le permitieron formarse una idea razonablemente precisa acerca de la naturaleza de la gravedad.

De hecho, según estos técnicos sus pruebas persiguieron demostrar que la gravedad es una forma de aceleración, lo que sugiere que Leonardo intuía con precisión las características del fenómeno físico que quería estudiar. Y llegó muy lejos, especialmente si tenemos presente lo rudimentarios que eran los recursos que tenía a su disposición. Tanto es así que a pesar de no tener instrumentos avanzados de medida consiguió estimar la constante de gravitación universal, según los investigadores de Caltech, con una precisión del 97%.

Leonardo Ap

El códice Arundel está repleto de dibujos y esquemas. Leonardo los utilizaba para describir con precisión sus experimentos.

El experimento que diseñó Leonardo para llevar a cabo un cálculo tan preciso en una época en la que no tenía un instrumental de medida sofisticado derrocha ingenio. Y los investigadores de Caltech lo han reproducido. De hecho, esto es lo que les ha permitido evaluarlo y poner sobre la mesa, una vez más, lo astuto que era el polímata florentino. Y es que a da Vinci se le ocurrió desplazar una jarra de agua a lo largo de una trayectoria paralela al suelo con el propósito de ir vertiendo poco a poco una sustancia que le permitiese observar con la máxima precisión posible si la velocidad con la que caía era o no constante (podéis ver el esbozo de este experimento en la imagen de portada de este artículo).

En sus notas concluye de una forma taxativa que la sustancia vertida no se precipita a una velocidad constante, sino que está sometida a una aceleración

Al parecer Leonardo no indica en sus textos qué sustancia empleó en este experimento, pero los ingenieros de Caltech sospechan que debió de utilizar agua o arena. En cualquier caso, en sus notas concluye de una forma taxativa que la sustancia vertida no se precipita a una velocidad constante, sino que está sometida a una aceleración. Incluso se percató de que cuando no está bajo la influencia de la persona que realiza el experimento, la sustancia no está sometida a una aceleración horizontal, lo que le llevó a concluir que la aceleración vertical únicamente puede estar propiciada por la gravedad. Ingenioso, ¿verdad?

Para poner en perspectiva la relevancia del hallazgo de Leonardo da Vinci nos interesa tener en cuenta que murió en 1519, y Galileo Galilei, que también hizo aportaciones relevantes en esta área, elaboró sus teorías en 1604. Y Newton, que, como todos sabemos, desarrolló, entre muchas otras cosas, una teoría de la gravedad cuyo eco todavía perdura, vivió durante la segunda mitad del siglo XVII y las primeras tres décadas del XVIII. No cabe la más mínima duda: Leonardo fue un auténtico adelantado a su tiempo.

Imagen de portada | Caltech

Más información | Caltech | MIT Press Direct | British Library

En Xataka | El que probablemente sea el experimento más extraño de Isaac Newton requería dos cosas: una aguja y un ojo

*Una versión anterior de este artículo se publicó en febrero de 2023


-
La noticia Cuando Newton llegó a las leyes fundamentales de la física ya había un cartel que decía "Leonardo estuvo aquí" fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

ASML tiene el mejor equipo de litografía del mercado. Eso sí, es tan caro que los fabricantes de chips van a sufrir

ASML tiene el mejor equipo de litografía del mercado. Eso sí, es tan caro que los fabricantes de chips van a sufrir

El equipo de fabricación de chips más avanzado del planeta lo tiene ASML. Esta compañía de Países Bajos ha liderado durante los últimos años el mercado de las máquinas de litografía gracias a sus equipos de ultravioleta extremo (UVE), pero desde hace poco más de un mes su liderazgo se ha vuelto si cabe aún más sólido gracias a la entrega de su primera máquina UVE de segunda generación. La tiene Intel en su planta de Hillsboro, en EEUU, y es todavía más avanzada que un equipo UVE convencional.

Empleando este equipo de litografía UVE de alta apertura (EUV High-NA por su sigla en inglés) los fabricantes de semiconductores pueden en teoría producir circuitos integrados más allá de la barrera de los 3 nm. Para hacerlo posible ASML ha implementado una arquitectura óptica muy avanzada que tiene una apertura de 0,55 frente al valor de 0,33 que tienen los equipos de litografía UVE de primera generación.

Este refinamiento de la óptica permite transferir a la oblea patrones de mayor resolución, de ahí que sea posible fabricar chips empleando tecnologías de integración más avanzadas que las utilizadas actualmente en los nodos de 3 nm. No obstante, esto no es todo. Y es que ASML también ha mejorado los sistemas mecánicos que se responsabilizan de la manipulación de las obleas con el propósito de hacer posible que una sola máquina UVE de alta apertura sea capaz de producir más de 200 obleas por hora.

El equipo de litografía UVE High-NA de ASML cuesta el doble que su predecesor

Un equipo de litografía de ultravioleta extremo (UVE) de primera generación contiene más de 100.000 piezas, 3.000 cables, 40.000 pernos y nada menos que dos kilómetros de conexiones eléctricas, y las nuevas máquinas UVE de alta apertura de ASML son todavía más complejas. De hecho, uno de estos últimos equipos cuesta unos 300 millones de dólares, mientras que una máquina UVE de primera generación se mueve en la órbita de los 150 millones de dólares.

ASML tiene la intención de entregar anualmente a partir de 2028 nada menos que 20 equipos de litografía UVE de alta apertura

ASML tiene la intención de entregar a sus clientes anualmente a partir de 2025 600 máquinas de litografía de ultravioleta profundo (UVP) y 90 equipos de litografía UVE. No cabe duda de que es un plan ambicioso, pero resulta creíble porque es razonable asumir que los ingenieros de esta compañía conocen al dedillo la tecnología de sus máquina UVP y UVE. Lo que no está tan claro es que también consiga entregar anualmente a partir de 2028 nada menos que 20 equipos de litografía UVE de alta apertura.

La fabricación de cada una de estas máquinas conlleva enormes desafíos técnicos, pero hay otro parámetro que no debemos pasar por alto: su precio. Jeff Koch, un analista de la industria de los semiconductores que ha trabajado en ASML hasta hace apenas dos meses, defiende que a pesar de la reducción de la complejidad que conlleva el uso de una máquina de alta apertura el single patterning del equipo High-NA deviene en un coste perceptiblemente más alto que el del double-patterning de las máquinas UVE convencionales.

Un apunte antes de seguir adelante: el multiple patterning es una técnica de litografía que consiste en transferir el patrón a la oblea en varias pasadas con el propósito de incrementar la resolución del proceso litográfico. Según Koch este incremento del coste de la producción de circuitos integrados unido al elevado precio de cada equipo de litografía UVE de alta apertura merma el potencial interés de estas máquinas para algunos clientes de ASML, que, posiblemente, podrían tener dificultades para amortizar la inversión.

Roger Dassen, el director financiero de ASML, no está de acuerdo con las conclusiones a las que ha llegado Jeff Koch. En una entrevista que ha concedido a Bits&Chips este ejecutivo sostiene que evitar el doble e incluso el cuádruple patterning reduce la complejidad del proceso de fabricación de chips de vanguardia drásticamente, por lo que en la práctica el nuevo equipo UVE High-NA de ASML es la solución más rentable disponible en el mercado. Será interesante comprobar si TSMC y Samsung siguen los pasos de Intel y también apuestan por estos equipos en un plazo de tiempo breve. Ya lo veremos.

Imagen de portada | ASML

Más información | SemiAnalysis | Bits&Chips

En Xataka | La "guerra de los chips" se está cobrando muchas víctimas, pero la principal empresa europea no es una de ellas: ASML

-
La noticia ASML tiene el mejor equipo de litografía del mercado. Eso sí, es tan caro que los fabricantes de chips van a sufrir fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

La IA ya está cambiando las reglas de la fusión nuclear. Palabra de los ingenieros de ITER

La IA ya está cambiando las reglas de la fusión nuclear. Palabra de los ingenieros de ITER

Esta no es la primera vez que os hablamos de la alianza entre la fusión nuclear y la inteligencia artificial (IA). En enero de 2022 os contamos que un equipo de investigadores del Instituto Tecnológico de Massachusetts (MIT), en EEUU, había elaborado un modelo de turbulencias utilizando algoritmos de aprendizaje profundo. Gracias a esta estrategia estaban pudiendo poner a prueba su modelo y evaluando su capacidad predictiva con mucha eficacia.

Su plan en aquel momento consistía en utilizar esta tecnología para entender con la máxima precisión posible cómo se comporta el plasma en el interior de la cámara de vacío del reactor de fusión nuclear. El plasma no es otra cosa que el gas extremadamente caliente que contiene los núcleos de deuterio y tritio involucrados en la reacción de fusión, y comprender su dinámica es fundamental para que la energía de fusión comercial llegue a buen puerto.

En cualquier caso, en esta ocasión es F4E (Fusion for Energy), la organización de la Unión Europea que coordina la contribución de Europa al desarrollo de ITER (International Thermonuclear Experimental Reactor), quien nos habla del rol que tiene la inteligencia artificial en el desarrollo de la energía de fusión. Varios expertos de F4E, algunos de ellos españoles, como María Ortiz de Zúñiga o Cristian Casanova, han trabajado durante más de dos años en el ámbito de la IA para identificar qué puede aportar a la ingeniería nuclear. Y sí, ya está marcando la diferencia.

La IA ya tiene un impacto muy profundo en el ensamblaje de la cámara de vacío de ITER

La cámara de vacío es el auténtico corazón de este reactor de fusión nuclear. Este recinto de 8.000 toneladas está fabricado en acero inoxidable, aunque en su composición también hay una pequeña cantidad de boro (alrededor de un 2%). En su interior tiene lugar la fusión de los núcleos de deuterio y tritio, por lo que una de sus funciones más importantes es actuar como primera barrera de contención de la radiación residual que podría no ser retenida por el manto (blanket).

La cámara de vacío está herméticamente sellada y su interior preserva el alto vacío necesario para que se produzca la fusión de los núcleos del plasma

La cámara de vacío está herméticamente sellada y su interior preserva el alto vacío necesario para que se produzca la fusión de los núcleos del plasma. Su forma toroidal contribuye a la estabilización del gas, de manera que los núcleos giran a mucha velocidad alrededor del hueco central de la cámara, pero sin tocar en ningún momento las paredes del toro. Por otro lado, la temperatura a la que está sometida esta cámara es muy alta, por lo que es necesario introducir agua en circulación en un compartimento alojado entre sus paredes interna y externa para refrigerarla y evitar que alcance su umbral máximo de temperatura.

Ya sabemos cómo es la cámara de vacío de ITER y cuál es su función, pero hay algo en lo que aún no hemos indagado: qué desafíos plantea su ensamblaje. El descomunal tamaño de este esencial componente del reactor de fusión nuclear ha provocado que sea necesario fragmentarla en nueve sectores. Europa es la responsable de fabricar cinco de ellos, y Corea del Sur se responsabiliza de los cuatro restantes. Una vez que han sido meticulosamente fabricados en su país de procedencia con unas tolerancias extraordinariamente exigentes es necesario enviarlos a Cadarache (Francia), la sede de ITER, para que sean ensamblados.

El propósito de este proyecto es que finalmente los nueve sectores que conforman la cámara de vacío se comporten desde un punto de vista estructural como una única pieza una vez que se haya completado el ensamblaje. Y para lograrlo el proceso de soldadura de cada sector tiene necesariamente que ser extraordinariamente meticuloso porque están implicadas tolerancias locales de tan solo el 0,1%. Además, la cámara de vacío tiene una forma muy complicada, y, para rizar el rizo, utiliza chapas con espesores de hasta 60 mm.

Las tolerancias de ITER son muy exigentes, por lo que es necesario corregir cualquier soldadura mínimamente defectuosa

Toda esta retahíla de dificultades ha provocado que los técnicos de ITER hayan encomendado a la empresa española ENSA (Equipos Nucleares, S.A.) la puesta a punto de una tecnología de soldadura robotizada muy avanzada que les está permitiendo afrontar la soldadura de los sectores de la cámara de vacío con garantías. Además, los segmentos que conforman cada uno de los sectores están siendo soldados con una técnica muy avanzada conocida como soldadura de haz de electrones (electron beam welding).

Y, por fin, llegamos al papel de la inteligencia artificial en este proyecto. A pesar de lo sofisticadas que son las técnicas de soldadura que están siendo empleadas en la fabricación de los sectores y el ensamblaje de la cámara de vacío pueden producirse errores. La mayor parte de ellos son minúsculos, casi indetectables, pero, como hemos visto, las tolerancias de ITER son muy exigentes, por lo que es necesario corregir cualquier soldadura mínimamente defectuosa. Para afrontar este desafío a María Ortiz de Zúñiga y Cristian Casanova se les ocurrió poner en marcha un proyecto piloto que proponía la utilización de la IA para predecir qué soldaduras en progreso iban a tener algún defecto.

Para entrenar su modelo de IA decidieron utilizar los datos recogidos previamente durante la ejecución de 2.662 soldaduras sin defectos y otras 266 soldaduras con defectos. Lo impactante, y esto es realmente asombroso, es que el modelo de IA fue capaz de predecir con un acierto del 100% cuántas soldaduras de las 100 que se estaban efectuando en ese momento iban a tener algún defecto y cuántas iban a ajustarse escrupulosamente a las tolerancias prefijadas por los responsables de ITER.

Como podemos intuir tener esta información con anticipación es crucial para que la ejecución final de todas las soldaduras sea la idónea. F4E está trabajando en nuevas aplicaciones de la IA durante la puesta a punto de ITER, pero, como acabamos de ver, esta tecnología ya está marcando la diferencia.

Imagen de portada | F4E

Más información | F4E

En Xataka | Tokamak Energy tiene un plan revolucionario: conseguir la fusión nuclear comercial durante la próxima década

-
La noticia La IA ya está cambiando las reglas de la fusión nuclear. Palabra de los ingenieros de ITER fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

Estas vanguardistas obras de ingeniería son las “catedrales” de nuestra era. Y de ellas depende nuestro progreso científico

Estas vanguardistas obras de ingeniería son las

Aunque algunas de ellas, las más antiguas, tienen más de un milenio y medio, las catedrales continúan siendo unos edificios asombrosos y sobrecogedores. De hecho, resulta sorprendente que el ser humano haya sido capaz de erigir estas obras arquitectónicas en muchos casos con unos medios extraordinariamente rudimentarios. Hoy es difícil encontrar una obra de similar envergadura si nos ceñimos exclusivamente a la arquitectura, aunque quizá algunos rascacielos u otros edificios modernos especialmente ambiciosos encajan en la idea de "obra arquitectónica faraónica".

Sin embargo, si desviamos nuestra mirada más allá de la arquitectura, hacia la ciencia, no nos costará encontrar obras de ingeniería contemporáneas que rivalizan sin miramientos por su complejidad y ambición con las grandes catedrales de la antigüedad. En este artículo os proponemos indagar en cuatro de estas maravillosas máquinas con el propósito no solo de conocer cuál es su finalidad, sino también qué pueden aportar al desarrollo de la ciencia de vanguardia y cómo pueden enriquecer nuestro conocimiento. Ahí va un pequeño anticipo: todas ellas son sobrecogedoras.

ATLAS: el titánico experimento del CERN

Atlas

ATLAS es el mayor detector construido hasta la fecha para trabajar codo con codo con un colisionador de partículas. Tiene nada menos que 46 metros de longitud y 25 metros de diámetro. Y a él le debemos algunos de los hallazgos más importantes del LHC (Large Hadron Collider o Gran Colisionador de Hadrones), que es el acelerador de partículas al que está vinculado dentro de las instalaciones del CERN (Conseil Européen pour la Recherche Nucléaire u Organización Europea para la Investigación Nuclear).

El propósito de ATLAS es ayudarnos a entender cuáles son los elementos constituyentes de la materia, qué es la materia oscura y qué son las fuerzas fundamentales de la naturaleza

El propósito de este experimento, si nos ceñimos a lo que nos dicen los científicos que lo han diseñado, es ayudarnos a entender mejor cuáles son los elementos constituyentes de la materia, qué es la materia oscura y qué son las fuerzas fundamentales de la naturaleza, entre otras preguntas esenciales.

Precisamente hace apenas cinco meses los físicos y los ingenieros que trabajan en ATLAS lograron entregarnos nuevo conocimiento acerca de la interacción nuclear fuerte. Hay una razón contundente por la que este hito es muy importante: hasta ahora esta interacción fundamental es la que se había medido con menos precisión de las cuatro. Y por fin se ha podido caracterizar mejor.

ITER: el mayor y más avanzado reactor experimental de fusión nuclear está en camino

Iter

ITER (International Thermonuclear Experimental Reactor) es uno de los proyectos más ambiciosos y complejos a los que se está enfrentando la humanidad. Su propósito es imitar los procesos que permiten obtener energía a las estrellas mediante la fusión de los núcleos de su combustible, que está constituido aproximadamente por un 70% de protio, que es el isótopo del hidrógeno que carece de neutrones, y que, por tanto, tiene solo un protón y un electrón; entre un 24 y un 26% de helio, y entre un 4 y un 6% de elementos químicos más pesados que el helio.

ITER producirá 500 megavatios de potencia durante no menos de 500 segundos utilizando solo 1 gramo de tritio como parte del combustible

El problema es que imitar los procesos de fusión nuclear que tienen lugar de forma natural en el núcleo de las estrellas no es nada fácil. Y no lo es, entre muchas otras razones, porque no contamos con un aliado muy valioso que se lo pone mucho más fácil a las estrellas: el confinamiento gravitatorio. Y es que su masa es tan enorme que la gravedad consigue comprimir los gases del núcleo estelar lo necesario para recrear de forma natural las condiciones en las que los núcleos de hidrógeno comienzan a fusionarse espontáneamente. Así obtienen su energía las estrellas.

El reactor de fusión nuclear ITER ha sido diseñado para demostrar que la fusión nuclear a la escala que el hombre puede manejar funciona. Y también que es rentable desde un punto de vista energético debido a que genera más energía de la que es necesario invertir para iniciar el proceso. Su objetivo es producir alrededor de 500 megavatios de potencia durante no menos de 500 segundos utilizando solo 1 gramo de tritio como parte del combustible y después de invertir unos 50 megavatios de energía en la ignición del reactor de fusión.

La máquina que un consorcio internacional está poniendo a punto en la localidad francesa de Cadarache es extraordinariamente compleja. De hecho, probablemente solo los detectores de partículas del CERN rivalizan por la complejidad de su ingeniería con ITER. Un proyecto de esta envergadura solo es posible reuniendo los recursos de las principales potencias del planeta, lo que ha llevado a China, Japón, Rusia, la Unión Europea, Estados Unidos, India y Corea del Sur a unirse para llevar a buen puerto esta asombrosa máquina.

LIGO: un prodigio de la ingeniería que es capaz de identificar ondas gravitacionales

Ligo

La observación directa de las primeras ondas gravitacionales que el ser humano ha sido capaz de identificar hace ya algo más de ocho años es sin duda lo mejor que le ha pasado a la cosmología reciente. Estas perturbaciones gravitatorias generadas por los objetos masivos que están sometidos a una cierta aceleración se propagan a través del continuo espacio-tiempo a la velocidad de la luz bajo la forma de unas ondas, que, en determinadas condiciones, los científicos son capaces de detectar.

La sensibilidad de los interferómetros requiere que las ondas gravitacionales hayan sido originadas por eventos de una gran magnitud, como la colisión de dos agujeros negros

Durante los últimos ocho años las ondas gravitatorias, como también se las conoce, nos han demostrado que son una herramienta muy valiosa que puede ayudarnos a conocer mejor la historia del universo. Y lo son debido a que transportan información acerca del evento cósmico que las originó. La sensibilidad de los interferómetros que utilizamos actualmente para identificarlas requiere que estas perturbaciones hayan sido originadas por eventos de una gran magnitud, como, por ejemplo, la colisión de dos agujeros negros.

De hecho, a finales de junio de 2021 los grupos de investigación que se encargan del análisis de los datos recogidos por los interferómetros LIGO, en Estados Unidos, y Virgo, en Italia, aseguraron tener razones muy sólidas para sospechar que sus experimentos habían identificado las ondas gravitacionales producidas por la fusión de dos sistemas binarios constituidos por un agujero negro y una estrella de neutrones. Este es el tipo de cataclismos cósmicos que actualmente podemos identificar a través de las perturbaciones que introducen en el tejido del espacio-tiempo.

Al igual que las demás obras de ingeniería que recogemos en este artículo, LIGO es una máquina extraordinariamente compleja. Dos, en realidad. Uno de los observatorios de ondas gravitacionales está alojado en Hanford Site (Washington), y el otro en Livingston (Luisiana), ambos en EEUU. El interferómetro láser de Livingston está constituido por dos brazos perpendiculares con una longitud de 4 km cuyo interior está sometido a condiciones de vacío. La detección de las ondas gravitacionales se efectúa gracias a la identificación del ínfimo movimiento de los espejos alojados en ambos brazos. El observatorio de Hanford funciona esencialmente de la misma forma, pero sus brazos perpendiculares miden 2 km, por lo que su sensibilidad es inferior.

Super-Kamiokande: esta infraestructura colosal nos ayuda a desvelar los misterios de los neutrinos

Super K

Super-K, que es como se conoce habitualmente al Super-Kamiokande japonés, es una auténtica mole. Este observatorio está situado en Hida, una ciudad ubicada en el área central de Honshu, la mayor isla del archipiélago japonés. Está construido en una mina, a 1 km de profundidad, y mide 40 metros de alto y otros 40 metros de ancho, lo que le da un volumen parecido al de un edificio de quince pisos.

En su interior se acumulan nada menos que 50.000 toneladas de agua con una pureza extrema rodeadas por 11.000 tubos fotomultiplicadores, que, sin entrar en detalles complejos, son los sensores que nos permiten «ver» los neutrinos. Lo que realmente somos capaces de observar es la radiación Cherenkov que generan los neutrinos al pasar por el agua.

El Super-Kamiokande japonés está construido en una mina, a 1 km de profundidad, y mide 40 metros de alto y otros 40 metros de ancho

En agosto de 2020 los científicos que trabajan en el interior de Super-K descubrieron que utilizando un agua un poco menos pura podían observar neutrinos que habían recorrido una distancia mayor, y que, por tanto, procedían de supernovas más antiguas. La "impureza" que añadieron al agua es el gadolinio, un elemento químico que pertenece al grupo de las tierras raras, y que, si se incorpora en la proporción adecuada, incrementa de una forma importante la sensibilidad del detector.

Su estrategia consistió en añadir al agua del Super-K 13 toneladas de un compuesto de gadolinio, por lo que la concentración total de este elemento es del 0,01%. Justo la necesaria, según estos técnicos, para amplificar la señal de los neutrinos más débiles y poder observarlos. Este esfuerzo está justificado por la importancia de los neutrinos como una herramienta esencial que puede proporcionarnos mucha información acerca de las supernovas, que son esas explosiones tan violentas que se producen en aquellas estrellas que en un momento dado son incapaces de soportar la presión de degeneración de los electrones, entre otros posibles orígenes. Este conocimiento es vital para entender mejor cuál es la estructura del Universo.

Imágenes: CERN | ITER | Umptanum | Universidad de Tokio

En Xataka: Sabíamos que los agujeros negros supermasivos eran enormes. Gracias al James Webb, ahora sabemos que nos quedábamos cortos

-
La noticia Estas vanguardistas obras de ingeniería son las "catedrales" de nuestra era. Y de ellas depende nuestro progreso científico fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

Ya sabemos qué país asiático es la principal puerta de entrada de chips prohibidos hacia China: Singapur

Ya sabemos qué país asiático es la principal puerta de entrada de chips prohibidos hacia China: Singapur

El pasado 15 de enero un artículo de Reuters confirmó una sospecha bien fundada desde hacía meses: el ejército chino, los centros de investigación especializados en inteligencia artificial (IA) controlados por el Estado chino y las universidades han comprado durante 2023 semiconductores de vanguardia cuya exportación a China estaba expresamente prohibida por las sanciones aprobadas por el Gobierno estadounidense.

Para EEUU y sus aliados es materialmente imposible garantizar que los semiconductores de vanguardia controlados por las prohibiciones no llegarán al país liderado por Xi Jinping. De hecho, como acabamos de comprobar, están llegando. Sin embargo, los datos que tenemos reflejan que están aterrizando con dificultad y en cantidades inferiores a las que presumiblemente necesita China para sostener el desarrollo tanto de su investigación científica en el ámbito de la IA como para garantizar la innovación en el terreno de su capacidad militar.

Las sanciones son eficaces en la medida en que son un instrumento que permite a la Administración estadounidense controlar la exportación de los bienes cuya distribución necesita supervisar, pero el Gobierno chino y las empresas de este gigantesco país asiático pueden recurrir a las vías de importación paralelas para conseguir lo que necesitan. Es precisamente lo que están haciendo. A priori India parecía ser la principal puerta de entrada hacia China de los circuitos integrados prohibidos por EEUU, pero ahora sabemos que el responsable es un país del sudeste asiático.

Singapur ahora está en el punto de mira

Durante el último trimestre de 2023 NVIDIA multiplicó por cinco la cantidad de productos que entregó a sus clientes de Singapur frente al mismo periodo de 2022. Este incremento de las ventas tan desmedido sería difícil de justificar en una coyuntura diferente a la actual, pero dado el clima de tensión que se impone entre EEUU y China el diario The Economist ha concluido que, como podemos sospechar, las empresas de Singapur están vendiendo buena parte de los chips para aplicaciones de IA que compran a NVIDIA en China.

Singapur no está sometido a las sanciones aprobadas por el Gobierno de EEUU, a diferencia de Corea del Sur, Japón o Taiwán

Singapur no está sometido a las sanciones aprobadas por el Gobierno de EEUU, a diferencia de Corea del Sur, Japón o Taiwán, que sí lo están. Esta es la auténtica razón por la que las empresas de este país del sudeste asiático pueden vender los productos que adquieren a las empresas estadounidenses sin contar con la aprobación del Departamento de Comercio de EEUU. Sin embargo, la organización liderada por Gina Raimondo aún tiene margen de actuación para ponérselo difícil a las empresas singapurenses.

Jensen Huang, el director general de NVIDIA, se comprometió después de la entrada en vigor del último paquete de sanciones aprobado por EEUU a respetar las reglas del juego y negociar pormenorizadamente con la Administración estadounidense qué productos puede vender en China y cuáles no puede entregar a sus clientes chinos.

Presumiblemente el Departamento de Comercio tiene la potestad de impedir que NVIDIA y otras empresas vendan sus productos a los países que facilitan la llegada de los chips prohibidos a China, por lo que con toda seguridad Singapur no continuará siendo la puerta de entrada de estos semiconductores durante mucho más tiempo. Aun así, otro país ocupará su lugar. Os lo contaremos cuando suceda.

Imagen de portada: NVIDIA

Más información: The Economist

En Xataka: La tensión entre China y Taiwán ha desencadenado algo insólito: el "made in Taiwan" está en peligro de extinción

-
La noticia Ya sabemos qué país asiático es la principal puerta de entrada de chips prohibidos hacia China: Singapur fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

Nadie dijo que fuera necesario gastarse un millón de dólares para tener un auténtico equipo Hi-Fi. Ni siquiera Ken Fritz, que tenía uno

Nadie dijo que fuera necesario gastarse un millón de dólares para tener un auténtico equipo Hi-Fi. Ni siquiera Ken Fritz, que tenía uno

Ken Fritz fue audiófilo y melómano desde su juventud. Este estadounidense falleció con una edad avanzada el 21 de abril de 2022, y su vida estuvo regida por una pasión por la música que le llevó a confeccionar un equipo de alta fidelidad cuyo coste total era de aproximadamente un millón de dólares. Este equipo de música ya no existe. Al menos no tal y como Fritz lo concibió. Después de su muerte sus hijos decidieron venderlo pieza a pieza con el propósito de recuperar la inversión que hizo su padre. O una parte de ella.

Este apasionado por la música empezó a orquestar su ambiciosísimo equipo en 1989 y terminó de ponerlo a punto en 2016. Sí, invirtió nada menos que 27 años en su proyecto de vida. Porque es lo que era para él: un proyecto de vida. Lo dejó muy claro en el interesantísimo reportaje que ha publicado The Washington Post hace unos pocos días (os recomiendo encarecidamente su lectura si os interesan la música y la alta fidelidad).

Ken Fritz también protagoniza varios vídeos que podemos encontrar en YouTube sin dificultad, pero mi favorito, por si os apetece echarle un vistazo, se titula 'One Man's Dream - Ken Fritz Documentary about the world's best stereo system'. Su historia nos sugiere hacernos varias preguntas muy interesantes. Os propongo que dejemos a un lado el debate de carácter ético que suscita gastarse un millón de dólares en un equipo de alta fidelidad o en cualquier otro elemento que pueda ser considerado un lujo.

No obstante, merece la pena que indaguemos en la experiencia que puede ofrecernos un equipo de alta fidelidad tan ambicioso (el mismo Ken Fritz lo explica en el artículo del The Washington Post), y, en consecuencia, en si tiene sentido o no invertir tantísimo dinero en un equipo de música. Afortunadamente, y ahí va un anticipo de lo que veremos a continuación, no es en absoluto necesario gastar tanto dinero para tener un equipo de música fabuloso.

Lo que realmente importa es preservar la capacidad emotiva de la música

He tenido la oportunidad de hablar con muchos audiófilos durante las últimas dos décadas, y todos ellos sin excepción han defendido una máxima que comparto: lo más importante no es el hardware. No son los aparatos. Lo que realmente importa es reproducir la música manteniendo su capacidad emotiva intacta. Si además consigues recrearla con una escena sonora de grandes dimensiones y te puedes permitir disfrutar tu música con un nivel de presión sonora realista, miel sobre hojuelas.

Un buen equipo de alta fidelidad debería ser capaz de reproducir la música recuperando un nivel de detalle muy alto y preservando la riqueza armónica de cada instrumento

Hasta ahora no he tenido la oportunidad de escuchar un equipo de alta fidelidad de un millón de dólares como el de Ken Fritz, pero sí he escuchado en varias ferias y tiendas especializadas equipos de varios cientos de miles de euros. Al margen de su coste, un buen equipo de alta fidelidad debería ser capaz de reproducir la música recuperando un nivel de detalle muy alto, preservando la riqueza armónica de cada instrumento, y, por supuesto, restituyendo la voz y todos los instrumentos involucrados en la grabación con mucha precisión tonal.

Si además recrea una escena sonora amplia y precisa en la que cada instrumento está en su lugar, fetén. Cuando coinciden todas estas características el equipo responsable suele ser capaz de entregarnos la música con toda su capacidad emotiva. Si nos ceñimos a sus declaraciones concluiremos que Ken Fritz alcanzó su objetivo, pero, como os he anticipado unas líneas más arriba, y como seguro que muchos de vosotros estaréis pensando, no hace falta para nada gastar tanto dinero para conseguir ese mismo resultado.

Tenemos un artículo en el que os proponemos varias configuraciones que os pueden inspirar durante la puesta a punto de un equipo de auténtica alta fidelidad y precio realista. Si seleccionamos bien nuestros componentes podemos conseguir un hardware estupendo y de precio razonable. Eso sí, es crucial mimar también las condiciones acústicas de la habitación en la que vamos a instalarlo.

De hecho, merece la pena dedicar una parte importante de nuestro presupuesto al correcto acondicionamiento acústico de nuestra sala. Es con toda seguridad el componente más importante de nuestro equipo, por definirlo de alguna manera. Resulta muy interesante descubrir una historia como la de Ken Fritz, pero, afortunadamente, ese no es el camino que estamos decididos a seguir la mayor parte de los entusiastas de la alta fidelidad.

Imagen de portada: Wilson Audio

Más información: The Washington Post

En Xataka: China se está abriendo paso a empujones en un mercado en el que ni estaba ni se la esperaba: el de la alta fidelidad

-
La noticia Nadie dijo que fuera necesario gastarse un millón de dólares para tener un auténtico equipo Hi-Fi. Ni siquiera Ken Fritz, que tenía uno fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

Este es el mayor reto al que se enfrenta la industria de los semiconductores. O lo resuelve o su desarrollo colapsará

Este es el mayor reto al que se enfrenta la industria de los semiconductores. O lo resuelve o su desarrollo colapsará

La dependencia que tiene la industria global de los circuitos integrados de algunas materias primas va a más. Sobre todo si nos ceñimos a las más escasas o las que están en poder únicamente de unos pocos productores. Si nos planteamos cuáles son los mayores desafíos a los que se enfrentan los fabricantes de chips podríamos concluir que uno de ellos es la necesidad de poner a punto nodos litográficos más avanzados que los actuales. Sin ellos el desarrollo de nuevos circuitos integrados de vanguardia se detendría.

Otro reto muy razonable consiste en que para los fabricantes es necesario optimizar los procesos de producción de semiconductores con el propósito de incrementar tanto como sea posible el rendimiento por oblea. De lo contrario el precio de cada chip se incrementará y su competitividad se resentirá. Precisamente TSMC y Samsung están teniendo dificultades para refinar sus nodos litográficos de 3 nm lo necesario para llevar su rendimiento por oblea más allá del 70%.

En las manos de los productores de materias primas y la cadena de distribución

Quien controla las materias primas y la cadena de distribución, controla la industria global de los semiconductores. Los dos desafíos en los que acabamos de indagar son muy reales, pero si cabe para los fabricantes de chips es todavía más importante tener acceso a las materias primas que requieren para producir circuitos integrados de vanguardia. De hecho, ahora mismo se encuentran en un momento especialmente delicado debido a que todos ellos están trabajando en la puesta a punto de nuevas tecnologías de empaquetado más avanzadas.

Las grandes potencias económicas han dado durante los últimos meses los pasos necesarios para reforzar la cadena de distribución de la que dependen sus fabricantes de chips

Sin las materias primas adecuadas la fabricación de chips de vanguardia se detendrá, y las grandes potencias lo saben. Lo sabe China. Y EEUU. Y Corea del Sur. También Japón. Todos estos países han dado durante los últimos meses los pasos necesarios para reforzar la cadena de distribución de la que dependen sus fabricantes de chips. E, incluso, para crear una nueva cadena de distribución si es necesario. De hecho, EEUU y sus aliados persiguen poner en marcha una cadena de distribución global que deje a China completamente al margen. Aunque no les va a resultar fácil.

Lo que está sucediendo actualmente con las tierras raras, que son un grupo de elementos químicos (algunos de ellos escasos) muy necesario en numerosas industrias, pero especialmente en las de la electrónica y las energías renovables, refleja la coyuntura actual con mucha claridad. China produce actualmente el 70% de las tierras raras y controla nada menos que el 90% de la industria de procesado de estos elementos químicos.

Esto significa, sencillamente, que puede cortar el grifo cuando quiera. Y el Gobierno de Xi Jinping ha aprobado la regulación necesaria para llevarlo a cabo. ¿Cómo han reaccionado EEUU y sus aliados? Forjando pactos que les permitan marginar a China sacándola de la cadena de suministro en la que participa la alianza. De hecho, este plan ya está en marcha. Veremos cómo discurre 2024, pero podemos estar seguros de que uno de los frentes de batalla decisivos para muchas industrias, incluida la de los chips, es, precisamente, el control de las materias primas.

Imagen de portada: TSMC

Más información: DigiTimes Asia

En Xataka: Corea del Sur está dispuesta a liderar a golpe de talonario: se gastará 470.000 millones en el mayor centro de chips del planeta

-
La noticia Este es el mayor reto al que se enfrenta la industria de los semiconductores. O lo resuelve o su desarrollo colapsará fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

Las cámaras de los Samsung Galaxy S24, S24+ y S24 Ultra, explicadas: van más fuerte que nunca al asalto de la mejor fotografía móvil de 2024

Las cámaras de los Samsung Galaxy S24, S24+ y S24 Ultra, explicadas: van más fuerte que nunca al asalto de la mejor fotografía móvil de 2024

Los smartphones de la familia Galaxy S24 de Samsung ya están aquí. Fieles a su cita anual con todos nosotros. La llegada de los nuevos Galaxy S24, S24+ y S24 Ultra da el pistoletazo de salida definitivo a la hornada de teléfonos móviles que se está preparando para irrumpir en las tiendas este año. Sí, muchas de las características de estos terminales se han filtrado durante las últimas semanas, pero otras tantas han permanecido en el más absoluto secreto hasta ahora.

Sea como sea, como estamos a punto de comprobar, estos smartphones llegan dispuestos a librar batalla en la gama más alta. Y es que algunas de sus prestaciones les permiten desmarcarse claramente de sus predecesores, especialmente al más ambicioso de los tres, el Galaxy S24 Ultra. Este móvil va a tener que vérselas con lo mejor de Apple, OPPO, Sony o Xiaomi, entre muchas otras marcas, y en esta liza o das lo mejor de ti o estás perdido. Veamos qué nos prometen estos teléfonos móviles en los ámbitos de la fotografía y el vídeo.

Samsung Galaxy S24, S24+ y S24 Ultra: especificaciones técnicas


galaxy s24

galaxy s24+

galaxy s24 ultra

pantalla

Dynamic AMOLED 2X de 6,2 pulgadas Full HD+

Refresco adaptativo de 1 a 120 Hz

Vision Booster

Dynamic AMOLED 2X de 6,7 pulgadas
QHD+
Refresco adaptativo de 1 a 120 Hz
Vision Booster

Dynamic AMOLED 2X de 6,8 pulgadas
QHD+
Refresco adaptativo de 1 a 120 Hz
100% DCI-P3

Vision Booster

procesador

Samsung Exynos 2400

Samsung Exynos 2400

Qualcomm Snapdragon 8 Gen 3

memoria principal

8 GB

12 GB

12 GB

almacenamiento

128, 256 o 512 GB

256 o 512 GB

256, 512 GB o 1 TB

cámara frontal

Sensor de 12 megapíxeles Dual Pixel, f/2.2 y campo de visión de 80 grados

Sensor de 12 megapíxeles Dual Pixel, f/2.2 y campo de visión de 80 grados

Sensor de 12 megapíxeles Dual Pixel, f/2.2 y campo de visión de 80 grados

cámaras traseras

  • Ultra gran angular: sensor de 12 megapíxeles Dual Pixel AF, f/2.2 y campo de visión de 120 grados
  • Teleobjetivo 1: sensor de 50 megapíxeles, f/1.8, estabilización óptica y campo de visión de 85 grados
  • Teleobjetivo 2: sensor de 10 megapíxeles, f/2.4, zoom óptico 3x, estabilización óptica y campo de visión de 36 grados
  • Ultra gran angular: sensor de 12 megapíxeles Dual Pixel AF, f/2.2 y campo de visión de 120 grados
  • Teleobjetivo 1: sensor de 50 megapíxeles, f/1.8, estabilización óptica y campo de visión de 85 grados
  • Teleobjetivo 2: sensor de 10 megapíxeles, f/2.4, zoom óptico 3x, estabilización óptica y campo de visión de 36 grados
  • Principal: sensor de 200 megapíxeles Super Quad Pixel AF, f/1.7, estabilización óptica y campo de visión de 85 grados
  • Ultra gran angular: sensor de 12 megapíxeles Dual Pixel, f/2.2 y campo de visión de 120 grados
  • Teleobjetivo 1: sensor de 50 megapíxeles, f/3.4, zoom óptico 5x, estabilización óptica y campo de visión de 22 grados
  • Teleobjetivo 2: sensor de 10 megapíxeles, f/2.4, zoom óptico 3x, estabilización óptica y campo de visión de 36 grados

sistema operativo

Android 14 con One UI 6.1

Android 14 con One UI 6.1

Android 14 con One UI 6.1

conectividad

USB-C

USB-C

USB-C

conectividad inalámbrica

5G

Wi-Fi 6E

Bluetooth 5.3

NFC

5G

Wi-Fi 6E

Bluetooth 5.3

NFC

5G

Wi-Fi 7

Bluetooth 5.3

NFC

sonido

Altavoces estéreo

Altavoces estéreo

Altavoces estéreo

protección ip68

batería

4.000 mAh

4.900 mAh

5.000 mAh

carga rápida

seguridad y otras funciones

Lector de huellas ultrasónico

Desbloqueo facial 2D

Samsung DeX

Samsung Pay

Lector de huellas ultrasónico

Desbloqueo facial 2D

Samsung DeX

Samsung Pay

Lector de huellas ultrasónico

Desbloqueo facial 2D

Samsung DeX

Samsung Pay

dimensiones

147 x 70,6 x 7,6 mm

158,5 x 75,9 x 7,7 mm

162,3 x 79 x 8,6 mm

peso

168 g

197 g

233 g

precio

Desde 909 euros

Desde 1.159 euros

Desde 1.479 euros

SAMSUNG Galaxy S24+ y Cargador 45W, Móvil con IA, Smartphone Android, 12GB RAM Más Rápida, 256GB Almacenamiento, Cámara 50MP, Gran Pantalla, Batería Larga Duración, Amarillo Amber (Versión Española)

* Algún precio puede haber cambiado desde la última revisión

SAMSUNG Galaxy S24 Ultra y Cargador 45W, Teléfono Móvil con IA, Smartphone Android, 12 GB RAM, 256 GB Almacenamiento, Cámara 200MP, S Pen, Batería Larga Duración, Amarillo Titanium (Versión Española)

* Algún precio puede haber cambiado desde la última revisión

Las novedades en el hardware van de la mano del motor ProVisual Engine

Antes de que indaguemos en el papel que tiene en estos teléfonos móviles el software, y, en especial, los algoritmos de inteligencia artificial, os propongo que echemos un vistazo al hardware de sus cámaras. La unidad frontal es idéntica en los tres terminales: se apoya en un sensor de 12 megapíxeles Dual Pixel que trabaja en tándem con una óptica con valor de apertura f/2.2 y un campo de visión de 80 grados. A priori estas especificaciones son idénticas a las de los terminales equiparables de la familia Galaxy S23. Aun así, no tengo nada que objetar.

El S24 Ultra nos propone una cámara principal equipada con un sensor de 200 megapíxeles y una óptica con valor de apertura f/1.7

Vamos, ahora sí, con las cámaras traseras. La unidad ultra gran angular de los modelos S24 y S24+ nos propone un captador de 12 megapíxeles que trabaja codo con codo con una óptica con valor de apertura f/2.2 y un campo de visión de 120 grados. Este hardware es en teoría muy similar al que nos propusieron el año pasado los Galaxy S23 y S23+ en su cámara ultra gran angular. El S24 Ultra, por su parte, incorpora una cámara principal equipada con un sensor de 200 megapíxeles y una óptica con valor de apertura f/1.7 (nada que objetar a su luminosidad), así como una unidad ultra gran angular que tiene exactamente las mismas prestaciones que la cámara equiparable en los modelos S24 y S24+.

Galaxyultra

Les ha llegado su turno a los teleobjetivos. Los tres Galaxy S24 nos proponen dos cámaras de este tipo, pero una de las que incorpora el modelo Ultra es diferente a las de sus hermanos "pequeños". Los Galaxy S24 y S24+ apuestan por un teleobjetivo estabilizado equipado con un captador de 50 megapíxeles y una óptica con valor de apertura f/1.8. Nada que objetar a priori. El Galaxy S24 Ultra, sin embargo, reemplaza este teleobjetivo por una unidad equipada con un sensor de 50 megapíxeles y una óptica con valor de apertura f/3.4 para poner en nuestras manos un zoom óptico 5x. Será interesante probarlo a fondo para evaluar su calidad.

El SoC del S24 y el S24+ es un chip Exynos 2400 de Samsung, mientras que el del S24 Ultra es un Snapdragon 8 Gen 3, por lo que su ISP es diferente

El segundo teleobjetivo es idéntico en estos tres teléfonos móviles. Incorpora un sensor de 10 megapíxeles que trabaja en tándem con una óptica con valor de apertura f/2.4 y un campo de visión de 36 grados para entregarnos un zoom óptico 3x. Un apunte interesante antes de seguir adelante: el SoC del S24 y el S24+ es un chip Exynos 2400 de Samsung, mientras que el del S24 Ultra es un Snapdragon 8 Gen 3. En el ámbito que nos interesa en este artículo esto significa que su ISP es diferente, por lo que cuando los analicemos haremos lo que esté en nuestra mano para evaluar su impacto en las prestaciones fotográficas de estos móviles (en este artículo os explicamos cuál es la función de este componente del SoC).

Samsungfoto1

Vamos, por fin, con el software. Los algoritmos de inteligencia artificial están muy presentes en los teléfonos móviles desde hace ya muchos años, pero en cada nueva generación adquieren más relevancia. La familia Galaxy S24 lo demuestra. En estos tres smartphones el corazón de su software fotográfico es el motor ProVisual Engine, que no es otra cosa que un conjunto de herramientas dotadas de inteligencia artificial que, según Samsung, persiguen poner en las manos de los usuarios más opciones creativas e incrementar la calidad de nuestras instantáneas (especialmente en los escenarios de disparo más desfavorables).

En el Galaxy S24 Ultra el modo noche, bautizado por Samsung como 'Nightography', saca partido a los fotodiodos de 1,4 µm del captador de la cámara principal. De hecho, este sensor es un 60% más grande que el de la cámara equiparable del Galaxy S23 Ultra. No obstante, después de tomar una instantánea en condiciones de escasa luz ambiental el procesado mediante inteligencia artificial se encarga de minimizar el ruido, corregir el color y recuperar el máximo nivel de detalle posible en los tres Galaxy S24. Estamos deseando poner este modo de disparo a prueba para comprobar si realmente representa un avance significativo frente a las prestaciones de los móviles equiparables de la familia Galaxy S23.

Samsungfoto2

En cualquier caso, en estos móviles la inteligencia artificial no está involucrada únicamente en el postprocesado de nuestras imágenes; también interviene en las herramientas de edición que nos propone Samsung para retocar nuestras fotografías. La función Edit Suggestion nos sugiere qué retoques merece la pena que introduzcamos en una instantánea en particular, mientras que Generative Edit nos permite rellenar algunas partes del fondo de cualquier fotografía con objetos que no están ahí mediante un algoritmo de inteligencia artificial generativa. Un último apunte: el modo Super HDR nos muestra una previsualización de la fotografía que estamos a punto de tomar incluso antes de que activemos el obturador electrónico.

La inteligencia artificial llega (ahora más que nunca) al rescate del vídeo

Cuando nos disponemos a grabar vídeo con uno de los nuevos Galaxy S24 el ISP del SoC se responsabiliza de analizar en tiempo real el flujo de imágenes que estamos recogiendo con el propósito de minimizar el ruido. Esta estrategia de grabación está asociada tanto a la cámara frontal como a la cámara principal del módulo trasero. Además, un algoritmo de inteligencia artificial se encarga de identificar el movimiento natural de la persona que está grabando para separarlo del movimiento de las personas que aparecen en las imágenes.

Samsungvideo

Esta prestación "inteligente" resulta útil, al menos sobre el papel, para reducir el ruido e incrementar el nivel de detalle, especialmente cuando grabamos vídeo con poca luz ambiental. Un último apunte para concluir: la herramienta Instant Slow Mo nos permite generar fotogramas adicionales a partir de un análisis minucioso de los fotogramas originales con el propósito de ayudarnos a obtener vídeos a cámara lenta de más calidad y con un mayor nivel de detalle. No suena nada mal. Nosotros tenemos muchas ganas de probar a fondo esta tecnología.

No te pierdas el MWC Barcelona 2024 (#MWC24), el mayor y más influyente evento de conectividad del mundo, organizado por GSMA en Barcelona del 26 al 29 de febrero de 2024.

Consejo ofrecido por la marca

En Xataka: Samsung tiene un plan para optimizar sus fábricas de chips: prescindir completamente de los seres humanos en 2030

-
La noticia Las cámaras de los Samsung Galaxy S24, S24+ y S24 Ultra, explicadas: van más fuerte que nunca al asalto de la mejor fotografía móvil de 2024 fue publicada originalmente en Xataka por Juan Carlos López .

Leer más