Los fabricantes de chips ya se aprietan el cinturón: GlobalFoundries prevé que la fiesta se acabará en 2023

Los fabricantes de chips ya se aprietan el cinturón: GlobalFoundries prevé que la fiesta se acabará en 2023

Hace tan solo seis meses difícilmente podríamos haberlo intuido. La industria de los circuitos integrados ha continuado su camino durante los últimos tres años espoleada por una demanda creciente a la que ha sido incapaz de responder. Los fabricantes de chips de alta integración aún lo tienen todo vendido antes de producirlo, pero ya están empezando a apreciar síntomas claros de agotamiento.

Hace apenas dos semanas Pat Gelsinger, el director general de Intel, se mostró preocupado debido a que, aunque el crecimiento de esta industria parece estar garantizado a medio y largo plazo, ya hay indicios muy sólidos que reflejan que a corto plazo el panorama se va a complicar. Si queremos entender qué está fraguando este bandazo tenemos necesariamente que prestar atención a varios frentes.

Por un lado la recesión económica a la que algunos países están abocados está suavizando perceptiblemente la demanda de circuitos integrados. Además, el dramático incremento del coste de la energía está aumentando los costes de fabricación, y para rizar el rizo la inflación está disparando el precio de los componentes químicos y los equipos involucrados en la fabricación de semiconductores. El panorama empieza a ser sombrío.

En GlobalFoundries lo tienen claro: 2023 será un año difícil para los fabricantes de chips

La compañía estadounidense GlobalFoundries (GF), que hace unos años estaba integrada en el conglomerado empresarial de AMD, es el cuarto mayor fabricante de circuitos integrados del planeta. TSMC, Intel y Samsung acaparan unas cuotas de mercado más altas, pero el 7% de esta compañía, a la que la china UMC tutea con una cuota idéntica, la posiciona como un actor muy relevante. De hecho, GF es el mayor fabricante estadounidense de chips para terceros (la mayor parte de la producción de Intel es para sí misma).

GlobalFoundries ya está percibiendo con claridad un descenso de la demanda de semiconductores

La inercia que ha adquirido la industria de los chips y su relevancia deberían permitir a GF encarar el futuro con mucho optimismo, pero no va a ser así. Y es que Dave Reeder, su máximo responsable financiero, ha anticipado a Bloomberg que ya está percibiendo con claridad un descenso de la demanda de semiconductores, por lo que prevé que durante la primera mitad de 2023 esta tendencia comience a tener un impacto tangible sobre la salud financiera de los fabricantes de chips.

GF parece tener muy claro qué debe hacer: reducir sus gastos operativos en 200 millones de dólares anuales. Y para lograrlo va a recortar su plantilla, y también congelará completamente la contratación de personal no esencial. Estas medidas son impactantes si tenemos en cuenta que esta compañía ha anunciado recientemente que ha obtenido un récord de ingresos durante el tercer trimestre de 2022: nada menos que 2100 millones de dólares.

Las razones que explican a qué se debe el descenso de la demanda de chips con el que ya está lidiando GF son esencialmente las mismas que esgrimió Pat Gelsinger hace dos semanas: la recesión económica, la inflación y el incremento de los costes de la energía. En esta coyuntura no sería extraño que otros grandes fabricantes de semiconductores sigan durante las próximas semanas los pasos de Intel y GF, y también muestren públicamente su preocupación. Les seguiremos la pista muy de cerca.

Imagen de portada: GlobalFoundries

-
La noticia Los fabricantes de chips ya se aprietan el cinturón: GlobalFoundries prevé que la fiesta se acabará en 2023 fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

AMD tiene en el horno su alternativa al DLSS 3 de NVIDIA, y nos promete ser una baza brutal de las Radeon RX 7000

AMD tiene en el horno su alternativa al DLSS 3 de NVIDIA, y nos promete ser una baza brutal de las Radeon RX 7000

Lo último en hardware gráfico de AMD está al caer. Las tarjetas Radeon RX 7900 XTX y XT llegarán a las tiendas el próximo 13 de diciembre, y lo harán respaldadas por la tecnología de reconstrucción de la imagen FidelityFX Super Resolution 2 (FSR 2). Sí, esta es la misma técnica de escalado "inteligente" que ya está disponible para las tarjetas gráficas Radeon RX 6000, pero esta marca esconde otro as en la manga.

Hace solo unos días, el pasado 8 de noviembre, AMD liberó la revisión 2.2 de su tecnología de reconstrucción de la imagen FSR. Esta versión incorpora varias mejoras que persiguen incrementar la calidad de imagen global, y para lograrlo una de las estrategias que pone sobre la mesa consiste en refinar el algoritmo empleado por la revisión 2.1 para mejorar la calidad del escalado temporal.

No obstante, esto no es todo. FSR 2.2 también nos promete minimizar algunos defectos gráficos, como el ghosting, que en la revisión 2.1 aparece cuando algunos objetos se desplazan rápidamente entre varios fotogramas consecutivos. 'Forza Horizon 5' es el primer videojuego compatible con FSR 2.2, pero AMD nos promete que tras él llegarán muchos más que también sacarán partido a esta innovación.

FSR 2.2 es solo el principio: FSR 3 pinta mucho mejor, y también está al caer

Durante la presentación de las Radeon RX 7000 AMD desveló cómo rinde según sus propios tests su tarjeta gráfica más ambiciosa actualmente, que no es otra que la nueva Radeon RX 7900 XTX, frente a su predecesora, la todavía muy interesante Radeon RX 6950 XT. Podemos observar cómo miden estas soluciones gráficas a 4K y con el trazado de rayos activado en la diapositiva que publicamos debajo de estas líneas.

Como podemos ver, según AMD la Radeon 7900 XTX con microarquitectura RDNA 3 es mucho más rápida en estos juegos que la Radeon RX 6950 XT con arquitectura RDNA 2. No obstante, no debemos pasar por alto que ambas recurren a la reconstrucción de la imagen mediante la tecnología FSR para entregarnos este rendimiento. Y es que no cabe duda de que este procedimiento de escalado está aquí para quedarse. De hecho, gracias a él la Radeon RX 7900 XTX va más allá de los 60 FPS en estos tres títulos.

Fsr Rendimiento

Durante nuestro análisis de la GeForce RTX 4090 de NVIDIA la tecnología de reconstrucción de la imagen DLSS 3 nos demostró tener un rendimiento espectacular. En el muy exigente 'Cyberpunk 2077' a 2160p y con el trazado de rayos activado esta tecnología consigue multiplicar por tres la cadencia de fotogramas por segundo para superar los 130 FPS. En 'F1 22' el incremento del rendimiento en este mismo escenario no es tan bestial, pero multiplica por 2,4 la cadencia que obtenemos si prescindimos del DLSS 3.

Fsr3

Estos números no se lo ponen fácil a AMD. Dejando a un lado el impacto de estas tecnologías en la calidad de imagen, en el que indagaremos a fondo en el futuro en un artículo que estamos preparando, es evidente que DLSS 3 nos entrega un rendimiento espectacular. Y, como cabía esperar, AMD no piensa dormirse en los laureles. FSR 2.2 parece no ser suficiente, pero los de Sunnyvale ya tienen a su sucesora en el horno.

AMD ha confirmado que su próxima tecnología de reconstrucción de la imagen aterrizará en sus tarjetas gráficas en 2023, y nos promete multiplicar por dos el rendimiento de FSR 2

Y es que FSR 3 no tardará mucho en llegar. AMD ha confirmado que su próxima tecnología de reconstrucción de la imagen aterrizará en sus tarjetas gráficas en 2023, y nos promete multiplicar por dos el rendimiento de FSR 2. Suena muy bien. Según esta compañía esta innovación implementará una nueva tecnología conocida como Fluid Motion Frames para catapultar la productividad, y, a la par, incrementar el nivel de detalle y la calidad de imagen global. Próxima parada: DLSS 3 vs. FSR 3. Veremos cuál de ellas rinde mejor.

-
La noticia AMD tiene en el horno su alternativa al DLSS 3 de NVIDIA, y nos promete ser una baza brutal de las Radeon RX 7000 fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

La microarquitectura RDNA 3, explicada: así es como AMD aspira a poner a NVIDIA contra las cuerdas

La microarquitectura RDNA 3, explicada: así es como AMD aspira a poner a NVIDIA contra las cuerdas

Las esperábamos con impaciencia, y ya casi están aquí. El próximo 13 de diciembre llegarán a las tiendas las primeras tarjetas gráficas pertenecientes a la familia Radeon RX 7000, y aterrizarán decididas a competir de tú a tú con las nuevas GeForce RTX 40 de NVIDIA. De hecho, al igual que estas últimas, estrenan microarquitectura.

RDNA 3 es la gran apuesta de AMD para competir en el mercado de los gráficos durante los próximos años. Como cabía esperar, esta revisión de la microarquitectura RDNA introduce innovaciones muy profundas que, sobre el papel, la desmarcan de sus predecesoras. Y, lo que es más importante, parece tener lo que necesita para plantear batalla a la microarquitectura Ada Lovelace de NVIDIA. Así se las gasta lo último en gráficos de AMD.

RDNA 3 nos promete un incremento del rendimiento por vatio del 54%

Para abrir boca merece la pena que indaguemos en la que sin duda es una de las características más interesantes de las GPU Radeon RX 7000: los chiplets. Y es que estos son los primeros procesadores gráficos de consumo que apuestan por distribuir su lógica en varios circuitos integrados físicamente independientes, aunque, lógicamente, están interconectados mediante enlaces de alto rendimiento.

Esta estrategia sobre el papel permite a AMD optimizar el diseño físico de sus nuevas GPU con el propósito de incrementar el rendimiento por milímetro cuadrado de oblea de silicio. Además, no todos los chiplets tienen por qué estar fabricados empleando la misma fotolitografía, de manera que cada uno de ellos se puede producir utilizando la tecnología de integración que encaja mejor con su cometido y que permite balancear su coste.

El motor gráfico se conoce como GCD, aglutina la lógica esencial de la GPU y está fabricado en el nodo de 5 nm de TSMC

En la diapositiva que publicamos debajo de estas líneas podemos ver que las GPU Radeon RX 7000 incorporan siete chiplets. El motor gráfico se conoce como GCD (Graphics Compute Die), aglutina la lógica esencial de la GPU y está fabricado en el nodo de 5 nm de TSMC. Por otro lado, la memoria caché o MCD (Memory Cache Die) está distribuida en los otros seis chiplets, y se produce empleando la fotolitografía de 6 nm de TSMC.

Esto significa, sencillamente, que estas GPU utilizan "solo" dos tipos de chiplets. No obstante, dentro del MCD no reside solo la caché de nivel 3 (a la que AMD llama Infinity Cache); con ella cohabitan los controladores de 2 x 32 bits vinculados a la administración de la memoria GDDR6. Un apunte importante: la distribución de esta caché en varios chiplets permite a AMD escalarla fácilmente. De hecho, la GPU Radeon RX 7900 XTX, que es la que podemos ver en la diapositiva, incorpora seis MCD activos, mientras que la Radeon RX 7900 XT tiene cinco unidades activas.

Rdna3 1

La siguiente diapositiva recoge algunas de las características más interesantes del procesador gráfico más avanzado que tiene AMD ahora mismo: el Radeon RX 7900 XTX. Su rendimiento máximo teórico al llevar a cabo operaciones FP32 asciende a 61 TFLOPS, el GCD y los MCD están conectados mediante enlaces capaces de alcanzar una velocidad de transferencia de 5,3 TB/s, y, además, esta GPU trabaja codo con codo con un mapa VRAM de 24 GB de tipo GDDR6. Un apunte más: este chip aglutina 58 000 millones de transistores.

Rdna3 2

Vamos ahora con la que sin duda es una de las grandes promesas que nos hace AMD de la mano de la introducción de la microarquitectura RDNA 3: las GPU que la utilizan nos entregan un incremento del rendimiento por vatio del 54% frente a sus predecesoras con microarquitectura RDNA 2. Es una mejora muy importante, y, por supuesto, comprobaremos este dato tan pronto como las nuevas Radeon RX 7900 XTX y XT caigan en nuestras manos. Esta optimización es posible gracias tanto a la implementación de la arquitectura como a los procesos fotolitográficos empleados en la fabricación de la GPU.

Rdna3 3

Como veremos más adelante, hay varias diferencias importantes entre algunas unidades funcionales de la GPU Radeon RX 7900 XTX y la ligeramente más modesta 7900 XT, pero hay otro apartado en el que estas tarjetas gráficas difieren: su memoria VRAM. La RX 7900 XTX incorpora 24 GB de tipo GDDR6, mientras que la RX 7900 XT apuesta por 20 GB GDDR6. A priori ambos subsistemas de memoria tienen la capacidad necesaria para lidiar con la resolución 2160p en los juegos de última hornada, y también para rendir bien en un escenario de creación de contenidos.

Rdna3 4

Como hemos comprobado más arriba, la utilización de chiplets permite a AMD decantarse por la litografía idónea para cada uno de ellos. El GCD es el más complejo, por lo que, a pesar de estar fabricado en el nodo de 5 nm, tiene una superficie de 300 mm². Los MCD están producidos en el nodo de 6 nm, como hemos visto, y cada uno de ellos tiene una superficie de 37 mm².

Rdna3 5

La caché de nivel 3 encapsulada en las GPU Radeon RX 7000 no es idéntica a la que incorporan los procesadores gráficos RDNA 2. Esta memoria Infinity Cache de segunda generación trabaja codo con codo con el controlador de memoria de 64 bits (2 x 32 bits) del que hemos hablado brevemente más arriba, y, según AMD, el enlace de alto rendimiento que la comunica con la memoria GDDR6 multiplica por hasta 2,7 la productividad del enlace implementado en la microarquitectura RDNA 2.

Rdna3 6

AMD nos promete una gran mejora en el renderizado mediante trazado de rayos

La unidad funcional básica de los procesadores gráficos de AMD son las unidades de computación o CU. Podemos contemplarlas como los pequeños ladrillos con los que está construida la GPU, de manera que el rendimiento del procesador gráfico depende en gran medida del trabajo que es capaz de llevar a cabo cada una de estas pequeñas unidades funcionales. En RDNA 3 todas las CU tienen una misma estructura y son fácilmente escalables. De hecho, como veremos más adelante, las GPU Radeon 7900 XTX y XT difieren en el número de estas unidades que incorporan.

Rdna3 7

La siguiente diapositiva nos invita a indagar en el interior de estas diminutas CU. Curiosamente, gracias al desarrollo de la fotolitografía incorporan un 165% más transistores por mm² que sus predecesoras en la microarquitectura RDNA 2. Este incremento nos permite intuir que su complejidad es también notablemente mayor. Un apunte importante: cada CU incorpora bloques funcionales específicos que han sido implementados para intervenir en la ejecución de los algoritmos de inteligencia artificial y trazado de rayos.

Rdna3 8

Una de las características más relevantes de los procesadores stream integrados en el interior de cada CU consiste en que son capaces de expedir en cada unidad de tiempo el doble de instrucciones que sus predecesores integrados en las CU de RDNA 2. Sobre el papel esta mejora de la microarquitectura debería tener un impacto muy profundo en el rendimiento de estas unidades, lo que nos recuerda que la productividad de la GPU no está condicionada únicamente por la frecuencia de reloj a la que trabaja o el número de CU que incorpora; la forma en que están implementadas estas unidades funcionales importa. Y mucho.

Rdna3 9

Cada CU integra dos unidades funcionales especializadas en la ejecución de las instrucciones utilizadas en los algoritmos de inteligencia artificial. En esta revisión de las CU los ingenieros de AMD han implementado nuevas instrucciones, y, además, según esta marca el rendimiento de cada acelerador de inteligencia artificial es hasta 2,7 veces más alto que el de las unidades equiparables de las CU de RDNA 2.

Rdna3 10

Al igual que los nuevos aceleradores de inteligencia artificial, las unidades funcionales de cada CU especializadas en la ejecución del código vinculado al trazado de rayos también pueden lidiar con nuevas instrucciones. Según AMD los aceleradores RT de segunda generación de sus nuevas CU nos entregan un rendimiento hasta un 50% más alto que sus predecesores, una característica muy importante que persigue ayudarles a rivalizar con el renderizado con trazado de rayos de las GeForce RTX 40. Será interesante comprobar qué familia de GPU rinde mejor en este escenario de uso.

Rdna3 11

Una baza de las nuevas tarjetas gráficas de AMD con la que no cuentan las GeForce RTX 40 de NVIDIA consiste en que las salidas de vídeo DisplayPort de las Radeon RX 7000 implementan la norma 2.1. Esta especificación permite a este enlace alcanzar una velocidad de transferencia de hasta 54 Gbps, así como trabajar con una profundidad de color de 12 bits por canal. Pero esto no es todo. También puede transportar señales 4K de hasta 480 Hz y 8K de hasta 165 Hz.

Rdna3 12

Un inciso antes de seguir adelante. En una GPU el front end tiene una responsabilidad diferente a la del back end o motor de ejecución. Muy a grandes rasgos y sin entrar en detalles complicados este último se encarga de ejecutar las instrucciones, mientras que el front end se responsabiliza de recogerlas desde la memoria caché y de decodificarlas para que posteriormente puedan ser procesadas por el motor de ejecución.

Una peculiaridad de los procesadores gráficos Radeon RX 7000 es que en ellos su front end no tiene por qué operar a la misma frecuencia de reloj a la que trabajan los sombreadores del back end. El primero puede operar a una frecuencia de hasta 2,5 GHz (es un 15% más alta que la del front end de RDNA 2), y el segundo a 2,3 GHz. Esta diferenciación permite a la GPU ahorrar energía, por lo que condiciona su rendimiento por vatio.

Rdna3 13

Con frecuencia los entusiastas del hardware gráfico damos a los teraflops de una GPU más importancia de la que realmente tienen. Al fin y al cabo solo es un dato más del conjunto de características que describe el rendimiento de un procesador gráfico. En cualquier caso, ahí va un dato para saciar nuestro apetito: la GPU Radeon RX 7900 XTX nos entrega un máximo de 61 TFLOPS en operaciones FP32, una cifra muy superior a los 23,65 TFLOPS del procesador gráfico Radeon RX 6950 XT basado en la arquitectura RDNA 2.

Rdna3 14

Tienen mucho en común, pero las Radeon RX 7900 XTX y XT son apuestas diferentes

La siguiente diapositiva recoge las características más relevantes de la que actualmente es la tarjeta gráfica más ambiciosa de AMD. La GPU Radeon RX 7900 XTX integra 96 CU, puede trabajar a una frecuencia de reloj máxima de 2,3 GHz y está respaldada por un mapa de memoria VRAM de tipo GDDR6 con una capacidad de 24 GB, como hemos visto más arriba. Según AMD el consumo típico de esta tarjeta gráfica asciende a 355 vatios, por lo que nos recomienda decantarnos por una fuente de alimentación de al menos 800 vatios.

Rdna3 16

La Radeon RX 7900 XT es solo ligerísimamente más modesta, si es que tiene sentido hablar de modestia en una tarjeta gráfica de gama alta. Integra 84 CU, puede trabajar hasta a 2 GHz, incorpora 20 GB GDDR6 y tiene un consumo típico de 300 vatios. Merece la pena que no pasemos por alto que el bus de memoria de la 7900 XTX tiene una anchura de 384 bits, mientras que el de la 7900 XT es de 320 bits. Será muy interesante comprobar cómo rinden estas dos tarjetas gráficas tan pronto como caigan en nuestras manos. Y, por el camino, comprobaremos cómo miden frente a las GeForce RTX 40 de NVIDIA.

Rdna3 17

-
La noticia La microarquitectura RDNA 3, explicada: así es como AMD aspira a poner a NVIDIA contra las cuerdas fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

Kaleidescape nos promete una calidad de imagen más alta que la del Blu-ray 4K. Así quiere conseguirlo

Kaleidescape nos promete una calidad de imagen más alta que la del Blu-ray 4K. Así quiere conseguirlo

El futuro de la distribución de películas en formato físico a medio y largo plazo arroja muchas dudas. El auge de las plataformas de vídeo mediante streaming ha dado alas a la corriente de opinión que defiende que las películas en DVD y Blu-ray Disc están condenadas a la extinción. Y en la coyuntura actual es una opinión razonable.

Sin embargo, basta indagar un poco en cualquier foro especializado para darse cuenta de que algunos entusiastas del cine en casa prefieren los formatos físicos no solo con el propósito de proteger su sentido de la propiedad, sino también como respuesta a su apetito coleccionista. Y, sobre todo, debido a que actualmente es la opción que nos entrega la mejor calidad de imagen posible.

No todas las películas en Blu-ray 4K tienen una calidad de imagen de referencia. Ojalá fuese así, pero no lo es. En cualquier caso, este es el formato que habitualmente nos permite entregar a nuestro televisor o proyector la calidad de imagen más alta. O lo era hasta hace poco tiempo. Y es que hay un servicio de distribución de películas a través de internet que nos promete una calidad aún más alta que la del Blu-ray 4K. Se llama Kaleidescape, y es muy diferente de las plataformas de streaming con las que estamos familiarizados.

Tiene un bitrate 10 veces más alto. Buena parte de las películas y las series que nos propone Kaleidescape están disponibles con resolución 4K UHD y HDR. Sin embargo, los usuarios sabemos que la resolución no lo es todo. La calidad de imagen que nos entrega un contenido en formato digital está condicionada profundamente por la cantidad de bits transmitidos por unidad de tiempo, un parámetro conocido habitualmente en inglés como bitrate. Se mide en bits por segundo.

Un 'bitrate' alto no nos garantiza que su calidad de imagen sea impecable debido, entre otras razones, a que el archivo de gran tamaño es más sensible a los errores de gestión del búfer

No obstante, una película con un bitrate alto no nos garantiza que su calidad de imagen sea impecable debido, entre otras razones, a que el procesado del archivo de gran tamaño en el que suelen estar codificadas es más sensible a los errores de gestión del búfer. En cualquier caso, Kaleidescape nos promete entregarnos un bitrate 10 veces más alto que el de los servicios de streaming de vídeo convencionales, lo que, en teoría, incluso le permite batir la calidad de imagen que podemos encontrar en las películas en Blu-ray 4K.

Sonido Dolby Atmos o DTS:X. Estos son los formatos de codificación de audio multicanal que utiliza esta plataforma de vídeo. En este ámbito también nos promete que el bitrate que nos entrega es 10 veces superior al que nos sirven las plataformas de vídeo vía streaming. De hecho, en teoría Kaleidescape utiliza una copia exacta del máster de estudio codificada en Dolby Atmos o DTS:X sin pérdida de calidad. Pinta muy bien, pero es evidente que para sacar partido a este sonido lo ideal es entregárselo a un equipo multicanal dedicado de buena calidad.

Su catálogo tiene un poco de todo. Actualmente la biblioteca de películas de esta plataforma contiene unos 14 000 títulos. En su catálogo abundan los clásicos, como 'Lawrence de Arabia', 'Casablanca' o '2001: Una Odisea del Espacio', pero también nos ofrece películas mucho más modernas, como 'Tenet' o '1917', entre otras. Y próximamente llegarán 'Black Adam' y 'Halloween: el final', entre otras producciones muy recientes.

Servidorterra

Este es el aspecto que tiene el servidor Terra de Kaleidescape. Está disponible con 48 u 88 TB de capacidad, y puede servir simultáneamente hasta 10 películas 4K UHD sin pérdida de calidad, según esta marca.

Requiere hardware dedicado. Una de las características de Kaleidescape que le permiten desmarcarse con más claridad de las plataformas más populares, como Netflix, HBO Max o Prime Video, consiste en que no sirve los contenidos vía streaming. Para poder reproducir las películas que nos propone esta plataforma tenemos que descargarlas previamente completas. De hecho, esta estrategia es en gran medida la que le permite reproducir el vídeo y el sonido con un bitrate muy alto.

No obstante, este esquema de funcionamiento requiere que para reproducir los contenidos utilicemos hardware dedicado que nos vende la propia Kaleidescape. No podemos descargar las películas a nuestro PC o un NAS y reproducirlas de una forma flexible; tenemos necesariamente que utilizar un servidor y uno o varios reproductores de esta marca. Y no son precisamente baratos.

Su gran talón de Aquiles es su precio. El coste del reproductor y los servidores de vídeo que nos propone Kaleidescape coloca estos equipos fuera del alcance de la mayor parte de los entusiastas del cine en casa. Esta es la mayor pega que tiene este servicio. El reproductor de vídeo Strato C cuesta unos 4000 euros, y el servidor Compact Terra de 6 TB, que es el más modesto, unos 5000 euros. No obstante, esto no es todo. La compra de las películas oscila habitualmente entre 15 y 30 euros, y el alquiler cuesta unos 8 euros. Es una lástima que no tenga unos precios más asequibles, especialmente si nos ceñimos al coste del reproductor y el servidor.

Más información: Kaleidescape

-
La noticia Kaleidescape nos promete una calidad de imagen más alta que la del Blu-ray 4K. Así quiere conseguirlo fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

AMD ha explicado a qué se deben las anomalías de rendimiento de los Ryzen 7000 ‘Zen 4’ en algunos juegos

AMD ha explicado a qué se deben las anomalías de rendimiento de los Ryzen 7000 'Zen 4' en algunos juegos

Intel y AMD han puesto toda la carne en el asador. Los microprocesadores que nos proponen estas dos compañías para el curso 2022-2023 nos entregan un incremento del rendimiento muy notable frente a sus predecesores, aunque a los usuarios nos interesa no pasar por alto que también disipan más energía en forma de calor. Y, como cabía esperar, esta característica está disgustando a muchos potenciales compradores.

Para rizar el rizo, durante las últimas semanas varios medios, y también algunos usuarios, han identificado anomalías de rendimiento en las que están involucrados los nuevos procesadores Ryzen 7000 de AMD con microarquitectura Zen 4. Estas incidencias describen un rendimiento inferior al esperado en algunos juegos, así como una disparidad de la productividad entre Windows 10 y 11 que en principio no debería producirse.

Esta no es en absoluto la primera vez que una nueva hornada de procesadores arroja anomalías de rendimiento en algunos escenarios de uso. Y, afortunadamente, los usuarios no tenemos motivos de peso para preocuparnos. La implementación de una nueva microarquitectura puede requerir la introducción de algunas modificaciones en determinadas aplicaciones para que los nuevos procesadores puedan entregarnos lo mejor de sí mismos. Y esto es, precisamente, lo que parece estarles sucediendo a los nuevos Ryzen 7000.

AMD ya ha respondido. Y su mensaje es tranquilizador. Y razonable

AMD ha hecho lo que debe hacer: no ignorar el toque de atención que le han dado algunos medios y usuarios. Eso sí, en su mensaje asegura que por el momento sus técnicos no han conseguido reproducir esa variación del rendimiento anómala en algunos juegos que están experimentando algunos usuarios. Aun así, no descarta que este fenómeno realmente se esté produciendo, y lo explica de esta forma:

Son muchos los factores que condicionan el rendimiento de los videojuegos, como son el motor del propio juego, la arquitectura de la CPU o la elección de una determinada GPU o memoria principal. Cuando una nueva microarquitectura llega al mercado a menudo identificamos anomalías del rendimiento que deben ser subsanadas por los fabricantes de componentes, o bien por los desarrolladores de videojuegos. Este fenómeno no es nuevo. Y tampoco es inesperado.

Tiene sentido. Una nueva microarquitectura puede entregarnos un incremento del rendimiento sustancial en algunas aplicaciones, pero también cabe la posibilidad de que en otras su productividad sea inferior a la que nos propone su predecesora. Tanto Intel en sus procesadores Core de 13ª generación como AMD en sus nuevos Ryzen 7000 han implementado una nueva microarquitectura, por lo que es probable que durante los próximos meses los usuarios identifiquemos más anomalías de rendimiento en las que pueden verse involucrados estos chips.

En cualquier caso, como acabamos de ver, no tenemos motivos para preocuparnos. Los fabricantes de hardware pueden resolver algunas de estas anomalías refinando el firmware de sus componentes, y, como asegura AMD en su comunicado, los desarrolladores de software también pueden intervenir introduciendo en su código las modificaciones necesarias para sacar el máximo partido posible a las mejoras implementadas en los nuevos microprocesadores. No tenemos por qué alarmarnos. Con toda probabilidad muchas de estas anomalías serán resueltas a medida que sean identificadas.

Más información: AMD

-
La noticia AMD ha explicado a qué se deben las anomalías de rendimiento de los Ryzen 7000 'Zen 4' en algunos juegos fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

Tenemos un nuevo récord de transferencia de datos, y es bestial: nada menos que 1,84 petabits por segundo

Tenemos un nuevo récord de transferencia de datos, y es bestial: nada menos que 1,84 petabits por segundo

A Japón le ha durado poco el récord. A principios del pasado mes de junio el Instituto Nacional de Tecnologías de la Información y la Comunicación (NICT) de Japón anunció que sus ingenieros habían conseguido transmitir información a través de un enlace de fibra óptica con una velocidad de transferencia de nada menos que 1,02 petabits por segundo. Es una auténtica barbaridad.

Los anteriores hitos alcanzados en este ámbito pueden ayudarnos a poner en contexto esta cifra. En 2020 los técnicos de NICT alcanzaron la en aquel momento impresionante velocidad de transferencia de 178 Tbps, y a principios de 2022 contabilizaron 319 Tbps. Sorprendentemente pocos meses después batieron su propio récord alcanzando los 1,02 petabits por segundo que he mencionado en el párrafo anterior, pero acaban de ser destronados. Y, además, su marca ha sido batida con mucha contundencia.

Esta es la proeza: 1,84 petabits/s enviados a 7,9 km

Esta vez los responsables de este logro no son los ingenieros de NICT; lo son los investigadores de la Universidad Técnica de Dinamarca en Copenhague. Y el auténtico protagonista de esta hazaña es el procesador fotónico al que han recurrido para lidiar con esa apabullante cantidad de información. Ningún ordenador convencional equipado con uno o varios microprocesadores tradicionales tiene la potencia necesaria para procesar y transmitir ese volumen de datos. Ni siquiera varios ordenadores coordinados y trabajando al unísono la tienen.

De hecho, estos científicos daneses han tenido que tirar de ingenio para poder sacar adelante su experimento. En este artículo no vamos a profundizar en la complejidad técnica de este hito (si queréis conocer su experimento con todo detalle podéis echar un vistazo al texto científico que han publicado en Nature Photonics), pero merece la pena que nos detengamos un momento para echar un vistazo a la estrategia que han ideado para llevar esta prueba a buen puerto.

Para poder administrar ese ingente volumen de información han dividido los datos en 37 líneas diferentes

Para poder administrar ese ingente volumen de información han dividido los datos en 37 líneas diferentes con el propósito de que cada una de ellas fuese transmitida por un hilo óptico distinto de un único cable de fibra óptica. Esto es muy importante debido a que una de las características más relevantes de este experimento consiste en que estos técnicos han empleado un cable de fibra óptica convencional idéntico a los usados actualmente por los proveedores de servicios de telecomunicaciones.

Transmisionoptica

Este esquema describe la arquitectura de la infraestructura masivamente paralelizada que ha sido necesario poner a punto para hacer posible la transferencia de este descomunal volumen de información.

No obstante, la estrategia "divide y vencerás" no acaba aquí. Y es que cada una de esas 37 líneas fue dividida en 223 fragmentos (chunks), de modo que cada uno de ellos estaba asignado a una porción concreta del espectro óptico. Parece complicado, y lo es, pero podemos verlo como una argucia que persigue dividir la información en varios fragmentos con el propósito de que pueda ser procesada, codificada, enviada, recibida y verificada correctamente. Al fin y al cabo es más fácil lidiar con varios paquetes de información relativamente manejables que hacerlo con uno gigantesco e inmanejable.

Sea como sea, se salieron con la suya. Tal y como explican en su artículo, su experimento funcionó correctamente y lograron transmitir 1,84 petabits por segundo de información a una distancia de 7,9 km. Para poner esta cifra en contexto e intuir con cierta precisión su magnitud podemos tener en cuenta que el tráfico promedio que se mueve en toda internet en un instante determinado asciende a 1 petabit por segundo. Este volumen de datos no deja de crecer, pero gracias a innovaciones como la que han desarrollado estos investigadores podemos encarar el futuro de las telecomunicaciones con optimismo.

Imágenes: Guillaume Meurice | Nature Photonics

Más información: Nature Photonics

-
La noticia Tenemos un nuevo récord de transferencia de datos, y es bestial: nada menos que 1,84 petabits por segundo fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

La GeForce RTX 4090 tiene una cualidad que no esperábamos: es una bestia rompiendo contraseñas

La GeForce RTX 4090 tiene una cualidad que no esperábamos: es una bestia rompiendo contraseñas

El rendimiento de la nueva tarjeta gráfica insignia de NVIDIA es altísimo. Y lo es tanto al utilizar DLSS 3 como al prescindir de esta tecnología de reconstrucción de la imagen. Esta afirmación no deja ningún resquicio por el que pueda colarse la más mínima subjetividad; de hecho, las cifras que este monstruo gráfico ha arrojado en nuestro análisis reflejan con absoluta claridad su tremenda capacidad de cálculo.

El elevado precio de esta tarjeta gráfica la coloca fuera del alcance de la mayor parte de los jugadores, pero esta realidad no debe enmascarar que actualmente, y hasta que lleguen las inminentes tarjetas gráficas con arquitectura RDNA 3 de AMD, la GeForce RTX 4090 es la más rápida. Y con mucha diferencia. No obstante, no se siente cómoda solo con juegos y creación de contenidos; también es una bestia rompiendo contraseñas.

Ocho GeForce RTX 4090 pueden romper contraseñas de 8 caracteres en 48 minutos

Sam Croley es un experto en ciberseguridad. En su cuenta de Twitter @Chick3nman512 publica con frecuencia tuits muy interesantes en los que expone el resultado de las pruebas de penetración que lleva a cabo para identificar vulnerabilidades y evaluar la fortaleza de un sistema informático o una red. No obstante, también es uno de los desarrolladores de 'hashcat', una herramienta de código abierto diseñada para "recuperar" contraseñas.

Este software ha sido desarrollado por Croley, Jens Steube y otros programadores como una herramienta de investigación, pero es evidente que puede ser utilizada, y, de hecho, lo está siendo con total certeza, para atacar contraseñas y vulnerar sistemas. Al fin y al cabo, con este software sucede lo mismo que con otras muchas herramientas informáticas: las responsables de sus efectos son las personas que lo utilizan con fines perniciosos, y no los programadores que lo han puesto a punto.

Sam Croley ha utilizado 'hashcat' para evaluar el rendimiento de la GeForce RTX 4090 cuando se enfrenta a los algoritmos de esta herramienta

En cualquier caso, Croley lo ha empleado para poner a prueba la capacidad de la GeForce RTX 4090 cuando se enfrenta a los algoritmos de rotura de contraseñas de 'hashcat', y el resultado que ha obtenido es sorprendente: el hardware del nuevo procesador gráfico insignia de NVIDIA multiplica por dos o más el rendimiento de la también muy capaz GeForce RTX 3090 en todos los algoritmos empleados por esta herramienta.

First @hashcat benchmarks on the new @nvidia RTX 4090! Coming in at an insane >2x uplift over the 3090 for nearly every algorithm. Easily capable of setting records: 300GH/s NTLM and 200kh/s bcrypt w/ OC! Thanks to blazer for the run. Full benchmarks here: https://t.co/Bftucib7P9 pic.twitter.com/KHV5yCUkV4

— Chick3nman 🐔 (@Chick3nman512) October 14, 2022

Es muy razonable prever que la RTX 4090 supere en este escenario de uso con claridad tanto a la RTX 3090 Ti como a la RTX 3090, pero lo que este investigador parecía no intuir es que iba a duplicar su rendimiento. No obstante, esto no es todo. Según sus pruebas un clúster constituido por ocho tarjetas gráficas GeForce RTX 4090 tiene la fuerza bruta necesaria para romper una contraseña de 8 caracteres en 48 minutos.

Este resultado es impactante, y, a la vez, preocupante, debido a que esta es sin duda la longitud de contraseña más utilizada por los usuarios. Y, además, los algoritmos de 'hashcat' recurren a un abanico muy amplio de técnicas en las que la RTX 4090 ha demostrado ser muy eficaz, como los ataques de diccionario, los basados en reglas o los ataques mediante fuerza bruta, entre otros tipos de amenazas. Esto nos recuerda lo importante que es que mimemos nuestras contraseñas combinando mayúsculas, minúsculas, números y símbolos. Y, si es posible, también es una buena idea que tengan más de ocho caracteres.

-
La noticia La GeForce RTX 4090 tiene una cualidad que no esperábamos: es una bestia rompiendo contraseñas fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

La vida en la Tierra es posible gracias a este crucial y muy poco conocido mecanismo del Sol (y de las demás estrellas)

La vida en la Tierra es posible gracias a este crucial y muy poco conocido mecanismo del Sol (y de las demás estrellas)

La vida es un auténtico milagro. Por el momento no hemos dado con ella más allá de la atmósfera protectora de nuestro planeta, pero, a pesar de lo  mucho que aún desconocemos en este ámbito, la ciencia nos ofrece algunas respuestas que pretenden ayudarnos a entender qué la hace posible en la Tierra tal y como la conocemos.

Uno de los misterios que aún se nos escapa en gran medida es el germen mismo de la vida. Qué la hizo posible en un universo del que inicialmente este fenómeno no formaba parte. Sin embargo, los científicos conocen con bastante precisión varios de los mecanismos que han permitido que la vida prolifere en nuestro planeta.

De hecho, muchos de nosotros estamos familiarizados con algunos de ellos. Sabemos que la presencia de agua en estado líquido es un requisito imprescindible para que la vida tal y como la conocemos tenga lugar. Afortunadamente, la Tierra orbita en torno al Sol en el interior de la zona en la que el agua líquida es viable.

Además, nuestro planeta tiene la masa adecuada para retener la atmósfera que no solo nos entrega el oxígeno que necesitan las células de nuestros tejidos para producir energía; también ejerce junto a la magnetosfera un importantísimo efecto protector frente a la radiación cósmica. No obstante, estos son solo dos de los ingredientes de la receta que ha hecho posible la vida en nuestro planeta.

Estos son los cuatro procesos que desvelan íntimamente cómo se comporta el Sol

La estrella que nos baña con su energía también tiene un papel fundamental en el origen y la continuidad de la vida en nuestro planeta. Podemos no conocer con detalle cuál es su rol en el ciclo de vida terrestre, pero todos intuimos de una forma natural que resulta imprescindible como sostén de la vida macroscópica con la que estamos familiarizados, y de la que las plantas y los animales formamos parte.

Sin embargo, y esto es algo apasionante y muy poco conocido fuera del ámbito científico, el comportamiento de nuestro Sol está regido por un conjunto de procesos que determina no solo cómo ha sido su evolución hasta que ha alcanzado su estatus actual, sino también cómo se desarrollará en el futuro. Estos procesos pueden describirse matemáticamente con la ayuda de cuatro ecuaciones diferenciales en las que no es necesario que indaguemos, pero merece la pena que al menos conozcamos a grandes rasgos su propósito.

El comportamiento del Sol está regido por un conjunto de procesos que explica su pasado y vaticina su futuro

La primera de ellas es la de la masa, que asume que en el centro de la estrella la masa es cero y en su atmósfera tenemos la masa total. La segunda es la ecuación de producción de energía, que determina cómo la estrella obtiene energía a partir de las reacciones de fusión nuclear que se producen en su interior, y también gracias a la contracción gravitacional.

La tercera es la ecuación de transporte de energía, que refleja la forma en que la energía es transportada desde el núcleo de la estrella hacia fuera. Y la cuarta describe, precisamente, el proceso en el que os proponemos indagar en este artículo: el equilibrio hidrostático. Este mecanismo explica cómo la gravedad de la estrella contrarresta la presión de los gases y la presión de radiación para mantenerla en equilibrio.

El equilibrio hidrostático del Sol impide que se expanda y "devore" la Tierra

Las reacciones de fusión entre los átomos de hidrógeno que tienen lugar de forma natural en el interior del Sol son el auténtico motor de la estrella. De hecho, la energía que recibimos en la Tierra procede, precisamente, de este proceso, que es el auténtico responsable del latido estelar. Lo curioso es que si intentamos describir el comportamiento de una estrella ciñéndonos únicamente a los procesos de combustión que tienen lugar en su interior la única conclusión a la que podemos llegar es que debería expandirse a medida que agota su combustible.

Afortunadamente, nuestro Sol no se está expandiendo. Se mantiene en equilibrio, al igual que todas las estrellas que se encuentran sumidas en una fase de su vida conocida como secuencia principal. Eso sí, se reajusta constantemente, y, precisamente, la tensión que dirime estos ajustes es el resultado de la interacción de dos fuerzas que se oponen: la presión de radiación y de los gases resultado de la fusión de los núcleos de protio (es el isótopo más abundante del hidrógeno), que tira de la materia de la estrella hacia fuera, y la gravedad, que intenta comprimir incesantemente la estrella.

El Sol se reajusta constantemente debido a la tensión entre la presión de radiación y de los gases, por un lado, y la gravedad, por otro

Si no existiese esta segunda fuerza, la gravedad, el Sol se expandiría porque la presión de radiación y de los gases no se vería contrarrestada. Pero, afortunadamente, existe. Y tiene un rol crucial. De hecho, la gravedad es el auténtico motor del universo debido a que está involucrada en la mayor parte de los procesos que describen cómo ha sido su pasado. Y también cómo será su futuro.

No obstante, en un giro no del todo inesperado de los acontecimientos, el Sol acabará expandiéndose, aunque, eso sí, lo hará dentro de muchísimo tiempo. Cuando agote la mayor parte de su combustible. Utilizando las cuatro ecuaciones de las que hemos hablado más arriba los astrofísicos han calculado que actualmente ha consumido aproximadamente el 40% de su combustible, por lo que permanecerá dentro de la secuencia principal muchos millones de años más (tiene aproximadamente 4600 millones de años).

Dentro de 5000 millones de años según unas estimaciones, o de 6400 millones según otros estudios, su núcleo dejará de contener el hidrógeno necesario para que perduren los procesos termonucleares. En ese instante se apagará, y se transformará en un núcleo inerte en el que predominará el helio. La fusión nuclear seguirá teniendo lugar en torno al núcleo, el volumen de la estrella se incrementará significativamente y su luminosidad será el doble de la que tiene actualmente.

A medida que los procesos termonucleares se detengan en el núcleo solar el volumen de la estrella se incrementará hasta que se transforme en una gigante roja. En esta fase la estrella perderá mucha masa, y, aunque los astrofísicos no están del todo seguros acerca de cómo será su vida a partir de aquí, creen que su tamaño se incrementará lo suficiente para acabar devorando el planeta Mercurio. No está claro si también hará lo mismo con Venus y la Tierra, pero, pase lo que pase, podemos estar tranquilos. Tenemos muchos millones de años para decidir qué debemos hacer.

Imagen de portada: NASA Goddard Space Flight Center

-
La noticia La vida en la Tierra es posible gracias a este crucial y muy poco conocido mecanismo del Sol (y de las demás estrellas) fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

Transistores inversos: qué son, para qué sirven y por qué aspiran a reinventar la electrónica

Transistores inversos: qué son, para qué sirven y por qué aspiran a reinventar la electrónica

El mundo de la electrónica parece abocado a experimentar un cambio con una envergadura equiparable a la del que se produjo hace algo más de setenta años, cuando los transistores irrumpieron para poner fin al reinado de las válvulas de vacío. A los fabricantes de semiconductores cada vez les cuesta más continuar mejorando su tecnología de fabricación porque cada paso que dan les acerca más al límite físico impuesto por el silicio. Pero, afortunadamente, parece que estamos rozando con la punta de los dedos la solución a este problema.

Sungsik Lee, un profesor de ingeniería electrónica de la Universidad Nacional de Pusan, en Corea del Sur, y antiguo investigador de la Universidad de Cambridge, en Reino Unido, ha publicado una investigación en la que describe en el plano teórico un nuevo tipo de dispositivo electrónico capaz de llevar a cabo la función inversa de un transistor.


Leer más

“Linux está obsoleto”: la historia de la declaración que provocó el debate más apasionante sobre este sistema operativo

La persona que sentenció de esta forma tan contundente el futuro de Linux no es ningún aficionado del montón. Andrew S. Tanenbaum, el creador de Minix, eligió esas palabras para titular el artículo que publicó en el grupo de discusión comp.os.minix de Usenet solo unos meses después del lanzamiento de la primera versión del sistema operativo ideado originalmente por Linus Torvalds. Su crítica, como era de esperar, no cayó en saco roto.

Al día siguiente Torvalds publicó en el mismo foro una respuesta que pretendía desmontar las críticas de Tanenbaum. La razón por la que el principal instigador de Linux se tomó tan en serio esa crítica en particular al núcleo de su sistema operativo era que su propia creación estaba clara y profundamente influenciada por Minix, que, a su vez, estaba basado en Unix. Aquel primer intercambio de opiniones dio lugar a un interesantísimo debate que se ha prolongado durante años, y que ha llegado hasta nuestros días como «el debate Tanenbaum-Torvalds».


Leer más