Los ordenadores cuánticos se preparan para dar un gran salto. Uno que al fin les va a permitir resolver problemas reales

Los ordenadores cuánticos se preparan para dar un gran salto. Uno que al fin les va a permitir resolver problemas reales

Los científicos que están desarrollando su investigación en el ámbito de la computación cuántica se enfrentan a un desafío titánico: la puesta a punto de un sistema de corrección de errores. Cuando esté disponible esta tecnología (confiemos en que finalmente llegue a buen puerto) estas máquinas serán capaces de enmendar sus propios errores, lo que les permitirá entregarnos resultados fiables y les ayudará a marcar la diferencia en ámbitos de la investigación que quedan fuera del alcance de los superordenadores clásicos.

Sin embargo, la corrección de errores no es el único reto en el que están trabajando los científicos. Algunos de ellos están intentando poner a punto cúbits de más calidad que sean capaces de dilatar la vida útil de la información cuántica. Otros están enfrascados en la implementación de herramientas que les permitan controlar los bits cuánticos con más precisión y llevar a cabo más operaciones lógicas con ellos. Y muchos están implicados en el desarrollo de nuevos algoritmos cuánticos que sean capaces de ayudarnos a abordar los problemas que no podemos resolver con los superordenadores clásicos más potentes que tenemos hoy en día.

Si tomamos como punto de partida la informática clásica resulta sorprendente que uno de los mayores desafíos que plantea la computación cuántica sea, precisamente, la puesta a punto de nuevos algoritmos. Pero sí, lo es. De hecho, elaborar estos procedimientos no es en absoluto trivial; es complejísimo. "Tenemos muy pocos algoritmos potentes y los estamos reciclando para distintas aplicaciones una y otra vez, no siempre de forma eficiente", apunta Juan José García Ripoll, investigador del Instituto de Física Fundamental del Consejo Superior de Investigaciones Científicas (CSIC).

Este protocolo reduce la complejidad de algunos procedimientos cuánticos

Un grupo de investigadores del Centro RIKEN de Computación Cuántica, en Japón, liderado por el profesor Keisuke Fujii ha ideado un algoritmo muy avanzado que consigue reducir drásticamente la complejidad computacional de algunos procedimientos cuánticos. Su trabajo ha sido publicado en la revista científica Physical Review, y es muy prometedor. Tanto que ahora mismo es la mejor herramienta disponible para reproducir de una manera eficiente las interacciones a nivel atómico que tienen lugar en algunos materiales complejos.

Este algoritmo persigue ser muy valioso en dos áreas científicas: la física de la materia condensada y la química cuántica

Parece algo muy complicado, y no cabe duda de que lo es, pero podemos entender fácilmente de qué se trata si observamos el algoritmo que proponen estos investigadores como un protocolo que consigue reducir la complejidad de algunos problemas de naturaleza cuántica lo necesario para que puedan ser abordados con garantías. De hecho, su algoritmo persigue ser especialmente valioso en dos áreas científicas que tienen un potencial enorme: la física de la materia condensada y la química cuántica. Es posible que en la práctica resulte útil para desarrollar nuevos materiales, entre otras aplicaciones potenciales.

El primer físico que propuso la posibilidad de recurrir a los ordenadores cuánticos para entender mejor las interacciones atómicas de los materiales complejos fue el estadounidense Richard Feynman, y lo hizo en 1981, un momento en el que los cimientos de la computación cuántica todavía no eran firmes. Ni mucho menos. De hecho, los principios fundacionales de esta disciplina los establecieron en 1995 el físico español Ignacio Cirac y el austríaco Peter Zoller (el artículo que publicaron en mayo de ese año en Physical Review Letters es una joya).

El protocolo diseñado por estos científicos japoneses consigue lidiar con los operadores de evolución temporal de una forma mucho más eficiente

En cualquier caso, el protocolo diseñado por estos científicos japoneses consigue lidiar con los operadores de evolución temporal de una forma mucho más eficiente que la técnica utilizada hasta ahora, que se conoce como troterización. A grandes rasgos estos operadores son unas matrices de números que describen las complejísimas interacciones que tienen lugar en los materiales de naturaleza cuántica. Además, el algoritmo ideado por Fujii y sus colegas es una solución híbrida que combina protocolos cuánticos y clásicos, y tiene la capacidad de permitir que ordenadores cuánticos relativamente sencillos, como los que tenemos ahora, se enfrenten a problemas muy complicados. Suena de maravilla.

Imagen de portada: IBM

Más información: Physical Review

En Xataka: Cómo en física cuántica están logrando lo que parecía imposible: la reversión temporal del estado de una partícula

-
La noticia Los ordenadores cuánticos se preparan para dar un gran salto. Uno que al fin les va a permitir resolver problemas reales fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

El grafeno sí está marcando la diferencia, solo que en un sector inesperado: la fabricación de altavoces

El grafeno sí está marcando la diferencia, solo que en un sector inesperado: la fabricación de altavoces

El grafeno no ha estado a la altura de las expectativas. Su popularidad llegó de la mano de un abanico de aplicaciones en teoría asombrosamente amplio, pero poco a poco ese potencial se ha ido diluyendo. Aun así, este material no es un completo fiasco. Sus peculiares propiedades fisicoquímicas lo posicionan como un candidato idóneo para algunas aplicaciones en las que ya lleva bastante tiempo marcando la diferencia.

Curiosamente, una de las industrias que lo ha acogido con los brazos abiertos es la de la alta fidelidad. Y es que algunos fabricantes de altavoces de gama alta lo están empleando para poner a punto el diafragma de sus auriculares y cajas acústicas más sofisticados (y habitualmente también más caros).

En junio de 2020 tuve la oportunidad de analizar los auriculares EAH-AZ70W de Technics, que lo utilizan, y me dejaron muy buen sabor de boca por una razón: la utilización de este material en este ámbito no responde a una argucia de marketing. De hecho, está plenamente justificada por lo único que realmente importa: las características fisicoquímicas del grafeno.

El grafeno nos coloca más cerca del comportamiento pistónico perfecto

Como os hemos explicado en otros artículos desde hace más de una década, y seguro ya sabéis, el grafeno es un material que tiene un patrón regular hexagonal de átomos de carbono. Esta estructura es, precisamente, la responsable en gran medida de las propiedades que justifican su presencia en el diafragma de algunos altavoces.

Para entender con cierta precisión qué pinta el grafeno aquí necesitamos indagar en el concepto de comportamiento pistónico perfecto

No obstante, para entender con cierta precisión qué pinta el grafeno aquí necesitamos indagar en el concepto de comportamiento pistónico perfecto. Este es, sencillamente, el ideal al que debe aspirar un altavoz debido a que el diafragma idóneo tiene que desplazarse como un pistón perfecto.

Y esto quiere decir que no debe verse afectado por la inercia, y tampoco debe deformarse lo más mínimo. Como podemos intuir, este es solo un ideal teórico que en la práctica no se puede alcanzar debido a las restricciones impuestas por la física del mundo real.

Sin embargo, hay algunos materiales cuyas propiedades fisicoquímicas los colocan sorprendentemente cerca del comportamiento pistónico ideal, como el berilio o el diamante. El grafeno también es uno de ellos. De hecho, la mínima masa, ínfimo espesor y considerable rigidez de este material encajan como un guante con las características que debe tener el diafragma de un altavoz ideal.

Así suenan unas cajas acústicas de altísima gama que han recurrido al grafeno

Uno de los fabricantes de cajas acústicas que están utilizando este material en la producción de sus altavoces es la marca estadounidense Magico. Esta compañía produce unos de los recintos para cajas acústicas más sofisticados que existen, pero esta no es su única baza; también fabrica unos altavoces que tienen una impronta sonora muy atractiva.

El 'tweeter' está fabricado empleando una cúpula de berilio recubierta por una fina lámina de diamante sintético, y los altavoces de medios y graves son íntegramente de grafeno

Hace unos meses tuve la oportunidad de escuchar en un evento dedicado a la alta fidelidad el modelo M3, y, además, pude hacerlo con la calma debida y durante el tiempo necesario para hacerme una idea bastante certera acerca de sus prestaciones sonoras. Su recinto de fibra de carbono y los materiales empleados en la fabricación de sus altavoces delatan con rotundidad lo ambiciosa que es esta caja acústica.

Magico Grafeno

De hecho, el tweeter está fabricado empleando una cúpula de berilio recubierta por una fina lámina de diamante sintético, y los altavoces de medios y graves son íntegramente de grafeno. Todo esto pinta bien, pero a veces la aparente sofisticación tecnológica de un dispositivo no está alineada con sus prestaciones reales. No es el caso. Estas cajas acústicas tienen un sonido objetivamente sobresaliente. Y en gran medida los responsables son sus altavoces de grafeno.

La resolución, la dinámica y el timbre de estas cajas acústicas son sobresalientes

Lo que más me impactó de ellas fue su asombroso nivel de detalle en todo el espectro de frecuencias audible, pero, además, su capacidad dinámica está fuera de toda duda y consiguen respetar el timbre de todos los instrumentos con una precisión envidiable. Por otro lado, el nivel de presión sonora al que se expresaron fue considerable, y, de propina, no me provocaron la más mínima fatiga auditiva.

Con toda probabilidad son unas de las mejores cajas acústicas que podemos encontrar en el mercado mundial, pero esta marca tiene una pega. Una muy grande: el precio de sus cajas acústicas las coloca fuera del alcance de la mayor parte de los usuarios. De hecho, el modelo M3 tiene un precio algo superior a los 100.000 euros por pareja de cajas acústicas. Qué penita que tan pocas personas puedan disfrutarlas.

Imágenes: Magico

En Xataka: Las tarjetas de sonido para PC aún tienen sentido. Estos son los escenarios de uso en los que marcan la diferencia | Soy un entusiasta del audio y así es como he conseguido catapultar la calidad de sonido de mi PC

-
La noticia El grafeno sí está marcando la diferencia, solo que en un sector inesperado: la fabricación de altavoces fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

Intel y AMD creen que el mercado del PC ha tocado fondo: la recuperación se acerca, aunque plantea dudas muy serias

Intel y AMD creen que el mercado del PC ha tocado fondo: la recuperación se acerca, aunque plantea dudas muy serias

Durante el primer trimestre de 2023 las ventas de procesadores para PC se han desplomado. Por primera vez en muchos años AMD ha tenido pérdidas como resultado de una caída de sus ventas de CPU del 64%, y a Intel no le ha ido mucho mejor. De hecho, sus ventas de microprocesadores han caído un histórico 36%. El batacazo que se han dado estas dos compañías no deja lugar a dudas acerca de lo maltrecho que está el mercado del PC ahora mismo. Y la coyuntura económica no ayuda.

Para entender qué está pasando es importante que echemos por un momento la vista atrás y recordemos de dónde venimos. Durante 2020 y 2021, que fueron los años de pandemia más duros, los fabricantes de ordenadores portátiles y de sobremesa hicieron su agosto y vendieron prácticamente todo lo que eran capaces de fabricar. El auge del teletrabajo y una coyuntura económica favorable desencadenaron un viento a favor que colocó a estas empresas en un momento muy dulce.

Sin embargo, a principios de 2022 aparecieron los primeros nubarrones. En abril IDC confirmó que durante el primer trimestre la distribución global de ordenadores de sobremesa, portátiles y estaciones de trabajo se redujo un 5,1%. Puede no parecer mucho, pero solo era el principio de una cuesta muy empinada. Y es que a principios de octubre Gartner cuantificó la caída de las unidades distribuidas durante el tercer trimestre de 2022 en un 19,5% frente al mismo periodo de 2021. El de 2023 era claramente un batacazo anunciado.

El mercado de consumo se lo pone más difícil que nunca a los fabricantes de CPU

La crisis que está atravesando el mercado del PC es la consecuencia de una tormenta perfecta. El incremento de la inflación ha provocado que el poder adquisitivo de los consumidores se resienta mucho, por lo que es evidente que las circunstancias económicas no ayudan. Además, la caída de las ventas está en cierta medida propiciada por la alternancia de ciclos en los que una fuerte demanda suele ser relevada por un retroceso contundente. Y, por supuesto, no podemos pasar por alto el incremento del precio que han experimentado algunos componentes del PC, como los procesadores gráficos y otros circuitos integrados.

El segmento profesional podría aliviar el panorama para Intel y AMD, pero tampoco está en su mejor momento

Lisa Su, la directora general de AMD, cree que durante el primer trimestre de 2023 el mercado del PC de consumo ha tocado fondo, por lo que en adelante comenzará a retomar el rumbo. Pat Gelsinger, el director general de Intel, también ha asegurado durante la presentación de los últimos informes financieros de esta compañía que este mercado se está estabilizando. El segmento profesional podría aliviar el panorama para estas dos compañías, pero tampoco está en su mejor momento debido a que la demanda de servidores también ha caído de una forma notable.

Los máximos responsables de Intel y AMD prevén que durante el segundo semestre de 2023 la venta de ordenadores y servidores comenzará a recuperar terreno, una percepción que en cierta medida coincide con el vaticinio de IDC. Eso sí, esta consultora ha anticipado que la recuperación de este mercado no se consolidará hasta que ya en 2024 se produzca el efecto rebote en el que parecen tener depositadas sus esperanzas Intel, NVIDIA o AMD, entre otras compañías.

Los fabricantes de procesadores tendrán a su favor la llegada de la siguiente generación de CPU, pero no está claro que este acicate vaya a ser suficiente para revitalizar un mercado que está profundamente tocado. A medio plazo su futuro estará inevitablemente condicionado por la evolución de la economía global y su impacto en el maltrecho bolsillo de muchos consumidores y empresas. Por otro lado, la realidad económica no es ajena a la delicadísima coyuntura política y geoestratégica en la que están sumidas las grandes potencias y los países industrializados. Las previsiones de las empresas dibujan un futuro esperanzador, pero la incertidumbre es demasiado tangible para pasarla por alto.

Imagen de portada: Bich Tran

Más información: Tom's Hardware

En Xataka: Las tarjetas de sonido para PC aún tienen sentido. Estos son los escenarios de uso en los que marcan la diferencia

-
La noticia Intel y AMD creen que el mercado del PC ha tocado fondo: la recuperación se acerca, aunque plantea dudas muy serias fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

Taiwán destruyó el plan de China para dominar la industria de los chips. Fue el preludio de la escalada bélica actual

Taiwán destruyó el plan de China para dominar la industria de los chips. Fue el preludio de la escalada bélica actual

La relación que sostienen China y Taiwán siempre ha sido incómoda, tanto que la tensión entre ellos ha alcanzado en algunos momentos la intensidad necesaria para desencadenar un conflicto a gran escala. Afortunadamente, aun así no han llegado a las manos. Una de esas ocasiones tuvo lugar a mediados de la década pasada, y sus protagonistas involuntarias fueron las dos joyas de la corona que tiene Taiwán en la industria de los semiconductores: TSMC y MediaTek.

Estoy seguro de que la mayor parte de las personas que estáis leyendo este artículo conocéis la relevancia que tienen actualmente estas dos empresas, pero merece la pena que repasemos brevemente por qué son tan importantes debido a que, precisamente, ahí reside el germen de la historia en la que vamos a indagar. Empezaremos por TSMC. Esta compañía es el mayor fabricante de circuitos integrados del planeta. De hecho, su cuota de mercado roza el 54%, lo que la coloca a una distancia cómoda de Intel y Samsung, que la siguen con un 17% para ambas.

Esta posición de liderazgo se afianza sobre unas tecnologías de integración muy avanzadas que han colocado a esta compañía taiwanesa a la vanguardia del mercado. Apple, NVIDIA, AMD, MediaTek, Qualcomm e, incluso, Intel, son algunos de sus clientes. Le va tan bien que durante 2023 planea reclutar a 6.000 ingenieros con el propósito de cubrir sus necesidades. Y esta cifra se ciñe solo a sus previsiones para Taiwán. Cuando estén listas las plantas de chips que está poniendo a punto en Estados Unidos necesitará contratar más personal cualificado.

Vamos ahora con MediaTek. Esta empresa no es tan grande como TSMC, pero también juega un rol muy importante en el mercado de los circuitos integrados. De hecho, es el mayor diseñador de semiconductores fuera de Estados Unidos y tiene una presencia muy sólida no solo en el mercado asiático; también en el europeo y el norteamericano. Buena parte de los smartphones, las tablets o los televisores que podemos encontrar en las tiendas incorpora al menos un chip de MediaTek. En gran medida la capacidad económica de Taiwán se sostiene sobre el rendimiento de TSMC y MediaTek, aunque UMC, que también es un fabricante de chips taiwanés importante, les sigue de cerca.

La estrategia de China: reforzarse interviniendo en TSMC y MediaTek

A principios de la década de los 2000 un ingeniero eléctrico chino comenzó a destacar sobre los demás. Formado en la prestigiosísima Universidad Tsinghua de Pekín, Zhao Weiguo no tardó en hacerse notar por su dominio de la física de los semiconductores y su ambición. Cuando concluyó su formación inició su carrera profesional trabajando en una empresa tecnológica, pero no tardó en ser reclutado por Tsinghua Unigroup, una de las mayores compañías de chips y telecomunicaciones de China que está estrechamente vinculada al centro en el que había estudiado.

La Universidad Tsinghua es una institución pública administrada por el Gobierno chino, y la corporación Tsinghua Unigroup, que depende en gran medida de este centro de investigación, también está gestionada parcialmente por la Administración. El ascenso de Weiguo dentro del escalafón de esta empresa fue meteórico, pero en 2004 decidió dejar a un lado la vicepresidencia y fundar su propio fondo de inversión con la intención de sacar partido a las conexiones que había tejido en el seno del Gobierno. Su éxito fue arrollador. Tanto, de hecho, que en 2009 decidió hacerse con el 49% de las acciones de Tsinghua Unigroup. El 51% restante permaneció bajo el control de la Universidad Tsinghua.

En 2015 Zhao Weiguo visitó Taiwán con la intención de comprar el 25% de TSMC e integrar MediaTek en Tsinghua Unigroup

En 2013 Zhao Weiguo se percató del papel estratégico que ya jugaban las compañías de semiconductores y decidió reforzar su posición en esta industria. En sus declaraciones siempre ha negado que el Gobierno chino estuviese detrás de los movimientos que hizo cuando estaba al frente de Tsinghua Unigroup, pero es muy poco creíble que actuase con una libertad de movimientos total. Sobre todo si reparamos en la que sin duda fue su mayor apuesta. Y es que en 2015 visitó Taiwán con la intención de comprar el 25% de TSMC e integrar MediaTek en la filial de Tsinghua Unigroup especializada en el diseño de chips. Ni más ni menos.

Desde un punto de vista estratégico esta era una jugada maestra. Si su plan iba bien su empresa controlaría totalmente MediaTek e intervendría en la administración de TSMC. Además, China tendría acceso a través de Tsinghua Unigroup a la propiedad intelectual que estaba en manos de las dos compañías taiwanesas más poderosas. Era un plan muy ambicioso, pero también era ingenuo. Al Gobierno de Taiwán no se le escapó que entregar el control de sus dos joyas de los semiconductores a una empresa que estaba respaldada directamente por la Administración china era contrario a sus intereses, por lo que prohibió esta operación. Era lo que cabía esperar.

Aun así, Weiguo no se rindió. Cuando regresó a China instó al Gobierno a prohibir la importación de chips procedentes de Taiwán con el propósito de boicotear tanto a TSMC como a MediaTek (y por el camino también a UMC). La mayor parte de los dispositivos electrónicos equipados con chips taiwaneses que podemos encontrar en el mercado mundial se ensambla en China, por lo que impedir la entrada de circuitos integrados producidos en Taiwán era una manera eficaz de dañar gravemente la economía de esta región insular. Durante este tira y afloja la tensión entre China y Taiwán podía cortarse con un cuchillo.

La presión a la que estaban sometidas TSMC y MediaTek era tan alta que sus cúpulas directivas en algunos momentos estuvieron a punto de sucumbir

La presión a la que estaban sometidas TSMC y MediaTek era tan alta que sus cúpulas directivas en algunos momentos estuvieron a punto de sucumbir y aceptar la injerencia de China, pero el Gobierno de Taiwán se mantuvo firme y lo impidió a pesar de que corría el riesgo de entrar en conflicto con su vecino. Tras esta derrota Weiguo decidió mirar hacia Estados Unidos y coqueteó con la idea de comprar Micron, el mayor fabricante de chips de memoria de Norteamérica. De nuevo, el Gobierno estadounidense lo impidió porque consideró que esta operación ponía en riesgo la seguridad de su nación.

Aquí acabó la mayor aventura de Zhao Weiguo fuera de las fronteras de su país de origen, pero durante los últimos meses ha regresado a las portadas de los medios de comunicación a pesar de que ya no dirige Tsinghua Unigroup. Y es que a mediados de julio de 2022 fue detenido al ser acusado por la fiscalía china de corrupción cuando estaba al frente de la corporación en la que ha discurrido buena parte de su trayectoria profesional. Entre 2018 y 2021 Tsinghua Unigroup recibió más de 8.000 millones de dólares de financiación procedentes del Estado, y Weiguo es sospechoso de haber administrado fraudulentamente este dinero. Ahora más que nunca su futuro es incierto.

Imagen de portada: TSMC

Bibliografía: 'Chip War', de Chris Miller

En Xataka: TSMC está a favor de las sanciones contra China y su industria de los chips (pero cree que tiene truco)

-
La noticia Taiwán destruyó el plan de China para dominar la industria de los chips. Fue el preludio de la escalada bélica actual fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

Los televisores Mini LED de Hisense para 2023, explicados: esta tecnología por fin irrumpe en la gama de entrada

Los televisores Mini LED de Hisense para 2023, explicados: esta tecnología por fin irrumpe en la gama de entrada

Los televisores que nos proponen las principales marcas este año están empezando a llegar a las tiendas. Y, además, están desembarcando en mejor forma que nunca. Las marcas surcoreanas y japonesas acaparan buena parte de este mercado, pero a los usuarios nos interesa no perder de vista las propuestas de los fabricantes chinos por su atractiva relación precio/prestaciones. En las de TCL hemos indagado recientemente, pero ya conocemos con cierto detalle qué nos ofrece este año Hisense, que es la otra gran marca china.

En la cima de su nuevo catálogo se erige el modelo A85K, un televisor OLED preparado para procesar contenidos Dolby Vision IQ, Dolby Atmos y dotado de conectividad HDMI 2.1 que, sobre el papel, solo refina ligeramente lo que nos propuso su predecesor el año pasado. En nuestra opinión las opciones más jugosas que nos ofrece Hisense este año son sus televisores Mini LED. Su gama es muy amplia, y, además, esta tecnología estará disponible desde 399 euros. Sí, por fin vamos a tener dispositivos Mini LED en la gama de entrada.

Hisense ULED X, U8K, U7K y U6K: especificaciones técnicas


ULED X

U8K

U7K

U6K

panel

LCD VA/IPS 4K UHD 8 bits + FRC, 120 Hz y 16:9

LCD VA/IPS 4K UHD 8 bits + FRC, 120 Hz y 16:9

LCD VA/IPS 4K UHD 8 bits + FRC, 120 Hz y 16:9

LCD ADS 4K UHD 8 bits + FRC, 60 Hz y 16:9

resolución

3.840 x 2.160 puntos

3.840 x 2.160 puntos

3.840 x 2.160 puntos

3.840 x 2.160 puntos

retroiluminación

Mini LED de 5.184 zonas

Mini LED de 1.056 zonas

Mini LED de 384 zonas

Mini LED de 192 zonas

tamaños disponibles

65 y 85 pulgadas

55, 65 y 75 pulgadas

55 y 65 pulgadas

55 y 65 pulgadas

hdr

Dolby Vision IQ, HDR10+, HDR10 y HLG

Dolby Vision IQ, HDR10+, HDR10 y HLG

Dolby Vision IQ, HDR10+, HDR10 y HLG

Dolby Vision, HDR10+, HDR10 y HLG

brillo máximo

2.500 nits

1.500 nits

1.000 nits

600 nits

contraste nativo

4.000:1

5.000:1

5.000:1

1.200:1

nivel de negro

0,1 nits

0,2 nits

0,2 nits

0,1 nits

tiempo de respuesta

6 ms

6 ms

6 ms

8 ms

ángulos de visión

178º / 178º

178º / 178º

178º / 178º

178º / 178º

procesador

Quad Core MT9618

Quad Core MT9618

Quad Core MT9618

Quad Core MT9602

tecnologías para juegos

144 Hz (VRR)

ALLM

AMD FreeSync Premium Pro

144 Hz (VRR)

ALLM

AMD FreeSync Premium Pro

144 Hz (VRR)

ALLM

AMD FreeSync Premium Pro

60 Hz (VRR)

ALLM

sonido

Dolby Atmos

Dolby Atmos

Dolby Atmos

Dolby Atmos

sistema operativo

VIDAA U7

VIDAA U7

VIDAA U7

VIDAA U6

conectividad

2 x HDMI 2.1, 2 x HDMI 2.0, 1 x USB 3.0, 1 x USB 2.0, 1 x S/PDIF, 1 x CI+, 1 x entrada de línea, 1 x salida para auriculares, 1 x AV y 1 x RJ-45

2 x HDMI 2.1, 2 x HDMI 2.0, 1 x USB 3.0, 1 x USB 2.0, 1 x S/PDIF, 1 x CI+, 1 x entrada de línea, 1 x salida para auriculares, 1 x AV y 1 x RJ-45

2 x HDMI 2.1, 2 x HDMI 2.0, 1 x USB 3.0, 1 x USB 2.0, 1 x S/PDIF, 1 x CI+, 1 x entrada de línea, 1 x salida para auriculares, 1 x AV y 1 x RJ-45

3 x HDMI 2.0, 2 x USB 2.0, 1 x S/PDIF, 1 x CI+, 1 x entrada de línea, 1 x salida para auriculares, 1 x AV y 1 x RJ-45

conectividad inalámbrica

Wi-Fi 6E

Bluetooth 5.1

Wi-Fi 6E

Bluetooth 5.1

Wi-Fi 6E

Bluetooth 5.1

Wi-Fi

Bluetooth 4.2

precio

No disponible

No disponible

No disponible

No disponible

Hisense ULED X: hasta 2.500 nits y Mini LED de 5.184 zonas de atenuación local

En la tabla que publicamos encima de estas líneas podemos ver que las especificaciones del televisor LCD insignia con retroiluminación Mini LED de esta marca para 2023 prometen. Lo más extraño es que Hisense haya decidido incorporar en este modelo un panel de 8 bits + FRC, y no una matriz de 10 bits, pero más allá de este dato todo lo demás pinta muy bien. Su refresco nativo es 120 Hz, y, además, puede trabajar a 144 Hz con videojuegos mediante interpolación, pero su mejor baza es su retroiluminación.

Y es que la matriz de diodos que se responsabiliza de entregar la luz al panel LCD incorpora en las versiones de más pulgadas más de 20.000 mini-LED organizados en 5.184 zonas de atenuación local independientes. En teoría esta ambiciosa implementación de la retroiluminación debería permitir a este televisor minimizar el blooming y recuperar mucho detalle tanto en las regiones en sombra como en las áreas más iluminadas de cada fotograma.

Hisenseux

Hisense ULED X.

No obstante, esto no es todo. Según Hisense su ULED X consigue entregar picos de brillo de 2.500 nits, una cifra que le permite pelear de tú a tú con los televisores más avanzados que nos proponen Samsung, Sony o LG. Su nivel de negro también pinta muy bien (0,1 nits), y a los aficionados a los juegos les alegrará saber que es compatible con la tecnología de refresco adaptativo FreeSync Premium de AMD. También tiene entradas HDMI 2.1, pero solo dos. Es una lástima que algunas marcas sigan sin entregarnos esta norma en todos los conectores HDMI.

Hisense U8K, U7K y U6K: se desmarcan por su brillo y su compatibilidad HDR total

Al igual que el modelo ULED X en el que acabamos de indagar, los televisores de las familias U8K, U7K y U6K están preparados para lidiar con contenidos Dolby Vision, HDR10+, HDR10 y HLG. Nada que objetar hasta aquí. El más ambicioso, el U8K, tiene mucho en común con el ULED X, aunque su retroiluminación Mini LED no es tan sofisticada. En el U8K implementa 1.056 zonas de atenuación local independientes y consigue entregar picos de brillo de 1.500 nits. No está nada mal. Además, puede trabajar a 144 Hz y mantiene las dos entradas HDMI 2.1 del modelo insignia.

Hisenseu8k

Hisense U8K.

El modelo U7K nos propone una matriz de retroiluminación Mini LED organizada en 384 zonas y tiene una capacidad máxima de entrega de brillo de 1.000 nits. Estas son las únicas áreas en las que los modelos ULED X y U8K lo superan. En todo lo demás se codea de tú a tú con los modelos superiores, incluida su relación de contraste nativo (5.000:1), su nivel de negro (0,2 nits) y su tiempo de respuesta (6 ms). Un apunte interesante antes de seguir adelante: los modelos ULED X, U8K y U7K pueden incorporar un panel LCD de tipo VA o IPS. La tecnología de la matriz depende del tamaño del panel.

Hisenseu7k

Hisense U7K.

Por último, el modelo U6K apuesta por un panel LCD de tipo ADS y 8 bits + FRC. Al igual que las demás propuestas de Hisense es capaz de lidiar con los formatos HDR más populares, incluido Dolby Vision (aunque no la revisión IQ). Eso sí, su retroiluminación Mini LED es más modesta que la de los modelos superiores debido a que "solo" implementa 192 zonas de atenuación local independientes. Su capacidad máxima de entrega de brillo es de 600 nits y tiene una relación de contraste nativo de 1.200:1. No pinta nada mal, pero a los aficionados a los juegos les interesa saber que el panel de este televisor es de 60 Hz, y también que no nos entrega entradas HDMI 2.1.

Disponibilidad y precio de los televisores Mini LED de Hisense para 2023

Este fabricante todavía no nos ha confirmado cuándo llegarán sus nuevos televisores Mini LED a las tiendas, y tampoco cuál será el precio de cada modelo. Actualizaremos este artículo tan pronto como tengamos esta información para ponerla en vuestras manos.

En Xataka: Este consejo es extremadamente simple y te ayudará a sacar más partido a tu televisor por básico que sea

-
La noticia Los televisores Mini LED de Hisense para 2023, explicados: esta tecnología por fin irrumpe en la gama de entrada fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

Alemania quiere subirse al tren de los ordenadores cuánticos. Le va a costar 3.000 millones de euros

Alemania quiere subirse al tren de los ordenadores cuánticos. Le va a costar 3.000 millones de euros

IBM, Intel, Google, IonQ o Honeywell son algunas de las empresas que han apostado con más contundencia por la puesta a punto de ordenadores cuánticos. Algunas han apostado por los cúbits superconductores, y otras por las trampas de iones, pero el pulso de todas es firme. Estas cinco compañías son estadounidenses, pero no son en absoluto las únicas que han tomado este camino. Y es que esta tecnología no está solo en las manos de los Gobiernos y las grandes corporaciones.

Varias empresas emergentes también se han metido a fondo en este mercado, y algunas de ellas, como la china SpinQ o la australiana Quantum Brilliance, tienen entre manos innovaciones muy prometedoras. Europa tiene un papel muy importante en el ámbito de la investigación en computación cuántica. De hecho, la División Teórica del Instituto Max Planck de Óptica Cuántica alojado en Garching (Alemania) y dirigido por el físico español Ignacio Cirac es una referencia mundial.

Sin embargo, el Viejo Continente está actuando como un suplente en este terreno de juego. Y es una lástima. El rapidísimo desarrollo que han experimentado durante los últimos cinco años nos invita a prever que a medio plazo los ordenadores cuánticos convivirán con los superordenadores clásicos para ayudarnos a resolver algunos de los desafíos a los que se enfrenta la humanidad. Y Europa está perdiendo este tren. Afortunadamente, Alemania parece que va a aplicarse en serio.

3.000 millones de euros para desarrollar un ordenador cuántico universal

Antes de seguir adelante merece la pena que nos detengamos un momento para repasar qué es un ordenador cuántico universal. En la conversación que mantuvimos con él en junio de 2021 Ignacio Cirac nos explicó que para él los ordenadores cuánticos actuales son prototipos. Y lo son sobre todo debido a que carecen de la capacidad de enmendar sus propios errores, lo que les impide enfrentarse a la resolución de problemas realmente significativos. En algunos contextos a estos prototipos ya se les considera ordenadores cuánticos universales, pero el final del camino en cualquier caso son las máquinas dotadas de corrección de errores.

Alemania pretende tener en 2026 un ordenador cuántico de 100 cúbits. Y poco después quiere ampliarlo a 500 cúbits

Sea como sea el plan del Gobierno alemán consiste en invertir un total de 3.000 millones de euros a corto plazo con el propósito de poner a punto un ordenador cuántico de 100 cúbits en 2026. No obstante, este será solo el punto de partida debido a que su itinerario prevé refinarlo para conseguir que en poco tiempo su capacidad de procesamiento se incremente hasta los 500 cúbits. Para poner esta cifra en perspectiva nos interesa recordar que Osprey, el procesador cuántico más avanzado que tiene IBM actualmente, incorpora 433 cúbits.

No obstante, esta compañía estadounidense planea tener listo Condor, su procesador cuántico de 1.121 cúbits, a finales de 2023. El ritmo de desarrollo de IBM en el terreno de juego de la computación cuántica es tan rápido que prevé disponer de la capacidad de corregir errores a partir de 2026. La máquina que quiere poner a punto Alemania no va a ser tan avanzada como la más sofisticada de IBM, pero será lo suficientemente capaz para colocar a este país centroeuropeo a la cabeza del ecosistema de computación cuántica del Viejo Continente.

Esta iniciativa persigue colocar a Alemania en la punta de lanza mundial de las tecnologías cuánticas y respaldar su liderazgo tecnológico

Bettina Stark-Watzinger, la ministra federal de Educación e Investigación del Gobierno alemán, ha declarado que esta iniciativa persigue colocar a Alemania en la punta de lanza mundial de las tecnologías cuánticas y respaldar su liderazgo tecnológico. No obstante, ante todo aspira a contribuir al desarrollo de soluciones que permitan a la humanidad lidiar con algunos de los desafíos más imponentes a los que se enfrenta, como la investigación en el ámbito del clima, la energía, la salud, la movilidad o la seguridad. Confiemos en que otros países europeos sigan los pasos de Alemania y también apuesten con contundencia por esta disciplina.

Imagen de portada: IBM

Más información: The Quantum Insider

En Xataka: China se mide de tú a tú con Occidente: ya tiene listo su primer ordenador cuántico comercial

-
La noticia Alemania quiere subirse al tren de los ordenadores cuánticos. Le va a costar 3.000 millones de euros fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

TSMC planea gastarse un auténtico dineral en su primera fábrica europea (y aun así no será suficiente)

TSMC planea gastarse un auténtico dineral en su primera fábrica europea (y aun así no será suficiente)

Europa quiere atraer a los grandes fabricantes de chips. Sin ASML el Viejo Continente sería irrelevante en la industria de los semiconductores, y a pesar de contar con el empuje que le da esta compañía de Países Bajos, que actualmente es la única capaz de fabricar equipos de litografía de ultravioleta extremo (UVE), su posición es débil. Lo es sobre todo frente a Estados Unidos y un continente asiático en el que Taiwán, Corea del Sur, China y Japón llevan la voz cantante.

A principios de febrero de 2022 Ursula von der Leyen, la presidenta de la Comisión Europea, y Thierry Breton, el comisario europeo de mercado interior y servicios, anunciaron que Europa estaba preparando su propia ley de los semiconductores. La directiva 'Chips Act', que es como se la conoce, persigue poner al Viejo Continente en el mapa mundial de los circuitos integrados, y para hacerlo posible movilizará 43.000 millones de euros entre inversión pública y privada.

Intel invertirá 17.000 millones de euros en las dos fábricas que va a poner a punto en Madgeburgo (Alemania), y se ha comprometido con Europa a invertir durante esta década un total de 80.000 millones de euros con el propósito de reforzar el rol del Viejo Continente en la industria de los chips. Además, durante los últimos meses TSMC, que es con mucha diferencia el mayor fabricante de circuitos integrados del planeta, se ha mostrado interesado en poner a punto una planta en suelo europeo. Poco a poco esta posibilidad se va concretando, aunque parece que en cierto modo va a dejarnos con la miel en los labios.

TSMC está buscando socios en Alemania

La información que maneja Bloomberg sostiene que los ejecutivos de TSMC se están reuniendo con las cúpulas directivas de varios grupos empresariales, como Robert Bosch GmbH, NXP Semiconductors NV o Infineon Technologies AG para constituir una alianza estratégica que tendrá como primer objetivo financiar la construcción de una planta de semiconductores en el estado alemán de Sajonia. Además, al parecer estiman que su coste total rozará los 10.000 millones de euros. A priori suena bien, pero antes de sacar conclusiones es importante que pongamos esta cifra en contexto.

La fábrica de chips que TSMC planea construir en Sajonia (Alemania) costará 10.000 millones de euros

Las dos fábricas que está construyendo TSMC actualmente en Arizona (Estados Unidos) van a tener un coste total de 40.000 millones de dólares, una cifra que casi multiplica por cuatro los 12.000 millones iniciales. Miremos ahora hacia Intel. Las dos plantas que está poniendo a punto en Ocotillo (Arizona) costarán cuando estén listas 20.000 millones de dólares, y, como he mencionado unas líneas más arriba, la planta de Magdeburgo, en Alemania, costará 17.000 millones de euros.

Estas empresas no afrontan estas inversiones solas. Ni mucho menos. Cuentan con el respaldo económico tanto de otros socios, que es precisamente lo que está negociando actualmente TSMC en Alemania, como de la Administración de los países en los que se están instalando. En cualquier caso, lo que nos interesa en este artículo son los importes que se están manejando. Y es que es evidente que el coste de la fábrica que TSMC planea construir en Alemania palidece frente al de las plantas que ya está poniendo a punto en Arizona. Y también al de las próximas instalaciones de Intel en Estados Unidos y Alemania.

El coste total de una fábrica de chips está condicionado de una forma muy profunda por el tipo de equipos de litografía que se van a instalar en su interior. Las máquinas más sofisticadas son las de fotolitografía UVE que fabrica ASML, y cada una de ellas cuesta más de 100 millones de dólares. Sabemos oficialmente que TSMC será capaz de producir chips de 3 nm en una de las plantas que está construyendo en Arizona, y la otra contará con los nodos litográficos N5, N5P, N4, N4P y N4X.

Las filtraciones aseguran que TSMC planea utilizar la planta de Sajonia para producir chips de 28 nm

Esta tecnología justifica en gran medida los 40.000 millones de dólares que costarán estas plantas debido a que aglutinarán una gran cantidad de equipos de vanguardia de ASML y Tokyo Electron. Los 10.000 millones de euros (unos 11.000 millones de dólares) que TSMC y sus socios planean invertir en la fábrica de Sajonia no son suficientes para dotar a esta planta de equipos litográficos realmente punteros.

Desafortunadamente, las filtraciones confirman nuestras sospechas. Y es que, según Bloomberg, esta compañía taiwanesa planea utilizar estas instalaciones para producir chips de 28 nm. Si esta planta finalmente se construye no marcará una gran diferencia para Europa desde un punto de vista estrictamente tecnológico. Cabe la posibilidad de que este proyecto sea aprobado definitivamente en agosto, por lo que no tendremos que esperar mucho para comprobar si llega a buen puerto.

Imagen de portada: TSMC

Más información: Bloomberg

En Xataka: El liderazgo de Taiwán en la industria de los chips es el resultado de una apuesta en la que TSMC se lo jugó todo a una carta

-
La noticia TSMC planea gastarse un auténtico dineral en su primera fábrica europea (y aun así no será suficiente) fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

NVIDIA GeForce RTX 4070, análisis: esta bestia tiene la mala uva necesaria para gobernar con puño de hierro la gama media

NVIDIA GeForce RTX 4070, análisis: esta bestia tiene la mala uva necesaria para gobernar con puño de hierro la gama media

La esperábamos con impaciencia. La primera tarjeta gráfica GeForce RTX 40 de gama media ya está aquí. Los tres modelos superiores que hemos analizado durante los últimos meses, las RTX 4090, 4080 y 4070 Ti, tienen una vocación muy clara de afianzarse en la gama alta, y sus precios lo reflejan con mucha contundencia. La GeForce RTX 4070 que estamos a punto de poner a prueba no es ninguna ganga, pero se sitúa unos 400 euros por debajo de la RTX 4070 Ti, lo que la pone a tiro de un abanico más amplio de usuarios.

NVIDIA nos la propone como un reemplazo apropiado de las GeForce GTX 1080 y GeForce RTX 2070, y la defiende como el hardware ideal para renderizar la mayor parte de los juegos de última generación a 1440p y con el trazado de rayos activado con una cadencia superior a los 100 FPS. Eso sí, con la tecnología DLSS 3 habilitada. Suena bien, pero a los usuarios nos interesa ir más allá de lo que nos dice el fabricante y comprobar cómo rinde con un abanico de títulos amplio para identificar si realmente está a la altura. Así se las gasta la GeForce RTX 4070.

NVIDIA GeForce RTX 4070: especificaciones técnicas


NVIDIA GEFORCE RTX 4070 TI

NVIDIA GEFORCE RTX 4070

NVIDIA GEFORCE RTX 3070 TI

nvidia geforce rtx 3070

arquitectura

Ada Lovelace

Ada Lovelace

Ampere

Ampere

transistores

35.800 millones

35.800 millones

17.400 millones

17.400 millones

fotolitografía

4 nm TSMC

4 nm TSMC

8 nm Samsung (tecnología de integración personalizada para NVIDIA)

8 nm Samsung (tecnología de integración personalizada para NVIDIA)

núcleos cuda

7.680

5.888

6.144

5.888

núcleos rt

60 (3ª generación)

46 (3ª generación)

48 (2ª generación)

46 (2ª generación)

núcleos tensor

240 (4ª generación)

184 (4ª generación)

192 (3ª generación)

184 (3ª generación)

unidades de cálculo (cu)

60

46

48

46

caché de nivel 1

128 Kbytes (por SM)

128 Kbytes (por SM)

128 Kbytes (por SM)

128 Kbytes (por SM)

caché de nivel 2

48 Mbytes

36 Mbytes

4 Mbytes

4 Mbytes

frecuencia de reloj máxima

2,61 GHz

2,47 GHz

1,77 GHz

1,73 GHz

memoria dedicada

12 GB GDDR6X

12 GB GDDR6X

8 GB GDDR6X

8 GB GDDR6

bus de memoria

192 bits

192 bits

256 bits

256 bits

velocidad de transferencia de la memoria

504,2 GB/s

504,2 GB/s

608 GB/s

448 GB/s

shader tflops (fp32)

40

29

22

20,3

operaciones de rasterización

80 ROP/s

64 ROP/s

96 ROP/s

96 ROP/s

unidades de mapas de texturas

240 TMU

184 TMU

192 TMU

184 TMU

tasa de texturas

626,4 Gtexeles/s

455,4 Gtexeles/s

339,8 Gtexeles/s

317,4 Gtexeles/s

tasa de píxeles

208,8 Gpíxeles/s

N.d.

169,9 Gpíxeles/s

165,6 Gpíxeles/s

directx 12 ultimate

interfaz pci express

PCIe 4.0

PCIe 4.0

PCIe 4.0

PCIe 4.0

revisión hdmi

2.1

2.1

2.1

2.1

revisión displayport

1.4a

1.4a

1.4a

1.4a

dlss 3

No

No

ranuras ocupadas

2

2

2

2

temperatura máxima de la gpu

90 ºC

90 ºC

93 ºC

93 ºC

consumo medio

226 vatios

186 vatios

290 vatios

220 vatios

potencia recomendada para la fuente de alimentación

700 vatios

650 vatios

750 vatios

650 vatios

conectores de alimentación

2 x 8 pines o 1 PCIe Gen 5 de 300 vatios o más

2 x 8 pines o 1 PCIe Gen 5 de 300 vatios o más

2 x 8 pines (incluye adaptador a 12 pines)

1 x 8 pines

precio

999,90 euros

649,90 euros

689,89, euros

619,90 euros

MSI GeForce RTX 4070 VENTUS 2X 12G OC Tarjeta Gráfica - RTX 4070 GPU, 12GB GDDR6X (21Gbps/192-bit), PCIe 4.0 - 2 x TORX Fan 4.0 - HDMI 2.1a, DisplayPort 1.4a

La arquitectura Ada Lovelace de la GeForce RTX 4070, bajo nuestra lupa

NVIDIA no se ha andado con delicadezas a la hora de comunicar qué representa para esta compañía la llegada de la arquitectura Ada Lovelace: un salto gigantesco en términos de rendimiento y eficiencia.

En cualquier caso, más allá de la apuesta por la tecnología de integración de 4 nm de TSMC en detrimento de la litografía de 8 nm de Samsung utilizada en la fabricación de los procesadores gráficos GeForce RTX 30, las nuevas GPU de NVIDIA nos entregan una nueva generación de núcleos RT y núcleos Tensor, así como más núcleos CUDA que nunca.

También llegan de la mano de frecuencias de reloj más altas e implementan tecnologías de procesado de la imagen más sofisticadas. Así se las gastan las brutales (y caras) GeForce RTX 40.

Más núcleos CUDA, y, además, llegan los núcleos RT de 3ª generación

Los núcleos CUDA se responsabilizan de llevar a cabo los cálculos complejos a los que se enfrenta una GPU para resolver, entre otras tareas, la iluminación general, el sombreado, la eliminación de los bordes dentados o la física. Estos algoritmos se benefician de una arquitectura que prioriza el paralelismo masivo, por lo que cada nueva generación de GPU de NVIDIA incorpora más núcleos CUDA.

La arquitectura de los núcleos CUDA prioriza el paralelismo masivo, de ahí que cada nueva generación de GPU de NVIDIA incorpore más unidades de este tipo

Como cabía esperar, los procesadores gráficos de la familia GeForce RTX 40 tienen muchos más núcleos de este tipo que sus predecesores. De hecho, la GPU GeForce RTX 4090 incorpora 16.384 núcleos CUDA, mientras que la GeForce RTX 3090 Ti se conforma con 10.752. La GeForce RTX 4080 tiene 9.728, por lo que la GeForce RTX 3080 Ti la supera con sus 10.240 núcleos de este tipo. Eso sí, la RTX 3080 nos propone 8.704 núcleos CUDA. La GeForce RTX 4070 Ti, por su parte, tiene 7.680 núcleos de este tipo, mientras que la RTX 3070 Ti se conforma con "solo" 6.144 núcleos CUDA.

Nvidiacuda

Los núcleos RT (Ray Tracing), por otro lado, son las unidades que se encargan expresamente de asumir una gran parte del esfuerzo de cálculo que requiere el renderizado de las imágenes mediante trazado de rayos, liberando de este estrés a otras unidades funcionales de la GPU que no son capaces de llevar a cabo este trabajo de una forma tan eficiente. Son en gran medida responsables de que las tarjetas gráficas de las series GeForce RTX 20, 30 y 40 sean capaces de ofrecernos ray tracing en tiempo real.

NVIDIA asegura que sus núcleos RT de 3ª generación duplican el rendimiento de sus predecesores al procesar las intersecciones de los triángulos

NVIDIA asegura que sus núcleos RT de 3ª generación duplican el rendimiento de sus predecesores al procesar las intersecciones de los triángulos que intervienen en el renderizado de cada fotograma. Además, estos núcleos incorporan dos nuevos motores conocidos como Opacity Micromap (OMM), o 'micromapa de opacidades', y Displaced Micro-Mesh (DMM), que podemos traducir como 'micromalla de desplazamientos'.

Dejando a un lado los detalles más complejos, el motor OMM tiene el propósito de acelerar el renderizado mediante trazado de rayos de las texturas empleadas en la vegetación, las vallas y las partículas. El procesado de estos tres elementos representa un gran esfuerzo para la GPU, y el objetivo de este motor es, precisamente, aliviarlo. Por otro lado, el motor DMM se encarga de procesar las escenas que contienen una gran complejidad geométrica para hacer posible el renderizado en tiempo real mediante trazado de rayos.

Los núcleos Tensor evolucionan: llega la 4ª generación

Al igual que los núcleos RT, los núcleos Tensor son unidades funcionales de hardware especializadas en resolver operaciones matriciales que admiten una gran paralelización, pero estos últimos han sido diseñados expresamente para ejecutar de forma eficiente las operaciones que requieren los algoritmos de aprendizaje profundo y la computación de alto rendimiento. Los núcleos Tensor ejercen un rol esencial en la tecnología DLSS (Deep Learning Super Sampling), de ahí que tengan un claro protagonismo en la reconstrucción de la imagen mediante DLSS 3.

Según NVIDIA, la 4ª iteración de estos núcleos es mucho más rápida que su predecesora, logrando multiplicar su rendimiento por cinco en determinadas circunstancias. Un apunte interesante: el motor de transformación FP8 utilizado por primera vez por esta marca en estos núcleos para llevar a cabo cálculos con números en coma flotante de 8 bits procede de la GPU H100 Tensor Core diseñada por NVIDIA expresamente para los centros de datos que trabajan con algoritmos de inteligencia artificial.

Estas dos tecnologías nos prometen marcar la diferencia en las GeForce RTX 40

El esfuerzo computacional que conlleva el renderizado en tiempo real de un fotograma mediante trazado de rayos es descomunal. Esta es la razón por la que cada nueva generación de procesadores gráficos no puede conformarse únicamente con introducir una cantidad mayor de las mismas unidades funcionales presentes en sus predecesoras.

La fuerza bruta importa, pero no es suficiente en absoluto. También es imprescindible elaborar estrategias que consigan abordar los procesos involucrados en el renderizado de una forma más inteligente. Más ingeniosa.

Las tecnologías 'Shader Execution Reordering' y 'Ada Optical Flow Accelerator' persiguen incrementar el rendimiento de la GPU abordando las tareas involucradas en el renderizado de la forma más eficiente posible

Este es el enfoque que pone sobre la mesa NVIDIA con las GPU GeForce RTX 40, y a nosotros nos parece la opción correcta. Precisamente las dos tecnologías en las que estamos a punto de indagar, conocidas como Shader Execution Reordering (SER) y Ada Optical Flow Accelerator, persiguen llevar a la práctica este propósito: incrementar el rendimiento de la GPU abordando las tareas involucradas en el renderizado que desencadenan un mayor esfuerzo computacional de la forma más eficiente posible.

Nvidiaaofa

La tecnología Shader Execution Reordering (SER) se responsabiliza de optimizar los recursos de la GPU reorganizando en tiempo real y de una manera inteligente los sombreadores (shaders), que son los programas que llevan a cabo los cálculos necesarios para resolver los atributos esenciales del fotograma que se está renderizando, como la iluminación o el color.

De alguna forma esta técnica lleva a cabo un procedimiento similar a la ejecución superescalar de las CPU, lo que, según NVIDIA, permite a la tecnología SER multiplicar por tres el rendimiento del renderizado mediante trazado de rayos, incrementando, por el camino, la cadencia de imágenes por segundo en hasta un 25%. No pinta nada mal.

Nvidiaaofa2

Por otro lado, la tecnología Ada Optical Flow Accelerator tiene el propósito de predecir qué objetos se van a desplazar entre dos fotogramas consecutivos para entregar esa información a la red neuronal convolucional involucrada en la reconstrucción de la imagen mediante DLSS 3.

Según NVIDIA esta estrategia multiplica por dos el rendimiento de la anterior implementación de la tecnología DLSS, y, a la par, mantiene intacta la calidad de imagen. De nuevo, suena muy bien, pero los usuarios tendremos que ir comprobando poco a poco si realmente esta innovación está a la altura de las expectativas que está generando.

Nvidiaaofa3

NVIDIA nos promete que las GeForce RTX 40 son más eficientes que las RTX 30

Una de las consecuencias de la adopción de la tecnología de integración de 4 nm de TSMC frente a la litografía de 8 nm utilizada por Samsung para fabricar las GPU de la familia GeForce RTX 30 consiste en que los últimos procesadores gráficos de NVIDIA deberían ser perceptiblemente más eficientes. Y sí, eso es precisamente lo que nos promete esta marca.

Según NVIDIA la temperatura máxima que alcanzan bajo estrés las GPU GeForce RTX 4090 y 4080 asciende a 90 ºC

La diapositiva que publicamos debajo de estas líneas describe la relación que existe entre la energía consumida y el rendimiento que nos entregan las GPU con arquitectura Turing, Ampere y Ada Lovelace. Y, efectivamente, esta última implementación gana por goleada a sus predecesoras. Aun así, no debemos pasar por alto las exigencias de las nuevas tarjetas gráficas de NVIDIA si nos ceñimos a su consumo eléctrico.

Según NVIDIA la temperatura máxima que alcanzan bajo estrés las GPU GeForce RTX 4090, 4080 y 4070 Ti asciende a 90 ºC, pero el consumo medio de la RTX 4090 roza los 450 vatios, mientras que la RTX 4080 coquetea con los 320 vatios, y la GeForce RTX 4070 Ti roza los 226 vatios. Por otro lado, NVIDIA sugiere que los equipos en los que va a ser instalada una RTX 4090 cuenten con una fuente de alimentación de 850 vatios o más, mientras que la RTX 4080 requiere una fuente de al menos 750 vatios. Y la RTX 4070 Ti, 700 vatios.

Nvidiaeficiencia

DLSS 3 multiplica por cuatro el rendimiento con 'ray tracing'

La técnica de reconstrucción de la imagen empleada por NVIDIA recurre al análisis en tiempo real de los fotogramas de nuestros juegos utilizando algoritmos de aprendizaje profundo. Su estrategia es similar a la que emplean otros fabricantes de hardware gráfico: la resolución de renderizado es inferior a la resolución de salida que finalmente entrega la tarjeta gráfica a nuestro monitor.

El motor gráfico renderiza las imágenes a una resolución inferior a la que esperamos obtener, y después la tecnología DLSS escala cada fotograma a la resolución final

De esta forma el estrés al que se ve sometido el procesador gráfico es menor, pero a cambio es necesario recurrir a un procedimiento que se encargue de escalar cada uno de los fotogramas desde la resolución de renderizado hasta la resolución final. Y, además, debe hacerlo de una forma eficiente porque, de lo contrario, el esfuerzo que hemos evitado en la etapa anterior podría aparecer en esta fase de la generación de las imágenes.

Esta es la fase en la que entra en acción la inteligencia artificial que ha puesto a punto NVIDIA. Y los núcleos Tensor de la GPU. El motor gráfico renderiza las imágenes a una resolución inferior a la que esperamos obtener, y después la tecnología DLSS escala cada fotograma a la resolución final aplicando una técnica de muestreo mediante aprendizaje profundo para intentar recuperar el máximo nivel de detalle posible.

Dlss3

En las imágenes que hemos utilizado para ilustrar este artículo podemos ver que el procedimiento implementado en DLSS 3 es más complejo que el utilizado por DLSS 2. De hecho, la nueva técnica de reconstrucción de la imagen de NVIDIA aprovecha la presencia de los núcleos Tensor de cuarta generación de las GPU GeForce RTX 40 para hacer posible la ejecución de un nuevo algoritmo de reconstrucción llamado Optical Multi Frame Generation.

'Optical Multi Frame Generation' analiza dos imágenes secuenciales del juego en tiempo real y calcula la información del vector que describe el movimiento de todos los objetos

En vez de abordar la reconstrucción de cada fotograma trabajando con píxeles aislados, que es lo que hace DLSS 2, esta estrategia genera fotogramas completos. Para hacerlo analiza dos imágenes secuenciales del juego en tiempo real y calcula la información del vector que describe el movimiento de todos los objetos que aparecen en esos fotogramas, pero que no son procesados por el motor del propio juego.

Nvidia Dlss3 2

Según NVIDIA esta técnica de reconstrucción de la imagen consigue multiplicar por cuatro la cadencia de imágenes por segundo que nos entrega DLSS 2. Y, lo que también es muy importante, minimiza las aberraciones y las anomalías visuales que aparecen en algunos juegos al utilizar la anterior revisión de esta estrategia de reconstrucción de la imagen.

El procesado de los fotogramas en alta resolución y los vectores de movimiento se alimentan de una red neuronal convolucional

Un apunte interesante más: el procesado de los fotogramas en alta resolución y los vectores de movimiento se alimentan, según nos explica NVIDIA, de una red neuronal convolucional que analiza toda esta información y genera en tiempo real un frame adicional por cada fotograma procesado por el motor del juego.

Para concluir, ahí va otra promesa de esta compañía: DLSS 3 puede trabajar en tándem con Unity y Unreal Engine, y durante los próximos meses llegará a más de 35 juegos. De hecho, es posible habilitar esta técnica en poco tiempo en aquellos títulos que ya implementan DLSS 2 o Streamline.

La GeForce RTX 4070 Founders Edition, en detalle

El diseño del recinto de esta tarjeta gráfica es esencialmente idéntico al de las versiones Founders Edition de las GeForce RTX 4090 y 4080. Eso sí, la RTX 4070 es mucho más compacta. En unos minutos lo comprobaremos. Por otro lado, esta última tiene según NVIDIA un consumo medio de 186 vatios, por lo que esta marca nos sugiere que la alimentemos con una fuente que tenga al menos una entrega de potencia de 650 vatios.

Geforcertx4070 Detalle1

El conector de alimentación de esta tarjeta gráfica es idéntico a la interfaz 12VHPWR que nos proponen las demás GeForce RTX 40 que hemos analizado. Llevamos más de seis meses conviviendo con esta familia de hardware gráfico, y nosotros aún no hemos identificado ningún problema con este conector de alimentación. Sea como sea seguiremos poniéndolo a prueba en el futuro y si surge alguna incidencia, os lo contaremos.

Geforcertx4070 Detalle2

En la siguiente fotografía de detalle podemos ver con claridad la salida de aire alojada junto a los conectores DisplayPort y HDMI. Esta tarjeta incorpora tres salidas DisplayPort 1.4a ideales para instalaciones multimonitor, y, al igual que las RTX 30, también tiene una salida HDMI que implementa la norma 2.1 y que nos permite enviar la señal de vídeo a un televisor (lo ideal es que también sea compatible con este estándar para poder sacar partido a las prestaciones vinculadas a él).

Geforcertx4070 Detalle3

En la siguiente fotografía podemos ver con claridad que la GeForce RTX 4070 es mucho más compacta que la RTX 4080 (el recinto de esta última es idéntico al de la RTX 4090). La versión Founders Edition que hemos analizado mide 244 x 112 mm y ocupa dos ranuras, por lo que es posible instalarla sin problema en la mayor parte de los chasis para PC que podemos encontrar actualmente en las tiendas. Incluso en aquellos que son relativamente compactos, algo que posiblemente no podríamos hacer con las GeForce RTX 4090, 4080 y 4070 Ti, que son mucho más voluminosas.

Geforcertx4070 Detalle4

A 1440p esta tarjeta se siente como pez en el agua. Y en las condiciones más exigentes

La configuración de la plataforma de pruebas que hemos utilizado para evaluar el rendimiento de esta tarjeta gráfica es la siguiente: microprocesador AMD Ryzen 9 5950X con 16 núcleos (32 hilos de ejecución); dos módulos de memoria Corsair Dominator Platinum DDR4-3600 con una capacidad conjunta de 16 GB y una latencia de 18-19-19-39; una placa base ASUS ROG Crosshair VIII Hero con chipset AMD X570; una unidad SSD Samsung 970 EVO Plus con interfaz NVMe M.2 y una capacidad de 500 GB; y, por último, un sistema de refrigeración por aire para la CPU Corsair A500 con ventilador de rodamientos por levitación magnética.

Todas las pruebas las hemos ejecutado con la máxima calidad gráfica implementada en cada juego o test y habilitando la API DirectX 12 en aquellos títulos en los que está disponible

Otro elemento muy importante de nuestra plataforma de análisis es el monitor que hemos utilizado en nuestras pruebas: un ROG Strix XG27UQ de ASUS equipado con un panel LCD IPS de 27 pulgadas con resolución 4K UHD y capaz de trabajar a una frecuencia de refresco máxima de 144 Hz. Esta veterana pantalla es una pieza habitual en nuestros análisis y nos permite sacar todo el jugo a cualquier tarjeta gráfica de última generación.

Todas las pruebas las hemos ejecutado con la máxima calidad gráfica implementada en cada juego o test y habilitando la API DirectX 12 en aquellos títulos en los que está disponible. El modo de reconstrucción de la imagen que hemos seleccionado tanto en las tarjetas gráficas de NVIDIA como en las de AMD en aquellos juegos que implementan esta tecnología es el que prioriza el rendimiento. Y, por último, las herramientas que hemos utilizado para recoger los datos son FrameView, de NVIDIA; OCAT, de AMD; y FRAPS. Las tres están disponibles gratuitamente.

No podemos seguir adelante sin detenernos un momento para echar un vistazo a la fuente de alimentación a la que hemos encomendado la tarea de saciar a la GeForce RTX 4070. Durante nuestras pruebas hemos utilizado una fuente Corsair HX1500i modular con una capacidad de entrega de potencia máxima de 1.500 vatios y unas prestaciones acordes a la tarjeta gráfica que estamos analizando. De hecho, durante las decenas de horas que han durado nuestras pruebas esta fuente de alimentación se ha comportado de una manera completamente estable. Además, es sorprendentemente silenciosa.

Fuentecorsair

En el test 'Time Spy' de 3DMark la GeForce RTX 4070 ha arrojado unos índices de rendimiento muy buenos, aunque, como cabía esperar, está por debajo de las demás tarjetas gráficas de la familia GeForce RTX 40. En esta prueba también la han superado las Radeon 7900 XTX y XT de AMD, aunque no debemos pasar por alto que estas últimas no pelean con la RTX 4070; compiten con las GeForce RTX 4080 y 4070 Ti respectivamente.

En la prueba dedicada a la tecnología DLSS de 3DMark la GeForce RTX 4070 vuelve a salir bien parada. Y es que al recurrir a la reconstrucción de la imagen empleando esta técnica supera con claridad tanto a la RTX 3090 Ti como a la RTX 3080 Ti a 2160p, aunque no a 1440p. Este resultado nos recuerda el importante salto que ha dado hacia delante NVIDIA al pasar de DLSS 2 a la tercera gran iteración de esta tecnología.

En 'Microsoft Flight Simulator' la GeForce RTX 4070 nos entrega un rendimiento estupendo a cualquier resolución. Si recurrimos a la tecnología DLSS 3 obtendremos 100 FPS o más incluso a 2160p, y si prescindimos de esta técnica podremos jugar a 1080p y 1440p con una cadencia sostenida muy próxima a los 60 FPS. No tengo nada que objetar a su capacidad de lidiar con el motor gráfico de este título.

En 'Cyberpunk 2077', una vez más, la GeForce RTX 4070 nos entrega un rendimiento muy coherente. Es un poco más lenta que la RTX 4070 Ti, como podíamos prever, pero, aun así, rinde estupendamente a cualquier resolución y con el mejor acabado gráfico siempre que, eso sí, habilitemos la reconstrucción de la imagen mediante la tecnología DLSS 3.

En la siguiente gráfica podemos ver que el rendimiento que nos entrega la GeForce RTX 4070 cuando habilitamos la tecnología DLSS 3 en 'A Plague Tale: Requiem' es fabuloso. Incluso a 2160p. De hecho, a esta última resolución arroja una cadencia media de más de 100 FPS.

En 'F1 22' la GeForce RTX 4070 vuelve a rendir estupendamente. Sin reconstrucción de la imagen nos permite disfrutar mucho este juego con la máxima calidad gráfica a 1080p y 1440p, y si habilitamos la tecnología DLSS 3 también podemos jugar con totales garantías a 2160p. Nada más que añadir. Otro punto para la RTX 4070.

En 'Doom Eternal' la GeForce RTX 4070 ha sido superada a todas las resoluciones por las demás tarjetas gráficas de última generación, aunque, eso sí, le pisa los talones a la Radeon RX 7900 XT de AMD incluso a 2160p. En cualquier caso, en este juego la RTX 4070 rinde muy bien con la máxima calidad gráfica y el trazado de rayos activado sin necesidad de recurrir a la reconstrucción de la imagen mediante inteligencia artificial.

'Control' es, como siempre, un hueso duro de roer. Con el trazado de rayos activado la GeForce RTX 4070 rinde bien a 1080p y 1440p, pero sufre a 2160p. No obstante, si moderamos un poco nuestras exigencias gráficas o prescindimos del ray tracing es perfectamente capaz de entregarnos una experiencia satisfactoria también a esta última resolución.

En 'Death Stranding' sucede algo parecido a lo que hemos visto en 'Doom Eternal'. El motor gráfico de este juego está bien optimizado, y, aunque las GPU de última generación no nos entregan con él un rendimiento tan alto como en el título de id Software, rinden de maravilla. La GeForce RTX 4070 alcanza una cadencia de imágenes por segundo muy alta a 1080p y 1440p, y a 2160p roza los 100 FPS sin necesidad de activar el DLSS. Bien por ella.

A pesar de su veteranía, el motor gráfico de 'Final Fantasy XV' sigue siendo duro de pelar. Aun así, la GeForce RTX 4070 se siente cómoda con él incluso a 2160p. Eso sí, a 1080p y 1440p nos entrega una cadencia de imágenes por segundo media de más de 120 FPS. A 2160p esta cifra cae hasta los 72 FPS, pero sigue siendo un valor razonablemente bueno. No tengo nada que objetar.

Vamos ahora con nuestras pruebas de medición de la temperatura. En la siguiente gráfica podemos ver que a plena carga la GeForce RTX 4070 se calienta más que la RTX 4080 y la RTX 4070 Ti. Con toda probabilidad las inferiores dimensiones de su recinto condicionan la capacidad de disipación de energía térmica del sistema de refrigeración, pero, aun así, durante nuestras pruebas se ha mantenido permanentemente dentro de un rango de temperaturas saludable.

Para medir el nivel de ruido máximo emitido por cada tarjeta gráfica bajo estrés utilizamos nuestro sonómetro Velleman DVM805. Como podemos ver, la GeForce RTX 4070 es la tarjeta gráfica más silenciosa que hemos analizado durante los últimos meses. Además, no solo emite menos ruido que las demás soluciones gráficas de última generación; también es más silenciosa que las Radeon RX 6900 XT y 6800 XT de la generación pasada.

NVIDIA GeForce RTX 4070: la opinión de Xataka

Nuestro banco de pruebas no deja lugar a dudas: el rendimiento global de esta tarjeta gráfica es, como podíamos prever, más comedido que el de las demás soluciones gráficas de última generación de NVIDIA y AMD. No obstante, esto no significa en absoluto que haya salido mal parada. Todo lo contrario. A 1080p y 1440p rinde de maravilla en cualquier juego y con la máxima calidad gráfica habilitada. Incluso con el trazado de rayos activado.

La GeForce RTX 4070 es la tarjeta gráfica con mejor relación precio/prestaciones de lo que llevamos de generación

Además, también podemos contar con ella para jugar a 2160p. Eso sí, a esta resolución si queremos activar el ray tracing y optamos por el mejor acabado gráfico tendremos que activar la tecnología DLSS 3. No obstante, a mí no me parece un problema porque la calidad de imagen que nos entrega esta técnica es sobresaliente incluso en movimiento. Honestamente, en mi opinión la GeForce RTX 4070 es la tarjeta gráfica con mejor relación precio/prestaciones de lo que llevamos de generación. Nada más que añadir.

MSI GeForce RTX 4070 VENTUS 2X 12G OC Tarjeta Gráfica - RTX 4070 GPU, 12GB GDDR6X (21Gbps/192-bit), PCIe 4.0 - 2 x TORX Fan 4.0 - HDMI 2.1a, DisplayPort 1.4a

Esta tarjeta gráfica ha sido cedida para este análisis por NVIDIA. Puedes consultar nuestra política de relaciones con las empresas.

Más información: NVIDIA

En Xataka: AMD Ryzen 9 7950X3D, análisis: así se las gasta esta bestia cuando la ponemos a triturar videojuegos

-
La noticia NVIDIA GeForce RTX 4070, análisis: esta bestia tiene la mala uva necesaria para gobernar con puño de hierro la gama media fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

Los televisores QD-OLED y Neo QLED 8K/4K de Samsung para 2023, explicados: darán batalla en la gama alta

Los televisores QD-OLED y Neo QLED 8K/4K de Samsung para 2023, explicados: darán batalla en la gama alta

Los televisores OLED y Neo QLED que nos propone Samsung este año están listos para llegar a las tiendas. Y van a aterrizar con novedades jugosas. Para nosotros lo más interesante son las mejoras que esta marca ha introducido en sus paneles QD-OLED de segunda generación. Las matrices de 2022 eran sobre el papel capaces de entregar picos de 1.500 nits, pero los paneles de nueva iteración rozan, según Samsung, los 2.000 nits.

Además, nos promete algo importante: sus nuevos paneles QD-OLED entregan este brillo sin degradar el color. Será interesante ponerlos a prueba cuando caigan en nuestras manos con contenidos HDR de calidad. La fiabilidad, por otro lado, también ha mejorado. Según esta marca su vida útil es más larga y minimizan la probabilidad de que se produzca retención de imágenes estáticas en el panel. No obstante, hasta ahora solo hemos arañado la superficie. Estos son los televisores con los que Samsung abordará este año la gama alta.

Ya está aquí el primer televisor OLED con panel QD-OLED de 2ª generación


S95C

S90C

panel

QD-OLED 4K UHD de 10 bits, relación de aspecto 16:9 y refresco de 120 Hz

QD-OLED 4K UHD de 10 bits, relación de aspecto 16:9 y refresco de 120 Hz

resolución

3.840 x 2.160 píxeles

3.840 x 2.160 píxeles

tamaños disponibles

55, 65 y 77 pulgadas

55 y 65 pulgadas

brillo máximo

Más de 2.000 nits

1.500 nits

procesador de imagen

Quantum 4K con IA

Quantum 4K con IA

hdr

HDR10+, HDR10 y HLG

HDR10+, HDR10 y HLG

sonido

70 vatios

4.2.2 canales

Dolby Atmos

OTS+

40 vatios

2.1 canales

Dolby Atmos

OTS Lite

conectividad

4 x HDMI 2.1, 2 x USB 2.0, 1 x Ethernet, 1 x salida audio digital óptica, 1 x jack de 3,5 mm, 1 x RF y 1 x RS-232C

4 x HDMI 2.1, 2 x USB 2.0, 1 x Ethernet, 1 x salida audio digital óptica, 1 x jack de 3,5 mm, 1 x RF y 1 x RS-232C

conectividad inalámbrica

Wi-Fi 5

Bluetooth 5.2

Wi-Fi 5

Bluetooth 5.2

sistema operativo

Tizen

Tizen

precio

Desde 2.699 euros (55 pulgadas)

Desde 2.399 euros (55 pulgadas)

Este año Samsung lanza dos televisores con matriz orgánica. Su propuesta OLED insignia es el modelo S95C. Incorpora un panel QD-OLED de segunda generación, que, como he mencionado más arriba, según esta marca consigue entregar picos de brillo de 2.000 nits en una ventana que ocupa el 10% de la superficie del panel. He tenido la oportunidad de verlo en acción, y mis primeras sensaciones son muy positivas por su capacidad subjetiva de entrega de brillo y su colorimetría.

Sus negros son abisales, como corresponde en un televisor OLED. Por otro lado, al igual que las demás propuestas de esta marca, puede reproducir contenidos HDR10+, HDR10 y HLG, pero no Dolby Vision. Una lástima. Eso sí, todas sus entradas HDMI implementan la norma 2.1. Y su sonido está cuidado (al menos sobre el papel). Virtualiza audio Dolby Atmos e incorpora 4.2.2 canales excitados por varios amplificadores en clase D con una potencia conjunta de 70 vatios.

Samsungqd Oled 1

En la tabla que publicamos un poco más arriba podemos ver que las especificaciones del modelo S90C son similares a las del S95C. No hemos podido confirmarlo con Samsung, por lo que no estamos seguros del todo, pero sospechamos que el panel orgánico de este televisor es una matriz QD-OLED de primera generación. Lo sospechamos sobre todo porque su capacidad de entrega de brillo es ligeramente menor que la del S95C. Aun así, en teoría el procesado de la imagen del S90C está más pulido que el del modelo QD-OLED de 2022. Cuando tengamos más información fiable acerca del tipo de panel del S90C la compartiremos con vosotros.

Samsungqd Oled 2

Por otro lado, la conectividad de estos dos nuevos televisores OLED es esencialmente idéntica, aunque solo el S95C nos propone un módulo One Connect. Por último, el sonido del S90C es un poco menos ambicioso que el del modelo OLED insignia. Procesa audio Dolby Atmos y restituye 2.1 canales excitados por varios amplificadores en clase D con una potencia conjunta de 40 vatios. Si nos ceñimos a sus especificaciones nos parece más atractivo el S95C, pero no podemos pasar por alto que también es perceptiblemente más caro. La versión de 55 pulgadas del S90C cuesta 2.399 euros, mientras que el S95C de este mismo tamaño sube hasta los 2.699 euros.

Samsung ha refinado aún más su retroiluminación mini-LED en los Neo QLED


QN900C

qn800c

qn700c

qn95c

qn90c

panel

Neo QLED LCD VA 8K de 10 bits, relación de aspecto 16:9 y refresco de 100 Hz

Neo QLED LCD VA 8K de 10 bits, relación de aspecto 16:9 y refresco de 100 Hz

Neo QLED LCD VA 8K de 10 bits, relación de aspecto 16:9 y refresco de 50 Hz

Neo QLED LCD VA 4K de 10 bits, relación de aspecto 16:9 y refresco de 100 Hz

Neo QLED LCD VA 4K de 10 bits, relación de aspecto 16:9 y refresco de 120 Hz

resolución

7.680 x 4.320 puntos

7.680 x 4.320 puntos

7.680 x 4.320 puntos

3.840 x 2.160 píxeles

3.840 x 2.160 píxeles

retroiluminación

Mini-LED

Mini-LED

Mini-LED

Mini-LED

Mini-LED

tamaños disponibles

65, 75 y 85 pulgadas

65, 75 y 85 pulgadas

55, 65 y 75 pulgadas

55, 65, 75 y 85 pulgadas

43, 50, 55, 65 y 85 pulgadas

brillo

Neo Quantum HDR 8K+

Neo Quantum HDR 8K+

Neo Quantum HDR 8K

Neo Quantum HDR+

Neo Quantum HDR

micro dimming

Ultimate 8K Dimming Pro

Ultimate 8K Dimming Pro

Ultimate 8K Dimming Pro

Ultimate UHD Dimming Pro

Ultimate UHD Dimming

procesador de imagen

Neural 8K con IA

Neural 8K con IA

Neural Quantum Processor Lite 8K

Neural Quantum Processor 4K

Neural Quantum Processor 4K

hdr

HDR10+, HDR10 y HLG

HDR10+, HDR10 y HLG

HDR10+, HDR10 y HLG

HDR10+, HDR10 y HLG

HDR10+, HDR10 y HLG

sonido

90 vatios

6.2.4 canales

Dolby Atmos

OTS Pro

70 vatios

4.2.2 canales

Dolby Atmos

OTS+

60 vatios

4.2 canales

Dolby Atmos

OTS Lite

70 vatios

4.2.2 canales

Dolby Atmos

OTS+

20 vatios

2 canales

Dolby Atmos

OTS Lite

conectividad

4 x HDMI 2.1, 3 x USB, 1 x USB-C, 1 x Ethernet, 1 x salida audio digital óptica, 1 x jack de 3,5 mm, 1 x RF y 1 x CI

4 x HDMI 2.1, 3 x USB, 1 x USB-C, 1 x Ethernet, 1 x salida audio digital óptica, 1 x jack de 3,5 mm, 1 x RF y 1 x CI

4 x HDMI 2.1, 3 x USB, 1 x USB-C, 1 x Ethernet, 1 x salida audio digital óptica, 1 x jack de 3,5 mm, 1 x RF y 1 x CI

4 x HDMI 2.1, 2 x USB, 1 x Ethernet, 1 x salida audio digital óptica, 1 x jack de 3,5 mm, 1 x RF y 1 x CI

4 x HDMI 2.1, 2 x USB, 1 x Ethernet, 1 x salida audio digital óptica, 1 x jack de 3,5 mm, 1 x RF y 1 x CI

conectividad inalámbrica

Wi-Fi 6E

Blueooth 5.2

Wi-Fi 6E

Blueooth 5.2

Wi-Fi 5

Blueooth 5.2

Wi-Fi 5

Blueooth 5.2

Wi-Fi 5

Blueooth 5.2

sistema operativo

Tizen

Tizen

Tizen

Tizen

Tizen

precio

Desde 5.799 euros (65 pulgadas)

Desde 4.199 euros (65 pulgadas)

Desde 2.899 euros (55 pulgadas)

Desde 2.799 euros (55 pulgadas)

Desde 1.699 euros (43 pulgadas)

Como en años anteriores, la gama Neo QLED que nos propone Samsung en 2023 es muy amplia. Los modelos QN900C, QN800C y QN700C apuestan por un panel LCD de tipo VA con resolución 8K, mientras que el QN95C y el QN90C incorporan una matriz del mismo tipo, pero 4K UHD. En la tabla de especificaciones podemos ver que la frecuencia de refresco nativa de los paneles es diferente. Los hay de 120, 100 y 50 Hz, aunque, eso sí, todos ellos pueden trabajar a frecuencias superiores, de hasta 144 Hz, con videojuegos utilizando técnicas de interpolación.

Samsung asegura que el procesado de la imagen que han implementado sus ingenieros en los televisores Neo QLED de este año es más avanzado que en oleadas anteriores. Además, todos estos modelos implementan retroiluminación mini-LED, y esta marca nos promete que los algoritmos de administración de la matriz de diodos son más precisos y rápidos que nunca. Será interesante comprobarlo cuando tengamos la oportunidad de analizar estos televisores en nuestras propias instalaciones. 

Samsungneoqled8k 1

Más allá de la resolución, la frecuencia de refresco nativa del panel y su esquema de retroiluminación mini-LED, estos televisores también se diferencian por su sonido y conectividad. El QN900C tiene el audio más ambicioso, y, curiosamente, el QN800C y el QN95C, que es el modelo Neo QLED insignia con resolución 4K UHD, tienen el mismo sonido. Por otro lado, solo el QN900C y el QN800C tienen conectividad Wi-Fi 6E. Los demás nos proponen Wi-Fi 5. Eso sí, todos ellos nos entregan cuatro entradas HDMI 2.1. Un último apunte para concluir: solo los modelos 8K llegan con el módulo One Connect.

Samsungneoqled8k 2

Televisores OLED y Neo QLED 8K/4K de Samsung para 2023: precio y disponibilidad

Todos los televisores en los que hemos indagado en este artículo llegarán a las tiendas durante las próximas semanas. Estos son los precios de partida de cada serie:

En Xataka: 2023 va a ser un año espectacular en televisores: esto es lo que están preparando los principales fabricantes

-
La noticia Los televisores QD-OLED y Neo QLED 8K/4K de Samsung para 2023, explicados: darán batalla en la gama alta fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

El precio de las memorias, en caída libre: Samsung ha decidido controlarlo con una estrategia de choque frontal

El precio de las memorias, en caída libre: Samsung ha decidido controlarlo con una estrategia de choque frontal

Las cifras que maneja la consultora TrendForce son tajantes: el precio medio de los módulos de memoria DRAM se ha reducido un 20% durante el primer trimestre de este año si lo comparamos con el que tenían en el último trimestre de 2022. La delicada coyuntura económica global ha sumido la industria de la tecnología en un periodo de vacas flacas, y los fabricantes de smartphones y ordenadores están percibiendo su impacto con una intensidad que hacía tiempo que no veíamos.

El comportamiento del mercado del PC ilustra con claridad qué está sucediendo. Durante el primer trimestre de 2022 las unidades distribuidas cayeron alrededor de un 5%, y la pendiente continuó inclinándose hasta cerrar el año con una caída aproximada del 20% frente al mismo periodo de 2021. El año en curso no ha empezado mejor. De hecho, IDC vaticinó a principios del pasado mes de septiembre que la crisis del mercado del PC se agudizará en 2023 y los primeros síntomas de recuperación no llegarán hasta 2024.

El negocio de los fabricantes de chips de memoria está profundamente vinculado al comportamiento del mercado de los ordenadores, los teléfonos móviles o los servidores, entre otros dispositivos electrónicos. Por esta razón, si se venden menos ordenadores y menos smartphones necesariamente se venderán menos memorias DRAM. Y si se venden menos chips de memoria se acumula el stock y los precios caen. La ley de la oferta y la demanda que rige la economía de mercado global no perdona.

Samsung dará un volantazo para evitar el naufragio del mercado de las memorias

Esta compañía surcoreana es el mayor fabricante de chips de memoria del planeta. Según la consultora Statista cerró el tercer trimestre de 2022 con una cuota de mercado del 40,7%, lo que la sitúa a una distancia cómoda de la también surcoreana SK Hynix, con un 28,8%, y la estadounidense Micron, que tiene una cuota del 26,4%. Estas tres empresas lideran el mercado de los chips DRAM con una autoridad apabullante, lo que deja a Nanya, Winbond, Powerchip, Elpida y otros fabricantes con unas cuotas por debajo de un tímido 2%.

El beneficio de la división de semiconductores de Samsung ha caído estrepitosamente en el primer trimestre de 2023

La caída del precio de las memorias que he descrito en las primeras líneas de este artículo ha tenido un impacto directo en los resultados económicos de la filial de Samsung especializada en la fabricación de semiconductores. Esta división es la principal fuente de ingresos de esta compañía, y ha cerrado el primer trimestre de 2023 con una caída de los beneficios de nada menos que 3.400 millones de dólares al compararla con la cifra del mismo periodo de 2022. Es una barbaridad, aunque esta cifra recoge su negocio de los chips al completo, por lo que no podemos precisar en qué medida se ha visto propiciada por la caída del precio de los circuitos integrados DRAM.

Samsung tiene muy claro qué debe hacer para frenar la sangría: equilibrar la oferta y la demanda. Y la estrategia más eficaz para lograrlo requiere fabricar temporalmente menos semiconductores, y, sobre todo, menos chips de memoria. De esta forma el stock no se seguirá acumulando, y, en teoría, los precios detendrán su caída.

Esta compañía prevé que durante el segundo semestre de este año el mercado de los semiconductores empezará a recuperarse. Mientras tanto merece la pena que los usuarios no pasemos por alto las previsiones de TrendForce: durante el segundo trimestre de 2023 el precio de las memorias que los usuarios podemos encontrar en las tiendas mermará entre un 10 y un 15% adicional.

Imagen de portada: Samsung

Más información: SCMP | Statista

En Xataka: EEUU involucra a Corea del Sur en su contraataque a China para defender a su mayor fabricante de chips de memoria

-
La noticia El precio de las memorias, en caída libre: Samsung ha decidido controlarlo con una estrategia de choque frontal fue publicada originalmente en Xataka por Juan Carlos López .

Leer más