Las suscripciones llegan a los coches: el grupo Stellantis prevé ingresar 20 000 millones de euros más al año gracias a las actualizaciones de software

Las suscripciones llegan a los coches: el grupo Stellantis prevé ingresar 20 000 millones de euros más al año gracias a las actualizaciones de software

La industria del automóvil se está transformando de una forma muy profunda y con una rapidez sorprendente. Las circunstancias lo exigen. El coche eléctrico es una herramienta valiosa en el marco de una estrategia global que persigue minimizar las emisiones contaminantes. Y el desarrollo del coche autónomo está siendo propulsado de una forma notable por los avances en inteligencia artificial y conectividad.

Dadas las circunstancias el 'hardware' de los coches, entendiéndolo como el conjunto de sus componentes físicos, está perdiendo relevancia a la misma velocidad a la que el software y los servicios vinculados a la industria del automóvil la están adquiriendo. El grupo Stellantis acaba de pronunciarse, y su apuesta no deja lugar a dudas: el software va a ser una fuente de ingresos fundamental para los fabricantes de coches. Y, además, lo va a ser dentro de muy poco tiempo.

Este conglomerado empresarial aglutina marcas tan relevantes como DS, Citroën, Peugeot, Fiat, Alfa Romeo o Chrysler, entre muchas otras, y Carlos Tavares, el director general del grupo, ha asegurado hace unos minutos que todas irán de la mano con un ambicioso objetivo común: incrementar los ingresos anuales de Stellantis en nada menos que 20 000 millones de euros para 2030 gracias al empujón de las actualizaciones de software que recibirán sus coches.

Objetivo: mejorar la experiencia de los usuarios y catapultar los ingresos

Las cifras que maneja el grupo Stellantis marean. De aquí a 2025 invertirá más de 30 000 millones de euros para afrontar la transformación de su porfolio de vehículos necesaria para desplegar la electrificación masiva que ya está en marcha. Y también para hacer posibles las actualizaciones del software de los coches que, sobre el papel, permitirán a todas las marcas del grupo desarrollar notablemente sus prestaciones globales.

En este contexto el término 'prestaciones' no se ciñe únicamente a su rendimiento sobre el asfalto; condiciona todos los apartados que inciden de alguna forma en la experiencia que tenemos los usuarios. Y es que lo que nos propone Stellantis es que «nuestros coches no sean únicamente un recurso para desplazarnos del punto A al B; también deben ser un espacio personalizado en el que podamos desarrollar nuestra productividad, e, incluso, disfrutar nuestros momentos de ocio».

Según Stellantis en 2030 habrá aproximadamente 34 millones de coches conectados y monetizables. Ahí queda eso

Este es el contexto en el que las actualizaciones de software están llamadas a tener en los coches una importancia similar a la que tienen actualmente en nuestros teléfonos móviles y ordenadores. Cuando nuestro coche reciba una de ellas pondrá en nuestras manos, al menos en teoría, capacidades que antes no tenía, por lo que las mejoras del software no se limitarán únicamente a corregir aquellos errores que han sido identificados.

Según Stellantis en 2030 habrá aproximadamente 34 millones de coches conectados y monetizables. Y en 2024 prácticamente todos los vehículos nuevos se podrán actualizar de forma remota. Una de las características importantes que tendrán estas actualizaciones de software es que se podrán desplegar vía OTA (Over-The-Air), por lo que llegarán a los coches de forma inalámbrica y sin necesidad de llevarlos a un taller o conectarlos a un ordenador.

Stellantis aún no ha dado a conocer los detalles acerca de las actualizaciones de software que llegarán a sus coches durante los próximos años. No sabemos en qué rango de precios se moverán, pero ha confirmado que pondrá a disposición de sus clientes varios servicios de suscripción, y también que lo que persigue, en definitiva, es desconectar el ciclo de desarrollo del software del ciclo de evolución del hardware.

Para conseguirlo planea lanzar actualizaciones de software OTA frecuentes, de manera que en 2026 llegarán como mínimo cada tres meses, y a partir de 2030 serán mucho más frecuentes: «llegarán de una forma casi constante», ha asegurado uno de sus ejecutivos. Aunque no lo han confirmado, esta estrategia nos invita a prever que posiblemente las suscripciones darán acceso a los usuarios de forma temporal a las actualizaciones, de modo que para seguir actualizando un vehículo será necesario sostener la suscripción a lo largo del tiempo.

A partir de 2030 las actualizaciones OTA serán muy frecuentes: «llegarán de una forma casi constante»

También cabe la posibilidad de que quien compre un coche de alguna de las marcas de Stellantis pueda pagar puntualmente una actualización de software que despliegue un paquete de mejoras concretas en su vehículo. Os contaremos más tan pronto como tengamos más información acerca de las modalidades de suscripción que baraja este grupo automovilístico. Es evidente que estamos a punto de presenciar cambios muy profundos en la industria del automóvil, y posiblemente no serán del agrado de todos los usuarios.

Dos apuntes interesantes antes de finalizar. Stellantis ha llegado a un acuerdo con Foxconn que permitirá a esta última desarrollar cuatro nuevas familias de chips que cubrirán más del 80% de las necesidades de semiconductores de este grupo a partir de 2024. Y ese mismo año también estarán disponibles tres nuevas plataformas tecnológicas que perseguirán desarrollar la inteligencia artificial de sus coches y favorecer el despliegue a gran escala de las actualizaciones OTA a las que hemos dedicado la mayor parte de este artículo.

Más información | Stellantis

-
La noticia Las suscripciones llegan a los coches: el grupo Stellantis prevé ingresar 20 000 millones de euros más al año gracias a las actualizaciones de software fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

La energía nuclear es la que menos CO2 emite en todo su ciclo de vida: esto es lo que asegura el último informe de Naciones Unidas

La energía nuclear es la que menos CO2 emite en todo su ciclo de vida: esto es lo que asegura el último informe de Naciones Unidas

Quienes defienden que las fuentes de energía renovables, como la eólica o la solar, y la nuclear no conllevan emisiones contaminantes están en lo cierto, pero con matices. Estas tecnologías de generación de energía eléctrica no producen emisiones contaminantes durante la fase de generación de la electricidad, pero su ciclo de vida no se ciñe exclusivamente a esta parte del proceso.

Para conocer con precisión su impacto medioambiental es necesario analizar todo el ciclo de vida de cada fuente energética, lo que implica contabilizar las emisiones contaminantes que acarrean procesos que a menudo pasamos por alto, como, por ejemplo, la construcción de las instalaciones en las que se va a producir la energía, la fabricación del combustible, la gestión de los residuos o el desmantelamiento de las instalaciones una vez que van a dejar de ser utilizadas.

Parece razonable asumir que la capacidad de generar electricidad sin desencadenar emisiones contaminantes de las renovables y la nuclear debería darles una ventaja importante frente a las fuentes de energía que recurren a combustibles de origen fósil. Y sí, es así. Sin embargo, cuando introducimos el ciclo de vida completo de estas tecnologías en la ecuación el cálculo se complica, pero nos permite llegar a conclusiones interesantes.

La energía nuclear sale bien parada del informe elaborado por UNECE

Al menos en lo que se refiere a la emisión de dióxido de carbono durante todo el ciclo de vida de las distintas fuentes de energía que utilizamos actualmente. La organización que ha elaborado este informe es UNECE, la Comisión Económica de las Naciones Unidas para Europa, y a su estudio se le presupone el rigor y la objetividad necesarios para que Naciones Unidas pueda perfilar la estrategia global más adecuada para ejecutar la transición energética.

El estudio que ha elaborado esta organización está disponible íntegramente en su página web (podéis consultarlo pinchando aquí), y esta es la gráfica que recoge cuántos gramos de dióxido de carbono emite cada una de las fuentes de energía por kilovatio hora (kWh) generado:

Co2 Unece

Fuente: UNECE

La gráfica que acabamos de ver no es muy intuitiva, así que esta tabla recoge la misma información, pero simplificada y agrupando cada una de las tecnologías vinculadas a una misma fuente de energía para permitirnos interpretar los datos con más facilidad:


emisiones (gramos de co2 por kwh generado)

Energía nuclear

5,1 - 6,4

Energía hidráulica

6,1 - 147

energía eólica

7,8 - 23

energía solar fotovoltaica

7,4 - 83

energía solar de concentración

14 - 122

gas

92 - 513

carbón

149 - 1095

Esta información nos recuerda lo complicado que es valorar en su justa medida las aportaciones y los desafíos que conlleva cada una de las fuentes de energía que estamos utilizando. Como acabamos de ver, la energía nuclear sale bien parada del análisis de las emisiones contaminantes de dióxido de carbono si contabilizamos todo su ciclo de vida, que es objetivamente una estrategia razonable. Aunque, eso sí, los retos y los compromisos que conlleva la gestión de los residuos siguen ahí.

Todas las fuentes de energía nos obligan a asumir compromisos, y conocerlos es la mejor herramienta que tenemos para valorar cada una de ellas con la máxima objetividad posible

Por otro lado las renovables son un recurso muy atractivo con el que contamos para afrontar la transición energética, pero, como refleja el informe de UNECE, merece la pena que no pasemos por alto que la puesta en marcha de las instalaciones, la fabricación de los equipos de generación y su posterior desmantelamiento y procesado también conllevan emisiones contaminantes. Es evidente que todas las fuentes de energía nos obligan a asumir algunos compromisos, y conocerlos es la mejor herramienta que tenemos para valorar cada una de ellas con la máxima objetividad posible.

Imagen de portada | Johannes Plenio

Más información | UNECE | Foro Nuclear

-
La noticia La energía nuclear es la que menos CO2 emite en todo su ciclo de vida: esto es lo que asegura el último informe de Naciones Unidas fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

Fusión nuclear en 2024: así funciona el ingenioso reactor de Helion, la empresa que ha prometido anticiparse a ITER

Fusión nuclear en 2024: así funciona el ingenioso reactor de Helion, la empresa que ha prometido anticiparse a ITER

La transición a un modelo energético sostenible y más respetuoso con el medio ambiente en la que nos hemos embarcado como sociedad plantea muchos desafíos.

Uno de los más acuciantes requiere encontrar la forma de satisfacer nuestras necesidades energéticas sin provocar emisiones contaminantes, lo que ha colocado en el centro de atención a las dos fuentes de energía que encajan en este requisito: las renovables y la fisión nuclear.

Sin embargo, en el horizonte se perfila otra tecnología de obtención de energía extraordinariamente prometedora y de la que ya hemos hablado en muchas ocasiones en Xataka: la fusión nuclear.

Los retos que es necesario superar para poner a punto el primer reactor de fusión comercial son numerosos, pero este es, precisamente, el propósito de ITER, IFMIF-DONES y DEMO: guiarnos con paso firme hacia la fusión nuclear comercial.

Helion Energy planea demostrar que su reactor de fusión nuclear es capaz de sostener la reacción, generar un beneficio energético neto y producir electricidad en 2024

EUROfusion, que es la organización europea que supervisa y coordina el proyecto ITER, ha definido un itinerario que prevé hacer posible la fusión nuclear comercial durante la década de los 60. El próximo gran hito en este camino llegará, si todo sigue su curso, en 2025.

Este será el año en el que los técnicos finalizarán el ensamblaje del reactor de fusión nuclear y llevarán a cabo las primeras pruebas con plasma. Pero parece que otro proyecto podría adelantárseles. Y su respaldo económico procede de la iniciativa privada.

Helion Energy es una empresa emergente muy joven (fue fundada en 2013), pero, como veremos más adelante en este artículo, ya ha alcanzado algunos hitos importantes vinculados a la tecnología involucrada en la fusión nuclear. Su propósito es llegar a la fusión comercial muy pronto. Anticiparse a todos los demás.

De hecho, planea demostrar que su reactor de fusión nuclear es capaz de sostener la reacción, generar un beneficio energético neto y producir electricidad en 2024. Si lo cumple, algo que aún está por ver, logrará adelantarse un año a las primeras pruebas con plasma de ITER.

Curiosamente, la aproximación a la fusión nuclear de Helion es diferente a la de ITER. La geometría de su reactor no responde al diseño tokamak utilizado por este último, y el combustible que utiliza no es una combinación de deuterio y tritio, sino una mezcla de deuterio y helio-3.

Eliminar el tritio de la ecuación es importante porque, al parecer, ha permitido a los ingenieros de Helion esquivar algunos de los desafíos que más quebraderos de cabeza están dando a los técnicos de ITER en el ámbito de la ingeniería. Y es que, en realidad, los retos que pone ante nosotros hoy la fusión nuclear no los plantea la ciencia básica; es la ingeniería la que debe enfrentarse a ellos.

Así funciona el reactor de fusión nuclear que propone Helion

Antes de seguir adelante merece la pena que nos detengamos un momento para indagar brevemente en el respaldo económico con el que cuenta esta empresa. Y es que no cabe duda de que un proyecto de esta envergadura requiere estar impulsado por un músculo financiero sólido y muy robusto que sea capaz de inyectar el capital necesario para hacerlo posible.

Helion recibirá una financiación adicional de 500 millones de dólares, y tiene pactados 1700 millones más

Y sí, parece que Helion lo tiene. A principios de este mes anunció que a corto plazo recibirá una financiación adicional de 500 millones de dólares, y tiene pactados 1700 millones más a medio plazo vinculados a la consecución de varios hitos.

No obstante, esta empresa cuenta desde hace ya varios años con el respaldo financiero de varios inversores muy importantes. Dustin Moskovitz, el cofundador de Facebook; Peter Thiel, el cofundador de PayPal junto a Elon Musk; Sam Altman, el director general de OpenAI; y las entidades de capital riesgo Mithril, Y Combinator y Capricorn dan forma a su músculo financiero.

Las soluciones tecnológicas que han ideado los ingenieros de Helion son muy ingeniosas. Al menos lo son sobre el papel. Su reactor toma algunos de los principios fundamentales de la fusión nuclear mediante confinamiento magnético utilizada por ITER, y también varias ideas de la fusión por confinamiento inercial respaldada sobre todo por el experimento NIF (National Ignition Facility) del Laboratorio Nacional Lawrence Livermore, situado en California (Estados Unidos). Pero, como he mencionado unos párrafos más arriba, su aproximación es muy original.

En la recreación que publicamos debajo de estas líneas podemos ver la peculiar geometría del reactor de fusión nuclear que han ideado los ingenieros de Helion. Para desencadenar la reacción es necesario introducir el combustible constituido inicialmente por el deuterio, y posteriormente también por el helio-3, en las dos cámaras laterales, que, como podemos ver, tienen un volumen sensiblemente superior al de la cámara central en la que finalmente tendrá lugar la fusión nuclear.

Helionfusion1

El deuterio es un isótopo del hidrógeno cuyo núcleo contiene un protón y un neutrón, y es muy abundante en nuestro planeta porque se encuentra presente en todas las formas de agua, incluidos, por supuesto, los mares y océanos. El helio-3, sin embargo, es extraordinariamente escaso en la Tierra.

El helio-3 es un subproducto de la fusión nuclear, de manera que las «cenizas» de este proceso se reutilizan como parte del combustible

Como explicamos con detalle en el artículo que enlazo aquí mismo, es muy interesante introducir este elemento en la ecuación de la fusión nuclear debido a que si reemplazamos el núcleo de tritio utilizado en la fusión por un núcleo de helio-3 cambiaremos el neutrón de alta energía resultante por un protón, que es mucho más fácil de manejar gracias a su carga eléctrica positiva. De esta forma es posible evitar en cierta medida la degradación y la irradiación de los materiales utilizados en el revestimiento de las cámaras de vacío del reactor de fusión.

El problema es que, como hemos visto, en la Tierra apenas hay helio-3, y traerlo desde la Luna, en donde es mucho más abundante, actualmente es impracticable. Además, para rizar el rizo, su producción industrial a partir de la desintegración radiactiva (beta) del tritio es muy cara. ¿Cómo esperan entonces obtenerlo los técnicos de Helion? De una forma ingeniosa: el helio-3 es un subproducto de la fusión nuclear del deuterio, de manera que las «cenizas» de este proceso se reutilizan como parte del combustible, dando lugar a un ciclo cerrado que permite en cierta medida regenerar el propio combustible utilizado en la reacción.

Una vez que ha sido introducido en el interior de las cámaras laterales del reactor nuclear es necesario calentar el combustible hasta que alcance una temperatura de nada menos que 100 millones de grados centígrados. A esta temperatura el deuterio y el helio-3 adquieren el estado de plasma, que no es otra cosa que un gas extremadamente caliente. De mantener el plasma confinado en el interior de la cámara de vacío y de evitar que entre en contacto directo con las paredes del contenedor se responsabiliza un campo magnético que tiene una intensidad altísima.

Helionfusion2

No obstante, el campo magnético generado en las cámaras laterales del reactor no se responsabiliza únicamente de confinar el plasma; también se opone al campo magnético interno del propio plasma, de manera que la presión a la que es sometido el combustible es brutal. Para que la fusión de los núcleos de deuterio y helio-3 tenga lugar deben darse unas condiciones de temperatura y presión muy exigentes, de ahí que sea necesario calentar el plasma hasta que alcance los 100 millones de grados centígrados que he mencionado en el párrafo anterior, y también someterlo a una presión tremenda.

Para que la fusión de los núcleos de deuterio y helio-3 tenga lugar deben darse unas condiciones de temperatura y presión muy exigentes

Sin embargo, curiosamente, el reactor de fusión nuclear de Helion no necesita que el campo magnético externo sea tan potente como el utilizado por ITER. Según sus técnicos la eficiencia de su tecnología de confinamiento magnético, y también la presión que obtienen como resultado de la interacción que se produce entre el campo magnético externo y el campo magnético interno del plasma, provocan que 10 teslas de su tecnología sean equiparables a 44 teslas en un reactor de fusión nuclear con geometría tokamak convencional.

En cualquier caso, ¿qué sucede cuando el plasma alcanza la temperatura óptima y es sometido a la presión adecuada? Sencillamente, en ese momento el gas extremadamente caliente de las dos cámaras laterales es proyectado hacia la cámara central con la energía cinética necesaria para que se den en su interior las condiciones de presión y temperatura imprescindibles para que la fusión de los núcleos de deuterio y helio-3 tenga lugar. Aquí tenemos, por fin, la tan ansiada fusión nuclear.

Helionfusion3

A medida que el plasma se va expandiendo en el interior de la cámara central su campo magnético interno se va oponiendo al campo magnético externo. Según la ley de Faraday la interacción entre estos dos campos induce la aparición de una corriente eléctrica que es capturada de forma directa por el equipamiento vinculado al reactor nuclear para generar electricidad.

El método de generación de la electricidad utilizado por Helion es más eficiente que el de ITER porque evita la mediación de muchos pasos intermedios

Como acabamos de ver, la forma en que produce la electricidad el reactor nuclear de Helion es muy diferente a la estrategia utilizada por ITER. En este último reactor la energía térmica resultante de la fusión se emplea para calentar agua, y a partir de este punto el proceso de generación de la electricidad es esencialmente el mismo utilizado en una central nuclear de fisión actual.

Sobre el papel el método de generación de la electricidad utilizado por Helion es más eficiente que el de ITER porque evita la mediación de muchos pasos intermedios que se responsabilizan de transformar un tipo de energía en otro. En cada una de esas fases una parte de esa energía se disipa, habitualmente en forma de calor, por lo que la eficiencia del proceso que se encarga de generar la electricidad se resiente.

Helionfusion4

Qué ha conseguido esta empresa hasta ahora y qué preguntas deja en el aire

Todo lo que hemos visto hasta ahora nos invita a aceptar que las soluciones que propone Helion en el ámbito de la ingeniería son ingeniosas. Y los fundamentos físicos que subyacen bajo ellas son sólidos. Además, tiene a su favor varios hitos importantes en los que merece la pena que indaguemos brevemente. En 2020 sus ingenieros completaron el ensamblaje de Trenta, su sexto prototipo de reactor de fusión nuclear.

Trenta ha sido capaz de generar casi 10 000 pulsos de alta energía, y también de sostener la reacción durante periodos de algo más de 1 ms

Durante los últimos dieciséis meses esta máquina ha sido capaz de generar casi 10 000 pulsos de alta energía, si nos ceñimos a las cifras que nos ofrece Helion, y también de sostener la reacción de fusión nuclear durante un periodo ligeramente mayor que 1 ms. Puede parecer muy poco tiempo, pero en este contexto y con la tecnología que tenemos actualmente es una eternidad. No cabe duda de que lo que tiene entre manos esta empresa pinta bien.

Sin embargo, entre la teoría y la práctica a menudo hay una distancia enorme. Sobre todo si Polaris, que es como se llamará el próximo prototipo de reactor de fusión nuclear de Helion, debe estar listo en 2024 para demostrar su capacidad de sostener la reacción y generar un beneficio energético neto. Parece que los técnicos de esta empresa lo tienen todo bastante bien atado, pero hay algunos interrogantes que merece la pena que no pasemos por alto.

Polaris tendrá necesariamente que demostrar que es capaz de producir helio-3 de una forma eficiente a partir de la fusión de los núcleos de deuterio. También tiene por delante el enorme desafío de sostener la fusión nuclear durante el tiempo suficiente para demostrar que es capaz de generar una pequeña cantidad de electricidad. Y por último y no menos importante tendrá que generar pulsos de fusión con una cadencia de 1 Hz (uno por segundo). No parece nada fácil, pero si Helion lo logra daremos un paso hacia delante decisivo hacia la tan ansiada fusión nuclear comercial.

Más información | Helion Energy

-
La noticia Fusión nuclear en 2024: así funciona el ingenioso reactor de Helion, la empresa que ha prometido anticiparse a ITER fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

Fusión nuclear en 2024: así funciona el ingenioso reactor de Helion, la empresa que ha prometido anticiparse a ITER

Fusión nuclear en 2024: así funciona el ingenioso reactor de Helion, la empresa que ha prometido anticiparse a ITER

La transición a un modelo energético sostenible y más respetuoso con el medio ambiente en la que nos hemos embarcado como sociedad plantea muchos desafíos.

Uno de los más acuciantes requiere encontrar la forma de satisfacer nuestras necesidades energéticas sin provocar emisiones contaminantes, lo que ha colocado en el centro de atención a las dos fuentes de energía que encajan en este requisito: las renovables y la fisión nuclear.

Sin embargo, en el horizonte se perfila otra tecnología de obtención de energía extraordinariamente prometedora y de la que ya hemos hablado en muchas ocasiones en Xataka: la fusión nuclear.

Los retos que es necesario superar para poner a punto el primer reactor de fusión comercial son numerosos, pero este es, precisamente, el propósito de ITER, IFMIF-DONES y DEMO: guiarnos con paso firme hacia la fusión nuclear comercial.

Helion Energy planea demostrar que su reactor de fusión nuclear es capaz de sostener la reacción, generar un beneficio energético neto y producir electricidad en 2024

EUROfusion, que es la organización europea que supervisa y coordina el proyecto ITER, ha definido un itinerario que prevé hacer posible la fusión nuclear comercial durante la década de los 60. El próximo gran hito en este camino llegará, si todo sigue su curso, en 2025.

Este será el año en el que los técnicos finalizarán el ensamblaje del reactor de fusión nuclear y llevarán a cabo las primeras pruebas con plasma. Pero parece que otro proyecto podría adelantárseles. Y su respaldo económico procede de la iniciativa privada.

Helion Energy es una empresa emergente muy joven (fue fundada en 2013), pero, como veremos más adelante en este artículo, ya ha alcanzado algunos hitos importantes vinculados a la tecnología involucrada en la fusión nuclear. Su propósito es llegar a la fusión comercial muy pronto. Anticiparse a todos los demás.

De hecho, planea demostrar que su reactor de fusión nuclear es capaz de sostener la reacción, generar un beneficio energético neto y producir electricidad en 2024. Si lo cumple, algo que aún está por ver, logrará adelantarse un año a las primeras pruebas con plasma de ITER.

Curiosamente, la aproximación a la fusión nuclear de Helion es diferente a la de ITER. La geometría de su reactor no responde al diseño tokamak utilizado por este último, y el combustible que utiliza no es una combinación de deuterio y tritio, sino una mezcla de deuterio y helio-3.

Eliminar el tritio de la ecuación es importante porque, al parecer, ha permitido a los ingenieros de Helion esquivar algunos de los desafíos que más quebraderos de cabeza están dando a los técnicos de ITER en el ámbito de la ingeniería. Y es que, en realidad, los retos que pone ante nosotros hoy la fusión nuclear no los plantea la ciencia básica; es la ingeniería la que debe enfrentarse a ellos.

Así funciona el reactor de fusión nuclear que propone Helion

Antes de seguir adelante merece la pena que nos detengamos un momento para indagar brevemente en el respaldo económico con el que cuenta esta empresa. Y es que no cabe duda de que un proyecto de esta envergadura requiere estar impulsado por un músculo financiero sólido y muy robusto que sea capaz de inyectar el capital necesario para hacerlo posible.

Helion recibirá una financiación adicional de 500 millones de dólares, y tiene pactados 1700 millones más

Y sí, parece que Helion lo tiene. A principios de este mes anunció que a corto plazo recibirá una financiación adicional de 500 millones de dólares, y tiene pactados 1700 millones más a medio plazo vinculados a la consecución de varios hitos.

No obstante, esta empresa cuenta desde hace ya varios años con el respaldo financiero de varios inversores muy importantes. Dustin Moskovitz, el cofundador de Facebook; Peter Thiel, el cofundador de PayPal junto a Elon Musk; Sam Altman, el director general de OpenAI; y las entidades de capital riesgo Mithril, Y Combinator y Capricorn dan forma a su músculo financiero.

Las soluciones tecnológicas que han ideado los ingenieros de Helion son muy ingeniosas. Al menos lo son sobre el papel. Su reactor toma algunos de los principios fundamentales de la fusión nuclear mediante confinamiento magnético utilizada por ITER, y también varias ideas de la fusión por confinamiento inercial respaldada sobre todo por el experimento NIF (National Ignition Facility) del Laboratorio Nacional Lawrence Livermore, situado en California (Estados Unidos). Pero, como he mencionado unos párrafos más arriba, su aproximación es muy original.

En la recreación que publicamos debajo de estas líneas podemos ver la peculiar geometría del reactor de fusión nuclear que han ideado los ingenieros de Helion. Para desencadenar la reacción es necesario introducir el combustible constituido inicialmente por el deuterio, y posteriormente también por el helio-3, en las dos cámaras laterales, que, como podemos ver, tienen un volumen sensiblemente superior al de la cámara central en la que finalmente tendrá lugar la fusión nuclear.

Helionfusion1

El deuterio es un isótopo del hidrógeno cuyo núcleo contiene un protón y un neutrón, y es muy abundante en nuestro planeta porque se encuentra presente en todas las formas de agua, incluidos, por supuesto, los mares y océanos. El helio-3, sin embargo, es extraordinariamente escaso en la Tierra.

El helio-3 es un subproducto de la fusión nuclear, de manera que las «cenizas» de este proceso se reutilizan como parte del combustible

Como explicamos con detalle en el artículo que enlazo aquí mismo, es muy interesante introducir este elemento en la ecuación de la fusión nuclear debido a que si reemplazamos el núcleo de tritio utilizado en la fusión por un núcleo de helio-3 cambiaremos el neutrón de alta energía resultante por un protón, que es mucho más fácil de manejar gracias a su carga eléctrica positiva. De esta forma es posible evitar en cierta medida la degradación y la irradiación de los materiales utilizados en el revestimiento de las cámaras de vacío del reactor de fusión.

El problema es que, como hemos visto, en la Tierra apenas hay helio-3, y traerlo desde la Luna, en donde es mucho más abundante, actualmente es impracticable. Además, para rizar el rizo, su producción industrial a partir de la desintegración radiactiva (beta) del tritio es muy cara. ¿Cómo esperan entonces obtenerlo los técnicos de Helion? De una forma ingeniosa: el helio-3 es un subproducto de la fusión nuclear del deuterio, de manera que las «cenizas» de este proceso se reutilizan como parte del combustible, dando lugar a un ciclo cerrado que permite en cierta medida regenerar el propio combustible utilizado en la reacción.

Una vez que ha sido introducido en el interior de las cámaras laterales del reactor nuclear es necesario calentar el combustible hasta que alcance una temperatura de nada menos que 100 millones de grados centígrados. A esta temperatura el deuterio y el helio-3 adquieren el estado de plasma, que no es otra cosa que un gas extremadamente caliente. De mantener el plasma confinado en el interior de la cámara de vacío y de evitar que entre en contacto directo con las paredes del contenedor se responsabiliza un campo magnético que tiene una intensidad altísima.

Helionfusion2

No obstante, el campo magnético generado en las cámaras laterales del reactor no se responsabiliza únicamente de confinar el plasma; también se opone al campo magnético interno del propio plasma, de manera que la presión a la que es sometido el combustible es brutal. Para que la fusión de los núcleos de deuterio y helio-3 tenga lugar deben darse unas condiciones de temperatura y presión muy exigentes, de ahí que sea necesario calentar el plasma hasta que alcance los 100 millones de grados centígrados que he mencionado en el párrafo anterior, y también someterlo a una presión tremenda.

Para que la fusión de los núcleos de deuterio y helio-3 tenga lugar deben darse unas condiciones de temperatura y presión muy exigentes

Sin embargo, curiosamente, el reactor de fusión nuclear de Helion no necesita que el campo magnético externo sea tan potente como el utilizado por ITER. Según sus técnicos la eficiencia de su tecnología de confinamiento magnético, y también la presión que obtienen como resultado de la interacción que se produce entre el campo magnético externo y el campo magnético interno del plasma, provocan que 10 teslas de su tecnología sean equiparables a 44 teslas en un reactor de fusión nuclear con geometría tokamak convencional.

En cualquier caso, ¿qué sucede cuando el plasma alcanza la temperatura óptima y es sometido a la presión adecuada? Sencillamente, en ese momento el gas extremadamente caliente de las dos cámaras laterales es proyectado hacia la cámara central con la energía cinética necesaria para que se den en su interior las condiciones de presión y temperatura imprescindibles para que la fusión de los núcleos de deuterio y helio-3 tenga lugar. Aquí tenemos, por fin, la tan ansiada fusión nuclear.

Helionfusion3

A medida que el plasma se va expandiendo en el interior de la cámara central su campo magnético interno se va oponiendo al campo magnético externo. Según la ley de Faraday la interacción entre estos dos campos induce la aparición de una corriente eléctrica que es capturada de forma directa por el equipamiento vinculado al reactor nuclear para generar electricidad.

El método de generación de la electricidad utilizado por Helion es más eficiente que el de ITER porque evita la mediación de muchos pasos intermedios

Como acabamos de ver, la forma en que produce la electricidad el reactor nuclear de Helion es muy diferente a la estrategia utilizada por ITER. En este último reactor la energía térmica resultante de la fusión se emplea para calentar agua, y a partir de este punto el proceso de generación de la electricidad es esencialmente el mismo utilizado en una central nuclear de fisión actual.

Sobre el papel el método de generación de la electricidad utilizado por Helion es más eficiente que el de ITER porque evita la mediación de muchos pasos intermedios que se responsabilizan de transformar un tipo de energía en otro. En cada una de esas fases una parte de esa energía se disipa, habitualmente en forma de calor, por lo que la eficiencia del proceso que se encarga de generar la electricidad se resiente.

Helionfusion4

Qué ha conseguido esta empresa hasta ahora y qué preguntas deja en el aire

Todo lo que hemos visto hasta ahora nos invita a aceptar que las soluciones que propone Helion en el ámbito de la ingeniería son ingeniosas. Y los fundamentos físicos que subyacen bajo ellas son sólidos. Además, tiene a su favor varios hitos importantes en los que merece la pena que indaguemos brevemente. En 2020 sus ingenieros completaron el ensamblaje de Trenta, su sexto prototipo de reactor de fusión nuclear.

Trenta ha sido capaz de generar casi 10 000 pulsos de alta energía, y también de sostener la reacción durante periodos de algo más de 1 ms

Durante los últimos dieciséis meses esta máquina ha sido capaz de generar casi 10 000 pulsos de alta energía, si nos ceñimos a las cifras que nos ofrece Helion, y también de sostener la reacción de fusión nuclear durante un periodo ligeramente mayor que 1 ms. Puede parecer muy poco tiempo, pero en este contexto y con la tecnología que tenemos actualmente es una eternidad. No cabe duda de que lo que tiene entre manos esta empresa pinta bien.

Sin embargo, entre la teoría y la práctica a menudo hay una distancia enorme. Sobre todo si Polaris, que es como se llamará el próximo prototipo de reactor de fusión nuclear de Helion, debe estar listo en 2024 para demostrar su capacidad de sostener la reacción y generar un beneficio energético neto. Parece que los técnicos de esta empresa lo tienen todo bastante bien atado, pero hay algunos interrogantes que merece la pena que no pasemos por alto.

Polaris tendrá necesariamente que demostrar que es capaz de producir helio-3 de una forma eficiente a partir de la fusión de los núcleos de deuterio. También tiene por delante el enorme desafío de sostener la fusión nuclear durante el tiempo suficiente para demostrar que es capaz de generar una pequeña cantidad de electricidad. Y por último y no menos importante tendrá que generar pulsos de fusión con una cadencia de 1 Hz (uno por segundo). No parece nada fácil, pero si Helion lo logra daremos un paso hacia delante decisivo hacia la tan ansiada fusión nuclear comercial.

Más información | Helion Energy

-
La noticia Fusión nuclear en 2024: así funciona el ingenioso reactor de Helion, la empresa que ha prometido anticiparse a ITER fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

Estas son las razones por las que la tecnología de reconstrucción de la imagen es lo mejor que le ha pasado a las tarjetas gráficas y las consolas

Estas son las razones por las que la tecnología de reconstrucción de la imagen es lo mejor que le ha pasado a las tarjetas gráficas y las consolas

La llegada del trazado de rayos (ray tracing) y la resolución 4K UHD (3840 x 2160 puntos) ha puesto en serios aprietos al hardware gráfico. Los recursos con los que debe contar para afrontar el renderizado de las imágenes a una resolución tan alta son muy importantes, especialmente si, además, debe dotarlas de un acabado fotorrealista renderizando algunas partes de cada fotograma, o, incluso, todo él, mediante la técnica de trazado de rayos (RT).

NVIDIA fue la primera compañía que nos propuso instalar en nuestro PC una solución gráfica capaz de llevar a cabo el renderizado utilizando esta innovación, y las tarjetas GeForce RTX originales enseguida nos mostraron el enorme estrés que el trazado de rayos impone al hardware gráfico. Para alcanzar una cadencia de fotogramas por segundo sostenida razonablemente alta utilizando el ray tracing era imprescindible afrontar el renderizado empleando alguna técnica que permitiese liberar a la GPU de una parte de ese enorme esfuerzo.

La tecnología DLSS de NVIDIA recurre al aprendizaje profundo para escalar las imágenes a una resolución superior sin que su calidad se degrade perceptiblemente

Y llegó la tecnología DLSS (Deep Learning Super Sampling). Unos meses después del lanzamiento de las primeras tarjetas gráficas GeForce RTX 20, NVIDIA anunció que sus ingenieros habían puesto a punto una innovación que recurría al aprendizaje profundo para escalar las imágenes de nuestros juegos a una resolución superior tomando como punto de partida una más baja y sin que la calidad de imagen se resintiese demasiado. La primera generación de la tecnología DLSS tenía un claro margen de mejora, pero su revisión, la iteración 2.0, lleva ya más de dos años demostrándonos su enorme potencial.

No obstante, esta tecnología de NVIDIA no es en absoluto la única técnica de reconstrucción de la imagen con la que contamos actualmente. Sony introdujo el checkboarding en PS4 Pro en 2016 para aliviar al hardware gráfico de esta consola de una parte del coste computacional que representaba el renderizado de los gráficos a 2160p.

Microsoft es otra pieza importante en este puzle porque se encargó de introducir el trazado de rayos como una extensión de la librería DirectX 12 primero, y de desarrollar sus propias técnicas de reconstrucción de la imagen después. Y, cómo no, AMD también cuenta desde principios de este verano con FidelityFX Super Resolution, una técnica de escalado abierta que se erige como una alternativa muy interesante al DLSS de NVIDIA.

Ni siquiera la GeForce RTX 3080 Ti y la Radeon RX 6900 XT pueden con todo

Durante los últimos meses hemos tenido la ocasión de analizar a fondo la mayor parte de las tarjetas gráficas de última generación que han lanzado AMD y NVIDIA, y hemos confirmado que ni siquiera el hardware gráfico más potente es capaz de entregarnos una cadencia de imágenes sostenida superior a los 60 FPS en todos los juegos cuando combinamos la resolución 2160p y el trazado de rayos. En algunos títulos sí lo consiguen, pero en otros ni siquiera dos monstruos como la GeForce RTX 3080 Ti o la Radeon RX 6900 XT salen airosos. El coste computacional que impone el renderizado en estas condiciones y sin recurrir a la reconstrucción de la imagen es excesivo incluso para ellas.

'Control' es uno de esos juegos duros de pelar. En la siguiente gráfica podemos ver el esfuerzo al que somete el motor gráfico de este juego al hardware cuando los usuarios pisamos el acelerador y elevamos el listón. A 2160p, con trazado de rayos y sin reconstrucción de la imagen la GeForce RTX 3080 Ti nos entrega una cadencia media de 37 FPS, y en estas condiciones el modelo insignia de AMD deja esta cifra en 26 FPS. Sin embargo, al introducir la reconstrucción de la imagen en la ecuación (DLSS en el caso de NVIDIA y la técnica de escalado implementada por el motor de este juego para AMD) estas cifras se incrementan hasta alcanzar 69 FPS la GeForce RTX 3080 y 52 FPS la Radeon RX 6900 XT.

Afortunadamente no solo las tarjetas gráficas de gama alta se benefician de la reconstrucción de la imagen. Todas las soluciones gráficas pueden sacar partido a esta innovación. En la siguiente gráfica podemos ver el impacto beneficioso que tiene la tecnología FidelityFX Super Resolution (FSR) en el rendimiento de una Radeon RX 6600 cuando activamos en 'Godfall' el trazado de rayos a 1080p y 1440p. En cualquier caso, el impacto que tiene la reconstrucción de la imagen en muchos otros juegos es similar, por lo que es evidente que es una aliada muy valiosa cuando aspiramos a jugar con una cadencia de imágenes por segundo sostenida superior a los 60 FPS en condiciones exigentes.

Las técnicas de reconstrucción actuales tienen un impacto asumible en la calidad de imagen

Las pruebas de rendimiento que acabamos de revisar avalan el impacto positivo que tiene la reconstrucción de la imagen en la cadencia de imágenes por segundo. Sin embargo, nos queda un apartado por analizar: el impacto que tiene en la calidad de imagen.

A principios del pasado mes de enero publicamos un análisis profundo de la tecnología DLSS 2.0 en el que indagamos en todo lo que nos propone. Si tenéis curiosidad o si no estáis familiarizados con esta innovación quizá os resulte interesante leerlo. En cualquier caso, aquí tenéis un pequeño extracto de las conclusiones a las que llegamos en el ámbito de su impacto en la calidad de imagen (aún no hemos analizado a fondo el impacto que tiene la tecnología FSR de AMD en la calidad de imagen, pero lo haremos en el futuro).

Todas las capturas que vamos a analizar a continuación han sido tomadas a resolución 4K (3840 x 2160 puntos) y con el trazado de rayos activado en aquellos juegos que lo implementan. Además, las secciones de cada captura que hemos escogido proceden de un recorte al 300% que persigue ayudarnos a apreciar mejor los detalles y las diferencias que existen entre ellas.

Empezamos con 'Control'. Este juego implementa tanto trazado de rayos como DLSS. Además, nos propone varias modalidades de escalado tomando como referencia tres resoluciones de renderización: 2560 x 1440 puntos, 2227 x 1253 puntos y 1920 x 1080 puntos. Si observamos con detenimiento las capturas veremos que el nivel de detalle de la imagen sin DLSS y el de la captura con DLSS 2.0 escalada a 2160p desde 1440p es esencialmente idéntico. Esta última no contiene más ruido. Ni menos detalle.

Pero hay algo más. La calidad de imagen que nos entrega esta tecnología en este juego cuando la resolución de renderización es aún más baja (1253p y 1080p) sigue siendo muy alta. Si ampliamos al 300% la captura original utilizando un editor de imágenes y la comparamos con la imagen sin DLSS podemos apreciar una ligerísima pérdida de detalle en algunas zonas, como, por ejemplo, en el texto que observa la protagonista del videojuego. Pero es algo muy difícil de detectar en tiempo real mientras jugamos. El primer punto se lo lleva la tecnología DLSS 2.0.

Control

Las capturas que hemos tomado en 'Death Stranding' nos deparan más sorpresas. Este juego no implementa trazado de rayos, pero nos propone tres modalidades diferentes de DLSS. Y, sorprendentemente, el modo que prioriza la calidad es indistinguible de la captura sin DLSS. Tienen el mismo nivel de detalle y el ruido es imperceptible en ambas imágenes. Además, al igual que en 'Control', la pérdida de detalle que se produce si elegimos el modo que prioriza el máximo rendimiento es lo suficientemente baja para pasar inadvertida mientras estamos jugando.

Deathstranding

'Battlefield V' fue el primer juego que implementó la reconstrucción de imagen mediante DLSS. Desde que recibió la primera versión de esta innovación su rendimiento ha mejorado sensiblemente gracias a varias actualizaciones, y, aunque no utiliza DLSS 2.0, nos depara una sorpresa inesperada: algunas zonas de la captura reconstruida a 2160p mediante DLSS tienen más detalle que la imagen capturada de forma nativa a esta resolución. Es algo inesperado, pero refleja lo bien que puede funcionar esta tecnología cuando se implementa correctamente. Podemos observar este ligero incremento del nivel de detalle en las juntas de los ladrillos y en el cartel que corona el edificio.

Battlefieldv

Concluimos el análisis de la calidad de imagen con 'Bright Memory Infinite', y, una vez más, DLSS 2.0 sale airosa. Al igual que en 'Battlefield V', el modo que prioriza la calidad consigue recuperar más detalle en algunas zonas que la captura sin DLSS (podemos observarlo en el tejido del pantalón y en el pavimento en primer plano), y la pérdida de detalle que se produce en los modos Balance y Performance es tan baja que es esencialmente imperceptible mientras estamos jugando.

Brightmemory

La tecnología de reconstrucción de la imagen puede (y debe) mejorar

DLSS 2.0, FidelityFX Super Resolution y las demás tecnologías de reconstrucción de la imagen nos proponen, como acabamos de comprobar, disfrutar de gráficos 1080p, 1440p y 2160p con el trazado de rayos activado y una cadencia de imágenes por segundo sostenida superior a los 60 FPS en una variedad amplia de hardware gráfico. Es evidente que esta innovación ha llegado para quedarse, pero esto no significa que no tenga margen para mejorar.

Sí, lo tiene. Todas las tecnologías de reconstrucción de la imagen que hemos probado hasta ahora adolecen de algunos artefactos gráficos que pueden llegar a molestar en algunos momentos. Además, en determinados fotogramas no consiguen igualar la calidad de imagen global del renderizado a la resolución nativa, aunque si nos ceñimos a DLSS 2.0 lo cierto es que su calidad de imagen global es casi siempre fabulosa. Y, sobre todo, es crucial que muchos más juegos implementen estas técnicas, aunque parece que poco a poco el catálogo de títulos compatibles con DLSS y FSR va creciendo. Crucemos los dedos para que pronto lleguen muchos más.

-
La noticia Estas son las razones por las que la tecnología de reconstrucción de la imagen es lo mejor que le ha pasado a las tarjetas gráficas y las consolas fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

Samsung Odyssey Neo G9 49″ DQHD, análisis: la experiencia que nos propone este monitor miniLED con HDMI 2.1 es tan espectacular como su precio

Samsung Odyssey Neo G9 49

Este monitor se sale de lo común en muchos sentidos. De hecho, todo aquello que lo hace poco corriente es lo que nos ha animado a preparar este análisis. Es evidente que un monitor curvo de 49 pulgadas con relación de aspecto 32:9 no encaja con las preferencias de todos los usuarios.

Sin embargo, es probable que quien esté buscando una pantalla que le permita sumergirse al máximo en sus juegos, y esté dispuesto a invertir en ella los 2200 euros que nos pide Samsung por este monitor, se enamore de este Odyssey Neo G9.

Esta no es la primera pantalla de esta marca con un tamaño superlativo. Precisamente hace justo un año, en noviembre de 2020, analizamos a fondo su predecesora, la también ambiciosa Odyssey G9 a secas, sin el apellido 'Neo'.

La retroiluminación miniLED de este monitor deriva de la que Samsung ha introducido este año en sus televisores Neo QLED

Ambos monitores tienen el mismo tamaño, un diseño calcado y una vocación indudable de afianzarse como un dispositivo prémium para juegos, pero la revisión que estamos a punto de analizar incorpora varias mejoras que, sobre el papel, le permiten superar con claridad a su predecesora.

Una de sus bazas más contundentes es su retroiluminación miniLED. Y es que gracias a esta tecnología, que está derivada de la retroiluminación implementada por Samsung en sus televisores Neo QLED, la relación de contraste estática de este monitor es 1 000 000:1.

Pero esto no es todo. Además, los dos puertos HDMI que incorpora implementan la norma 2.1, lo que lo coloca a la última en el ámbito de la conectividad. En cualquier caso, por muy atractivas que sean sus especificaciones lo que lo hace casi único es la experiencia que nos promete. Ella es la auténtica protagonista de este artículo.

Samsung Odyssey Neo G9 49" DQHD: especificaciones técnicas

El corazón de este monitor es un panel LCD de tipo VA con relación de aspecto 32:9 y curvatura 1000R. Su resolución (5120 x 1440 puntos) encaja bien con sus muy generosas 49 pulgadas, pero sería injusto atribuir su calidad de imagen únicamente a su panel inorgánico.

El sistema de retroiluminación miniLED del que he hablado brevemente en los párrafos anteriores asume la responsabilidad, o, sobre el papel, debería hacerlo, de entregarnos unos negros muy profundos y un nivel de detalle en las regiones en sombra muy alto. Cómo no, lo comprobaremos en la sección en la que indagaremos en la calidad de imagen de este Odyssey Neo G9.

La matriz de retroiluminación miniLED de este monitor está organizada en 2048 zonas de atenuación local independientes

La matriz de diodos LED está organizada en 2048 zonas de atenuación local independientes, una cifra que hace palidecer a los sistemas de retroiluminación local que emplean muchos televisores LCD LED de última hornada y gama alta.No obstante, la calidad de imagen global de una pantalla con este tipo de retroiluminación no depende únicamente del número de diodos LED que incorpora la matriz y de las zonas en las que están agrupados; también es crucial que el software que se encarga de administrar el funcionamiento de la matriz esté bien resuelto.

Samsungodysseyneospecs

Más características interesantes de este monitor que merece la pena que no pasemos por alto. Su frecuencia de refresco máxima es 240 Hz, tiene una capacidad de entrega de brillo típica de 420 nits (el valor máximo de pico asciende a unos en absoluto despreciables 2000 nits), tiene un tiempo de respuesta de 1 ms (GtG) y es compatible con contenidos HDR10+.

Estas cifras, unidas a su compatibilidad con las tecnologías de refresco adaptativo G-SYNC de NVIDIA y FreeSync Premium Pro de AMD, reflejan con claridad que Samsung ha diseñado este monitor para que rinda al máximo con juegos. De todas formas, según esta marca consigue cubrir el 95% del espacio de color DCI-P3, por lo que sobre el papel también es una opción interesante para creación de contenidos.


características

PANEL

LCD VA de 49 pulgadas curvo Dual QHD con retroiluminación miniLED y relación de aspecto 32:9

RESOLUCIÓN

5120 x 1440 puntos

FRECUENCIA DE REFRESCO MÁXIMA

240 Hz

CURVATURA

1000R

BRILLO TÍPICO

420 cd/㎡ (brillo mínimo de 300 cd/㎡ y máximo de 2000 cd/㎡)

CONTRASTE estático

1 000 000:1

TIEMPO DE RESPUESTA

1 ms (GtG)

HDR

HDR10+

ÁNGULOS DE VISIÓN

178°(H)/178°(V)

COBERTURA DE COLOR DCI-P3

95%

AMD FREESYNC

NVIDIA G-SYNC

CONECTIVIDAD

2 x HDMI 2.1, 1 x DisplayPort 1.4, 2 x USB, 1 x concentrador USB y jack de 3,5 mm

CONSUMO TÍPICO

55 vatios

ETIQUETA ENERGÉTICA

Clase G

DIMENSIONES

1149,5 x 537,2 x 418,3 mm (con peana)

PESO

14,5 kg (con peana)

PRECIO

2199 euros

Samsung LC49G93TSSUXEN Odyssey G9 - Monitor curvo de 49'' DQHD (5120 x 1440p, 1 ms, 240 Hz, GSync, FreeSync Premium Pro, LED, HDR1000, 32:9, 420 cd/m², 1000R, HDMI, PBP, PIP) Blanco

Samsung LC49G93TSSUXEN Odyssey G9 - Monitor curvo de 49'' DQHD (5120 x 1440p, 1 ms, 240 Hz, GSync, FreeSync Premium Pro, LED, HDR1000, 32:9, 420 cd/m², 1000R, HDMI, PBP, PIP) Blanco

Su acabado convence, aunque no impresiona; y su diseño no deja indiferente

Este monitor está bien construido. El policarbonato que ha utilizado Samsung en el marco y el panel trasero es de buena calidad y transmite la sensación de que estamos ante un producto prémium que tiene un acabado cuidado.

Aun así, su elevadísimo precio nos invita a ser exigentes, y, aunque no puedo poner ninguna pega importante ni a su diseño ni a su acabado, lo cierto es que echo de menos algún detalle que refleje que esta marca ha puesto un mimo especial en esta pantalla.

Posiblemente habría sido una buena idea, entre otras opciones factibles, que el panel trasero fuese de aluminio. De esta forma el calor disipado por la matriz de diodos LED sería evacuado hacia el exterior mediante convección con más eficacia.

Y, además, el monitor desprendería un sabor a producto de lujo que estaría alineado con su precio. También echo de menos unos marcos más finos, aunque los que tiene este Odyssey Neo G9 son lo suficientemente estilizados para que a los usuarios no nos cueste pasar por alto que otros monitores más baratos tienen unos marcos más estrechos.

Samsungodysseyneomarcos

Como podéis ver en la siguiente fotografía, por detrás este monitor es bastante espectacular. De hecho, encajaría a las mil maravillas en la cabina de la nave Enterprise (seguro que el capitán James T. Kirk lo habría aprobado). El 'ojo' central en el que se inserta la peana le da un aspecto sofisticado, aunque es evidente que si lo colocamos cerca de una pared este panel trasero tan resultón pasará en gran medida desapercibido.

Samsungodysseyneotrasera

Para fijar la peana a la parte trasera del monitor es necesario apretar con firmeza, pero sin excesos, cuatro tornillos de tipo Phillips. El peso del recinto que contiene el panel es considerable (pesa alrededor de 12,5 kg), por lo que es imprescindible que la fijación de la peana sea sólida. Y sí, lo es.

Además, la longitud de las dos alas de la peana da al monitor una estabilidad notable, por lo que a pesar de su tamaño es poco probable que se desequilibre si le damos un empujón accidental. Un apunte importante: esta peana nos permite ajustar la altura, el giro y la inclinación de la pantalla con mucha libertad.

Samsungodysseyneosujecion

Samsung ha resuelto bastante bien la conectividad de este monitor. Como he mencionado más arriba, las dos entradas HDMI implementan la norma 2.1 (habría sido un error enorme que fuesen 2.0). También incorpora una entrada DisplayPort 1.4 y un concentrador USB con dos conectores de tipo A, así como una toma en formato jack de 3,5 mm a la que podemos conectar nuestros auriculares (este monitor no incorpora altavoces).

Yo echo de menos una segunda entrada DisplayPort, sobre todo si tenemos en cuenta el precio que tiene este monitor, pero, honestamente, no me parece una carencia imperdonable.

Samsungodysseyneoconectividad

Así le ha ido en nuestras pruebas de calidad de imagen

Para analizar la calidad de imagen de este monitor recurrí a Eizo Monitor Test, una herramienta gratuita muy útil no solo para comprobar cómo resuelve un dispositivo de visualización el color, sino también cuáles son sus ángulos de visión, si su nitidez está a la altura, si la retroiluminación es completamente homogénea o si tiene algún píxel defectuoso, entre otras prestaciones.

La primera sorpresa agradable que me llevé al empezar las pruebas tanto con esta aplicación como con la reproducción de juegos y vídeo fue que este monitor viene muy bien calibrado de fábrica. Quien necesite utilizarlo para creación de contenidos y quiera afinar aún más la forma en que reproduce el color tendrá que recurrir a una herramienta de calibración profesional. No cabe duda de que es una gran noticia que los fabricantes de televisores y monitores se tomen poco a poco más en serio la calibración de fábrica que nos proponen sus dispositivos.

Samsungodysseyneocalidad1

Una de las secciones de esta herramienta de análisis es muy útil para identificar si la matriz de retroiluminación consigue distribuir la luz por toda la superficie del panel de una manera uniforme. Al tomar esta fotografía me esforcé para que refleje de la forma más fidedigna posible el comportamiento de este monitor, y, como podéis intuir en la imagen, los márgenes del panel están ligeramente menos iluminados que la región central de la pantalla. No es nada grave; de hecho, para identificarlo es necesario recurrir a una imagen completamente plana, pero esta leve falta de homogeneidad está presente en la unidad que hemos analizado.

Samsungodysseyneocalidad2

El siguiente test expone el panel a un patrón uniforme de color gris, y confirma lo que hemos observado en la prueba anterior: los márgenes del panel están ligeramente menos iluminados que la región central de la pantalla. La diferencia es sutil, pero está ahí. No obstante, es importante que tengamos en cuenta que el comportamiento de la matriz responsable de la retroiluminación puede variar levemente de una unidad a otra, por lo que cabe la posibilidad de que este efecto en otro monitor Odyssey Neo G9 apenas sea perceptible. Y también es posible que esté más acusado.

Samsungodysseyneocalidad3

En la siguiente prueba de Eizo Monitor Test podemos ver que el degradado estático es uniforme y suave, lo que refleja que la matriz miniLED de retroiluminación resuelve con precisión las transiciones que requieren que algunas de las 2048 zonas de atenuación local independientes entreguen una cantidad de luz ligeramente diferente a las zonas adyacentes.

Samsungodysseyneocalidad4

Los negros de este monitor son fabulosos. Muy profundos. Casi abisales. Y al mismo tiempo es capaz de entregar en algunas regiones del panel picos de brillo cercanos, según Samsung, a los 2000 nits, lo que le permite sentirse muy cómodo con los contenidos de alto rango dinámico. Como he mencionado más arriba, puede lidiar con contenidos HDR10+ (por el momento Samsung sigue sin apostar por la compatibilidad con Dolby Vision).

Samsungodysseyneocalidad5

La siguiente herramienta de Eizo Monitor Test es muy útil para poner a prueba el tiempo de respuesta del panel y la habilidad con la que la retroiluminación se adapta a los objetos que se desplazan con rapidez por todo él. La combinación de una frecuencia de refresco alta (este monitor puede alcanzar una tasa de refresco de 240 Hz) y un tiempo de respuesta bajo (según Samsung nos entrega 1 ms GtG) debería conseguir que el desenfoque de movimiento apenas sea perceptible. Y, efectivamente, en esta prueba los dos rectángulos que barren la pantalla aparecen bien definidos incluso cuando se desplazan horizontalmente a una velocidad muy alta.

Samsungodysseyneocalidad6

Según Samsung el consumo típico de este monitor es 55 vatios, un valor que coincide con mucha exactitud con el que nosotros hemos medido mientras llevábamos a cabo las pruebas. De hecho, el pico de consumo más alto que hemos identificado apenas superó los 54 vatios (se produjo mientras ejecutábamos un juego a la resolución nativa del panel y con el HDR activado).

Samsungodysseyneoconsumo

Los juegos corren por sus venas, pero nos propone una gran experiencia al trabajar

El tamaño y, sobre todo, el precio de este monitor, representan una barrera insalvable para buena parte de los usuarios, pero quien pueda permitírselo conseguirá sacarle mucho partido más allá de los videojuegos con los que está destinado a convivir. Como hemos comprobado, su mínimo tiempo de respuesta, su alta frecuencia de refresco, y, como veremos a continuación, su mínima latencia de entrada, lo delatan.

Este monitor nos permite mantener en primer plano hasta 4 o 5 ventanas sin necesidad de que utilicemos las barras de desplazamiento horizontal

Aun así, trabajar con una pantalla de 49 pulgadas con relación de aspecto 32:9 es una delicia para cualquier persona que necesite tener expuestas simultáneamente varias ventanas. De hecho, utilizándolo a la resolución nativa y ajustando bien los márgenes nos permite mantener en primer plano hasta 4 o 5 ventanas sin necesidad de que utilicemos las barras de desplazamiento horizontal.

Y esta opción es una gozada cuando te dedicas a programar, editas textos mientras mantienes varias fuentes de consulta abiertas simultáneamente o trabajas con varias hojas de cálculo a la vez, entre muchos otros posibles escenarios de uso. Yo no edito ni vídeo ni audio, pero intuyo que debe de ser una maravilla tener delante de ti una línea de tiempo kilométrica como la que pone en nuestras manos este monitor.

Samsungodysseyneoexperiencia1

Si queremos que este monitor esté en su salsa y nos entregue todo su potencial lo único que tenemos que hacer es lanzar algún juego que encaje bien con su relación de aspecto. No todos lo hacen, pero disfrutar aquellos que resuelven correctamente esta proporción es una experiencia impactante. Su calidad de imagen global es muy alta gracias a la riqueza con la que reproduce el color, su elevada relación de contraste nativo y la precisión de su retroiluminación, pero estas cualidades también las tienen otros monitores para juegos.

Su atractivo reside, sobre todo, en la capacidad de inmersión que nos propone. La experiencia que nos ofrecen con juegos los monitores con relación de aspecto 16:9 puede ser muy satisfactoria, pero la inmersión que planta delante de nosotros una pantalla 32:9 queda fuera de su alcance. A la distancia a la que solemos utilizar un monitor de PC en un escritorio convencional el panel de esta pantalla ocupa buena parte de nuestro campo visual, por lo que, inevitablemente, te sientes como si realmente formases parte del juego.

Samsungodysseyneoexperiencia2

Eso sí, antes de comprar un monitor con una resolución tan alta es crucial que nos cercioremos de que nuestra tarjeta gráfica va a ser capaz de mover los juegos con fluidez siempre que decidamos utilizarla. Nosotros hemos recurrido a una tarjeta TUF Gaming con GPU GeForce RTX 3060 de NVIDIA ensamblada por ASUS aprovechando que acabamos de analizarla y la teníamos instalada en nuestra plataforma de pruebas. Esta solución gráfica no se siente del todo cómoda a la resolución nativa de este monitor si nuestras exigencias son muy altas, pero sí lo suficiente para averiguar hasta dónde es capaz de llegar este Odyssey Neo G9.

Y llega lejos. Muy lejos. La experiencia que nos propone con títulos como 'DiRT 5' o 'Doom Eternal' es fantástica, sobre todo, como he explicado unos párrafos más arriba, gracias a su tremenda capacidad de inmersión. Además, cuando activamos el modo de baja latencia que implementa esta pantalla la respuesta a nuestras órdenes es prácticamente instantánea. Según Samsung este monitor tiene una latencia de entrada de 2 ms, una cifra que encaja con las sensaciones que he tenido al utilizarlo con los títulos que requieren un control muy preciso.

Samsungodysseyneoexperiencia3

Samsung Odyssey Neo G9 49" DQHD: la opinión de Xataka

Es una lástima que este monitor tenga un precio tan alto. No cabe duda de que su coste representa una barrera infranqueable para la mayor parte de los usuarios, y, como hemos comprobado a lo largo de este análisis, es lo suficientemente atractivo para afianzarse como una opción que merece la pena tener en cuenta no solo para videojuegos; también en otros escenarios de uso que pueden beneficiarse de su inusual relación de aspecto.

Este monitor tiene muchas cualidades, pero entre todas ellas brilla con luz propia la inmersión que nos propone con los juegos

Si nos ceñimos a su calidad de imagen sus bazas son numerosas. Reproduce el color con precisión y una gran riqueza, tiene unos negros muy profundos, recupera mucha información en las regiones en sombra, tiene una capacidad de entrega de brillo notable, y, de propina, sale de fábrica muy bien calibrado. Además, su tiempo de respuesta y su latencia de entrada son bajísimos, y es compatible con las tecnologías de refresco adaptativo más populares.

No obstante, como hemos comprobado, no es perfecto. En mi opinión a su acabado le falta un pequeño empujón para transmitir esa sensación de producto de lujo que debe ir alineada con el desembolso que Samsung nos pide por él. Además, echo de menos una entrada DisplayPort adicional, y si nos ceñimos a su calidad de imagen, como hemos comprobado en la sección dedicada a nuestras pruebas, su retroiluminación adolece de una ligera falta de homogeneidad que se acentúa en los márgenes del panel. Aun así es una opción apetecible que merece la pena tener en cuenta siempre que su precio encaje con la cifra que estamos dispuestos a gastarnos en un monitor.

Samsungodysseyneoopinion

Samsung LC49G93TSSUXEN Odyssey G9 - Monitor curvo de 49'' DQHD (5120 x 1440p, 1 ms, 240 Hz, GSync, FreeSync Premium Pro, LED, HDR1000, 32:9, 420 cd/m², 1000R, HDMI, PBP, PIP) Blanco

Samsung LC49G93TSSUXEN Odyssey G9 - Monitor curvo de 49'' DQHD (5120 x 1440p, 1 ms, 240 Hz, GSync, FreeSync Premium Pro, LED, HDR1000, 32:9, 420 cd/m², 1000R, HDMI, PBP, PIP) Blanco

Este monitor ha sido cedido para este análisis por Samsung. Puedes consultar nuestra política de relaciones con las empresas.

Más información | Samsung

-
La noticia Samsung Odyssey Neo G9 49" DQHD, análisis: la experiencia que nos propone este monitor miniLED con HDMI 2.1 es tan espectacular como su precio fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

AMD Radeon RX 6600 vs. NVIDIA GeForce RTX 3060, análisis y comparativa: así queda la guerra de ofrecer 1080p al precio más bajo

AMD Radeon RX 6600 vs. NVIDIA GeForce RTX 3060, análisis y comparativa: así queda la guerra de ofrecer 1080p al precio más bajo

El procesador gráfico de AMD con arquitectura RDNA 2 más económico ha llegado en un momento muy delicado. Para los usuarios resulta frustrante comprobar que es prácticamente imposible encontrar en las tiendas una tarjeta gráfica, sea o no de última generación, con el precio oficial fijado por el fabricante. La alta demanda y la relativa escasez derivada del déficit de semiconductores han provocado que su precio se haya multiplicado con frecuencia por dos. O, incluso, por más aún.

El panorama es desalentador, sobre todo debido a que no parece que esta situación vaya a mejorar a corto plazo, pero el desarrollo tecnológico continúa avanzando con paso firme. AMD nos ha propuesto poner a prueba su nueva tarjeta equipada con una GPU Radeon RX 6600, una solución gráfica que sobre el papel es muy interesante porque ha sido dimensionada expresamente para ofrecernos una experiencia de juego satisfactoria a 1080p. Y no cabe duda de que esta es la resolución más popular entre los jugadores.

La tarjeta gráfica que estamos a punto de analizar ha sido ensamblada por Sapphire. Su diseño es muy diferente al de los modelos de referencia de la familia Radeon RX 6000 que hemos tenido la oportunidad de probar hasta ahora, pero transmite una clara sensación de solidez. En cualquier caso, lo realmente importante es averiguar cómo rinde, y para poner en contexto qué nos propone esta solución gráfica la hemos enfrentado de tú a tú con la tarjeta de NVIDIA con la que inevitablemente se va a medir en la calle: la GeForce RTX 3060. En la sección que dedicaremos a nuestro banco de pruebas comprobaremos cuál de ellas se impone en este interesantísimo duelo.

AMD Radeon RX 6600: especificaciones técnicas


AMD Radeon RX 6600

AMD RADEON RX 6700 XT

AMD RADEON RX 6800

AMD RADEON RX 6800 XT

AMD RADEON RX 6900 XT

ARQUITECTURA

RDNA 2

RDNA 2

RDNA 2

RDNA 2

RDNA 2

FOTOLITOGRAFÍA

7 nm

7 nm

7 nm

7 nm

7 nm

TRANSISTORES

11 100 millones

17 200 millones

26 800 millones

26 800 millones

26 800 millones

ÁREA DEL NÚCLEO

N.d.

336 mm2

519 mm2

519 mm2

519 mm2

UNIDADES DE CÁLCULO

28

40

60

72

80

ACELERADORES DE RAYOS

28

40

60

72

80

PROCESADORES STREAM

1792

2560

3840

4608

5120

FRECUENCIA DE RELOJ DE LA GPU

Hasta 2044 MHz

Hasta 2424 MHz

Hasta 1815 MHz

Hasta 2015 MHz

Hasta 2015 MHz

FRECUENCIA MÁXIMA DE LA GPU

2491 MHz

2581 MHz

2105 MHz

2250 MHz

2250 MHz

RENDIMIENTO MÁXIMO EN PRECISIÓN SIMPLE

8,93 TFLOPS

13,21 TFLOPS

16,17 TFLOPS

20,74 TFLOPS

23,04 TFLOPS

RENDIMIENTO MÁXIMO EN MEDIA PRECISIÓN

17,86 TFLOPS

26,43 TFLOPS

32,33 TFLOPS

41,47 TFLOPS

46,08 TFLOPS

TASA DE RELLENO DE TEXTURAS MÁXIMA

279 GT/s

413 GT/s

505,2 GT/s

648 GT/s

720 GT/s

UNIDADES ROP

64

64

96

128

128

TASA DE RELLENO DE PÍXELES MÁXIMA

159,4 GP/s

165,2 GP/s

202,1 GP/s

288 GP/s

288 GP/s

AMD INFINITY CACHE

32 MB

96 MB

128 MB

128 MB

128 MB

MEMORIA INTEGRADA

8 GB GDDR6

12 GB GDDR6

16 GB GDDR6

16 GB GDDR6

16 GB GDDR6

ANCHO DE BANDA DE LA MEMORIA

224 GB/s

384 GB/s

512 GB/s

512 GB/s

512 GB/s

INTERFAZ DE MEMORIA

128 bits

192 bits

256 bits

256 bits

256 bits

CONSUMO MÁXIMO

132 vatios

230 vatios

250 vatios

300 vatios

300 vatios

PRECIO

329 euros (precio oficial)

489,99 euros

599,99 euros

669,99 euros

1099,99 euros

PowerColor Hellhound - Tarjeta gráfica AMD Radeon RX 6600 con memoria GDDR6 de 8 GB

PowerColor Hellhound - Tarjeta gráfica AMD Radeon RX 6600 con memoria GDDR6 de 8 GB

La arquitectura RDNA 2, en detalle

Las tecnologías implementadas por AMD en el procesador gráfico Radeon RX 6600 son idénticas a las de las GPU Radeon RX 6900 XT, 6800 XT y 6700 XT que hemos analizado durante los últimos meses, por lo que esta sección del análisis es la misma de los artículos que hemos dedicado a estas últimas tarjetas gráficas.

Si ya habéis leído nuestros análisis de estas últimas soluciones y no necesitáis repasar en qué consisten estas innovaciones os sugerimos que paséis esta sección por alto. De lo contrario, aquí tenéis la información más interesante.

La arquitectura RDNA 2 persigue ante todo incrementar la eficiencia energética de la GPU para permitirle trabajar a frecuencias más altas

El objetivo más ambicioso que se propusieron los ingenieros de AMD durante la fase de diseño de la microarquitectura RDNA 2 fue incrementar la eficiencia energética de sus nuevos procesadores gráficos y hacer posible que trabajasen a frecuencias de reloj más altas sin necesidad de introducir un proceso fotolitográfico más avanzado. Y parecen haberlo conseguido.

Según la propia AMD las GPU de la familia Radeon RX 6000 nos proponen un incremento de la relación rendimiento/vatio de hasta el 54% frente a la arquitectura RDNA, una mejora muy notable en la que intentaremos indagar en la sección de este artículo dedicada a nuestro banco de pruebas.

La primera diapositiva en la que merece la pena que nos detengamos refleja algunas de las características de las nuevas tarjetas gráficas de AMD que a los usuarios nos interesa conocer. La comunicación con la CPU la resuelve un enlace PCI Express 4.0 de 16 líneas, y la interfaz de memoria consigue alcanzar una velocidad de transferencia máxima de 16 Gbps (más adelante indagaremos en la novedosa arquitectura de la caché de estas tarjetas gráficas). Un apunte más: las salidas HDMI de estas Radeon RX 6000 implementan la norma 2.1.

Rdna2 1

La microarquitectura RDNA 2 consigue, como hemos visto, incrementar de forma notable la relación rendimiento/vatio que nos ofrece la primera generación de RDNA. Para hacerlo posible los ingenieros de AMD han trabajado en varios frentes, entre los que destacan el refinamiento de la propia microarquitectura, el rediseño del cauce de renderizado, la optimización del desplazamiento de los paquetes de datos y el incremento del rendimiento por ciclo de reloj, una estrategia en la que adquiere un rol crucial la novedosa arquitectura de caché en la que estamos a punto de indagar.

Rdna2 2

En la siguiente diapositiva podemos ver cómo es la nueva jerarquía de memoria caché implementada por AMD en las GPU de la familia Radeon RX 6000. Además de recurrir a las cachés de nivel 0, 1 y 2 se apoyan en una nueva caché con una capacidad de 32, 96 o 128 MB, según el modelo, que actúa como intermediaria entre la memoria caché de nivel 2 y la memoria VRAM integrada en la tarjeta gráfica.

Según AMD la estrategia de escritura en los subniveles de caché que han puesto a punto sus ingenieros consigue minimizar el movimiento de los paquetes de datos, la latencia y el consumo reutilizando de forma inteligente tantos datos como sea posible.

Rdna2 3

La caché Infinity, que es como AMD llama a ese subnivel de caché adicional, persigue incrementar el ancho de banda drásticamente sin necesidad de recurrir a un bus de memoria más «ancho» o a chips de memoria más rápidos y caros.

Como podemos ver, la estrategia de AMD en este ámbito es muy diferente a la de NVIDIA, que ha apostado en sus tarjetas gráficas más ambiciosas por chips de memoria GDDR6X y un bus de 384 bits. Esta aproximación permite a las nuevas Radeon, siempre según AMD, multiplicar por cuatro la velocidad de transferencia máxima de la interfaz de memoria. Sobre el papel esta tecnología pinta realmente bien.

Rdna2 4

La última diapositiva en la que nos interesa detenernos describe la estructura que tienen las nuevas unidades de cálculo integradas en las GPU de la familia Radeon RX 6000. La arquitectura de estos componentes tan importantes del procesador gráfico ha sido refinada para, según AMD, multiplicar su rendimiento por 1,3 sin que su consumo se vea alterado.

Rdna2 5

Así es la Radeon RX 6600 que nos propone Sapphire

La placa de circuito impreso de esta tarjeta gráfica no es muy grande, lo que ha permitido a Sapphire poner a punto una solución razonablemente compacta. Mide 193 x 120 x 40 mm, por lo que los usuarios no deberíamos tener ningún problema para instalarla en ninguna caja para PC, por poco voluminosa que sea.

Aun así, su recinto es lo suficientemente amplio para recoger dos ventiladores que, según Sapphire, han sido dimensionados para optimizar la transferencia de energía térmica mediante convección desde el disipador que recubre la GPU al aire, evitando así que este chip supere su umbral máximo de temperatura.

Amdradeonrx6600diseno1

Esta tarjeta gráfica incorpora una única toma de alimentación de 8 pines, y, según Sapphire, tiene un consumo máximo de 140 vatios, por lo que una fuente de alimentación de 500 vatios es un buen punto de partida para esta solución gráfica. En cualquier caso, para dimensionar la fuente de alimentación, como es lógico, debemos tener también en cuenta el consumo de los demás componentes de nuestro PC, y especialmente el de la CPU.

Amdradeonrx6600diseno2

La salida HDMI que acompaña a los tres puertos DisplayPort 1.4 con tecnología DSC (Display Stream Compression) implementa la norma 2.1, una prestación muy atractiva para todos aquellos usuarios que tienen la intención de enviar la señal de vídeo de su PC a un televisor que también incorpore esta especificación. Utilizando esta conexión podemos transportar hasta el televisor señales de vídeo 2160p con una cadencia de hasta 120 FPS, aunque, como hemos visto, esta tarjeta gráfica está dimensionada para ofrecernos lo mejor de sí misma a 1080p.

Amdradeonrx6600diseno3

AMD Radeon RX 6600 vs. NVIDIA GeForce RTX 3060: así rinden en combate

La configuración del equipo que hemos utilizado para evaluar el rendimiento de estas dos tarjetas gráficas es la siguiente: microprocesador Intel Core i9-10900K con 10 núcleos, 20 hilos de ejecución (threads) y una frecuencia de reloj máxima de 5,30 GHz; dos módulos de memoria Corsair Dominator Platinum DDR4-3600 con una capacidad conjunta de 16 GB y una latencia de 18-19-19-39; una placa base Gigabyte Z490 AORUS Master con chipset Intel Z490; una unidad SSD Samsung 970 EVO Plus con interfaz NVMe M.2 y una capacidad de 500 GB; un sistema de refrigeración por aire para la CPU Corsair A500 con ventilador de rodamientos por levitación magnética y una fuente de alimentación modular Corsair RM 750x.

Hemos utilizado esta plataforma de pruebas porque es la misma que hemos empleado durante los últimos meses para analizar las tarjetas gráficas Radeon RX 6900 XT, 6800 XT y 6700 XT de AMD, y también las GeForce RTX 3080, RTX 3080 Ti, RTX 3070, RTX 3070 Ti y RTX 3060 Ti de NVIDIA. Sin embargo, la nueva generación de tarjetas gráficas de AMD está diseñada para entregarnos el máximo rendimiento cuando convive junto a un procesador Ryzen 5000 de la propia AMD porque esta combinación nos permite habilitar la tecnología Smart Access Memory (SAM).

En nuestros análisis de las Radeon RX 6900 XT y 6800 XT descubrimos que, por el momento, el incremento del rendimiento es marginal, pero si tenéis curiosidad y os apetece comprobar en qué medida la tecnología SAM tiene un impacto más o menos perceptible en la productividad os sugerimos que les echéis un vistazo.

Amdradeonrx6600plataforma

Por último, el monitor que hemos utilizado en las pruebas es un ROG Strix XG27UQ de ASUS equipado con un panel LCD IPS de 27 pulgadas con resolución 4K UHD y capaz de trabajar a una frecuencia de refresco máxima de 144 Hz.

Todas las pruebas las hemos ejecutado con la máxima calidad gráfica implementada en cada juego o test y habilitando la API DirectX 12 en aquellos títulos en los que está disponible. Y, finalmente, las herramientas que hemos utilizado para recoger los datos son FrameView, de NVIDIA; OCAT, de AMD; y FRAPS. Las tres están disponibles gratuitamente.

Amdradeonrx6600 1

La tarjeta gráfica con GPU GeForce RTX 3060 a la que hemos enfrentado la Radeon RX 6600 es una TUF Gaming de ASUS equipada con 12 GB GDDR6. Este procesador gráfico de NVIDIA implementa la arquitectura Ampere y ha sido fabricado utilizando la fotolitografía de 8 nm de Samsung. Todas las innovaciones introducidas por esta arquitectura en los modelos superiores de la familia GeForce RTX 30 están presentes también en el procesador gráfico RTX 3060 (si queréis echarles un vistazo podéis consultar el análisis que enlazo aquí mismo). Como podéis ver en la siguiente fotografía, esta solución gráfica recurre a tres ventiladores para evitar que la GPU supere su umbral máximo de temperatura.

Amdradeonrx6600geforcertx3060

Como podéis ver en la siguiente gráfica, en la prueba Time Spy de 3DMark la tarjeta gráfica con GPU de NVIDIA se impone con cierta claridad a la solución con procesador gráfico de AMD. Este test es una prueba sintética, pero de alguna forma nos invita a prever lo que nos vamos a encontrar a continuación cuando pongamos a prueba ambas tarjetas utilizando los motores gráficos de juegos reales.

En 'Doom Eternal' ambas tarjetas gráficas nos ofrecen un rendimiento sobresaliente tanto a 1080p como a 1440p si prescindimos del trazado de rayos (RT). La GeForce RTX 3060 nos sigue entregando un rendimiento estupendo al activarlo, mientras que el de la Radeon RX 6600 se resiente de una forma notable. A la solución gráfica con GPU de NVIDIA no le hace falta recurrir al DLSS para sentirse cómoda con el ray tracing activado ni a 1080p ni a 1440p.

El rendimiento que arrojan ambas tarjetas gráficas en 'Wolfenstein: Youngblood' sin el trazado de rayos tanto a 1080p como a 1440p es estupendo. La GeForce RTX 3060 es más rápida que la Radeon RX 6600, pero ambas tarjetas se sienten muy cómodas a estas dos resoluciones. Al activar el ray tracing el rendimiento de la tarjeta gráfica con GPU de NVIDIA se resiente con claridad, pero, como vemos en la gráfica, no es imprescindible recurrir al DLSS para disfrutar esta tecnología en este título. De nuevo la GeForce RTX 3060 se lleva la victoria.

Seguimos con más de lo mismo. De nuevo, en 'Control' la tarjeta gráfica equipada con la GPU GeForce RTX 3060 se impone a la Radeon RX 6600 en las dos resoluciones y tanto al prescindir del trazado de rayos como al activarlo. La solución gráfica con GPU de AMD rinde bien a 1080p sin RT, pero al activar el ray tracing o al pasar a 1440p su rendimiento cae sensiblemente. Ambas tarjetas sufren al utilizar esta última resolución, por lo que en este juego es una buena idea recurrir al DLSS en la tarjeta gráfica con GPU de NVIDIA.

'Godfall' es uno de los títulos que implementan la tecnología FidelityFX Super Resolution (FSR) de AMD, por lo que es muy interesante para comprobar cómo se comporta la Radeon RX 6600 al recurrir a esta técnica de reconstrucción de la imagen. La GeForce RTX 3060 es más rápida que la Radeon RX 6600 a 1080p y 1440p tanto al prescindir del trazado de rayos como al activarlo, pero cuando habilitamos la tecnología FSR la solución de AMD despega y se impone con mucha rotundidad. Recurriendo a ella la Radeon RX 6600 nos permite disfrutar este juego a 1440p con el RT activado.

Como podemos ver en la siguiente gráfica, en 'DiRT 5' ambas tarjetas están sorprendentemente igualadas. El rendimiento del motor gráfico de este juego no se resiente demasiado al activar el trazado de rayos, por lo que ambas tarjetas nos permiten utilizar esta tecnología tanto a 1080p como a 1440p. Eso sí, como podíamos prever, a esta última resolución las dos sufren más y no consiguen evitar la aparición ocasional de caídas de la cadencia de imágenes por segundo por debajo de los 50 FPS.

El rendimiento que arrojan ambas tarjetas gráficas en 'Death Stranding' es muy bueno tanto a 1080p como a 1440p. A esta última resolución las dos arrojan una cadencia media cercana a los 100 FPS, aunque, eso sí, en este título la Radeon RX 6600 es un poco más rápida que la GeForce RTX 3060. De todas formas al activar el DLSS esta última despunta y consigue imponerse en ambas resoluciones. En cualquier caso, este juego es muy disfrutable con estas dos tarjetas gráficas tanto a 1080p como a 1440p.

A pesar de su veteranía, 'Final Fantasy XV' continúa siendo un hueso duro de roer. Ambas tarjetas gráficas lidian razonablemente bien con su motor gráfico a 1080p, pero a 1440p van sensiblemente más justas. A esta última resolución la GeForce RTX 3060 consigue mantenerse por encima de los 60 FPS, mientras que la Radeon RX 6600 se coloca algo por encima de los 50 FPS.

'Rise of the Tomb Raider' no ha conseguido poner en apuros a ninguna de las dos tarjetas gráficas. La GeForce RTX 3060 es más rápida en ambas resoluciones, pero las dos se sienten razonablemente cómodas incluso a 1440p, por lo que este título también es muy disfrutable en estos dos escenarios de juego.

'DiRT Rally' ha sido pan comido para estas dos tarjetas gráficas. La GeForce RTX 3060 ha demostrado ser más rápida que la Radeon RX 6600, pero incluso esta última nos entrega una cadencia media de imágenes por segundo superior a los 200 FPS a 1440p. Nada más que añadir.

En la gráfica de medición de la temperatura máxima alcanzada por la GPU de estas tarjetas gráficas hemos decidido introducir también las demás soluciones de las familias Radeon RX 6000 y GeForce RTX 30 para poner en contexto el resultado que han arrojado la Radeon RX 6600 y la GeForce RTX 3060. Esta última es, curiosamente, la que menos se calienta de todas, mientras que su rival de AMD se calienta solo ligeramente menos que sus hermanas mayores.

Para medir el nivel de ruido máximo emitido por cada tarjeta gráfica bajo estrés utilizamos nuestro sonómetro Velleman DVM805. La siguiente gráfica refleja con claridad que las tarjetas con GPU de NVIDIA son generalmente más silenciosas que las que incorporan un procesador gráfico de AMD, aunque, eso sí, la GeForce RTX 3060 ha roto esta tónica y se ha consolidado, inesperadamente, como la más ruidosa de las tarjetas gráficas de última generación que hemos analizado hasta ahora.

AMD Radeon RX 6600 vs. NVIDIA GeForce RTX 3060: la opinión de Xataka

Las cartas están sobre la mesa. Como acabamos de ver, el rendimiento que nos entregan estas dos tarjetas gráficas a 1080p, que es la resolución para la que ambas han sido dimensionadas, es muy satisfactorio incluso con juegos exigentes, como 'Control' o 'DiRT 5'. Cuando introducimos el trazado de rayos en la ecuación su rendimiento se ve penalizado, por lo que nos veremos obligados a reducir nuestras exigencias gráficas, o bien a recurrir a las tecnologías de reconstrucción de la imagen (DLSS o FSR) en aquellos títulos en los que están disponibles.

Cuando nos ponemos exigentes contar con las tecnologías de reconstrucción de la imagen DLSS y FSR es una garantía

A 1440p ambas tarjetas gráficas se ha desenvuelto sorprendentemente bien, aunque su rendimiento varía mucho de un juego a otro. En algunos podemos mantener la calidad gráfica al máximo, mientras que en otros es necesario moderar la exigencia gráfica para conseguir que nos entreguen una cadencia media de imágenes por segundo sólidamente afianzada por encima de los 60 FPS. De nuevo contar con las tecnologías DLSS y FSR a 1440p es una garantía. Estas tarjetas gráficas no han sido diseñadas para jugar a 2160p, por lo que quien se decante por esta resolución acertará eligiendo alguna de sus hermanas mayores.

Ambas soluciones gráficas nos han dejado un buen sabor de boca, pero si tenemos que declarar una ganadora la elegida debe ser necesariamente la GeForce RTX 3060 porque nos ha demostrado ser un poco más rápida que la Radeon RX 6600 en la mayor parte de los juegos. En cualquier caso, tal y como está actualmente el mercado nuestro consejo es que quien esté buscando una tarjeta gráfica para jugar a 1080p, o, incluso, a 1440p, se haga con la que primero se ponga a tiro a un precio más bajo. Desafortunadamente el panorama no nos lo pone nada fácil a los usuarios. Crucemos los dedos para que la situación mejore lo antes posible y dejemos atrás este escenario tan frustrante para todos.

PowerColor Hellhound - Tarjeta gráfica AMD Radeon RX 6600 con memoria GDDR6 de 8 GB

PowerColor Hellhound - Tarjeta gráfica AMD Radeon RX 6600 con memoria GDDR6 de 8 GB

Estas tarjetas gráficas han sido cedidas para este análisis por AMD y NVIDIA. Puedes consultar nuestra política de relaciones con las empresas.

Más información | AMD | NVIDIA

-
La noticia AMD Radeon RX 6600 vs. NVIDIA GeForce RTX 3060, análisis y comparativa: así queda la guerra de ofrecer 1080p al precio más bajo fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

Estas son las armas de Loihi 2, el chip neuromórfico más avanzado de Intel, para convencernos de que está preparado para salir del laboratorio y conquistar el mundo real

Estas son las armas de Loihi 2, el chip neuromórfico más avanzado de Intel, para convencernos de que está preparado para salir del laboratorio y conquistar el mundo real

«La computación neuromórfica nos promete dotar de grandes capacidades a los dispositivos inteligentes que se enfrentan al reto de procesar en tiempo real enormes cantidades de datos, y, además, de adaptarse simultáneamente a cambios imprevistos. Y todo ello ciñéndose a un consumo y una latencia muy exigentes». Esta descripción no es nuestra. Es de Intel. Y resume con claridad cuál es el propósito que persigue esta rama de la ingeniería tan apasionante.

Esta disciplina se inspira en nuestro conocimiento de la estructura y el funcionamiento del sistema nervioso de los animales, que es indiscutiblemente limitado, para poner a punto un chip que en la medida de lo posible emule la capacidad de procesamiento de un cerebro animal. Intel, IBM, HP o Google son algunas de las empresas que están invirtiendo recursos en el desarrollo de esta tecnología, pero los avances que está experimentando la computación neuromórfica también proceden de algunas de las universidades más prestigiosas del planeta, como el MIT, Stanford o el IMEC.

Intel dio a conocer hace cuatro años su procesador neuromórfico Loihi, un chip fabricado con fotolitografía de 14 nm que incorpora 128 núcleos y algo más de 130 000 neuronas. Cada una de esas neuronas artificiales puede comunicarse con miles de las neuronas con las que convive, creando una intrincada red que emula a las redes neuronales de nuestro propio cerebro. Y hace tan solo unos días ha presentado Loihi 2, una revisión de su procesador neuromórfico para investigación que llega acompañada por Lava, un entorno de desarrollo de software de código abierto que persigue facilitar el desarrollo de aplicaciones que puedan beneficiarse de las cualidades que tiene la computación neuromórfica.

Loihi 2 es 10 veces más rápido e incorpora 1 millón de neuronas por chip

Antes de seguir adelante es importante que tengamos en cuenta que los procesadores neuromórficos aún no han salido del laboratorio. Al menos no de una forma definitiva. Las empresas y las universidades que están trabajando en esta área tienen en marcha muchos proyectos de investigación, algunos de ellos en colaboración con organizaciones alejadas del mundo académico, que, precisamente, persiguen demostrar la viabilidad comercial de estas soluciones. Según Intel, Loihi 2 nos coloca un poco más cerca de este hito.

Este chip neuromórfico es, de acuerdo con la información que nos ha proporcionado Intel, hasta 10 veces más rápido que la versión original del procesador Loihi. Su arquitectura ha sido refinada para que sea capaz de facilitar la implementación de nuevos algoritmos y aplicaciones que puedan sacar partido a la computación neuromórfica, pero con un consumo menor que el del primer chip Loihi. No obstante, la especificación más impactante de Loihi 2 es una consecuencia directa de las mejoras que ha introducido Intel en su proceso de fabricación. Y es que su mayor densidad de transistores lo ha dotado de 1 millón de neuronas artificiales por chip, una cantidad muy superior a las 130 000 neuronas que tiene el modelo original.

Loihi2specs

Los primeros procesadores Loihi 2 están siendo fabricados utilizando una versión preliminar de la tecnología de integración Intel 4, un nodo que utiliza fotolitografía ultravioleta extrema (EUV) de 7 nm, pero que, según Intel, en la práctica tiene una densidad de transistores equiparable, o, incluso, superior al nodo de 5 nm de TSMC. La litografía utilizada en la producción de los chips neuromórficos es muy importante no solo debido a que facilita la integración de una mayor cantidad de neuronas artificiales y la implementación de mejoras en la microarquitectura; también tiene un impacto directo y beneficioso en su consumo, un parámetro crítico en estos procesadores.

No sirve para todo, pero aquí la computación neuromórfica puede marcar la diferencia

Esta disciplina representa una alternativa a la computación clásica, pero solo en unas aplicaciones muy concretas que pueden beneficiarse de un alto nivel de paralelismo intrínseco, y en las que, además, es necesario minimizar la latencia y reducir el consumo tanto como sea posible. Tanto Intel como las demás empresas e instituciones que están fomentando el desarrollo de la computación neuromórfica la observan como un complemento de los ordenadores clásicos que nos ofrece algunas ventajas importantes en determinados escenarios de uso. Estos son algunos de ellos:

  • Optimización y búsqueda: los algoritmos neuromórficos pueden diseñarse de manera que sean capaces de explorar un conjunto grande de soluciones a un problema determinado para encontrar aquellas que satisfacen unos requisitos concretos. Esta característica resulta muy útil para encontrar la ruta óptima que debe seguir un repartidor de paquetes, o para planificar los horarios que deben tener las clases de una institución educativa, entre muchas otras opciones.
  • Identificación de comandos de voz: en las primeras pruebas experimentales un chip Loihi ha demostrado ser tan preciso al reconocer comandos de voz como una GPU, pero, según los investigadores de Accenture que han llevado a cabo este experimento, el chip neuromórfico de Intel de primera generación consume hasta 1000 veces menos energía y consigue responder 200 ms más rápido.

Intel Loihi 2 4

  • Reconocimiento de gestos: los experimentos que están llevando a cabo los investigadores de Intel apuntan que los procesadores Loihi son capaces de aprender y reconocer los gestos individualizados de un conjunto amplio de personas con mucha rapidez. En este ámbito la computación neuromórfica parece ser mucho más eficiente que los algoritmos de inteligencia artificial clásicos que estamos utilizando actualmente.
  • Robótica: dos grupos de investigación de las universidades Rutgers (Estados Unidos) y TU Delft (Países Bajos) han diseñado aplicaciones de control de drones mediante chips Loihi que han demostrado consumir 75 veces menos energía que las herramientas de control diseñadas para ser ejecutadas sobre una GPU. Y sin que su rendimiento se vea afectado negativamente.
  • Recuperación de imágenes: los algoritmos neuromórficos están demostrando ser muy eficaces en todos aquellos procesos en los que es necesario identificar un conjunto de objetos heterogéneos a partir de su semejanza con uno o varios modelos tomados como referencia. En este escenario de uso según Intel los sistemas neuromórficos son hasta 24 veces más rápidos y 30 veces más eficientes que las soluciones que recurren a la combinación de una GPU y una CPU.

Más información | Intel

-
La noticia Estas son las armas de Loihi 2, el chip neuromórfico más avanzado de Intel, para convencernos de que está preparado para salir del laboratorio y conquistar el mundo real fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

Estas son las armas de Loihi 2, el chip neuromórfico más avanzado de Intel, para convencernos de que está preparado para salir del laboratorio y conquistar el mundo real

Estas son las armas de Loihi 2, el chip neuromórfico más avanzado de Intel, para convencernos de que está preparado para salir del laboratorio y conquistar el mundo real

«La computación neuromórfica nos promete dotar de grandes capacidades a los dispositivos inteligentes que se enfrentan al reto de procesar en tiempo real enormes cantidades de datos, y, además, de adaptarse simultáneamente a cambios imprevistos. Y todo ello ciñéndose a un consumo y una latencia muy exigentes». Esta descripción no es nuestra. Es de Intel. Y resume con claridad cuál es el propósito que persigue esta rama de la ingeniería tan apasionante.

Esta disciplina se inspira en nuestro conocimiento de la estructura y el funcionamiento del sistema nervioso de los animales, que es indiscutiblemente limitado, para poner a punto un chip que en la medida de lo posible emule la capacidad de procesamiento de un cerebro animal. Intel, IBM, HP o Google son algunas de las empresas que están invirtiendo recursos en el desarrollo de esta tecnología, pero los avances que está experimentando la computación neuromórfica también proceden de algunas de las universidades más prestigiosas del planeta, como el MIT, Stanford o el IMEC.

Intel dio a conocer hace cuatro años su procesador neuromórfico Loihi, un chip fabricado con fotolitografía de 14 nm que incorpora 128 núcleos y algo más de 130 000 neuronas. Cada una de esas neuronas artificiales puede comunicarse con miles de las neuronas con las que convive, creando una intrincada red que emula a las redes neuronales de nuestro propio cerebro. Y hace tan solo unos días ha presentado Loihi 2, una revisión de su procesador neuromórfico para investigación que llega acompañada por Lava, un entorno de desarrollo de software de código abierto que persigue facilitar el desarrollo de aplicaciones que puedan beneficiarse de las cualidades que tiene la computación neuromórfica.

Loihi 2 es 10 veces más rápido e incorpora 1 millón de neuronas por chip

Antes de seguir adelante es importante que tengamos en cuenta que los procesadores neuromórficos aún no han salido del laboratorio. Al menos no de una forma definitiva. Las empresas y las universidades que están trabajando en esta área tienen en marcha muchos proyectos de investigación, algunos de ellos en colaboración con organizaciones alejadas del mundo académico, que, precisamente, persiguen demostrar la viabilidad comercial de estas soluciones. Según Intel, Loihi 2 nos coloca un poco más cerca de este hito.

Este chip neuromórfico es, de acuerdo con la información que nos ha proporcionado Intel, hasta 10 veces más rápido que la versión original del procesador Loihi. Su arquitectura ha sido refinada para que sea capaz de facilitar la implementación de nuevos algoritmos y aplicaciones que puedan sacar partido a la computación neuromórfica, pero con un consumo menor que el del primer chip Loihi. No obstante, la especificación más impactante de Loihi 2 es una consecuencia directa de las mejoras que ha introducido Intel en su proceso de fabricación. Y es que su mayor densidad de transistores lo ha dotado de 1 millón de neuronas artificiales por chip, una cantidad muy superior a las 130 000 neuronas que tiene el modelo original.

Loihi2specs

Los primeros procesadores Loihi 2 están siendo fabricados utilizando una versión preliminar de la tecnología de integración Intel 4, un nodo que utiliza fotolitografía ultravioleta extrema (EUV) de 7 nm, pero que, según Intel, en la práctica tiene una densidad de transistores equiparable, o, incluso, superior al nodo de 5 nm de TSMC. La litografía utilizada en la producción de los chips neuromórficos es muy importante no solo debido a que facilita la integración de una mayor cantidad de neuronas artificiales y la implementación de mejoras en la microarquitectura; también tiene un impacto directo y beneficioso en su consumo, un parámetro crítico en estos procesadores.

No sirve para todo, pero aquí la computación neuromórfica puede marcar la diferencia

Esta disciplina representa una alternativa a la computación clásica, pero solo en unas aplicaciones muy concretas que pueden beneficiarse de un alto nivel de paralelismo intrínseco, y en las que, además, es necesario minimizar la latencia y reducir el consumo tanto como sea posible. Tanto Intel como las demás empresas e instituciones que están fomentando el desarrollo de la computación neuromórfica la observan como un complemento de los ordenadores clásicos que nos ofrece algunas ventajas importantes en determinados escenarios de uso. Estos son algunos de ellos:

  • Optimización y búsqueda: los algoritmos neuromórficos pueden diseñarse de manera que sean capaces de explorar un conjunto grande de soluciones a un problema determinado para encontrar aquellas que satisfacen unos requisitos concretos. Esta característica resulta muy útil para encontrar la ruta óptima que debe seguir un repartidor de paquetes, o para planificar los horarios que deben tener las clases de una institución educativa, entre muchas otras opciones.
  • Identificación de comandos de voz: en las primeras pruebas experimentales un chip Loihi ha demostrado ser tan preciso al reconocer comandos de voz como una GPU, pero, según los investigadores de Accenture que han llevado a cabo este experimento, el chip neuromórfico de Intel de primera generación consume hasta 1000 veces menos energía y consigue responder 200 ms más rápido.

Intel Loihi 2 4

  • Reconocimiento de gestos: los experimentos que están llevando a cabo los investigadores de Intel apuntan que los procesadores Loihi son capaces de aprender y reconocer los gestos individualizados de un conjunto amplio de personas con mucha rapidez. En este ámbito la computación neuromórfica parece ser mucho más eficiente que los algoritmos de inteligencia artificial clásicos que estamos utilizando actualmente.
  • Robótica: dos grupos de investigación de las universidades Rutgers (Estados Unidos) y TU Delft (Países Bajos) han diseñado aplicaciones de control de drones mediante chips Loihi que han demostrado consumir 75 veces menos energía que las herramientas de control diseñadas para ser ejecutadas sobre una GPU. Y sin que su rendimiento se vea afectado negativamente.
  • Recuperación de imágenes: los algoritmos neuromórficos están demostrando ser muy eficaces en todos aquellos procesos en los que es necesario identificar un conjunto de objetos heterogéneos a partir de su semejanza con uno o varios modelos tomados como referencia. En este escenario de uso según Intel los sistemas neuromórficos son hasta 24 veces más rápidos y 30 veces más eficientes que las soluciones que recurren a la combinación de una GPU y una CPU.

Más información | Intel

-
La noticia Estas son las armas de Loihi 2, el chip neuromórfico más avanzado de Intel, para convencernos de que está preparado para salir del laboratorio y conquistar el mundo real fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

Mejor televisor de gama de entrada y media: vota en los Premios Xataka Orange 2021

Mejor televisor de gama de entrada y media: vota en los Premios Xataka Orange 2021

Seguimos adelante con las votaciones para los Premios Xataka Orange 2021. Vuestra ayuda es indispensable para que entre todos encontremos los mejores productos de cada categoría. De hecho, a los ganadores les entregaremos un galardón durante la gala que celebraremos el próximo 18 de noviembre en el Cine Capitol, que está situado en pleno centro de Madrid. Estamos preparando un acontecimiento inolvidable, así que todos estáis invitados a acompañarnos ese día.

Más adelante, en este mismo artículo, os explicamos con detalle cómo funcionan las votaciones en esta decimosegunda edición de nuestros premios, un evento muy importante para nosotros y en el que nos encantaría que participéis. Pero lo que toca ahora es seguir votando, y en esta ocasión os proponemos que nos ayudéis a encontrar el mejor televisor de gama de entrada y media de 2021. Nuestra lista de candidatos no tiene desperdicio:


Leer más