OPPO Find X3 Pro 5G, primeras impresiones: este smartphone insignia quiere diferenciarse a toda costa, y lo ha logrado de una forma muy peculiar

OPPO Find X3 Pro 5G, primeras impresiones: este smartphone insignia quiere diferenciarse a toda costa, y lo ha logrado de una forma muy peculiar

OPPO tiene nuevo modelo insignia. Esta compañía china acaba de presentar su último smartphone tope de gama, y hemos tenido la oportunidad de probarlo en sus instalaciones durante el tiempo suficiente para formarnos una idea certera acerca de qué nos ofrece. Y no es poco. Este teléfono móvil pone sobre la mesa la vocación prémium de esta marca, pero no lo hace únicamente con unas especificaciones a la última.

Y es que OPPO ha introducido varias innovaciones en su diseño, su construcción y su módulo de las cámaras que persiguen desmarcarlo con toda la contundencia posible de los teléfonos móviles de gama alta de otros fabricantes con los que va a competir. Como vamos a ver a lo largo de este artículo este Find X3 Pro 5G es un soplo de aire fresco en un segmento en el que no es fácil diferenciarse, y esta característica por sí sola representa un punto de partida apetecible.

OPPO Find X3 Pro 5G: especificaciones técnicas

Las especificaciones de este teléfono móvil reflejan con mucha claridad que estamos ante un terminal con vocación prémium. La pantalla que nos propone incorpora un panel AMOLED de 6,7 pulgadas con resolución QHD+, un refresco de 120 Hz y una capacidad de entrega de brillo máxima de 1200 nits que debería dar lo mejor de sí misma al reproducir contenidos HDR. De hecho, este terminal tiene certificación HDR10+.

El cerebro de este smartphone es el procesador más avanzado que tiene Qualcomm actualmente: el chip Snapdragon 888 5G

Su procesador es un chip Snapdragon 888 5G de Qualcomm fabricado con fotolitografía de 5 nm y dotado de ocho núcleos Kryo 680 (cuatro de ellos trabajan a una frecuencia de reloj máxima de 2,84 GHz) y de la lógica gráfica Adreno 660. Codo con codo con este SoC trabaja una memoria principal DDR5 con una capacidad de 12 GB, y el almacenamiento secundario está en las manos de una unidad UFS 3.1 de 256 GB. No cabe duda de que estas son unas especificaciones de gama alta.

En la dotación de cámaras de este teléfono móvil indagaremos con cierta profundidad más adelante en este artículo, pero antes de que os contemos qué nos ha parecido en esta primera toma de contacto preliminar nos viene bien saber que incorpora la capa de software ColorOS 11.2 sobre Android 11 y que tiene una batería de 4500 mAh que, según OPPO, podemos cargar al 100% en 38 minutos utilizando la carga rápida SuperVOOC 2.0 de 65 vatios.

oppo find x3 pro 5G


pantalla

AMOLED QHD+ de 6,7 pulgadas (525 ppp), refresco máximo de 120 Hz, capacidad de entrega de brillo de 1200 nits, certificación HDR10+ y cobertura Gorilla Glass 5

procesador

Qualcomm Snapdragon 888 5G

memoria principal

12 GB DDR5

almacenamiento secundario

256 GB UFS 3.1

cámara frontal

Sensor de 32 megapíxeles y valor de apertura f/2.4

cámaras traseras

- Gran angular (principal): sensor Sony IMX766 de 50 megapíxeles, valor de apertura f/1.8 y estabilización óptica

- Ultra gran angular: sensor Sony IMX766 de 50 megapíxeles, valor de apertura f/2.2 y ángulo de visión de 110,3 º

- Teleobjetivo: sensor de 13 megapíxeles, valor de apertura f/2.4, zoom híbrido 5x y zoom digital hasta 20x

- Cámara microscópica: sensor de 3 megapíxeles, valor de apertura f/3.0 y microlente 60x

conectividad

USB-C

conectividad inalámbrica

WiFi 6, Bluetooth 5.0 y NFC

5G (SA y NSA)

sonido

Estereofónico y procesado Dolby Atmos

sistema operativo

ColorOS 11.2 (sobre Android 11)

certificación ip

IP68 (resistente al polvo y el agua)

batería

4500 mAh

tecnología de carga

SuperVOOC 2.0 de 65 vatios (carga con cable) y AirVOOC Wireless de 30 vatios (carga inalámbrica)

colores

Azul mate y negro brillante

dimensiones

163,4 x 74 x 8,3 mm

peso

193 g

precio

1169 euros

Por delante es uno más, pero por detrás su módulo de cámaras marca la diferencia

El diseño frontal de este teléfono móvil es muy similar al de otros terminales de gama alta. Sus marcos son finos y la única cámara de fotos delantera reside en un pequeño orificio alojado en la esquina superior izquierda del panel. Nada nuevo hasta aquí. Y es que para identificar algo original es imprescindible que demos la vuelta al smartphone y nos fijemos en su parte trasera.

Oppofindx3pantalla

La pantalla AMOLED de este smartphone tiene una calidad de imagen muy alta y responde al toque con precisión. Su alta capacidad de entrega de brillo debería permitirle rendir bien en espacios con luz abundante, e, incluso, cuando esta incide directamente sobre el panel.

En la fotografía que publicamos debajo de estas líneas podéis ver con claridad la que sin duda es la principal seña de identidad estética de este teléfono móvil: el módulo de las cámaras está completamente integrado en la superficie del cristal trasero. La continuidad es total porque no hay ninguna junta a pesar de que, al igual que en la mayor parte de los terminales con ambición fotográfica, las cámaras están alojadas en una protuberancia que incrementa el grosor del Find X3 Pro 5G hasta los 8,3 mm.

Según OPPO el proceso de forjado en caliente del cristal trasero de este móvil requiere invertir 40 horas en cada vidrio

Durante nuestra conversación con los responsables de la filial española de OPPO descubrimos que fabricar la lámina de vidrio que da forma a la superficie trasera de este teléfono móvil es complicado. Según la marca china para garantizar que la continuidad del vidrio es total y que nos ofrece un tacto suave es necesario invertir 40 horas de trabajo. En cada cristal.

Además, este proceso de forjado se lleva a cabo a una temperatura de 700 grados centígrados y prefijando 2000 puntos de control que permiten a un algoritmo de inspección visual asegurar que la superficie del cristal tiene la forma apropiada. Estos datos son interesantes porque de alguna forma reflejan el mimo con el que OPPO pone a punto este teléfono, pero desde un punto de vista práctico lo más importante es que el diseño de este cristal según esta marca incrementa el área de disipación de calor en un 28% si la comparamos con la que nos ofrecen los diseños tradicionales.

Oppofindx3perfil

Más allá de la complejidad del proceso de forjado del cristal trasero de este smartphone y de las cifras de las que nos habla OPPO para describirla podemos aseguraros que cuando lo sostienes en la mano y deslizas tus dedos sobre él te das cuenta de que está impecablemente acabado.

Por otro lado, el mecanizado del marco de aluminio que actúa como soporte de los cristales delantero y trasero está tan cuidado como debe estarlo en un teléfono móvil prémium con el precio que tiene este terminal de OPPO. El único conector físico que nos propone este smartphone es el puerto USB-C alojado en el centro del perfil inferior, lo que nos recuerda que hace tiempo que esta marca dejó de apostar por incluir un conector jack de 3,5 mm en sus móviles.

Oppofindx3conectividad

Esta pantalla AMOLED está preparada para competir en la primera división

Como hemos visto unos párrafos más arriba, las características de la pantalla AMOLED de este teléfono móvil, que, por cierto, recurre a un panel fabricado por Samsung, están alineadas con las de los terminales insignia de otras marcas que han sido presentados durante los primeros meses de este año. Su refresco de 120 Hz, su capacidad de entrega de brillo de hasta 1200 nits y la certificación HDR10+ son sus especificaciones más llamativas.

El panel AMOLED de este smartphone ha sido fabricado por Samsung. Trabaja a un refresco máximo de 120 Hz y puede entregar hasta 1200 nits de brillo

La resolución de este panel AMOLED de 6,7 pulgadas es QHD+ (3216 x 1440 puntos), por lo que su densidad es de 525 ppp. Y de protegerlo de arañazos y golpes fortuitos se responsabiliza una cobertura Gorilla Glass 5 como la que podemos encontrar en muchos otros smartphones. Aún no hemos podido probarlo durante el tiempo suficiente y en el abanico de escenarios de uso necesario para formarnos una opinión precisa acerca de su rendimiento, pero nuestras primeras sensaciones son positivas.

Oppofindx3diseno

OPPO asegura que el panel de su nuevo Find X3 Pro 5G alcanza una cobertura del 97% del espacio de color NTSC. Dejando a un lado esta y las demás cifras de la pantalla de este teléfono móvil lo que podemos deciros es que se ve de escándalo, lo que la coloca en la misma liga en la que juegan las pantallas de otros terminales prémium recientes, como, por ejemplo, el Galaxy S21 Ultra de Samsung. Su riqueza cromática está fuera de toda duda, y, además, su entrega de brillo juega a su favor en espacios muy iluminados.

Oppofindx3camarafrontal

Tiene cuatro cámaras traseras, pero una de ellas se sale de lo común

Como os he anticipado desde las primeras líneas de este artículo, el diseño y la construcción del cristal trasero de este teléfono móvil no es su única seña de identidad. El otro terreno en el que se desmarca de los terminales con los que va a competir son sus prestaciones fotográficas. Tiene una única cámara frontal equipada con un sensor de 32 megapíxeles y una óptica con valor de apertura f/2.4. Hasta aquí nada especialmente llamativo.

Lo interesante reside en el módulo de cámaras trasero. Y es que en él encontraremos cuatro cámaras: un gran angular que hace las veces de cámara principal, un ultra gran angular, un teleobjetivo, y, sorprendentemente, una cámara microscópica equipada con una microlente que tiene una capacidad de aumento de 60x.

Las cámaras gran angular y ultra gran angular tienen el mismo sensor, el IMX766 de Sony, con un propósito: preservar la homogeneidad del color de las fotografías que tomamos con ellas

Esta última cámara es la que permite a este móvil diferenciarse. Estoy convencido de que no es una cámara que los usuarios que compren un Find X3 Pro 5G vayan a utilizar con frecuencia, pero es una idea original y arriesgada. Y creo que un soplo de aire fresco que nos lleve más allá de lo trillado se agradece, aunque dudo mucho que esta cámara microscópica se popularice en el futuro.

En la tabla de especificaciones que publicamos un poco más arriba hemos detallado las características de las cuatro cámaras traseras de este smartphone, pero antes de seguir adelante para echar un vistazo a las tomas de prueba preliminares que hemos capturado merece la pena que nos fijemos en que las cámaras gran angular y ultra gran angular tienen el mismo sensor, el IMX766 de Sony, con un propósito: preservar la homogeneidad del color de las fotografías que tomamos con ellas.

Oppofindx3camaras

En esta fotografía de detalle se ve muy bien la suave protuberancia en la que reside el módulo de las cámaras traseras. La cámara microscópica es la que está alojada entre el flash y el teleobjetivo, e incorpora un diodo LED que se enciende automáticamente para facilitar el enfoque.

Como he mencionado unas líneas más arriba, por el momento solo hemos podido probar este smartphone en las oficinas de la filial española de OPPO y durante poco más de una hora, un tiempo insuficiente para ponerlo a prueba a fondo. Por supuesto, publicaremos un análisis mucho más profundo de este teléfono móvil lo antes posible y después de haberlo sometido a nuestro habitual banco de pruebas. Pero hasta que llegue ese momento aquí tenéis algunas fotografías que hemos tomado con él para ir abriendo boca:

Muestra1

La siguiente fotografía nos invita a fijarnos en el nivel de detalle que es capaz de recoger la cámara principal de este smartphone, y también en la naturalidad con la que consigue recrear el color. Me da la sensación de que el procesado de estas fotografías es menos agresivo que el de otros terminales de esta marca, una característica que si se confirma en nuestro próximo análisis en profundidad constituirá un punto importante a su favor.

Muestra2

Todas las fotografías que hemos capturado en esta primera toma de contacto juegan con la luz a su favor. Veremos cómo rinde este teléfono móvil en fotografía nocturna y en interiores poco iluminados cuando lo analicemos a fondo, pero hasta que podamos probarlo en esas condiciones podemos quedarnos con la forma en que resuelve el color. Un apunte más: merece la pena que nos fijemos en el detalle de los filamentos que tienen algunas de las flores de la siguiente fotografía.

Muestra3

La última fotografía de esta toma de contacto la hemos tomado, cómo no, con la cámara microscópica. Curiosamente consigue enfocar a una distancia de entre 1 y 2 mm. De hecho, necesita que coloquemos la superficie de la microlente a esa distancia del objeto que estamos fotografiando para poder hacerlo. Este procedimiento requiere un poco de práctica, pero no es difícil sentirse cómodo con él en pocos minutos. En esta fotografía podéis ver uno de los aquenios, o semillas, alojados en la superficie de una fresa. Está tomada a poco más de 1 mm de distancia.

Muestra4

Este smartphone llega decidido a tutear a los otros móviles insignia de 2021

Esta primera toma de contacto con el Find X3 Pro 5G de OPPO nos ha demostrado que este teléfono móvil tiene personalidad. Esta marca quería proponernos un terminal de gama alta diferente. Original. Y lo ha conseguido. El diseño del cristal de la parte trasera y la peculiar cámara microscópica le permiten desmarcarse de sus competidores y proponernos algo distinto. Y se agradece.

Este teléfono móvil tiene personalidad. OPPO quería proponernos un terminal de gama alta diferente. Original. Y lo ha conseguido

Además, sus especificaciones no hacen concesiones. Hay otros smartphones que tienen algunas cifras más llamativas, pero las de este móvil están a la altura de las que nos propone la mayor parte de los terminales con los que va a competir. Ahora solo nos queda probarlo a fondo para poder ofreceros un análisis mucho más profundo que refleje si esta propuesta de OPPO tiene lo que hace falta para competir de tú a tú con los smartphones más avanzados de 2021. Confiamos en poder contaros mucho más muy pronto.

-
La noticia OPPO Find X3 Pro 5G, primeras impresiones: este smartphone insignia quiere diferenciarse a toda costa, y lo ha logrado de una forma muy peculiar fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

El reactor de fusión nuclear ITER no debe verse comprometido por los terremotos: esta es la tecnología que lidia con este reto crítico

El reactor de fusión nuclear ITER no debe verse comprometido por los terremotos: esta es la tecnología que lidia con este reto crítico

La construcción de ITER (International Thermonuclear Experimental Reactor) sigue su curso con paso firme. El reactor termonuclear experimental que un consorcio internacional liderado por la Unión Europea está construyendo en la localidad francesa de Cadarache progresa de acuerdo con la última actualización del itinerario planificado por EUROfusion, que es la organización europea que supervisa y coordina el proyecto.

A mediados de 2020 arrancó una de las fases más importantes de la construcción de ITER: el ensamblaje del reactor de fusión nuclear. Si todo sigue como está previsto el montaje del reactor concluirá a finales de 2025, y poco después llegará una de las fases más emocionantes y críticas del proyecto: las primeras pruebas con plasma, que deberían iniciarse no más allá de 2026.

El ensamblaje del reactor de fusión nuclear comenzó a mediados de 2020, y las primeras pruebas con plasma llegarán no más allá de 2026

Periódicamente la organización responsable de la construcción de ITER actualiza el estado del proyecto para dar a conocer si continúa avanzando de acuerdo con el itinerario que ha planificado, y esta misma semana ha publicado un artículo muy interesante que contiene detalles acerca de la tecnología que debe permitir al edificio que alberga el reactor soportar el estrés mecánico desencadenado por un terremoto de gran magnitud.

La ingeniería aplicada en ITER para garantizar que tanto la integridad del edificio que contiene el reactor de fusión como la del reactor en sí mismo no se verán comprometidas es similar a la implementada en otras edificaciones críticas, como, por ejemplo, los edificios de contención de los reactores de fisión de las centrales nucleares. Aun así, plantea soluciones tecnológicas muy interesantes en la que merece la pena que indaguemos.

Del análisis mediante elementos finitos a las plataformas antisísmicas

Uno de los desafíos que tienen por delante los técnicos involucrados en la construcción de ITER consiste en garantizar que el estrés mecánico desencadenado por un terremoto no comprometerá la integridad del edificio que contiene el reactor. Y una de las herramientas que utilizan para analizar el impacto que tendría un seísmo sobre su estructura es ANSYS.

Este software ayuda a los ingenieros a elaborar un modelo basado en el método de los elementos finitos que persigue analizar qué efecto tendría la energía del terremoto sobre la frecuencia natural de la estructura. El método de los elementos finitos es un procedimiento de análisis numérico utilizado con frecuencia en ingeniería para aproximar la solución a problemas en los que están involucradas ecuaciones diferenciales parciales muy complicadas.

Iterterremotos

Este es el aspecto que tienen el edificio que contiene el reactor de fusión nuclear y el propio reactor Tokamak contemplados a través de los ojos del software ANSYS que facilita el análisis de la estructura mediante el método de los elementos finitos.

En definitiva el software ANSYS permite a los ingenieros evaluar la resistencia del edificio que contiene el reactor al estrés mecánico que le infligiría un terremoto teniendo presente la heterogeneidad de los materiales con los que está construido. El hecho de que en su construcción no se utilicen solo acero y hormigón complica mucho este análisis, pero es imprescindible elaborar un modelo que respete con precisión tanto la estructura del edificio como la del reactor de fusión nuclear.

El otro ingrediente clave de la receta antiterremotos de ITER son las plataformas antisísmicas sobre las que está asentado el edificio de 300 000 toneladas que contiene el reactor. Toda la estructura reposa sobre 493 plataformas de 18 centímetros de espesor que tienen una estructura en forma de sándwich que combina capas alternas de acero y caucho. Estas bases son muy rígidas en la dimensión vertical, pero, a la vez, flexibles en la dimensión horizontal.

Pilaresantiseismicos

En esta fotografía podemos ver a los operarios de la empresa francesa NTS (Nuvia Travaux Spéciaux) colocar una de las plataformas antisísmicas sobre las que reside el edificio que contiene el reactor de fusión nuclear. Previamente han verificado la integridad estructural del pilar sobre el que va alojada.

Esto significa que no sufren deformación a causa de la tensión vertical producida por el seísmo, pero son capaces de deformarse y absorber buena parte de la energía que se propaga en la dimensión horizontal a través de la estructura. De esta forma toda la energía que absorben las plataformas antisísmicas no será absorbida por el edificio y el reactor, preservando así con más eficacia su integridad estructural.

Esta declaración de Tyge Schiøler, el máximo responsable de la puesta a punto de las soluciones antisísmicas de ITER, describe el rol esencial que tienen estas plataformas con estructura en sándwich: «Si se produce un terremoto horizontal la mayor parte de la deformación será absorbida por las plataformas antisísmicas. El edificio que hay sobre ellas se comportará como un bloque rígido». Interesante, ¿verdad?

Imágenes | ITER

Más información | ITER

-
La noticia El reactor de fusión nuclear ITER no debe verse comprometido por los terremotos: esta es la tecnología que lidia con este reto crítico fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

El final del universo: qué nos dice la ciencia acerca del destino inevitable del cosmos

El final del universo: qué nos dice la ciencia acerca del destino inevitable del cosmos

«El cosmos es todo lo que es, todo lo que fue y todo lo que será. Nuestras más ligeras contemplaciones del cosmos nos hacen estremecer. Sentimos un leve cosquilleo que nos llena de nervios; una voz muda, una ligera sensación de un recuerdo lejano, o, incluso, como si cayésemos desde una gran altura. Sabemos que nos aproximamos al más grande de los misterios».

Esta reflexión de Carl Sagan recoge con una claridad cristalina el vértigo, la emoción y la curiosidad que muchas personas sentimos cuando nos hacemos preguntas acerca del universo. Acerca de su naturaleza, y también de su origen. Y su final. La observación del mundo en el que vivimos nos invita a aceptar que todo lo que nos rodea tiene un principio y un ocaso, por lo que parece razonable asumir que el universo al que pertenecemos no permanece al margen de este ciclo vital.

La ciencia defiende esta visión de un cosmos perecedero. De un universo con fecha de caducidad

La ciencia defiende esta visión de un cosmos perecedero. De un universo con fecha de caducidad. Las observaciones que han llevado a cabo los cosmólogos y los modelos físicos con los que trabajan amparan la idea de que no será eterno, pero aún nos queda mucho camino por recorrer. Aún hay muchas preguntas sin respuesta.

Lo que nos dice la ciencia actualmente no está escrito en piedra, pero los astrofísicos creen que es lo suficientemente certero para ayudarnos a intuir con razonable credibilidad cuál será el destino final del universo. Este conocimiento estremece, pero también nos invita a apreciar la belleza del lugar en el que vivimos como lo que realmente es: un cosmos frágil cuya belleza reside, precisamente, en su paradójica fugacidad.

Las estrellas se irán apagando lenta e inexorablemente

Los elementos químicos que nos constituyen tanto a nosotros como toda la materia que nos rodea se sintetizan en las estrellas gracias a los procesos de fusión nuclear que tienen lugar en su interior. El equilibrio hidrostático que mantiene las estrellas estables es posible debido a que la presión de radiación y la presión de los gases, que intentan expandir la estrella, se ven contrarrestadas por su gravedad, que intenta comprimirla. Este delicado equilibrio mantiene las estrellas estables mientras les quede combustible que pueda ser quemado durante los procesos de fusión nuclear.

Pero no todas las estrellas son iguales. Si estudiamos dos cualesquiera seleccionadas al azar comprobaremos que su composición no es idéntica. Alrededor del 70% de su masa es hidrógeno, entre el 24 y el 26% es helio, y el 4 al 6% restante es una combinación de elementos químicos más pesados que el helio. Esas pequeñas variaciones en su composición pueden tener un impacto significativo en el ciclo vital de las estrellas, pero su vida está condicionada, sobre todo, por su masa.

Alrededor del 70% de la masa de las estrellas es hidrógeno, entre el 24 y el 26% es helio, y el 4 al 6% restante es una combinación de elementos químicos más pesados que el helio

Las menos masivas irán consumiendo poco a poco su combustible, de manera que se irán desplazando continuamente en el diagrama de luminosidad y temperatura. Al mismo tiempo su radio se irá incrementando y la estrella se irá reajustando y expandiendo, adquiriendo un color rojizo debido al enfriamiento de su superficie y dando lugar a los objetos estelares que conocemos como gigantes rojas. Este es el destino al que está abocado nuestro Sol aproximadamente dentro de 5000 millones de años.

Pero esto no es todo. Cuando el combustible de estas estrellas relativamente poco masivas se agota completamente expulsan sus capas más externas, dando así lugar a una nube de gas conocida como nebulosa planetaria en cuyo centro permanecerá lo que queda de la estrella: una estrella degenerada, también conocida como enana blanca. Como su combustible se ha agotado la producción de energía en su interior cesa y este objeto estelar se va enfriando gradualmente hasta dejar de emitir cualquier tipo de radiación detectable.

Universo1

Las estrellas menos masivas, como nuestro Sol, están destinadas a transformarse en gigantes rojas, y en las últimas etapas de su ciclo vital generan nebulosas en cuyo centro persiste un residuo estelar conocido como enana blanca.

El ciclo vital de las estrellas más masivas sigue un camino diferente. La velocidad a la que consumen su combustible es más alta que la de las estrellas menos masivas, de manera que aquellas que degeneran en una enana blanca con una masa que excede el límite de Chandrasekhar, que equivale a 1,44 masas solares, se transforman en una estrella de neutrones. Pero aún hay otro límite de masa más que es posible rebasar: el de Tolman-Oppenheimer-Volkoff.

Si la estrella de neutrones resultante tiene una masa superior a 2,17 masas solares colapsa para dar lugar a una estrella de quarks o un agujero negro. Aunque, como acabamos de ver, el ciclo vital de un objeto estelar está condicionado por su composición inicial, y, sobre todo, por su masa, su destino es siempre el mismo: al final deja de producir energía y la emisión de radiación cesa. Incluso los agujeros negros, como veremos en la siguiente sección del artículo, pierden poco a poco su masa y acaban evaporándose.

Las supernovas pueden emitir durante un instante más luz que toda la galaxia que las contiene, lo que nos permite intuir la enorme cantidad de energía que libera este proceso

Pero no todo está perdido. Y es que algunas estrellas tienen la capacidad de reproducirse: aquellas que tienen una masa inicial superior a ocho masas solares. Estas estrellas masivas consumen su combustible con más velocidad que las estrellas menos masivas, de manera que cuando se agota completamente y la producción de energía mediante fusión nuclear cesa, el equilibrio hidrostático se rompe.

En ese momento las capas más externas de la estrella caen súbitamente sobre su núcleo de hierro, del que no se puede extraer más energía mediante los procesos de fusión nuclear, y rebotan, saliendo despedidas hacia el medio interestelar. Estamos ante una supernova.

Estas violentas explosiones pueden emitir durante un instante más luz que toda la galaxia que las contiene, lo que nos permite intuir la enorme cantidad de energía que libera este proceso. Pero lo más interesante es que, precisamente, las supernovas son las responsables de sintetizar los elementos químicos más pesados que el hierro, y también de regar el medio estelar con los elementos que van a dar lugar a las nubes de polvo y gas a partir de las que en el futuro pueden formarse mediante contracción gravitacional nuevas estrellas y planetas.

Poco a poco las estrellas más masivas que contiene una galaxia irán desapareciendo, por lo que las supernovas cesarán, y con ellas desaparecerá la producción de elementos químicos más pesados que el hierro. Las estrellas masivas son las que más luz emiten, por lo que su extinción provocará que la luz combinada de todas las estrellas de la galaxia se vuelva más amarillenta.

En esta fase de desarrollo la materia de la galaxia se encuentra confinada en estrellas de baja masa, que, como hemos visto, acaban sus días apagándose bajo la forma de enanas blancas, y también en nubes de polvo y gas poco densas que no permiten la formación de nuevos objetos estelares.

Los astrónomos han observado, y continúan haciéndolo, galaxias elípticas gigantes constituidas esencialmente por hidrógeno y helio en las que la producción de nuevas estrellas se ha detenido. Sin embargo, la galaxia puede continuar emitiendo luz durante miles de millones de años mientras permanezcan activas las estrellas de baja masa y los residuos estelares.

Pero, al final, todas ellas se extinguirán y la galaxia estará ocupada únicamente por enanas blancas, estrellas de neutrones, enanas marrones, agujeros negros y planetas. Y todos ellos irán enfriándose paulatinamente hasta alcanzar una temperatura próxima al cero absoluto. De alguna manera, la galaxia morirá.

Los agujeros negros están destinados irremediablemente a evaporarse

En el centro de cada galaxia reside un agujero negro supermasivo en torno al que orbitan todos los sistemas estelares que constituyen la propia galaxia. El destino final de buena parte de estos objetos (residuos estelares, planetas y otros agujeros negros más pequeños) es ser engullidos por el agujero negro supermasivo a causa de la pérdida de energía provocada por la radiación gravitatoria. Este fenómeno provoca que la órbita de los sistemas estelares decaiga sobre el agujero negro central, alimentándolo.

Sin embargo, ni siquiera los agujeros negros supermasivos de los centros galácticos son eternos. Y no lo son porque muy poco a poco van perdiendo masa debido a la existencia de partículas virtuales en el vacío. Suena complicado, y lo es, pero, aunque no es necesario que indaguemos a fondo en este mecanismo, es interesante que conozcamos algunas nociones que pueden ayudarnos a intuir de qué se trata.

Entender con precisión cómo funciona este fenómeno nos obligaría a sumirnos en la complejidad de la mecánica cuántica, por lo que por el momento nos conformaremos con saber que, en realidad, los agujeros negros no son tan negros. Y no lo son debido a que emiten partículas de muy baja energía y una enorme longitud de onda, que, de hecho, es similar al tamaño del propio agujero negro.

Universo2

El mecanismo que explica el proceso por el que los agujeros negros van perdiendo muy lentamente masa y energía rotacional se conoce como radiación de Hawking, y fue propuesto originalmente por Stephen Hawking en 1974.

Habitualmente las únicas partículas que consiguen escapar al confinamiento gravitatorio del agujero negro como consecuencia de la formación de pares de partículas virtuales son los fotones de muy baja energía. Su emisión es muy lenta, lo que provoca que la pérdida de masa y energía rotacional del agujero negro también lo sea.

Esta forma de radiación se conoce como radiación de Hawking porque, precisamente, el primer científico que propuso su existencia en 1974 fue el recientemente desaparecido astrofísico británico Stephen Hawking.

Lo que hemos descubierto hasta este momento nos invita a concluir que a medida que se incrementa la masa de un agujero negro más tiempo tarda en evaporarse a causa de la radiación de Hawking. Pero ni siquiera los voraces agujeros negros supermasivos del centro de las galaxias pueden permanecer inmunes a este efecto.

Poco a poco buena parte de los objetos que orbitan a su alrededor irá cayendo en su interior por efecto de la radiación gravitatoria, y el agujero negro irá devolviendo poco a poco al medio la materia que ha engullido emitiendo fotones de muy baja energía hasta evaporarse completamente.

Vivimos en un universo destinado a dos finales posibles

Como hemos visto a lo largo de este artículo la producción de nuevas estrellas finalmente se detendrá, y las galaxias se irán enfriando y perdiendo su brillo a medida que las estrellas que permanezcan activas vayan agotando su combustible.

Además, poco a poco buena parte de los objetos del cosmos irá siendo engullida por los agujeros negros supermasivos, que devolverán muy lentamente la materia que han acumulado mediante la emisión de fotones de muy baja energía antes de evaporarse completamente.

Estos mecanismos nos indican que dentro de muchísimo tiempo, mucho más del que tiene actualmente, que, según los astrónomos, es de unos 13,8 x 10^9 años, toda la materia del universo desaparecerá.

El universo en su último estadio estará constituido solo por los fotones que queden del fondo cósmico de microondas y los que en su día fueron emitidos por las estrellas, y también por los electrones que no hayan sido aniquilados por sus antipartículas

Los protones y neutrones de los objetos que consigan escapar a la voracidad de los agujeros negros se acabarán desintegrando en otras partículas más ligeras, de manera que el universo en su último estadio estará constituido solo por los fotones que queden del fondo cósmico de microondas y los que en su día fueron emitidos por las estrellas, y también por los electrones que no se hayan aniquilado al entrar en contacto con los positrones resultantes de la desintegración de los protones.

Una vez que el universo llegue a este grado de evolución los científicos barajan dos opciones. Una de ellas defiende que la gravedad podría detener su expansión y volver a concentrar todo el espacio y la materia que contiene en un punto, de manera que podría producirse una nueva explosión que, quizá, dé lugar al nacimiento de un nuevo universo.

Y la segunda teoría, con la que comulgan cada vez más científicos, propone que la expansión del universo continuará eternamente bajo el efecto de la energía oscura, dando lugar a un universo cada vez más frío y degradado. Pero esta es otra historia; una en la que indagaremos más adelante si vosotros queréis.

Imágenes | Philippe Donn | Alex Andrews

-
La noticia El final del universo: qué nos dice la ciencia acerca del destino inevitable del cosmos fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

Los 20 ordenadores personales más importantes de la historia de la tecnología

Los 20 ordenadores personales más importantes de la historia de la tecnología

El camino que ha recorrido la informática personal durante las últimas cuatro décadas y media está lleno de altibajos. Algunas de las empresas cuyas contribuciones nos han traído hasta aquí, como Sinclair Research, Commodore o Amstrad, ya no existen. Otras siguen su curso, pero carecen de la relevancia que tenían en los albores de la informática personal, como Atari.

Y unas pocas ahora son multinacionales gigantescas con una capacidad de ejercer influencia enorme, como IBM, que ya era una compañía descomunal en los 70, cuando nació la informática personal, o Apple. La trayectoria y el éxito de estas empresas han sido desiguales, pero sin sus propuestas, sin sus ordenadores, esta industria no habría evolucionado como lo ha hecho. Y posiblemente no sería como es.

Antes de meternos en harina aquí tenéis nuestra declaración de intenciones

El propósito de este artículo es homenajear esos equipos personales que, bien por sus aportaciones desde un punto de vista técnico, bien por su impacto comercial, consiguieron estampar una huella cuyo legado aún perdura.

No cabe duda de que las veinte máquinas que hemos seleccionado merecen formar parte de este reportaje, pero os proponemos que mencionéis en los comentarios cualquier otro ordenador personal que para vosotros también sea relevante. Así todos nos enriqueceremos.

Durante las últimas décadas han llegado al mercado varios ordenadores personales, o familias de soluciones personales, que han adquirido una relevancia notable. Entre ellos podríamos quedarnos con los ThinkPad, de IBM primero y de Lenovo después; los Surface de Microsoft, o los MacBook Air de Apple, entre otras opciones.

Os sugerimos que aceptéis este artículo como lo que es para nosotros: un homenaje a unos ordenadores personales inolvidables

Sin embargo, en este artículo hemos seleccionado máquinas cuya importancia histórica ha sido consolidada por el paso del tiempo. Quién sabe, si dentro de unos años preparamos otro artículo con un enfoque similar al de este reportaje quizá algunos de estos equipos aparezcan en él.

Antes de entrar en faena, un último apunte. Hemos meditado mucho el orden en el que os proponemos indagar en estos equipos para intentar que el artículo adquiera el espíritu de un ranking, pero, por supuesto, no está escrito en piedra.

Creo honestamente que los ordenadores que aparecen en las primeras cinco posiciones merecen estar ahí, pero la mayor parte de ellos podría ocupar otra posición ligeramente diferente y no pasaría nada. En cualquier caso, os sugerimos que aceptéis este artículo como lo que es para nosotros: un homenaje a unas máquinas inolvidables.

1. IBM PC 5150 (1981)

Ibm Pc Img 7271 Transparent

Nuestra clasificación está encabezada, y creemos que merecidamente, por el primer PC de la historia. IBM lanzó su modelo 5150 a mediados de agosto de 1981 como respuesta a los ordenadores personales que estaban dando alas a empresas mucho más pequeñas como Commodore, Atari, Apple o Tandy. IBM se dio cuenta de que no podía dejar el mercado de los ordenadores personales en manos de sus competidores, así que decidió tomar parte. Y vaya si lo hizo.

Aquel primer PC incorporó un microprocesador 8088 de Intel que trabajaba a 4,77 MHz, entre 16 y 64 KB de RAM, un generador de direcciones de vídeo 6845 de Motorola y un monitor monocromo. Su sistema operativo era PC DOS y había sido desarrollado por una aún joven Microsoft, pero el mayor acierto de IBM fue utilizar una arquitectura abierta que podía ser utilizada por otros fabricantes sin pagar derechos de licencia. El éxito de la plataforma fue enorme desde el primer momento. El resto es historia.

2. Commodore 64 (1982)

Commodore 64 Computer Fl

La carta de presentación de este microordenador de 8 bits es impactante: es el ordenador personal más vendido de la historia. Las estimaciones más optimistas defienden que a lo largo de su vida comercial vendió 17 millones de unidades, lo que le llevó a dominar el mercado mundial durante buena parte de la década de los 80. IBM, Apple y Atari, que eran los principales competidores de Commodore en aquella época, no consiguieron frenar el empuje inquebrantable de este pequeño ordenador.

Jack Tramiel, el fundador de Commodore, no daba puntada sin hilo. Una década antes de lanzar este ordenador compró el fabricante de microprocesadores MOS Technology, lo que le permitió producir la mayor parte de los componentes del C64 sin necesidad de recurrir a terceros. Además, el hardware de este ordenador de 8 bits era muy capaz y tenía un precio más bajo que la mayor parte de sus competidores. Aún hoy sigue siendo uno de los ordenadores personales clásicos más reverenciados.

3. Apple II (1977)

Apple Ii Img 4212

Este fue el ordenador que erigió los cimientos de la Apple que todos conocemos hoy. Su antecesor, el Apple I, fue un ordenador personal fabricado de forma artesanal que apenas tuvo repercusión más allá de los entusiastas de la electrónica. El Apple II heredó algunas de las características de su predecesor, pero tenía un diseño mucho más atractivo, un acabado profesional, y fue fabricado de forma masiva.

El hardware por el que apostó Steve Wozniak, el artífice de los dos primeros ordenadores de Apple, tenía como corazón un procesador 6502 de MOS Technology que trabajaba a 1,023 MHz, 4 KB de RAM y permitía enviar la señal de vídeo a un monitor en color o un televisor utilizando un modulador de radiofrecuencia. Las ventas de este ordenador y de sus revisiones sostuvieron a Apple desde finales de los 70 hasta mediados de los 80. Ahí es nada.

4. Sinclair ZX Spectrum (1982)

Zxspectrum48k

El ZX Spectrum no fue el ordenador de 8 bits con el mejor hardware. Tampoco fue el más vendido. Y, aun así, es una máquina con una relevancia histórica enorme debido a que su moderado precio permitió a varios millones de usuarios acceder a la informática personal en una época en la que sus competidores eran sensiblemente más caros.

Su éxito fue desigual, pero en algunos países, como España o Reino Unido, tuvo una acogida excepcional, lo que catapultó sus ventas hasta rozar los cinco millones de unidades si sumamos las ventas del modelo original y las de sus revisiones.

Sir Clive Sinclair, el artífice de esta añorada máquina, se empeñó desde el principio en poner a punto un ordenador personal que realmente fuese asequible. Y para lograrlo apostó por un hardware que, aunque no era puntero, era suficiente. Un procesador Z80A de Zilog y entre 16 y 128 KB de RAM según la versión del equipo bastaron para encumbrar a una pequeña joya de la informática doméstica por la que aún muchos suspiramos.

5. Commodore Amiga 500 (1987)

Amiga500 System

El Amiga 500 de Commodore ha adquirido el estatus de ordenador personal legendario. Y se lo ha ganado a pulso. Tener esta máquina de 16 bits a finales de los 80 era un lujo que no todos los usuarios se podían permitir, pero aquellos que tuvieron la fortuna de hacerse con una pudieron disfrutar un amplio abanico de software en el que destacaban muchos juegos con una calidad gráfica y sonora similar a la que nos ofrecían las máquinas recreativas.

Jay Miner, el artífice del Amiga, aún trabajaba en Atari cuando empezó a diseñar la máquina que debía sacar el máximo partido posible al flamante microprocesador 68000 que Motorola acababa de colocar en el mercado. Corría el año 1979 y los ejecutivos de Atari no supieron apreciar el enorme potencial de lo que Miner tenía entre manos. Años más tarde Commodore sí lo hizo. Aún hoy existe una comunidad enorme de entusiastas del Amiga que siguen disfrutando este excepcional ordenador personal.

6. MITS Altair 8800 (1975)

Altair 8800 Computer

No existe un acuerdo unánime que defienda que el Altair 8800 fue el primer ordenador personal, pero los expertos en historia de la tecnología coinciden en que esta fue la máquina que encendió la mecha de la informática personal. Curiosamente MITS vendía este equipo tanto ensamblado como en forma de kit que los propios usuarios se encargaban de montar.

Su procesador era un 8080 de Intel, de 8 bits; se podía expandir utilizando tarjetas extraíbles, y, como podemos ver en la fotografía, en el panel frontal tenía 25 interruptores que servían para encenderlo, apagarlo, cargar datos binarios en la memoria principal y operar con ellos. La salida de cada programa la entregaba encendiendo y apagando los diodos LED que tenía en el frontal, por lo que no necesitaba un monitor. Eso sí, utilizarlo era muy complicado.

7. Atari 800 (1979)

Atari 800 Computer Fl

A finales de los 70 a Atari le iba bien gracias en gran medida al éxito de la consola 2600, pero los ejecutivos de la compañía decidieron poner a punto una línea de ordenadores personales que les permitiese competir con el también exitoso Apple II. El Atari 800, de 8 bits, fue lanzado junto al más modesto modelo 400, e integraba un procesador 6502B de MOS Technology a 1,7 MHz, 16 KB de RAM y el sistema operativo Atari DOS. Esta fue la máquina que allanó el camino a Atari en el mercado de los ordenadores personales.

8. Sinclair ZX81 (1981)

Sinclair Zx81

A principios de los 80 los ordenadores personales no eran populares. No lo eran por su precio, que los colocaba fuera del alcance de muchas personas. Y tampoco por su vocación, que solo los hacía atractivos ante los ojos de los entusiastas. Sir Clive Sinclair intentó romper esta tendencia colocando en el mercado una máquina económica y versátil. Y este ZX81, el auténtico precursor del Spectrum, fue su apuesta.

Su CPU era un chip Z80 de Zilog a 3,25 MHz y tenía solo 1 KB de RAM, pero costaba unas muy razonables 70 libras ensamblado (la versión en forma de kit que montaban los propios usuarios era 20 libras más barata). Vendió algo más de un millón y medio de unidades.

9. Amstrad CPC 464 (1984)

Amstrad Cpc 464 Img 4849

Este fue el ordenador personal con el que la compañía británica Amstrad, que hasta entonces solo fabricaba televisores, radios y equipos de música, se zambulló en el floreciente mercado de los ordenadores personales. Alan Sugar, su fundador, quería competir con las máquinas de Sinclair y Commodore, y en gran medida lo logró, alcanzando un éxito notable en mercados como el británico o el español.

El CPC 464 integraba un procesador Z80A de Zilog a 4 MHz esencialmente idéntico al del Spectrum, 64 KB de RAM y un lector de casetes que le permitía, a diferencia de los primeros ordenadores personales de Sinclair, cargar los juegos y los programas sin necesidad de recurrir a un reproductor monofónico externo. Con esta máquina actualmente sucede lo mismo que con las de Commodore, Sinclair y la plataforma MSX: existe una amplia comunidad de usuarios que la mantiene viva desarrollando nuevo software para ella.

10. NEC PC-8800 (1981)

Nec Pc 8801

Este ordenador personal tuvo un impacto modesto en Estados Unidos y Canadá, pero en Japón, que fue el país en el que nació, tuvo un éxito arrollador. De hecho, lo podemos considerar «el Spectrum japonés». Y es que, además de compartir con la máquina de Sinclair un éxito comercial enorme, algunos modelos de la familia PC-8800 apostaron por microprocesadores compatibles con los Zilog Z80 de los equipos de Sinclair (otros optaron por chips compatibles con procesadores de 8 y 16 bits de Intel). Actualmente sigue siendo una máquina reverenciada en Japón.

11. Apple Macintosh (1984)

Macintosh 128k Transparency

El primer Mac ha pasado a la historia no solo por su muy notable éxito comercial; también por ser el primer ordenador personal con un alcance masivo que propuso a los usuarios una interfaz gráfica con la que era posible interactuar empleando un ratón. El modelo Lisa llegó un año antes y también la tenía, pero su impacto comercial fue limitado.

Steve Jobs «tomó» la idea de la interfaz gráfica y el ratón de un proyecto que estaba siendo desarrollado en Xerox PARC, y funcionó. Su primer Macintosh gustó mucho por su diseño, y, sobre todo, por unas capacidades muy atractivas que se erigían sobre un procesador Motorola 68000 a 7,8 MHz, 128 KB de RAM y un monitor integrado monocromo de 9 pulgadas en el que la interfaz gráfica lucía de maravilla.

12. Atari ST (1985)

Atari 1040stf

Este ordenador personal de 16 bits fue la respuesta de Atari al Amiga 1000 de Commodore (el Amiga 500 llegó dos años más tarde). Jack Tramiel, el fundador de Commodore, había salido un año antes de la compañía que había construido por la puerta de atrás, pero no dudó en comprar a Warner la división de consumo de Atari para competir en el mercado de los ordenadores personales con la misma ferocidad con la que lo había hecho a la cabeza de Commodore.

La familia de ordenadores Atari ST tuvo un éxito notable durante la segunda mitad de los 80, aunque no consiguió igualar las cifras de ventas de los Amiga de Commodore. Ambas plataformas compartían algunos componentes, como el procesador Motorola 68000 por el que las dos apostaron inicialmente, pero las capacidades gráficas y sonoras de los Amiga eran superiores gracias a sus chips dedicados. Los Atari ST incorporaron el entorno gráfico GEM de Digital Research y dos puertos MIDI que los hicieron muy populares como herramientas de edición musical.

13. Commodore Amiga 1000 (1985)

Amiga A1000 Img 4284

El primer prototipo funcional de Amiga estaba listo para ser presentado en el CES que se celebró en Chicago en 1984. En aquel momento Jay Miner, el artífice de esta máquina, y sus colaboradores solo tenían un puñado de placas de circuito impreso conectadas entre sí por una maraña de cables. Y, aun así, su ordenador personal cautivó a todos los allí presentes por sus excepcionales capacidades gráficas y sonoras.

Y es que Miner, que años antes trabajaba para Atari, había conseguido sacar mucho partido al procesador Motorola 68000, que estaba respaldado por Agnus, Denise y Paula, tres chips que se responsabilizaban de liberar a la CPU del esfuerzo que requería la generación de los gráficos y el sonido. El Amiga 1000 fue la primera encarnación de una familia de ordenadores personales legendaria que aún hoy sigue muy viva gracias a una comunidad de entusiastas que continúa desarrollando software para ella.

14. MSX (1983)

Sony Hitbit Hb 10p White Background

Este ordenador personal compitió de tú a tú con las máquinas de Sinclair, Amstrad y Commodore, aunque en Europa su popularidad fue menor que la alcanzada por los otros equipos de 8 bits. Su feudo fue Japón. Allí la plataforma MSX tuvo un impacto enorme. De hecho, marcas como Sony, Panasonic, Sharp, Sanyo, JVC o Toshiba, entre muchas otras, recogieron el guante que Microsoft y ASCII, los promotores de la plataforma, les arrojaron a mediados del 83. Solo en Japón vendió más de cinco millones de unidades.

15. Commodore VIC-20 (1980)

Commodore Vic 20 Fl

Aunque su popularidad no igualó la que dos años más tarde consiguió el Commodore 64, el VIC-20 fue el auténtico precursor del ordenador personal que hemos encumbrado a la segunda posición de esta clasificación. Tenía un procesador 6502 de MOS Technology que trabajaba a poco más de 1 MHz y tan solo 5 KB de RAM (ampliables a 32 KB), pero le bastó para afianzar los cimientos sobre los que poco después se erigieron el Commodore 64 y el Amiga, que fueron los mayores éxitos de esta compañía. Actualmente podemos recrear la experiencia de uso de este ordenador gracias al The VIC 20 que Retro Games lanzó en octubre de 2020.

16. HP 100LX (1993)

HP 100LX

Parece una calculadora, pero no lo es. Su predecesor, el modelo 95LX, fue el primer ordenador personal compacto con vocación profesional que cabía en el bolsillo de una chaqueta, y con el 100LX HP refinó aún más su propuesta. Este último equipo tenía un procesador 80C186 de Intel a 7,9 MHz, 1 MB de RAM y una pantalla monocroma que permitía a sus propietarios introducir órdenes y ejecutar aplicaciones utilizando el intérprete de comandos de MS-DOS 5. No cabe duda de que es una pequeña delicia que merece la pena conservar con cariño.

17. Dragon 32/64 (1982)

Dragon 32 Computer

Aunque este ordenador personal de 8 bits se vio avasallado por el éxito arrollador de los equipos lanzados durante la primera mitad de los 80 por Sinclair, Commodore y Amstrad, fue una máquina muy popular. Vendió aproximadamente 200 000 unidades en el mercado europeo, una cifra comedida si la comparamos con lo que vendieron, por ejemplo, el ZX Spectrum o el Commodore 64, pero fue muy utilizado para enseñar programación en BASIC. Ahí reside su legado y la razón por la que muchos lo recordamos con nostalgia.

18. Tandy TRS-80 (1977)

Trs 80 Model I Rechnermuseum Cropped

Este peculiar ordenador personal fue un éxito inesperado. Tandy lo colocó en el mercado a principios de 1977 para competir con el Apple II, y, aunque no consiguió intimidar al equipo de la firma de la manzana, vendió más de 250 000 unidades. En cualquier caso, lo que lo hace especial, y la razón por la que ha pasado a la historia, es que fue el primer ordenador personal que incorporaba toda la lógica electrónica en el mismo recinto en el que residía el teclado. Debajo de las teclas. Sus competidores, como Commodore, Atari o Sinclair, copiaron la idea y la introdujeron en las máquinas que lanzaron poco después.

19. Osborne 1 (1981)

Osborne 1 Open

A pesar de sus 11 kg de peso este curioso ordenador personal ha pasado a la historia como el primer equipo portátil que tuvo un éxito razonablemente importante. Para ponerlo a punto Adam Osborne se inspiró en el dispositivo NoteTaker desarrollado tres años antes por Xerox PARC (existe cierto consenso que defiende que este fue el primer ordenador portátil de la historia), y lo equipó con un procesador Z80 de Zilog a 4 MHz, 64 KB de RAM, y también con una pequeña pantalla monocroma de 5 pulgadas. ¿Por qué pesaba tanto? Sencillamente debido a que la pantalla utilizaba un tubo de rayos catódicos.

20. Apple iMac (1998)

Apple Imac De

El ordenador personal que podéis ver en la fotografía es el primer iMac lanzado por Apple en el 98. Este equipo dio el pistoletazo de salida a una familia de ordenadores que aún hoy sigue muy vigente, aunque su diseño ha cambiado muchísimo. La principal seña de identidad de todos los iMac es que no recurren a una caja de sobremesa o en formato torre; «esconden» todos sus componentes electrónicos en el mismo recinto en el que reside la pantalla.

Todos han sido perfilados por el diseñador industrial Jonathan Ive. Dejó las filas de Apple en 2019 para fundar su propio estudio de diseño, pero ha confirmado que la marca de la manzana es su principal cliente, por lo que su estilo sigue presente en los productos que lanzan los de Cupertino.

Imagen de portada | Pixabay

Imágenes | Rama & Musée Bolo | Evan-Amos | Rama & Musée Bolo | Bill Bertram | Michael Holley | Evan-Amos | Journey234 | Rama | phreakindee | wnr | Bill Bertram | Rama & Musée Bolo | Doppelgangland | Evan-Amos | HP Computer Museum | Blufive | FlominatorBilby | Svdmolen

-
La noticia Los 20 ordenadores personales más importantes de la historia de la tecnología fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

A él le debemos la primera consola de videojuegos de la historia: Ralph Baer, un gigante de la ingeniería con una vida apasionante

A él le debemos la primera consola de videojuegos de la historia: Ralph Baer, un gigante de la ingeniería con una vida apasionante

La historia de Ralph Baer merece ser contada. Y su obra, apreciada. A este ingeniero, en gran medida autodidacta, le debemos la creación de la primera consola de videojuegos comercial. El título de «padre de los videojuegos» que de una forma prácticamente unánime le han otorgado los historiadores y los periodistas especializados en esta forma de creación artística se lo ha ganado a pulso.

Para el grueso de los aficionados no es tan conocido como Shigeru Miyamoto, John Carmack, Yu Suzuki o Ron Gilbert, entre muchos otros geniales diseñadores de videojuegos, pero sin su trabajo quizá estos creadores no habrían llegado adonde lo han hecho. Ralph Baer ha pasado a la historia junto a William Higinbotham, Josef Kates, John Makepeace Bennett o Raymond Stuart-Williams, los auténticos pioneros que afianzaron las bases de una forma de expresión disfrutada hoy por millones de personas.


Leer más

Apple AirPods Max, análisis: Apple da un puñetazo sobre la mesa con la calidad de sonido de estos auriculares

Apple AirPods Max, análisis: Apple da un puñetazo sobre la mesa con la calidad de sonido de estos auriculares

Apple parece estar muy convencida del potencial que tienen estos auriculares. De lo contrario no se habría metido en un segmento del mercado en el que inevitablemente su propuesta va a ser comparada tanto por su precio como por las prestaciones que nos promete con las soluciones de las marcas consagradas a la alta fidelidad.

Los de Cupertino no son en absoluto unos recién llegados al mercado de los auriculares, pero competir de tú a tú con los modelos de precio similar de compañías como Sennheiser, AKG, Grado o Audio-Technica, entre otras firmas veteranas en el mercado de la alta fidelidad, requiere tener algo nuevo que ofrecer. Y Apple asegura que lo tiene.


Leer más

El telescopio espacial James Webb, explicado: por qué se ha retrasado tanto y qué esperamos conseguir con un instrumento tan avanzado

El telescopio espacial James Webb, explicado: por qué se ha retrasado tanto y qué esperamos conseguir con un instrumento tan avanzado

La cuenta atrás ya ha comenzado. Si nada más se interpone en su camino, el próximo 31 de octubre las agencias espaciales estadounidense, canadiense y europea lanzarán en un esfuerzo conjunto el telescopio espacial James Webb desde el Puerto Espacial Europeo de Kurú, en la Guayana Francesa. Y viajará a bordo de un cohete Ariane 5.

Después de innumerables retrasos la NASA anunció el 17 de julio del año pasado que la última prueba de evaluación de riesgos que había llevado a cabo le había invitado a fijar como fecha de lanzamiento el último día del próximo mes de octubre.

Crucemos los dedos para que esta vez no haya más retrasos y este instrumento científico pueda por fin poner rumbo al espacio con un propósito muy ambicioso: ampliar sensiblemente nuestro conocimiento del Universo.

Por qué se ha retrasado tanto su lanzamiento

El telescopio espacial James Webb iba a ser lanzado en 2007. Entre aquella fecha de lanzamiento inicial y la que las agencias espaciales involucradas en este proyecto manejan actualmente se han producido nada menos que quince retrasos originados por motivos muy variopintos.

Durante los últimos años la viabilidad de este proyecto ha sido puesta en entredicho, pero los 9660 millones de dólares invertidos en él dan forma a una suma demasiado alta para dejarlo escapar y no seguir apostando por este telescopio espacial.

No hay una única razón que justifique todos los retrasos, pero detrás de la mayor parte de los cambios de fecha hay motivos técnicos

No hay una única razón que justifique todos los retrasos, pero detrás de la mayor parte de los cambios de fecha hay motivos técnicos. Y es que este instrumento es el telescopio astronómico más avanzado y complejo que la humanidad ha construido hasta ahora.

Durante su puesta a punto las agencias espaciales que han intervenido en su diseño y construcción, y también varios organismos independientes, han llevado a cabo revisiones muy exhaustivas que persiguen garantizar su integridad durante el estrés que inevitablemente va a soportar en la fase de lanzamiento.

Parasoljameswebb

En esta fotografía podemos ver a técnicos de la empresa estadounidense Northrop Grumman poniendo a prueba el despliegue del parasol que utilizará el telescopio espacial James Webb.

Y sí, estos análisis han identificado errores de diseño y ejecución que han ido solventándose poco a poco. De hecho, una de las últimas revisiones apuntó que varios tornillos y arandelas no habían sido correctamente fijados, por lo que la integridad del telescopio espacial podría verse comprometida.

Algo así parece invitarnos a concluir que este proyecto está siendo lastrado por una cadena interminable de errores difíciles de asumir, pero no debemos perder de vista que, como he mencionado unas líneas más arriba, el telescopio espacial James Webb es un instrumento científico extraordinariamente complejo que, además, va a ser sometido a un estrés extremo.

Además, más allá de los desafíos que conlleva su puesta a punto hay otro motivo de peso por el que es imprescindible que no sea lanzado hasta que los técnicos estén convencidos de que todo va a ir bien: su ubicación definitiva va a ser el punto de Lagrange L2.

A diferencia del telescopio espacial Hubble, que orbita a algo menos de 600 km sobre el nivel del mar, el telescopio James Webb permanecerá en una ubicación estacionaria en el sistema de referencia Sol-Tierra a aproximadamente 1 500 000 km de nuestro planeta. Esta enorme distancia no permite llevar a cabo modificaciones y reparaciones a posteriori.

Qué agencias espaciales lo han puesto a punto

La institución que ha liderado este proyecto desde que fue ideado ha sido la NASA, pero ESA y CSA, las agencias espaciales europea y canadiense respectivamente, han sido, y son, unas aliadas muy valiosas. De hecho, la magnitud científica y técnica de esta empresa ponía en serias dudas que una sola agencia espacial pudiese llevarla a buen puerto.

La Agencia Espacial Europea se ha encargado de diseñar dos instrumentos científicos: el espectrógrafo NIRSpec y el instrumento del infrarrojo medio MIRI

Además de contribuir al servicio de lanzamiento aportando el vehículo Ariane 5 que transportará el telescopio James Webb hasta el espacio, la Agencia Espacial Europea se ha encargado de diseñar y fabricar dos instrumentos científicos esenciales: el espectrógrafo NIRSpec (Near InfraRed Spectrograph) y el instrumento del infrarrojo medio MIRI (Mid-InfraRed Instrument).

Nirspec Astrium

Este es el aspecto que tiene el espectrógrafo NIRSpec, uno de los instrumentos con los que la Agencia Espacial Europea ha contribuido a la puesta a punto del telescopio espacial James Webb.

Con frecuencia se describe al telescopio espacial James Webb como el sustituto del Hubble, que dejará de estar operativo este mismo año, pero, en realidad, ambos instrumentos «observan» en longitudes de onda diferentes. Probablemente lo correcto es considerar al James Webb un sucesor del Hubble, pero no tanto un sustituto.

Dos últimos apuntes interesantes que ponen de manifiesto la contribución europea a este proyecto: los elementos ópticos y los componentes mecánicos del espectrógrafo NIRSpec han sido fabricados por la empresa alemana Carl Zeiss.

Además, MIRI incorpora un coronógrafo, que es un instrumento inventado por el astrónomo francés Bernard Lyot para bloquear la luz de las estrellas, haciendo posible la observación de objetos que emiten muy poca radiación, como los planetas extrasolares.

Qué información va a proporcionarnos

Algunos técnicos, como el profesor Günther Hasinger, que es el director científico de la Agencia Espacial Europea, aseguran que el telescopio espacial James Webb va a revolucionar la idea que tenemos del Universo. Es difícil no ilusionarse ante una declaración tan contundente como esta.

El telescopio espacial James Webb aspira a ayudarnos a conocer con mucha más precisión cómo fue el origen del Universo

Aunque durante su vida operativa nos ayudará a encontrar la respuesta a otros enigmas del Cosmos, inicialmente este instrumento pretende identificar la luz emitida por la primera generación de estrellas, y también por las galaxias que se formaron en el Universo primigenio. Analizando la información que recogerá, los científicos podrán conocer mejor el origen del Universo y su evolución hasta alcanzar el estado en el que se encuentra actualmente.

Pero esto no es todo. Además, el telescopio espacial James Webb nos permitirá identificar nuevos exoplanetas y analizar con precisión la composición de su atmósfera para averiguar si reúnen las condiciones de habitabilidad que precisa el ser humano. Es emocionante, ¿verdad? Ojalá el próximo 31 de octubre por fin podamos celebrar que este observatorio espacial ha iniciado la trepidante aventura para la que ha sido concebido.

Imágenes | NASA/MSFC/David Higginbotham/Emmett Given | Chris Gunn - NASA Goddard Space Flight Center | Astrium GmbH

-
La noticia El telescopio espacial James Webb, explicado: por qué se ha retrasado tanto y qué esperamos conseguir con un instrumento tan avanzado fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

Este robot es ruso y hace por nosotros el trabajo más peligroso que existe: repara el interior de los reactores nucleares

Este robot es ruso y hace por nosotros el trabajo más peligroso que existe: repara el interior de los reactores nucleares

La mayor parte de los reactores de fisión que utilizamos actualmente para generar energía eléctrica en las centrales nucleares es de tipo PWR (Pressurized Water Reactor). Para lidiar con el calor generado por las reacciones de fisión que tienen lugar en las barras de combustible y transportar la energía térmica hasta el alternador que va a producir la energía eléctrica recurren a tres complejos circuitos.

El circuito primario contiene el agua que está en contacto directo con las barras de combustible, y que, por tanto, está contaminada y es radiactiva. Su rol es crucial porque mantiene las barras refrigeradas para evitar que alcancen el umbral de temperatura en el que se fundirían y provocarían la fusión del núcleo, que fue lo que sucedió en el accidente de Chernóbil.

El circuito primario tiene una función esencial: extraer el calor de las barras de combustible para evitar que se fundan y provoquen la fusión del núcleo del reactor

El segundo circuito, el secundario, se responsabiliza de introducir en el intercambiador de calor del circuito primario el agua fría que debe absorber una parte de su energía térmica. Además, el circuito secundario produce el vapor necesario para transferir a la turbina la energía cinética que hará posible la obtención de electricidad gracias a la acción del alternador.

Y, por último, un tercer circuito de refrigeración se encarga de introducir en el depósito de condensación el agua fría necesaria para que el vapor del circuito secundario se condense. El agua de este tercer circuito procede del mar o de un río, por lo que es importante que la central nuclear esté cerca de estos recursos naturales. Si queréis conocer con todo detalle cómo funcionan estas centrales os sugiero que echéis un vistazo al artículo que enlazo aquí mismo.

Circuitosreactornuclear

El mantenimiento de la instalación es crucial y desafiante, pero tenemos ayuda

Hasta este momento hemos pasado por alto una circunstancia sorprendente: el agua del circuito primario, como acabamos de ver, está en contacto directo con las barras de combustible, por lo que al absorber su energía térmica alcanza una temperatura de 325 grados centígrados. ¿Cómo es posible entonces que no se evapore?

El elemento responsable de evitar que el agua del circuito primario pase de estado líquido a estado gaseoso es un dispositivo diseñado para incrementar la presión dentro de este circuito llamado presionador. Gracias a la presión que ejerce, el agua puede mantenerse en estado líquido a pesar de alcanzar una temperatura muy superior a los 100 grados centígrados a los que se evapora a la presión atmosférica que hay en el nivel del mar.

Gracias a un dispositivo llamado presionador el agua del circuito primario no se evapora a pesar de alcanzar una temperatura de 325 grados centígrados

Todo lo que hemos visto hasta ahora nos ayuda a entender lo importante que es mantener la integridad de estas instalaciones en general, y de los circuitos de refrigeración del reactor nuclear en particular. De hecho, periódicamente la actividad de las centrales nucleares se detiene para introducir en la vasija nuevo combustible, inspeccionar el estado de las instalaciones y llevar a cabo los procedimientos de mantenimiento que sean necesarios.

En las centrales nucleares de agua a presión como las que acabamos de describir es crucial que los depósitos del agua que actúa como elemento refrigerante estén en perfecto estado y no tengan la más mínima fuga. Sin embargo, es evidente que revisar su integridad estructural no es sencillo y conlleva riesgos para las personas involucradas por su cercanía a las barras de combustible. Además, como hemos visto, el agua del circuito primario está contaminada.

Pero tenemos ayuda. La empresa pública rusa Rosatom, que se responsabiliza de la gestión de las centrales nucleares rusas y de la regulación de la energía nuclear en este país, ha diseñado un robot que es capaz de acceder al interior de los depósitos de agua del reactor, incluida la vasija en la que residen las barras de combustible, para revisar la integridad estructural del revestimiento y repararlo si fuese necesario.

Según Rosatom este robot puede llevar a cabo su función sin necesidad de extraer el agua del circuito o descargar el combustible del reactor, por lo que el mantenimiento de la instalación es más rápido y más seguro para los técnicos involucrados en este proceso.

En el vídeo que publicamos encima de estas líneas podemos ver este robot en acción al compás de 'El cascanueces', de Tchaikovsky. Rosatom asegura que sus ingenieros lo han probado con éxito en la central nuclear de Leningrado, por lo que probablemente no tardará en operar en otras centrales nucleares tanto rusas como de otras naciones.

Más información | Rosatom

-
La noticia Este robot es ruso y hace por nosotros el trabajo más peligroso que existe: repara el interior de los reactores nucleares fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

Philips sube la apuesta con la tecnología MiniLED y HDMI 2.1: todos los detalles acerca de sus televisores OLED y LCD LED para 2021

Philips sube la apuesta con la tecnología MiniLED y HDMI 2.1: todos los detalles acerca de sus televisores OLED y LCD LED para 2021

El año pasado la interfaz HDMI 2.1 tuvo una presencia discreta en el mercado. Solo LG nos ofreció soporte completo de esta norma en un abanico amplio de teles, y Samsung y Sony coquetearon discretamente con ella en algunas de sus propuestas. Afortunadamente, este año sí va a ser el de la consagración de HDMI 2.1. Philips acaba de presentar la gama de televisores que colocará en las tiendas en 2021, y, afortunadamente, varios modelos van a implementar completamente esta norma en al menos dos puertos HDMI. Y sin recortar la velocidad de transferencia.

No obstante, las novedades no acaban aquí. Además, esta compañía ha dado a conocer dos televisores con tecnología MiniLED que pasarán a la cúspide de su gama con panel LCD, uniéndose en su apuesta por esta tecnología de retroiluminación a Samsung, LG, Hisense y TCL. Afortunadamente Philips mantiene su apuesta por un soporte completo de los formatos HDR más utilizados en toda su gama, y algunos modelos estrenan una revisión del procesador de imagen P5. Sobre el papel los nuevos televisores de esta marca prometen, y aquí tenéis todos los detalles.


Leer más

Qué mirar en un monitor ‘gamer’ para jugar ‘multiplayer’ competitivo y cinco modelos recomendados

Qué mirar en un monitor 'gamer' para jugar 'multiplayer' competitivo y cinco modelos recomendados

El abanico de monitores que tenemos a nuestro alcance los jugadores es amplísimo. Ya no tenemos que dejarnos la piel para dar con la opción que nos ofrece la tecnología de panel, la resolución, la relación de aspecto y la frecuencia de refresco que buscamos. Y, lo que es aún más importante, tampoco es necesario que invirtamos en él demasiado dinero gracias a la feroz competencia que se da en este mercado.

Sin embargo, si nuestra intención es encontrar un buen monitor para competir en Internet el abanico de opciones se reduce mucho. Y es que un gran monitor para juego local no tiene por qué ofrecernos la mejor experiencia posible durante nuestras partidas en línea. De hecho, una mala elección puede impedirnos alcanzar buenos resultados, por muy habilidosos que seamos.

Si queremos competir nos interesa priorizar los parámetros que condicionan la precisión del control, y no tanto la calidad de imagen. Dar con el monitor adecuado puede marcar la diferencia y ayudarnos a alcanzar mejores resultados, especialmente si somos jugadores experimentados. El monitor es una de las herramientas más importantes en este escenario de uso, y el propósito de este artículo es ayudaros a encontrar el vuestro.

Lo que de verdad importa: la frecuencia de refresco y el tiempo de respuesta

Triunfar en 'Fortnite', 'Valorant', 'Overwatch' o 'Counter-Strike: Global Offensive', entre muchos otros títulos, requiere habilidad, práctica (mucha práctica), y también un PC equipado con los componentes adecuados. Subestimar algunos de los elementos que dan forma a nuestro equipo puede representar una barrera difícil de franquear, incluso aunque seamos jugadores muy experimentados.

Elegir el monitor idóneo nos permitirá disfrutar un movimiento más suave y fluido, y, sobre todo, un control más preciso

Como he mencionado unas líneas más arriba, si nuestro propósito es competir en partidas multijugador a través de Internet no debemos dejar nuestro éxito en manos únicamente de nuestra pericia y de nuestra conexión de fibra óptica. En la guía que publicamos hace varios meses os proponemos cómo podéis dar forma a un PC para juegos muy capaz, pero en este artículo vamos a canalizar toda nuestra atención en el monitor porque en este escenario de uso es un componente que tiene un impacto directo en nuestro rendimiento.

La estrategia que nos interesa seguir si nos proponemos dar con el monitor idóneo consiste en elegir aquel que va a ayudarnos a conseguir un control lo más rápido y preciso posible, y también unas imágenes suaves y fluidas. Y los dos parámetros que condicionan de forma directa estas características son la frecuencia de refresco y el tiempo de respuesta.

Otras características como la resolución, la restitución del color, la retroiluminación o el HDR tienen un impacto directo en la calidad de imagen, pero en el escenario de uso que nos interesa en este artículo es razonable dejarlas en un segundo plano.

La frecuencia de refresco

Este parámetro nos indica cuántas imágenes por segundo es capaz de restituir el panel del monitor. La frecuencia de refresco se mide en hercios, y un hercio equivale a una imagen por segundo. Una cadencia de imágenes mayor nos asegura un movimiento más suave y fluido, y también un control más preciso debido a que al incrementar la frecuencia se reduce sensiblemente la latencia de entrada.

Este parámetrorefleja el tiempo que transcurre desde el instante en el que actuamos sobre el control de nuestro personaje hasta el momento en el que esa acción se ve reflejada en la pantalla de nuestro monitor. Lo ideal es que la latencia sea lo más baja posible, y una frecuencia de refresco más alta nos ayuda a mantenerla bajo control.

Una frecuencia de refresco más alta nos asegura un movimiento más suave y fluido, y también un control más preciso debido a que se reduce la latencia de entrada

No obstante, es esencial que la GPU de la tarjeta gráfica sea capaz de enviar al panel las imágenes con el ritmo de actualización necesario. De poco nos serviría hacernos con un monitor con panel QHD capaz de trabajar a una frecuencia de refresco máxima de 165 Hz si nuestra tarjeta gráfica es incapaz de superar los 60 FPS cuando le pedimos que renderice las imágenes a esta resolución.

El escenario que acabamos de plantear provoca que el monitor quede infrautilizado, pero es igualmente poco deseable que sea la tarjeta gráfica el componente que no puede dar lo mejor de sí mismo si el monitor no está a la altura. Esto es lo que sucedería si, por ejemplo, invertimos una parte importante de nuestro presupuesto en una tarjeta que es capaz de sostener los 100 FPS a 1440p con la máxima calidad gráfica y enviamos la señal de vídeo a un monitor Full HD con un refresco de 60 Hz.

Latencia de entrada

NVIDIA y AMD nos proponen respectivamente las tecnologías Reflex y Radeon Anti-Lag para reducir la latencia de entrada.

Para evitar que se produzcan estos dos escenarios lo ideal es proteger la sinergia entre el monitor y la tarjeta gráfica teniendo presente que son dos dispositivos estrechamente vinculados. Y la forma más sencilla de conseguirlo requiere elegir cada uno de estos componentes teniendo muy presentes las características del otro.

Las tecnologías de refresco adaptativo nos ayudan a combatir con eficacia el 'tearing' y el 'stuttering'

Afortunadamente, en este terreno tenemos unas aliadas muy valiosas: las tecnologías de refresco adaptativo. Las más utilizadas son G-SYNC, de NVIDIA, y FreeSync, de AMD, y sirven para sincronizar las imágenes que emite la GPU de nuestro PC con las que reproduce el monitor, lo que nos ayuda a mitigar unos defectos tan molestos como el tearing y el stuttering.

El primero provoca que la imagen quede deformada por una línea que la atraviesa horizontalmente de un extremo al otro, y el segundo induce la aparición de unos pequeños saltos en la cadencia de imágenes que reducen la fluidez y pueden arruinar nuestra experiencia.

La buena noticia es que hay un abanico muy amplio de monitores compatibles con G-SYNC o FreeSync, e incluso con ambas tecnologías simultáneamente, por lo que no debería costarnos encontrar el que encaja mejor con la tarjeta gráfica que hemos elegido para nuestro PC.

El tiempo de respuesta

Este parámetro mide el tiempo invertido por un píxel del panel en cambiar el color que está emitiendo, por lo que lo ideal es que sea lo más reducido posible para que no aparezcan ni desenfoque de movimiento, que suele arruinar la nitidez cuando un objeto de la imagen se mueve con rapidez, ni halos.

Los fabricantes suelen medir el tiempo de respuesta de dos formas diferentes: indicando el MPRT (Moving Picture Response Time) o el GtG (Grey to Grey). Ambas medidas reflejan el tiempo invertido por un píxel del panel en cambiar de estado, pero desde dos perspectivas diferentes.

El MPRT es una métrica ideada para cuantificar el grado de desenfoque de movimiento de un panel LCD, y refleja el tiempo que transcurre desde que aparece el desenfoque en el contorno de un objeto en movimiento hasta que desaparece completamente.

Los fabricantes miden el tiempo de respuesta de dos formas diferentes: indicando el MPRT ('Moving Picture Response Time') o el GtG ('Grey to Grey')

Sin embargo, el valor GtG mide el tiempo invertido por un píxel del panel en emitir el color gris, pasar a blanco y volver a emitir el color gris. La mayor parte de las marcas indica en las especificaciones de sus monitores el valor GtG porque suele ser más bajo que el MPRT, pero este último es más útil porque refleja con más precisión la persistencia del panel, y, por tanto, si adolece de un desenfoque de movimiento más o menos acusado.

Los paneles más rápidos, y, por tanto, los que tienen el menor tiempo de respuesta, son generalmente los TN. Pisándoles los talones están los IPS, y, detrás de estos, los VA. En la siguiente tabla hemos recogido las principales bazas y desventajas de estas tres tecnologías de panel:


IPS (IN-PLANE SWITCHING)

VA (VERTICAL ALIGNMENT)

TN (TWISTED NEMATIC)

VENTAJAS

- Elevada calidad de imagen global
- Su reproducción del color es muy precisa
- Ángulos de visión amplios y sin apenas degradación del color

- Su relación de contraste nativo suele ser la más alta y sus negros son profundos
- Suelen tener una capacidad de entrega de brillo elevada
- Su capacidad de reproducción del color es superior a la de los paneles TN, pero inferior a la de los IPS
- Adolecen de menos fugas de luz que los IPS, incluso en las esquinas

- Estos paneles nos ofrecen el tiempo de respuesta más bajo (típicamente 1 ms de gris a gris)
- Nos permiten alcanzar las frecuencias de refresco más altas, superando con holgura los 144 Hz
- Suelen tener el precio más competitivo

INCONVENIENTES

- Habitualmente tienen un tiempo de respuesta más alto que los paneles TN
- Algunos paneles adolecen de fugas de luz, especialmente en las esquinas
- Su relación de contraste nativo suele ser inferior a la de los paneles VA

- Su tiempo de respuesta suele ser superior al de los paneles TN e IPS
- Sus ángulos de visión son inferiores a los que nos ofrecen los paneles IPS
- Esta tecnología es relativamente poco habitual en los monitores

- Su calidad de imagen global es inferior a la que nos ofrecen los paneles IPS y VA
- Reproducen el color con menos precisión que IPS y VA
- Sus ángulos de visión están muy limitados tanto en vertical como en horizontal

Cinco monitores recomendados para triunfar en el juego competitivo

Los cinco monitores que os proponemos son unos candidatos muy atractivos para cualquier jugador que quiera utilizar su PC en partidas multijugador en línea. Todos ellos tienen las características idóneas para ofrecernos un rendimiento estupendo en este escenario de uso, pero, por supuesto, hay otras opciones tanto de estos fabricantes como de otras marcas que también tienen las cualidades que estamos buscando.

Actualmente las frecuencias de refresco más elevadas nos las ofrecen los paneles con resolución 1080p

¿Y qué estamos buscando? Sencillamente, monitores que tengan una frecuencia de refresco lo más alta posible y un tiempo de respuesta lo más reducido posible. Sus demás características, como la resolución, la relación de aspecto o el tamaño del panel, en este contexto quedan en un honroso segundo plano. Un pequeño anticipo: como vamos a ver, la resolución 1080p es nuestra mejor aliada para llegar con éxito a la meta que nos hemos marcado porque buena parte de los monitores que trabajan a una alta frecuencia de refresco la utilizan.

AOC AGON AG251FZ

Aoc

AOC AGON AG251FZ

ESPEcificaciones

PANEL

LCD TN

TAMAÑO

24,5 pulgadas

RESOLUCIÓN

1920 x 1080 puntos

FRECUENCIA DE REFRESCO

240 Hz

TIEMPO DE RESPUESTA

1 ms (GtG)

RELACIÓN DE ASPECTO

16:9

RELACIÓN DE CONTRASTE

1000:1

BRILLO

400 nits

SINCRONIZACIÓN ADAPTATIVA

AMD FreeSync Premium

precio

466,69 euros

Abrimos nuestra selección con un monitor equipado con un panel 1080p de tipo TN y un tamaño de 24,5 pulgadas que encaja a la perfección en el prototipo que estamos buscando. Y es que este AOC nos propone una frecuencia de refresco máxima de 240 Hz y un tiempo de respuesta GtG de 1 ms.

Como podemos ver en la fotografía, su diseño es resultón y la peana parece ser muy sólida. Su relación de contraste nativo y su capacidad de entrega de brillo no sorprenden, pero están a la altura de lo que podemos esperar de un monitor de su precio. Un apunte más: incorpora la tecnología de sincronización adaptativa FreeSync Premium de AMD.

AOC AGON AG251FZ - Monitor de 25" (resolución 1920 x 1080 Pixels, tecnología WLED, Contraste 1000:1, 1 ms, USB 3.0), Color Negro y Rojo

AOC AGON AG251FZ - Monitor de 25" (resolución 1920 x 1080 Pixels, tecnología WLED, Contraste 1000:1, 1 ms, USB 3.0), Color Negro y Rojo

ASUS ROG Swift PG259QN

Asus

ASUS ROG Swift PG259QN

ESPEcificaciones

PANEL

LCD IPS

TAMAÑO

24,5 pulgadas

RESOLUCIÓN

1920 x 1080 puntos

FRECUENCIA DE REFRESCO

360 Hz

TIEMPO DE RESPUESTA

1 ms (GtG)

RELACIÓN DE ASPECTO

16:9

RELACIÓN DE CONTRASTE

1000:1

BRILLO

400 nits

SINCRONIZACIÓN ADAPTATIVA

NVIDIA G-SYNC

precio

749 euros

Este monitor es un «viejo» conocido. Y es que a finales del pasado mes de octubre tuvimos la oportunidad de probarlo a fondo en nuestras instalaciones, por lo que estamos familiarizados con él. Su corazón es un panel IPS 1080p de 24,5 pulgadas que se desmarca de la mayor parte de sus competidores con una impactante frecuencia de refresco máxima de 360 Hz.

Según ASUS su tiempo de respuesta es el mismo que tienen todos los monitores que hemos seleccionado en este artículo: 1 ms GtG. Además, su calidad de imagen es razonablemente alta gracias en gran medida a la capacidad de reproducción del color que tiene su panel IPS.

Y, de propina, es compatible con la tecnología Reflex de NVIDIA, que persigue minimizar la latencia. Su mayor hándicap es, sin duda, un precio que desafortunadamente lo coloca fuera del alcance de muchos jugadores.

ASUS ROG Swift PG259QN 24,5" LED IPS Full HD 360 Hz HDR G-Sync

ASUS ROG Swift PG259QN 24,5" LED IPS Full HD 360 Hz HDR G-Sync

BenQ ZOWIE XL2411P

Benq1

BenQ ZOWIE XL2411P

ESPEcificaciones

PANEL

LCD TN

TAMAÑO

24 pulgadas

RESOLUCIÓN

1920 x 1080 puntos

FRECUENCIA DE REFRESCO

144 Hz

TIEMPO DE RESPUESTA

1 ms (GtG)

RELACIÓN DE ASPECTO

16:9

RELACIÓN DE CONTRASTE

1000:1

BRILLO

350 nits

SINCRONIZACIÓN ADAPTATIVA

No

precio

199 euros

La razón por la que hemos decidido incluir esta solución de BenQ, además de por cumplir las condiciones mínimas que hemos fijado, es que tiene un precio mucho más bajo que las otras propuestas de esta selección. Y es que por 200 euros podemos hacernos con un monitor 1080p de 24 pulgadas capaz de trabajar a una frecuencia de refresco máxima de 144 Hz. No está nada mal.

Su panel es de tipo TN y tiene un tiempo de respuesta de 1 ms GtG. Tampoco desentona si nos fijamos en su contraste estático (1000:1) y su capacidad de entrega de brillo (350 nits), pero es evidente que algo se deja en el camino para costar solo 200 euros.

Una de esas carencias es su diseño, que, como podéis ver en la fotografía, no es muy agraciado (los marcos son bastante gruesos). Y otro hándicap aún más relevante es la ausencia de una tecnología de sincronización adaptativa.

BenQ ZOWIE XL2411P - Monitor Gaming de 24" Full HD (1920 x 1080, 1 ms, 144 Hz, HDMI, Black eQualizer, Color Vibrance, DisplayPort, DVI-DL, Flicker-free, Altura Ajustable) - Gris Oscuro

BenQ ZOWIE XL2411P - Monitor Gaming de 24" Full HD (1920 x 1080, 1 ms, 144 Hz, HDMI, Black eQualizer, Color Vibrance, DisplayPort, DVI-DL, Flicker-free, Altura Ajustable) - Gris Oscuro

BenQ ZOWIE XL2546K

Benq2

BenQ ZOWIE XL2546K

ESPEcificaciones

PANEL

LCD TN

TAMAÑO

24,5 pulgadas

RESOLUCIÓN

1920 x 1080 puntos

FRECUENCIA DE REFRESCO

240 Hz

TIEMPO DE RESPUESTA

1 ms (GtG)

RELACIÓN DE ASPECTO

16:9

RELACIÓN DE CONTRASTE

1000:1

BRILLO

320 nits

SINCRONIZACIÓN ADAPTATIVA

AMD FreeSync

precio

529 euros

El monitor de BenQ que acabamos de revisar y el modelo en el que estamos a punto de indagar apuestan por dos paneles TN 1080p que, a pesar de no ser idénticos, tienen la misma relación de contraste nativo y una capacidad de entrega de brillo similar. Sin embargo, ahí acaba el parecido.

Y es que este Zowie es capaz de trabajar a una frecuencia de refresco máxima de 240 Hz y, a diferencia del otro modelo, incorpora la tecnología de sincronización adaptativa FreeSync de AMD. Además, viene con dos viseras laterales y BenQ ha rediseñado la peana tomando como referencia el modelo anterior para conseguir que la de este monitor ocupe menos espacio en nuestro escritorio.

BenQ Zowie XL2546K - Monitor Gaming de 24,5" (240 Hz, DyAc+, regulación Flexible de Altura e inclinación, XL Setting to Share, menú rápido Personalizable, S-Swich, Escudo) Gris Oscuro

BenQ Zowie XL2546K - Monitor Gaming de 24,5" (240 Hz, DyAc+, regulación Flexible de Altura e inclinación, XL Setting to Share, menú rápido Personalizable, S-Swich, Escudo) Gris Oscuro

Samsung Odyssey G7 27" QLED

Samsung

Samsung Odyssey G7 27" QLED

ESPEcificaciones

PANEL

LCD VA curvo

TAMAÑO

27 pulgadas

RESOLUCIÓN

2560 x 1440 puntos

FRECUENCIA DE REFRESCO

240 Hz

TIEMPO DE RESPUESTA

1 ms (GtG)

RELACIÓN DE ASPECTO

16:9

RELACIÓN DE CONTRASTE

2500:1

BRILLO

350 nits

SINCRONIZACIÓN ADAPTATIVA

AMD FreeSync Premium Pro y NVIDIA G-SYNC

precio

628,98 euros

Hace poco más de dos meses pudimos probar a fondo el Odyssey G9, un monitor para gaming que tiene mucho en común con la pantalla que estamos a punto de proponeros, y que nos dejó un sabor de boca muy bueno por su calidad de imagen y su encantadora desmesura. Este Odyssey G7 es más comedido que el G9, pero comparte con él un panel VA curvo 1000R que se apoya en la popular tecnología de nanocristales de Samsung.

Este es el único monitor de nuestra selección con resolución 1440p, pero este incremento de la definición no acarrea una reducción de la frecuencia de refresco. De hecho, esta pantalla trabaja a una frecuencia máxima de 240 Hz.

Además, gracias a su panel VA aventaja con mucha contundencia a las soluciones con panel TN e IPS por su superior contraste nativo (2500:1). Y, de propina, es compatible tanto con G-SYNC como con FreeSync. No es barato, pero su precio parece razonable si ponderamos lo que nos ofrece a cambio de nuestro dinero.

Samsung Odyssey G7 LC27G73TQSUXEN - Monitor Curvo Gaming de 27'' WQHD (2560 x 1440, 1 ms, 240 Hz, FreeSync, Gsync, QLED, 16:9, HDR600, 350 cd/m², 1000R, DisplayPort, HDMI, USB 3.0) Negro

Samsung Odyssey G7 LC27G73TQSUXEN - Monitor Curvo Gaming de 27'' WQHD (2560 x 1440, 1 ms, 240 Hz, FreeSync, Gsync, QLED, 16:9, HDR600, 350 cd/m², 1000R, DisplayPort, HDMI, USB 3.0) Negro

Nota: algunos de los enlaces aquí publicados son de afiliados. A pesar de ello, ninguno de los artículos mencionados ha sido propuesto ni por las marcas ni por las tiendas, siendo su introducción una decisión única del equipo de editores.

Imagen de portada | FOX

-
La noticia Qué mirar en un monitor 'gamer' para jugar 'multiplayer' competitivo y cinco modelos recomendados fue publicada originalmente en Xataka por Juan Carlos López .

Leer más