Internet explicada para que cualquier persona pueda entender cómo funciona (y por qué a veces una parte queda KO)

Internet explicada para que cualquier persona pueda entender cómo funciona (y por qué a veces una parte queda KO)

Internet es un misterio. Uno enorme. O, al menos, lo parece. Muchas personas utilizamos esta red todos los días, y, además, lo hacemos durante muchas horas sin ser realmente conscientes de la complejidad que la hace posible. De todo lo que hay debajo. Hasta que algo falla y nos vemos obligados temporalmente a dejar de utilizar algunos de sus servicios, algo que ha sucedido durante los últimos meses con Amazon, Facebook, Instagram, Twitch, WhatsApp o Reddit, entre muchas otras plataformas.

Precisamente, la razón por la que de cuando en cuando algo se rompe en internet, algo con la suficiente entidad para que los usuarios nos demos cuenta, es que todos sus engranajes deben funcionar con la precisión del mecanismo de un reloj mecánico. Y el problema es que esta red es tan grande, involucra tanta tecnología, tantos equipos de red, tantas personas y tantos intereses que, inevitablemente, de vez en cuando algo falla. Y el origen del error puede ser humano o estrictamente técnico.

Todos sabemos que, en realidad, en internet no hay magia, pero sí mucha tecnología. Y en este artículo os proponemos indagar en ella con el propósito de que nos resulte más familiar y menos misteriosa. En un reportaje con una extensión limitada y una ambición didáctica como este no se puede recoger toda la complejidad de la innovación que hace posible que esta gigantesca red exista y funcione, por lo que inevitablemente tendremos que ceñirnos a algunas de sus tecnologías fundamentales.

Nuestra intención es que los lectores que estáis menos familiarizados con todo esto os sintáis un poco más cómodos cuando leáis u oigáis hablar acerca de protocolos, direcciones IP o algoritmos de control, entre otros elementos. Aun así, este artículo solo pretende ofreceros una mirada asequible y superficial de internet, por lo que en la última sección os propondremos algunas lecturas que os pueden ayudar a profundizar e ir mucho más allá si os apetece conocer con más detalle cómo funciona esta enorme y compleja red.

Todo tiene un nombre en internet: las direcciones IP

Todos los dispositivos que tienen la capacidad de conectarse a internet, bien sea a través de nuestra fibra óptica doméstica, bien utilizando una conexión 4G o 5G como las de nuestros teléfonos móviles, deben ser capaces de identificarse con un nombre único que no esté siendo utilizado por ningún otro dispositivo. De lo contrario, si dos o más equipos tuviesen el mismo nombre se produciría una incongruencia debido a que no sabríamos a cuál debemos entregar un paquete de datos determinado. Ese nombre único es, precisamente, la dirección IP.

IPv4 tiene algunas limitaciones importantes debido a que es la primera infraestructura de direccionamiento implementada en internet

Su función es esencialmente la misma de las direcciones postales que nos permiten recibir paquetes en nuestra casa, y que nos identifican con precisión para evitar que vayan a parar a un destino erróneo. Sin embargo, hay una diferencia importante entre las direcciones IP y las direcciones postales: las primeras pueden variar, y las segundas no (o no suelen hacerlo a menos que se cambie el nombre de la calle en la que residen). Las direcciones IP que no cambian se conocen como fijas, y las que varían son dinámicas precisamente debido a la posibilidad de que cambien en un plazo de tiempo determinado.

La mayor parte de los proveedores de acceso a internet nos proporciona una dirección IP dinámica, y, además, los dispositivos que tenemos en casa, y que se conectan a la red a través de nuestra conexión ADSL o de fibra óptica, también suelen tener una dirección IP dinámica. Sin embargo, estos dispositivos no tienen la capacidad de elegir qué dirección IP quieren tener; el responsable de asignársela es un equipo que forma parte de la red y que utiliza un protocolo conocido como DHCP (Dynamic Host Configuration Protocol) para decidir cuál debe entregar a cada dispositivo.

Ya tenemos una idea relativamente certera acerca de qué es una dirección IP, por lo que ahora nos interesa echar un vistazo a su aspecto. El protocolo que se responsabiliza de describir qué formato tienen y cuál es su significado se conoce como IPv4 (Internet Protocol version 4), pero tiene algunas limitaciones importantes debido a que es la primera infraestructura de direccionamiento implementada en internet, y esta red ha crecido una barbaridad durante las últimas dos décadas.

De hecho, ha crecido tanto, y crecerá aún mucho más en el futuro, que ha sido necesario diseñar una infraestructura de direccionamiento más avanzada que sea capaz de acoger la enorme cantidad de dispositivos que se conectarán a ella durante los próximos años. Esta nueva arquitectura se llama IPv6 (Internet Protocol version 6), y propone direcciones con un tamaño de 128 bits, por lo que son cuatro veces mayores que las direcciones de 32 bits de IPv4 precisamente con el objetivo de poner a nuestro alcance un mapa de direcciones IP mucho mayor que sea capaz de resolver nuestras necesidades a medio y largo plazo.

En el artículo que enlazo aquí mismo explicamos con bastante detalle cómo son las direcciones del protocolo IPv6 y en qué se diferencian de las IPv4, pero aquí van algunas pinceladas sobre ambas. No obstante, antes de que sigamos adelante nos interesa saber que las direcciones IP están incluidas en los campos de dirección de origen y dirección de destino de los paquetes de datos. Y es comprensible que sea así debido a que es necesario que cada uno de los paquetes que viajan a través de internet transporte consigo la dirección IP de la máquina que lo ha enviado y la del equipo que debe recibirlo para asegurar que llegará a su destino correctamente.

Ipv6

Las direcciones IP asignadas mediante el protocolo IPv4 son números de 32 bits y se escriben en notación decimal con puntos, por lo que tienen el formato 192.36.7.22. La menor dirección IP es 0.0.0.0, y la mayor es 255.255.255.255. Las direcciones asignadas por el protocolo IPv6, sin embargo, tienen una longitud de 128 bits, como hemos visto, y se escriben en ocho grupos de cuatro dígitos hexadecimales cada uno de ellos, por lo que tienen la forma 2001:0ab8:85b3:0000:0000:8a2e:0260:7224.

Utilizar muchos más bits permite a la arquitectura de direccionamiento IPv6 poner en nuestras manos un mapa de direcciones mucho más amplio que IPv4. Un último apunte: según Google actualmente algo menos del 38% de sus usuarios accede a este buscador a trav´es de IPv6.

Estos son el corazón y el cerebro de internet: el modelo TCP/IP y el protocolo IP

Los investigadores que dieron forma a la red que ha evolucionado hasta transformarse en la internet que todos conocemos hoy se dieron cuenta de que era imprescindible definir una arquitectura que describiese con precisión cómo debía ser esa red y de qué capas o niveles debía estar compuesta.

El modelo de referencia TCP/IP implementa cuatro capas: acceso a la red, interred, transporte y aplicación

Su propósito era delimitar el alcance de esos niveles, de manera que cada uno de ellos se encargase de resolver unos determinados problemas y evitar así que los niveles que tiene por encima deban esforzarse para solucionar esos mismos desafíos. De alguna forma es una estrategia similar a la filosofía «divide y vencerás»de la que posiblemente todos hemos oído hablar en alguna ocasión.

El modelo de referencia OSI (interconexión de sistemas abiertos) propuesto por la Organización Internacional de Normalización (ISO) no es realmente una arquitectura de red debido a que no describe los servicios y los protocolos que debe utilizar cada capa.

Es un modelo importante que describe siete capas o niveles diferentes (física, enlace, red, transporte, sesión, presentación y aplicación), pero su relevancia se ciñe sobre todo al ámbito académico, por lo que no indagaremos más en él para prestar toda nuestra atención al modelo de referencia TCP/IP, que es la arquitectura de red flexible que utiliza internet.

A diferencia del modelo OSI, esta arquitectura implementa solo cuatro capas y no siete. En la base y en contacto con el hardware de nuestros equipos reside la capa de acceso a la red. TCP/IP no establece con precisión cómo debe implementarse este nivel, por lo que solo estipula de una forma un tanto ambigua que el dispositivo debe poder conectarse a la red para permitir el envío de paquetes IP.

Justo encima reside el nivel de interred, que es considerado por muchos autores el auténtico corazón de esta arquitectura de red. Su función es permitir que nuestros dispositivos puedan entregar nuestros paquetes de datos a la red a la que están conectados.

La capa de interred tiene una peculiaridad muy interesante: debe garantizar que los paquetes de datos lleguen a su destino, aunque pueden hacerlo en un orden diferente a aquel en el que fueron enviados. Las capas superiores de la arquitectura son las responsables de ordenar los paquetes correctamente si es necesario.

Para Tanenbaum el protocolo IP es «el pegamento que mantiene unida internet»

Para llevar a cabo su cometido esta capa define con precisión qué estructura deben tener los paquetes de datos, y también utiliza un protocolo conocido como IP (Internet Protocol) que, acertadamente, el influyente y muy respetado Andrew S. Tanenbaum califica como «el pegamento que mantiene unida internet». Su descripción refleja claramente lo importante que es este protocolo.

De hecho, este protocolo implementa los recursos necesarios para que nuestros paquetes de datos lleguen a su destino. No importa si la máquina que los envía y la que debe recibirlos forman parte de dos redes diferentes, y tampoco si entre ambas hay muchas otras redes que deberán actuar como intermediarias.

Internet es un auténtico laberinto, por lo que podemos imaginar el protocolo IP como el mapa que utilizan los paquetes de datos de nuestros dispositivos para saber qué camino deben seguir para llegar a su destino. Y, por supuesto, los paquetes que deben recibir nuestros dispositivos procedentes de otras máquinas utilizan este mismo recurso para seguir el camino inverso.

Las dos capas de la arquitectura TCP/IP que aún no hemos visto son los niveles de transporte y aplicación. El primero de ellos está justo encima de la capa de interred, lo que significa que esta última tiene la responsabilidad de proporcionarle los servicios que necesita para llevar a cabo su cometido. De igual forma que el protocolo IP es el corazón de la capa de interred, el protocolo TCP es el cerebro de la capa de transporte. El cometido de este nivel es permitir que las dos máquinas involucradas en la conversación a trav´és de internet, la que envía los paquetes y la que los recibe, puedan mantener su diálogo.

Modeloosi

Estructura de niveles o capas propuesta por el modelo OSI (interconexión de sistemas abiertos).

El protocolo TCP fragmenta los datos y construye los paquetes en la máquina que los emite, mientras que en el equipo que los recibe se encarga de reconstruir el mensaje original a partir de los paquetes de datos que van llegando. La capa de transporte también utiliza otro protocolo conocido como UDP (User Datagram Protocol), que podemos traducir al español como protocolo de datagrama de usuario.

A diferencia de TCP, UDP permite enviar paquetes de datos a través de internet sin necesidad de haber establecido previamente una conexión. Tampoco se encarga de controlar el flujo de los paquetes, que pueden llegar al destino desordenados, y no estipula una confirmación de entrega. De alguna forma UDP es más anárquico que TCP, por lo que solo encaja en aquellas aplicaciones que implementan estas características por sí mismas.

Aún nos queda echar un vistazo a la última capa de la arquitectura TCP/IP: el nivel de aplicación. Esta capa está colocada encima del nivel de transporte, y contiene todos los protocolos de alto nivel, que son los que están más cerca de las aplicaciones que utilizamos los usuarios. Dos de los que repasaremos más adelante por su importancia son DNS y HTTP, aunque la capa de aplicación también contiene muchos otros (algunos están en desuso), como FTP o TELNET.

El viaje que siguen nuestros datos en internet es una auténtica aventura

Como hemos visto, la capa de interred se responsabiliza de transportar los paquetes de datos desde el origen hasta el destino, y para lograrlo con frecuencia deben pasar por muchos enrutadores intermedios. Estos dispositivos se encargan a grandes rasgos de actuar como intermediarios entre unas subredes y otras, y para hacerlo posible recogen los paquetes que reciben y se los envían al siguiente enrutador. Eso sí, esta decisión se lleva a cabo de una forma inteligente.

La capa de interred debe proporcionar a los enrutadores la información que necesitan conocer para elegir la trayectoria adecuada que debe seguir cada paquete de datos

Esto quiere decir, sencillamente, que la capa de interred debe proporcionar a los enrutadores la información que necesitan conocer para elegir la trayectoria adecuada que debe seguir cada paquete de datos. Y, como podemos intuir, no es sencillo hacerlo debido a que el elevado volumen de datos que circula a través de internet de forma permanente requiere balancear el tráfico para evitar que unas líneas de comunicación se saturen mientras otras permanecen infrautilizadas.

Para resolver este desafío la capa de red cuenta con los algoritmos de encaminamiento, que se encargan de decidir qué ruta debe seguir cada paquete de datos teniendo en cuenta el tráfico y las condiciones en las que se encuentra cada subred en ese momento. Cabe la posibilidad de que dos paquetes que tienen un mismo destino y un único origen sigan caminos diferentes si las circunstancias de la red lo exigen para que sean transportados de la forma óptima.

Afortunadamente no es necesario que conozcamos con detalle qué propone cada algoritmo de encaminamiento, pero es interesante saber que hay unos cuantos, y cada uno de ellos pretende resolver el transporte de los paquetes de datos recurriendo a una estrategia diferente. La capa de interred también dispone de algoritmos de control de la congestión, que, como podemos intuir, pretenden evitar que una subred se sature.

Cuando aparece este problema el rendimiento de esa línea se degrada debido a que los enrutadores son incapaces de administrar todo el tráfico y comienzan a perder paquetes de datos. De alguna forma la gestión del tráfico en internet no es muy diferente de la administración del tráfico en las carreteras.

Los DNS nos permiten utilizar internet de una forma mucho más sencilla

Unos párrafos más arriba hemos visto que las direcciones IP nos permiten identificar con precisión todos los dispositivos y los equipos de red que intervienen en internet. Las asignadas mediante el protocolo IPv4 se escriben en notación decimal con cuatro grupos de tres dígitos, por lo que tienen, como hemos visto, esta forma: 192.36.7.22. Y las asignadas mediante IPv6 son aún más complicadas porque se escriben en ocho grupos de cuatro dígitos hexadecimales cada uno de ellos, adquiriendo la forma 2001:0ab8:85b3:0000:0000:8a2e:0260:7224.

Los DNS traducen las cadenas ASCII que nosotros podemos recordar en direcciones de red

Para una persona es muy complicado memorizar estas ristras de números y caracteres, por lo que sería un problema difícil de sortear que nos viésemos obligados a introducir en las aplicaciones que utilizamos habitualmente la dirección IP del equipo en el que se aloja la página web que queremos consultar, o la de la máquina destinataria del mensaje de correo electrónico que estamos a punto de enviar.

Afortunadamente, los DNS (Domain Name System), o sistema de nombres de dominio, nos lo ponen mucho más fácil. Y es que son el mecanismo que se encarga de traducir las cadenas ASCII que nosotros podemos recordar con relativa facilidad, como '[email protected]' o 'www.xataka.com', en las direcciones de red que manejan los protocolos de internet.

Hasta aquí llega la parte sencilla, que es la realmente importante desde el punto de vista de un usuario y la que merece la pena conocer. A quien le apetezca saber algo más acerca de este recurso le interesará estar al tanto de que los DNS se implementan como un sistema de nombres jerárquico basado en dominio bajo la forma de una base de datos distribuida.

Para llevar a cabo la traducción de una cadena ASCII a una dirección de red las aplicaciones llaman a un procedimiento conocido como resolvedor y le pasan como parámetro la cadena que es necesario traducir. A continuación, el resolvedor envía un paquete UDP a un servidor DNS local, que localiza el nombre y le devuelve la dirección IP asignada a esa cadena ASCII. Por último, el resolvedor entrega la dirección de red a la aplicación que ha solicitado la traducción, que a partir de ahí podrá establecer una conexión TCP con la máquina destino o enviarle paquetes UDP.

Qué es en realidad la web y por qué el protocolo HTTP nos ha traído hasta aquí

La web ha sido un éxito monumental. De hecho, muchas personas creen que es lo mismo que internet, pero no lo es; tan solo es un servicio que nos permite acceder a un determinado tipo de contenido alojado en algunas de las máquinas que forman parte de esta gran red. Fue creada en 1989 por el físico Tim Berners-Lee mientras investigaba en el CERN con un propósito: facilitar el acceso a una colección de documentos vinculados y distribuidos por millones de máquinas en toda internet.

La web fue creada con el propósito de facilitar el acceso a una colección de documentos vinculados y distribuidos por millones de máquinas en toda internet

Cuando los usuarios utilizamos nuestro navegador para recorrer nuestras páginas web favoritas y vamos saltando de una a otra al hacer clic en los hiperenlaces, estamos empleando la web. Sin embargo, es importante que recordemos que este recurso forma parte de internet, pero no equivale a internet. Está contenido en esta gran red y es solo una parte de ella. En esencia utiliza una arquitectura cliente-servidor, de modo que lo que vemos los usuarios es una colección de documentos que pueden incorporar hipervínculos, que no son otra cosa que enlaces que vinculan dos documentos y nos permiten saltar de uno a otro con facilidad.

El otro ingrediente de esta ecuación es el servidor, que, sencillamente, es el programa que se encarga de entregar las páginas solicitadas por los clientes que se conectan a él. El diálogo entre el cliente y el servidor se establece utilizando un lenguaje conocido como protocolo HTTP (HyperText Transfer Protocol), o protocolo de transferencia de hipertexto. Este lenguaje está evolucionando constantemente para hacer posible la implementación de nuevas funcionalidades y mejorar la experiencia de los usuarios, y su última revisión estandarizada es la 5.2. Os hablamos de ella en el artículo que enlazo aquí mismo.

Por qué a veces una parte de internet se va al garete

La visión de internet que pretendemos ofreceros en este artículo es superficial y solo aspira a que los usuarios estemos mínimamente familiarizados con los protocolos y las tecnologías más relevantes que utilizamos casi a diario. Sin embargo, pese a su limitado alcance este reportaje nos permite intuir la complejidad que se esconde bajo una gigantesca red de ordenadores y equipos de comunicaciones que según la consultora Statista en enero de 2021 era utilizada por más de 4600 millones de personas en todo el planeta.

La arquitectura de internet y buena parte de los servicios que nos ofrece han sido diseñados para ser tolerantes a fallos con el propósito de que si algo se rompe los usuarios ni siquiera nos demos cuenta de que algo ha fallado. Uno de los ingredientes utilizados con frecuencia para implementar esta tolerancia a los errores es la redundancia, pero hay muchas otras estrategias que también persiguen mantener en pie los servicios que nos propone internet cuando vienen mal dadas. Sin embargo, pese a todos estos esfuerzos, de vez en cuando algo se rompe. Y los usuarios lo notamos.

Si las personas que utilizamos internet nos damos cuenta de que algo no va bien es porque se ha producido un error grave del que uno o varios servicios no han podido recuperarse de una forma transparente. La raíz del problema puede ser muy diversa, por lo que podemos ilustrar esta situación echando un vistazo a las dos grandes caídas que todos hemos presenciado durante los últimos meses. Una de ellas tuvo lugar a principios del pasado mes de junio, y provocó que Amazon, Twitch, Vimeo y Reddit, entre muchas otras redes sociales y servicios, quedasen fuera de combate durante una larga y tediosa hora.

En aquella ocasión el origen de la caída estuvo en Fastly, un CDN (Content Delivery Network) bastante popular que tiene una cartera de clientes envidiable (de ahí que tantos servicios importantes se viesen afectados). Un CDN es una infraestructura de hardware y software diseñada para acelerar el acceso a un conjunto determinado de servicios web, y para hacerlo posible almacena una parte de los datos que manejan esos servicios en un sistema de caché de alto rendimiento. Os lo explicamos todo con más detalle en el artículo que enlazo aquí mismo.

La otra gran caída en la que podemos fijarnos para ilustrar en qué medida una parte de internet puede quedar fuera de combate tuvo lugar hace solo unos días, y se llevó por delante a Facebook, Instagram y WhatsApp, que, literalmente, desaparecieron de la red. En esta ocasión el origen del problema fue el protocolo BGP (Border Gateway Protocol), o protocolo de pasarela exterior, que, a grandes rasgos, se encarga de optimizar el transporte de los paquetes de datos entre redes diferentes, ayudando a cada una de ellas a informar a las demás de su presencia. Si queréis indagar un poco más podéis echar un vistazo al artículo en el que lo explicamos con más detalle.

Algunas lecturas recomendadas si queréis indagar más en la arquitectura de internet

Afortunadamente, en la web podemos encontrar muchísima literatura que nos permite indagar mucho más en la arquitectura de internet y conocer mejor cómo están implementados sus servicios. Si os apetece profundizar y este artículo os ha dejado con ganas de más os sugerimos que echéis un vistazo a los artículos de Mozilla dedicados a la estructura de internet o al lenguaje HTML; al artículo de la Universidad de Stanford (disponible en inglés) que repasa el funcionamiento de esta gran red; o a la abundante documentación que ha publicado el W3C, que es la organización que promueve la adopción de los estándares utilizados por la World Wide Web.

Las lecturas que os acabamos de proponer son una pequeñísima selección de los casi innumerables recursos que internet pone a nuestro alcance. No obstante, también tenemos otra opción: los libros en papel. El abanico de opciones en este ámbito es muy amplio, pero no puedo resistirme a recomendaros como punto de partida dos de mis libros favoritos: 'Redes de computadoras', de Andrew S. Tanenbaum, y 'Comunicaciones y redes de computadores', de William Stallings. Ambas son publicaciones de carácter académico que lo explican todo con profundidad y un rigor indudable, lo que las ha colocado como dos auténticos clásicos que siguen siendo utilizados pese a su veteranía en muchas escuelas y facultades de informática.

Imagen de portada: Junior Teixeira

Imágenes: Wikimedia | Offnfopt

-
La noticia Internet explicada para que cualquier persona pueda entender cómo funciona (y por qué a veces una parte queda KO) fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

Samsung 990 Pro SSD 1 TB PCIe 4.0, análisis: su fantástico rendimiento es solo una de sus virtudes

Samsung 990 Pro SSD 1 TB PCIe 4.0, análisis: su fantástico rendimiento es solo una de sus virtudes

Samsung fabrica unidades SSD de buena calidad y con unas prestaciones muy respetables. La última que hemos analizado a fondo es la 980 PRO con interfaz PCIe 4.0 NVMe M.2, que es, precisamente, la precursora de la que vamos a poner a prueba en este análisis. Durante nuestros tests nos entregó un rendimiento de primera división, y, además, puso el listón alto al lograrlo arrojando unas temperaturas de trabajo muy razonables.

Este precedente no se lo pone nada fácil a la unidad 990 PRO. Y es que Samsung nos promete que esta SSD ha sido diseñada para sacar el máximo partido posible a la interfaz PCIe 4.0, lo que, según esta marca, le permite entregarnos un rendimiento un 40% más alto que la 980 PRO en operaciones de lectura aleatoria, y un 55% superior en operaciones de escritura aleatoria. Suena bien, pero tiene que demostrarlo. Veamos si cumple lo prometido.

Samsung 990 Pro SSD 1 TB PCIe 4.0: especificaciones técnicas


características

capacidad

1 o 2 TB (el modelo analizado es el de 1 TB)

interfaz

PCIe Gen 4.0 x4, NVMe 2.0

formato

M.2 (2280)

lectura máxima teórica

Hasta 7.450 MB/s

escritura máxima teórica

Hasta 6.900 MB/s

memoria de almacenamiento

Samsung V-NAND 3-bit MLC

memoria caché

Samsung 1 GB Low Power DDR4 SDRAM

controlador

Samsung Controller

soporte trim

soporte smart

garbage collection

Auto Garbage Collection Algorithm

cifrado

AES 256 bits

wwn

No

modo suspensión

consumo medio

5,4 vatios

FIABILIDAD (mtBf)

1,5 millones de horas

golpes

1.500 G & 0,5 ms

temperatura

0 a 70 ºC

garantía

5 años

dimensiones

80 x 22 x 2,3 mm

peso

9 g

precio

192,17 euros

Samsung 990 Pro 1TB, hasta 7.450 MB/s, PCIe 4.0 NVMe M.2 (2280), SSD Interno (MZ-V9P1T0)

El rendimiento por vatio es crucial, y Samsung nos promete haber tomado nota

Las unidades de estado sólido tienen un impacto muy profundo en las prestaciones de nuestro PC, y para percibirlo no es necesario que recurramos a una herramienta de medición de la velocidad de transferencia; podemos notarlo, sencillamente, evaluando el tiempo que tarda en iniciarse una aplicación relativamente pesada.

La unidad SSD que estamos a punto de poner a prueba consume en promedio, según Samsung, 5,4 vatios

Es evidente que su rendimiento en un escenario de uso real es muy importante, pero también lo es su rendimiento por vatio. El consumo promedio de una unidad SSD es mucho más reducido que el de una CPU o una GPU de última hornada, pero todo suma, especialmente en un momento como el actual en el que el coste de la energía se ha disparado.

La unidad de estado sólido que estamos a punto de poner a prueba consume en promedio, según Samsung, 5,4 vatios, aunque al operar en modo ráfaga puede rozar los 7,8 vatios (la versión de 2 TB tiene un consumo ligeramente más alto). Es evidente que estas cifras son muy inferiores a las que describen el consumo de otros componentes de nuestros ordenadores, pero, como he mencionado en el párrafo anterior, todo suma, y optimizar su rendimiento por vatio es importante.

Dsc06716

En gran medida el componente responsable de mantener bajo control el nivel de disipación de calor y optimizar el rendimiento por vatio es el controlador. Además, se encarga de administrar la transferencia de la información dentro de la unidad SSD (entre la caché DDR4 SDRAM de bajo consumo y los chips V-NAND), y también de mediar con la interfaz PCIe 4.0. Este circuito integrado ha sido diseñado por la propia Samsung, y, curiosamente, su superficie está revestida por una lámina de níquel.

El níquel es inmune al efecto galleo, un mecanismo por el que algunos metales absorben el oxígeno del aire cuando son sometidos a altas temperaturas

Aunque no tiene un coeficiente de conductividad térmica tan alto como el del cobre o el aluminio, este metal puede ser utilizado como recubrimiento directo del circuito integrado mediante electrodeposición. Además, a diferencia del cobre, es inmune al efecto galleo, un mecanismo por el que algunos metales absorben el oxígeno del aire cuando son sometidos a altas temperaturas, dando lugar a la formación de pequeñas burbujas.

Cuando el metal se enfría con rapidez el oxígeno se libera, pero los poros producidos por las burbujas permanecen en él, degradando así su estructura y su capacidad de conducción de la energía térmica. Probablemente esta es la cualidad del níquel que ha provocado que los ingenieros de Samsung lo hayan elegido para recubrir el controlador de la unidad SSD.

Por otro lado, para evitar que los chips V-NAND superen su umbral máximo de temperatura Samsung ha adosado al reverso de la placa de circuito impreso un esparcidor de calor pasivo que incrementa la transferencia de energía térmica con el aire mediante convección. El último ingrediente del sistema de refrigeración de esta unidad SSD es un algoritmo de control térmico que, según Samsung, mantiene la temperatura de los circuitos integrados permanentemente dentro de su rango de trabajo óptimo.

Ponemos a prueba su rendimiento y su nivel de disipación de calor

La configuración de la plataforma de pruebas que hemos utilizado para evaluar el rendimiento de esta unidad SSD es la siguiente: dos módulos de memoria Corsair Dominator Platinum DDR4-3600 con una capacidad conjunta de 16 GB y una latencia de 18-19-19-39; una placa base ASUS ROG Crosshair VIII Hero con chipset AMD X570; un procesador AMD Ryzen 9 5950X con 16 núcleos y 32 hilos de ejecución (threads); una tarjeta gráfica AMD Radeon RX 6900 XT con 16 GB GDDR6; un sistema de refrigeración por aire para la CPU Corsair A500 con ventilador de rodamientos por levitación magnética y una fuente de alimentación modular Corsair RM 750x.

Para poner en contexto las medidas que hemos tomado hemos utilizado como referencia una unidad SSD Samsung 970 EVO Plus con interfaz PCI Express 3.0 NVMe M.2, y también una 980 PRO PCIe 4.0 NVMe M.2. La presencia de esta última en nuestro banco de pruebas es muy importante porque nos permite evaluar si las mejoras que Samsung ha introducido en la 990 PRO realmente aportan valor añadido a las prestaciones de la 980 PRO.

Tomar como referencia la unidad SSD 980 PRO nos permite evaluar si las mejoras que Samsung ha introducido en la 990 PRO realmente aportan valor añadido

Empezamos con CrystalDiskMark. Curiosamente, en las operaciones de lectura secuencial la 990 PRO es solo ligeramente más rápida que la 980 PRO. Sin embargo, en las de lectura aleatoria y en todas las pruebas de escritura multiplica su rendimiento, superando a la 980 PRO con una suficiencia aplastante. El primer punto se lo lleva merecidamente la 990 PRO.

Crystal1

El test AS SSD Benchmark corrobora todo lo que acabamos de observar en CrystalDiskMark. En las operaciones de lectura secuencial la 990 PRO rinde solo marginalmente mejor que la 980 PRO, pero en las demás operaciones de lectura y en las de escritura la supera con mucha claridad. Además, el tiempo de acceso de la 990 PRO es perceptiblemente inferior tanto en las operaciones de lectura como en las de escritura.

As Ssd1

Si evaluamos el rendimiento de las unidades SSD que estamos poniendo a prueba en operaciones de entrada y salida por segundo (IOPS, en inglés), esencialmente no cambia nada. Una vez más la 990 PRO aventaja marginalmente a la 980 PRO en las operaciones de lectura en bloques de 16 MB, pero en todas las demás, y especialmente en las de escritura, la supera con mucha holgura. La unidad SSD 970 EVO Plus se mantiene a bastante distancia de las otras dos.

As Ssd2

Vamos ahora con el test de la herramienta AS SSD Benchmark que recurre a la copia de ficheros de distinto tamaño. Cuando la operación que llevamos a cabo consiste en copiar un archivo ISO de gran tamaño la velocidad de transferencia que alcanza la unidad 990 PRO es esencialmente idéntica a la de la 980 PRO. Sin embargo, en las demás operaciones de copia de ficheros, sorprendentemente, esta última rinde mejor. Este punto se lo lleva la 980 PRO.

As Ssd3

La siguiente gráfica refleja en qué momentos se producen caídas durante las operaciones de lectura y escritura al ejecutar el test de compresión. Como podemos ver, durante las de lectura esta unidad es estable como una roca. Durante las operaciones de escritura se producen algunas caídas, pero apenas degradan su rendimiento.

As Ssd 4

La gráfica de la unidad SSD 980 PRO refleja varias caídas tanto durante las operaciones de lectura como durante las de escritura. Como podemos ver, estas últimas son más frecuentes, aunque su cadencia no es dramática.

As Ssd980

El rendimiento que arroja la unidad 970 EVO Plus en las operaciones de lectura al ejecutar el test de compresión es claramente inferior al de la unidad 980 PRO, pero, curiosamente, la velocidad de transferencia es mucho más estable que en esta última. Y, también sorprendentemente, durante las operaciones de escritura es mucho menos estable, como podemos ver dada la profusión de picos de la línea de color rojizo.

As Ssd970

Samsung ofrece a los usuarios de sus unidades SSD una utilidad diseñada para evaluar su rendimiento, analizar su estado, actualizar su firmware y llevar a cabo otras operaciones de mantenimiento. Este software es gratuito y se llama Samsung Magician. Como podéis ver en la siguiente captura su interfaz está cuidada y es intuitiva, por lo que merece la pena darle una oportunidad. El rendimiento que ha arrojado la unidad 990 PRO en este test es equiparable al que ha alcanzado en CrystalDiskMark y AS SSD Benchmark.

Magicianssd990pro

¿Tiene un impacto tangible en el rendimiento global del PC la unidad SSD 990 PRO frente a la 980 PRO y la 970 EVO Plus si utilizamos aplicaciones ofimáticas y de creación de contenidos? Para responder esta pregunta hemos recurrido a PCMark 10, y, como podéis ver en la siguiente gráfica, la respuesta es afirmativa. Sí, el incremento del rendimiento no es abrumador, pero en algunos escenarios de uso existe. Y se nota. Merece la pena que no pasemos por alto la ventaja de la unidad 990 PRO en el test 'App Start-up Score', que evalúa el tiempo invertido por cada SSD en el inicio de las aplicaciones.

La última prueba a la que hemos sometido a las unidades SSD ha consistido en escanear la superficie de sus circuitos integrados bajo máxima carga utilizando nuestro termómetro digital por infrarrojos. El chip que hemos identificado con una 'A' es el controlador; el que aparece con una 'B' es la memoria DDR4 SDRAM de bajo consumo que actúa como caché; y los dos circuitos integrados que hemos asociado a una 'C' son los chips V-NAND que tienen la responsabilidad de poner a buen recaudo nuestros datos.

Las medidas que hemos tomado no dejan lugar a dudas: el controlador y los chips V-NAND de la unidad SSD 990 PRO son los que menos se calientan. Y, además, con mucha diferencia. Si también tenemos en cuenta que su rendimiento es perceptiblemente más alto, sobre todo en las operaciones de escritura, no cabe duda de que, efectivamente, esta unidad de estado sólido nos entrega un rendimiento por vatio más atractivo que su predecesora.

Temperaturas

Samsung 990 Pro SSD 1 TB PCIe 4.0: la opinión de Xataka

Esta unidad de estado sólido nos ha sorprendido. Durante nuestras pruebas se ha comportado de una forma absolutamente estable, y, como hemos comprobado, su rendimiento es muy competitivo. En las operaciones de lectura secuencial rinde solo marginalmente mejor que su predecesora, la 980 PRO, pero en las operaciones de lectura aleatoria y en las de escritura la supera con muchísima claridad.

Si la 990 PRO se pone a tiro a buen precio y no mucho más cara que la 980 PRO de la misma capacidad, nosotros, definitivamente, la elegiríamos

Además, y he de confesar que no lo esperaba, su controlador y sus chips V-NAND disipan menos calor que los componentes de las unidades SSD 980 PRO y 970 EVO Plus. ¿Merece la pena entonces pagar más por la 990 PRO? Depende de nuestras necesidades y nuestro presupuesto. Actualmente el precio de las unidades de estado sólido fluctúa casi todos los días, pero si la 990 PRO se pone a tiro a buen precio y no mucho más cara que la 980 PRO de la misma capacidad, nosotros, definitivamente, la elegiríamos.

Samsung990pro Opinion

Samsung 990 Pro 1TB, hasta 7.450 MB/s, PCIe 4.0 NVMe M.2 (2280), SSD Interno (MZ-V9P1T0)

Este producto ha sido cedido para este análisis por Samsung. Puedes consultar nuestra política de relaciones con las empresas.

Más información: Samsung

-
La noticia Samsung 990 Pro SSD 1 TB PCIe 4.0, análisis: su fantástico rendimiento es solo una de sus virtudes fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

La idea de la Agencia Internacional de la Energía para solucionar la crisis: duplicar la producción de la nuclear

La idea de la Agencia Internacional de la Energía para solucionar la crisis: duplicar la producción de la nuclear

La crisis energética en la que estamos sumidos no está dejando únicamente su huella en la macroeconomía global; también está poniendo contra las cuerdas el bolsillo de muchos usuarios. Durante los últimos meses el precio de la electricidad y el gas no nos ha dado ninguna alegría, y por mucho que nos esforcemos para otear el horizonte nada parece indicar que este panorama vaya a cambiar. Al menos a corto y medio plazo.

Uno de los organismos oficiales bajo cuyo paraguas reside la responsabilidad de implementar estrategias que nos permitan superar este enorme desafío es la Agencia Internacional de la Energía (AIE). Recientemente ha publicado un informe en el que plantea tres escenarios posibles, y todos ellos tienen algo en común, más allá del desarrollo de las renovables: la energía nuclear adquiere un mayor protagonismo que el que tiene actualmente.

La AIE propone duplicar la producción de energía nuclear antes de 2050

Esta declaración de Fatih Birol, el director ejecutivo de la AIE, resume bastante bien el momento en el que estamos: "Los mercados y las políticas energéticas no solo han cambiado en el momento actual; también lo harán durante las próximas décadas". Es evidente que la guerra de Ucrania ha obligado a muchos países, y especialmente a los integrados en la Unión Europea, a replantearse profundamente su política energética. Lo que no está tan claro por el momento es cuál es el camino a seguir.

Aun así, en su informe la AIE defiende que en la coyuntura actual la energía de origen nuclear debería incrementar su peso específico. Es más, plantea que su producción debería duplicarse de aquí a 2050 para dar una respuesta eficaz a nuestras futuras necesidades energéticas. Y argumenta que es posible hacerlo esbozando tres escenarios diferentes.

El escenario STEPS requiere que se sumen 420 GW adicionales de aquí a 2050 en 30 países

El primero de ellos se conoce como STEPS (Stated Policies Scenario), y a grandes rasgos propone que la producción de energía de origen nuclear se incremente hasta los 3.351 TWh en 2030, y a 4.260 TWh en 2050. Las renovables también incrementarían perceptiblemente su presencia en el mix energético, por lo que la energía nuclear mantendría su 10% de cuota actual. Eso sí, este escenario requiere que se sumen 420 GW adicionales de aquí a 2050 en 30 países.

El segundo escenario se conoce como APS (Announced Pledges Scenario), y plantea que la producción de energía nuclear pase a ser de 3.547 TWh en 2030, y de 5.103 TWh en 2050. Al igual que en el escenario anterior esta forma de energía mantendría su 10% de cuota actual en el mix energético. Por último, el escenario NZE (Net Zero Emissions by 2050) es el más ambicioso debido a que propone duplicar la producción nuclear de aquí a 2050.

Hacerlo posible requiere, por un lado, prolongar la vida operativa de los reactores nucleares actuales, pero también exige incrementar la producción de energía nuclear una media de 24 GW al año entre 2022 y 2050. Este ritmo de crecimiento representa una producción de 5.810 TWh en 2050, por lo que sería necesario poner en marcha nuevas centrales nucleares que deberían contribuir al mix energético de los países con una mayor demanda de electricidad.

Según la AIE estos escenarios permitirán reducir la proporción de combustibles fósiles en el mix energético global como mínimo en un 20% en el año 2050

Según la AIE estos escenarios permitirán reducir la proporción de combustibles fósiles en el mix energético global como mínimo en un 20% en el año 2050, pero también plantean algunas dudas que no debemos pasar por alto. La más evidente consiste en que estas estrategias entran en conflicto con el itinerario energético contrario a la proliferación de la energía nuclear por el que abogan algunos países, como España o Alemania. Y aún no está claro que su política energética vaya a dar un bandazo tan abrupto.

Además, poner en marcha una nueva central nuclear no es barato. Y tampoco puede hacerse de un día para otro. Para poner su coste en perspectiva podemos echar un vistazo al de dos de las instalaciones nucleares que están actualmente en construcción. Hinkley Point C, en Reino Unido, costará unos 23.000 millones de euros, y el tercer reactor de Flamanville, en Francia, acumula un coste de 19.000 millones de euros.

Centralasco

En su informe la AIE apuesta por los reactores nucleares compactos y modulares SMR como un recurso necesario para llevar a buen puerto estos tres escenarios. Y sí, no cabe duda de que representan una opción muy interesante porque, sobre el papel, son mucho más baratos, más seguros, y también se pueden instalar en mucho menos tiempo que una central nuclear convencional.

El SMR-160 de Holtec, que es uno de los reactores SMR que ya está preparado para iniciar su explotación comercial (le falta obtener la licencia de los organismos que supervisan las instalaciones nucleares), entrará en servicio en 2029, y costará unos 1.000 millones de dólares por reactor. Además, según Holtec tiene una vida útil de al menos 80 años, y se podrá extender hasta los 100 años. Suena bien, pero todas estas bazas deben necesariamente consolidarse en un escenario de uso real. La teoría no basta. Ya veremos qué sucede.

Imágenes: Foro Nuclear

Más información: AIE | Foro nuclear

-
La noticia La idea de la Agencia Internacional de la Energía para solucionar la crisis: duplicar la producción de la nuclear fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

Ya sabemos cómo medir una de las constantes universales más esquivas (y puede ayudarnos a conocer mejor el universo)

Ya sabemos cómo medir una de las constantes universales más esquivas (y puede ayudarnos a conocer mejor el universo)

Las conversaciones que Albert Einstein mantenía con algunos de sus colegas y amigos por carta nos han legado un puñado de reflexiones muy valiosas. Su antigua alumna Ilse Rosenthal-Schneider fue también una confidente y colaboradora muy apreciada por el físico alemán, lo que propició que compartiese con ella algunas ideas que pululaban por su mente durante las décadas de los años 40 y 50 del siglo pasado.

"Hay dos tipos de constantes: aparentes y reales. Las constantes aparentes resultan simplemente de introducir unidades arbitrarias, pero pueden ser eliminadas. Las constantes reales son auténticos números que Dios debió escoger arbitrariamente cuando se dignó a crear este mundo", aseveró Einstein en una de las cartas que envió a Rosenthal-Schneider durante la estancia de la física y filósofa alemana en la Universidad de Sídney.

Esta reflexión nos invita a no pasar por alto la enorme importancia que tienen las constantes universales en nuestro esfuerzo por entender un poco mejor las reglas que rigen la naturaleza. De hecho, en el dominio de la ciencia una constante física es el valor que adquiere una determinada magnitud involucrada en procesos físicos que tiene una característica fundamental: permanece inalterada a lo largo del tiempo.

La constante de estructura fina moldea (y permea) todo el universo

Algunas constantes fundamentales con las que todos estamos en cierta medida familiarizados son la velocidad de la luz en el vacío, la carga elemental o las constantes de gravitación y Planck, pero hay otras. Muchas otras. Y una de las más esquivas es, precisamente, la constante de estructura fina. Es esquiva en el sentido de que resulta muy difícil medirla con precisión de una forma directa. De hecho, hasta ahora los científicos habían calculado su valor de una forma indirecta, lo que requiere inferirlo a partir de otras magnitudes físicas.

La constante de Sommerfeld cuantifica la interacción electromagnética que tiene lugar entre las partículas con carga eléctrica

Antes de seguir adelante merece la pena que hagamos un breve alto en el camino para indagar en esta magnitud física fundamental. Os propongo que dejemos a un lado la definición formal de la constante de estructura fina para no complicar este artículo excesivamente, pero lo que no podemos pasar por alto es que la constante de Sommerfeld, como también se la conoce, cuantifica la interacción electromagnética que tiene lugar entre las partículas con carga eléctrica. Ni más ni menos.

Curiosamente, si su valor fuese ligerísimamente distinto (aproximadamente es 1/137,0360 ≃ 0,00729735) nuestro universo no sería tal y como es. De hecho, sería completamente diferente. La estructura de los átomos sería distinta, la interacción entre las partículas sería diferente, e, incluso, las reacciones de fusión nuclear que tienen lugar en el núcleo de las estrellas ocurrirían de otra forma. Puede que ni siquiera se diesen las condiciones necesarias para que tengan lugar, y en ese caso el "horno nuclear" no llegaría a encenderse. Así de importante es esta constante.

Otra característica muy relevante que tampoco podemos obviar consiste en que es una magnitud adimensional. Esto significa, sencillamente, que es independiente del sistema de unidades que utilicemos, y, por tanto, no está emparejada a ninguna unidad. Es, simplemente, un número. Un valor. En cualquier caso, dada su implicación en algunos fenómenos físicos fundamentales cuantificarla con precisión es esencial para comprenderlos y caracterizarlos mejor.

Como hemos visto, los procedimientos utilizados habitualmente por los científicos para calcular el valor de la constante de Sommerfeld permiten cuantificarlo de forma indirecta. Hasta ahora. Y es que un equipo de investigadores de la Universidad de Tecnología de Viena ha ideado un experimento que, según el profesor Andrei Pimenov, que es el líder de estos físicos, les ha permitido calcularlo de forma directa. Y abordar así esta constante, sin que medien otros cálculos, presumiblemente nos entrega una medida más precisa.

Los procedimientos utilizados habitualmente por los científicos para calcular el valor de la constante de Sommerfeld permiten cuantificarla de forma indirecta

Si tenéis curiosidad por saber cómo lo han hecho y no os intimida la física experimental os sugiero que echéis un vistazo al artículo científico que han publicado estos investigadores en Applied Physics Letters. Es complejo, pero también es interesantísimo y demuestra lo ingeniosos que son algunos científicos cuando se ven obligados a elaborar estrategias originales para sortear las barreras que se interponen entre ellos y el propósito de su investigación.

Muy a grandes rasgos lo que han hecho ha sido polarizar un haz láser y dirigirlo hacia una lámina extremadamente fina de un material de solo unos pocos nanómetros de espesor con el propósito de que este último modifique la dirección de polarización de la luz. Durante sus pruebas emplearon varios materiales con distinta composición y espesor hasta que, ¡bingo!, encontraron uno que "obliga" a la luz del láser a oscilar en una dirección diferente.

Lo que más les sorprendió es lo mismo que nos ha traído hasta aquí. "Este experimento nos dio acceso directo a algo muy inusual: la medida de una rotación en el ámbito de la mecánica cuántica. Y a partir de ahí la constante de estructura fina emergió inmediatamente bajo la forma de un ángulo", explica Andrei Pimenov. Suena complicado, y lo es, pero también es apasionante. Y cuando esta complejidad puede ayudarnos a entender un poco mejor cómo funciona la naturaleza, bienvenida sea.

Imagen de portada: Arek Socha en Pixabay

Más información: Applied Physics Letters

-
La noticia Ya sabemos cómo medir una de las constantes universales más esquivas (y puede ayudarnos a conocer mejor el universo) fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

El precio de las tarjetas gráficas está disparado. Y aun así NVIDIA vende todas las GeForce RTX 40 que fabrica

El precio de las tarjetas gráficas está disparado. Y aun así NVIDIA vende todas las GeForce RTX 40 que fabrica

Durante los últimos tres años los jugadores hemos sido las víctimas de la especulación que ha arrasado el mercado del hardware gráfico. Con la minería de criptomonedas fuera de combate podríamos prever que los precios caerían y todo volvería a la normalidad. Y no ha sido así. Al menos, no del todo.

La recesión económica, la inflación y el encarecimiento de la energía, los productos químicos y los equipos involucrados en la producción de semiconductores están tensionando el mercado al unísono y contribuyendo a incrementar el precio de los dispositivos que incorporan chips de alta integración.

Las tarjetas gráficas no han esquivado esta coyuntura. Durante las últimas semanas NVIDIA y AMD han presentado sus nuevas propuestas, y sus precios las colocan fuera del alcance de la mayor parte de los usuarios. No podemos pasar por alto que todas ellas son soluciones de gama alta, pero, aun así, aunque contemplemos la inflación una de estas tarjetas cuesta en 2022 más que una solución equiparable hace cuatro o cinco años.

Muchos entusiastas están dispuestos a pagar los precios que nos piden las marcas

Los usuarios tenemos derecho a manifestar nuestra disconformidad con el precio que tienen los productos en los que estamos interesados, sobre todo cuando hemos presenciado que se ha incrementado perceptiblemente en un plazo de tiempo relativamente breve. Aun así, el comportamiento del mercado de las tarjetas gráficas no está alineado actualmente con la incomodidad que expresan muchos jugadores.

Estas declaraciones de Colette Kress, la directora financiera de NVIDIA, ilustran qué tenemos entre manos:

Nuestra nueva arquitectura de GPU Ada Lovelace ha tenido un lanzamiento excepcional. La primera tarjeta gráfica que hemos lanzado con esta microarquitectura, la GeForce RTX 4090, llegó a las tiendas a mediados de octubre, y la demanda ha sido tremenda. Además, la opinión de la comunidad de jugadores ha sido positiva. Lo hemos vendido todo con mucha rapidez en muchas ubicaciones y estamos trabajando duro para dar una respuesta a esta demanda.

No sabemos exactamente cuántas GeForce RTX 4090 y 4080 han colocado en las tiendas NVIDIA y los integradores como ASUS o Gigabyte, entre otros, pero podemos estar seguros de que no han sido pocas. TSMC no asigna uno de sus nodos litográficos más avanzados a un cliente si previamente no existe el compromiso de producir una cantidad mínima de chips de alta integración. No obstante, tenemos un dato muy revelador: NVIDIA hasta ahora ha vendido más de 100.000 GeForce RTX 4090.

Una conclusión razonable a la que podemos llegar es que hay muchos entusiastas de los juegos dispuestos a pagar los precios que nos piden los fabricantes. De lo contrario no existiría este apetito por hacerse con las nuevas, ambiciosas y poco asequibles GeForce RTX 40 que ya están en las tiendas.

Crucemos los dedos para que las propuestas de gama media tengan unos precios mucho más comedidos

No tenemos una bola de cristal que nos permita anticipar cuánto nos costarán las próximas generaciones de tarjetas gráficas de gama alta, pero parece poco probable que la tendencia actual se vaya a revertir. Posiblemente los precios de lanzamiento no bajarán, pero aún hay esperanza.

Crucemos los dedos para que las propuestas de gama media tanto de NVIDIA como de AMD que llegarán durante los próximos meses tengan unos precios mucho más comedidos y su rendimiento esté a la altura. De hecho, debería estarlo. Las microarquitecturas Ada Lovelace y RDNA 3 incorporan innovaciones muy interesantes, y quizá estas tarjetas sí estén al alcance de muchos más entusiastas de los juegos.

-
La noticia El precio de las tarjetas gráficas está disparado. Y aun así NVIDIA vende todas las GeForce RTX 40 que fabrica fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

El calor ya no es solo un problema para las CPU y GPU: las unidades SSD con interfaz PCIe 5.0 también lo sufren

El calor ya no es solo un problema para las CPU y GPU: las unidades SSD con interfaz PCIe 5.0 también lo sufren

Los procesadores Ryzen 7000 de AMD y Core de 13ª generación de Intel no han llegado solos. Si miramos más allá de las innovaciones que han introducido los ingenieros de estas dos compañías en la microarquitectura de estos chips nos daremos de bruces con una de las normas con las que estas CPU están preparadas para convivir: PCI Express 5.0 (PCIe 5.0).

En realidad esta especificación no es en absoluto nueva. El consorcio PCI-SIG, que se responsabiliza de definir las características que deben cumplir las interfaces de conexión PCI, la dio a conocer en mayo de 2019. Y, además, los procesadores Intel Core de 12ª generación con microarquitectura Alder Lake también soportan esta norma.

Sin embargo, es ahora cuando está empezando a llamar la atención de los entusiastas del hardware debido a que están llegando los primeros dispositivos de consumo que la implementan. Como cabía esperar, las más adelantadas son las unidades SSD, aunque no cabe duda de que poco a poco se irá abriendo paso en otros componentes, como las tarjetas gráficas.

Las unidades SSD con interfaz PCIe 5.0 prometen, aunque su refrigeración las delata

La unidad de estado sólido que podemos ver en la imagen de portada de este artículo ha sido fabricada por la marca japonesa CFD. Es la primera de consumo para PC, y, en teoría, está a punto de llegar a las tiendas. Puede, incluso, que en algún establecimiento nipón ya esté disponible. Incorpora chips 3D TLC NAND B58R de Micron y un controlador PS5026-E26 de Phison, pero lo realmente impactante son sus prestaciones teóricas.

Esta unidad SSD es capaz de alcanzar una velocidad de transferencia máxima en operaciones de lectura secuencial de 10 GB/s

Y es que, según este fabricante, es capaz de alcanzar una velocidad de transferencia máxima en operaciones de lectura secuencial de 10 GB/s. Y hasta 9,5 GB/s en operaciones de escritura secuencial. Estas cifras son muy atractivas, pero no son la única característica impactante de esta unidad SSD. En la imagen de portada podemos ver que el disipador que se responsabiliza de evitar que los chips de Micron y el controlador de Phison superen su umbral máximo de temperatura es muy voluminoso.

De hecho, tiene una altura de 20 mm. Aunque esto no es todo. En el centro de este disipador está encastrado un ventilador de alta presión y elevada velocidad de giro que persigue optimizar la refrigeración de los chips TLC NAND y el controlador bajo estrés máximo. CFD no indica en las especificaciones de esta unidad SSD cuáles son sus temperaturas típica y máxima de trabajo, pero podemos estar seguros de que no son moderadas.

Si los componentes críticos de esta unidad SSD no se calentasen mucho el fabricante no se habría visto obligado a poner a punto un sistema de refrigeración tan aparatoso como este. Esta es nuestra apuesta: los demás fabricantes seguirán los pasos de CFD, por lo que es probable que otras unidades de estado sólido con interfaz PCIe 5.0 también apuesten por la refrigeración activa y disipadores muy voluminosos. A los usuarios nos viene bien tenerlo en cuenta. En cualquier caso, dadas las circunstancias resulta tranquilizador que esta unidad SSD tenga tres años de garantía.

Más información: CFD

-
La noticia El calor ya no es solo un problema para las CPU y GPU: las unidades SSD con interfaz PCIe 5.0 también lo sufren fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

IBM está cumpliendo su promesa: si sigue escalando los cúbits así la crucial corrección de errores llegará pronto

IBM está cumpliendo su promesa: si sigue escalando los cúbits así la crucial corrección de errores llegará pronto

El itinerario que ha moldeado IBM en el ámbito de la computación cuántica es muy ambicioso. Extraordinariamente ambicioso. El año pasado en esta misma fecha presentó Eagle, su procesador cuántico de 127 cúbits, pero este chip no llegó solo; aterrizó con la promesa de que un año después tendríamos un procesador cuántico de 433 cúbits. Y aquí está.

Hace apenas diez días os contamos que esta compañía ha presentado Osprey, y es, sin lugar a dudas, el chip cuántico más avanzado que existe ahora mismo. Ha llegado puntual a su cita, al igual que Eagle el año pasado, lo que nos invita a aceptar que posiblemente la siguiente parada de IBM en su itinerario también está bien atada. Y son palabras mayores.

Condor, el procesador cuántico que presumiblemente tendrá preparado por estas fechas en 2023, integrará nada menos que 1.121 cúbits. Son muchos si comparamos esta cifra con la complejidad de los chips cuánticos actuales, pero pocos si mantenemos nuestra mirada fija en el número de cúbits que es necesario poner a punto para implementar la tan ansiada corrección de errores.

Tener un millón de cúbits antes de 2030 ya no es una ambición descabellada

Todavía no está del todo claro cuántos cúbits necesitamos para implementar un sistema de corrección de errores fiable que nos garantice que los resultados que nos entregan los ordenadores cuánticos son correctos. Durante la conversación que mantuvimos con Ignacio Cirac a mediados del año pasado este reputadísimo científico, considerado unánimemente uno de los padres fundacionales de la computación cuántica, nos dio algunas pistas muy interesantes:

El número de cúbits dependerá del tipo de problemas que queramos resolver con los ordenadores cuánticos. Para abordar problemas simbólicos necesitaremos tener varios millones de cúbits. Probablemente, incluso, cientos de millones de cúbits. En estos momentos estamos hablando de cien cúbits, por lo que queda un camino largo por recorrer. Hay gente que dice que con 100.000 cúbits tal vez se pueda resolver algún problema específico, pero realmente hacen falta muchísimos cúbits.

Ignacio Cirac es un investigador muy cauto, por lo que podemos recoger sus palabras con la certeza de que no está siendo excesivamente optimista o benevolente. La cantidad de cúbits que estima necesaria para implementar la corrección de errores es enorme, pero, como hemos visto, el itinerario de IBM es muy ambicioso. Y esta compañía nos está demostrando que su tecnología tiene una capacidad de escalado extraordinariamente prometedora.

De hecho, recientemente ha actualizado su roadmap para anticiparnos con precisión cómo serán sus procesadores cuánticos más allá de 2023. En 2024 llegará Flamingo, con al menos 1.386 cúbits; en 2025, Kookaburra, con no menos de 4.158 cúbits, y a partir de ese momento la interconexión de varios de estos chips permitirá a IBM escalar su hardware cuántico en el rango que se extiende entre los 10.000 y los 100.000 cúbits. Cuando llegue este hito esta compañía estará coqueteando con las cifras que vaticina Cirac.

Ibm Quantum Devroadmap2022 Dark

Si nos fijamos bien en el itinerario que podemos ver en la imagen que publicamos encima de estas líneas comprobaremos que IBM prevé disponer de la capacidad de corregir errores a partir de 2026. No tiene por qué necesariamente llegar ese mismo año, pero de su promesa se desprende que posiblemente esa barrerá caerá antes de que finalice esta década.

Y si finalmente la corrección de errores llega a buen puerto los prototipos de ordenadores cuánticos que tenemos actualmente dejarán atrás su condición de prototipos y nos permitirán afrontar problemas realmente significativos.

La compañía canadiense Xanadu Quantum Technologies prevé tener listo antes de que acabe esta década un ordenador cuántico de un millón de cúbits capaz de corregir sus propios errores

Curiosamente, IBM no es la única empresa que tiene en el punto de mira poner a punto ordenadores cuánticos dotados de la capacidad de enmendar sus propios errores. La compañía canadiense Xanadu Quantum Technologies, que este año ha logrado alcanzar la supremacía cuántica con su procesador fotónico Borealis, prevé tener listo antes de que acabe esta década un ordenador cuántico de un millón de cúbits capaz de corregir sus propios errores.

De una cosa podemos estar seguros: durante lo que queda de década vamos a ser testigos de hitos muy importantes en el ámbito de la computación cuántica. Podemos ir frotándonos las manos.

Imagen de portada: IBM

-
La noticia IBM está cumpliendo su promesa: si sigue escalando los cúbits así la crucial corrección de errores llegará pronto fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

A los televisores les ha salido un aliado inesperado justo cuando su consumo está bajo sospecha: los nanocristales

A los televisores les ha salido un aliado inesperado justo cuando su consumo está bajo sospecha: los nanocristales

Los nanocristales irrumpieron en el mercado de los televisores en 2015. Lo hicieron por la puerta grande y con una promesa bajo el brazo: ampliar de forma drástica la cobertura de color que nos entregaban en aquel momento los televisores con panel LCD. Y cumplieron su palabra. De hecho, hoy no están presentes solo en estas teles; también son un componente fundamental de las matrices QD-OLED fabricadas por Samsung.

A finales del pasado mes de septiembre la Unión Europea aprobó una nueva directiva que persigue reducir el consumo de los televisores, una medida que posiblemente provocará que los fabricantes limiten su capacidad máxima de entrega de brillo. De lo contrario no podrán cumplirla, por lo que a priori es probable que los modos de imagen diseñados para reproducir los contenidos HDR sean los principales damnificados.

Es posible que os estéis preguntando qué tiene que ver esto con los nanocristales de los que hemos hablado en el primer párrafo de este artículo. Es una pregunta procedente, y la buena noticia es que tiene mucho que ver debido a que un grupo de investigación de la Universidad de Tokio ha desarrollado un nuevo tipo de nanocristales que permite fabricar televisores y monitores más eficientes desde un punto de vista energético. Es justo lo que necesitamos en este momento.

Los nanocristales no condicionan solo el color; también intervienen en el consumo

Antes de seguir adelante merece la pena que nos detengamos un momento para repasar brevemente qué son los nanocristales, conocidos también como puntos cuánticos (en inglés, quantum dots), y por qué son tan importantes. Se trata de unos diminutos cristales de material semiconductor que tienen una propiedad sorprendente: modifican la longitud de onda de la luz que interacciona con ellos.

Curiosamente, estos cristales son tan pequeños que su comportamiento queda descrito por las leyes de la mecánica cuántica, de modo que no podría ser explicado utilizando la mecánica clásica. Sus características electrónicas están definidas, por un lado, por su tamaño, y, por otro, por su forma, lo que explica que actualmente se estén utilizando nanocristales para aplicaciones muy diferentes, como son la tecnología fotovoltaica, el etiquetado biológico o las tecnologías de eliminación de agentes contaminantes. Y, por supuesto, en electrónica.

Los nanocristales modifican la longitud de onda de la luz que interacciona con ellos. Además, son inmunes a la humedad y la oxidación

Su capacidad de modificar la longitud de onda de la luz es, precisamente, la propiedad que les permite reproducir una porción muy respetable del espectro visible. No obstante, esta no es su única característica sorprendente. También son inmunes a la humedad y la oxidación, y, de propina, pueden depositarse sin problema sobre un sustrato flexible, lo que los hace idóneos para las pantallas enrollables. Además, es más barato producir una matriz de nanocristales que un panel OLED, aunque, como hemos visto, las matrices QD-OLED aúnan ambas tecnologías.

Los nanocristales utilizados en los televisores se fabrican empleando cadmio y selenio, y para poder usarlos es necesario depositarlos entre una capa de material orgánico y otra de transporte de electrones, como si fuese un sándwich. En cualquier caso, lo realmente importante es que, a diferencia de la iluminación LED blanca tradicional, cuya luz debe ser filtrada primero para corregir la desviación del blanco puro, y «teñida» después para obtener los colores rojo, verde y azul, la tecnología de puntos cuánticos recurre a diodos azules, que producen luz azul pura.

Precisamente, lo que han logrado los científicos japoneses de los que hemos hablado unos párrafos más arriba es desarrollar un nuevo procedimiento de fabricación de nanocristales azules más eficientes y baratos. No obstante, estas no son sus únicas cualidades atractivas. Según Eiichi Nakamura, que es el profesor de la Universidad de Tokio que ha liderado este proyecto, cuando se les expone a la luz ultravioleta sus puntos cuánticos generan luz azul de una pureza extraordinaria, que, según sus mediciones, se acomoda como un guante a la exigente norma BT.2020 utilizada para evaluar la reproducción del color de los televisores.

En esta declaración Nakamura describe con claridad en qué se diferencian los nanocristales que ha desarrollado su equipo de los empleados desde hace siete años en los televisores que muchos de nosotros tenemos en casa:

Hasta ahora para fabricar puntos cuánticos azules es necesario recurrir a sustancias químicas relativamente grandes que deben ser sometidas a un conjunto de procesos de refinado para que adquieran las propiedades adecuadas. Nuestra estrategia es muy diferente. Nuestro equipo emplea elementos químicos que tienen la capacidad de autoorganizarse con el propósito de controlar con precisión las moléculas hasta que adquieren la estructura que buscamos.

De alguna forma lo que estamos haciendo es construir una casa ladrillo a ladrillo en vez de excavarla directamente en la roca. Utilizando nuestra estrategia es mucho más fácil ser precisos y diseñar exactamente las estructuras que estamos buscando. Además, este procedimiento es más eficiente y económico.

Suena muy bien. A diferencia de los puntos cuánticos convencionales, que, como hemos visto, suelen estar compuestos de cadmio y selenio, los nanocristales con los que está trabajando el equipo de Nakamura están conformados por una mezcla de ingredientes orgánicos e inorgánicos. Uno de ellos son las perovskitas, que son una familia de materiales con una estructura cristalina parecida a la del titanato de calcio de enorme interés en las tecnologías fotovoltaicas.

Además, según estos investigadores la estructura de sus puntos cuánticos azules les permite llevar a cabo su cometido de una forma más eficiente. Esta es, precisamente, su cualidad más relevante en un momento en el que es crucial reducir el consumo energético de los televisores. Esta propiedad está vinculada a una auténtica proeza de Nakamura y su equipo: han conseguido producir nanocristales de tan solo 2,4 nanómetros. Y esto significa que son 190 veces más pequeños que la longitud de onda de la luz con la que interaccionan. Es asombroso.

Más información: Universidad de Tokio

-
La noticia A los televisores les ha salido un aliado inesperado justo cuando su consumo está bajo sospecha: los nanocristales fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

AMD tiene un as en la manga para que exprimamos sus Radeon RX 7000 con un solo botón: HYPR-RX

AMD tiene un as en la manga para que exprimamos sus Radeon RX 7000 con un solo botón: HYPR-RX

No solo de hardware vivimos los entusiastas de los juegos. Nuestra experiencia también está condicionada profundamente por el software al que podemos recurrir para sacar el máximo partido posible a nuestra tarjeta gráfica, y los fabricantes lo saben. AMD lo sabe. Y por esta razón sus ingenieros han puesto a punto HYPR-RX, una innovación muy interesante que llegará a su software Adrenalin durante el primer semestre de 2023.

Este es su propósito: ayudarnos a exprimir hasta la última gota de jugo al hardware de nuestra tarjeta gráfica. No obstante, de forma estricta HYPR-RX no es una nueva tecnología. Lo más certero es contemplar esta innovación como un componente del software de AMD que combina las tecnologías FidelityFX Super Resolution (FSR), Radeon Boost o Radeon Anti-Lag, entre otras, para incrementar el rendimiento de la GPU perceptiblemente. Y de un solo plumazo.

Esta es la promesa de HYPR-RX: hasta un 85% más de rendimiento

Cuando esté disponible podremos habilitar esta prestación desde la pestaña Graphics del software Adrenalin. Una única pulsación sobre el botón HYPR-RX activará automáticamente todas las tecnologías que, sobre el papel, tienen un impacto perceptible en nuestra experiencia. Además de las tres que hemos recogido en el párrafo anterior aglutina Radeon Chill (sirve para reducir el nivel de disipación de calor y ahorrar energía), Radeon Image Sharpening (incrementa la nitidez y el nivel de detalle), y Radeon Enhanced Sync (minimiza el tearing y el stuttering).

No obstante, la responsable de incrementar la cadencia de fotogramas por segundo es FSR, la tecnología de reconstrucción de la imagen que nos propone AMD como alternativa al DLSS de NVIDIA. Actualmente está disponible FSR 2.2, y en 2023 llegará FSR 3 con una promesa bajo el brazo: multiplicar por dos el rendimiento que nos propone la actual iteración de este procedimiento de reconstrucción de la imagen.

Hypr Rx Ap

Por otra parte, la tecnología Radeon Anti-Lag persigue minimizar la latencia de entrada. Y, por último, Radeon Boost reduce de forma dinámica la resolución de los fotogramas cuando nos movemos en el escenario del juego con rapidez para incrementar la cadencia de imágenes por segundo sin que se degrade la calidad de imagen perceptiblemente. Según AMD la activación simultánea de todas estas tecnologías nos permitirá incrementar el rendimiento en algunos motores gráficos hasta un 85%. No suena nada mal.

Hypr Rx 2

AMD HYPR-RX no será compatible únicamente con las tarjetas gráficas que llegarán a las tiendas el próximo 13 de diciembre, las nuevas Radeon RX 7900 XTX y XT, sino también con la familia Radeon RX 6000 y las últimas GPU de esta marca para ordenadores portátiles. Presumiblemente debería convivir incluso con hardware un poco más antiguo. En 2023 tanto AMD como NVIDIA van a tener que esforzarse mucho para que los jugadores mantengamos nuestra apuesta por un PC que cada vez cuesta más poner al día. Y refinar su software ayuda. No es la panacea universal, pero ayuda.

-
La noticia AMD tiene un as en la manga para que exprimamos sus Radeon RX 7000 con un solo botón: HYPR-RX fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

Warren Buffett, a contracorriente: con la industria de los chips en horas bajas ha invertido 5.000 millones en TSMC

Warren Buffett, a contracorriente: con la industria de los chips en horas bajas ha invertido 5.000 millones en TSMC

Actualmente Warren Buffett es el quinto ser humano más rico del planeta. Esto es al menos lo que asegura Forbes. Este inversor y filántropo estadounidense tiene 92 años y un patrimonio neto de unos 118.000 millones de dólares. Justo encima de él en el ranking que recoge a las personas más ricas del mundo se encuentra su amigo Bill Gates, y por debajo, y pisándole los talones, se abren paso a codazos Larry Page y Serguéi Brin, los fundadores de Google.

Buffett ha ganado a pulso la fama de ser uno de los inversores más inspirados en activo (a pesar de su avanzada edad). De lo contrario difícilmente habría amasado una fortuna como la que tiene, aunque, sorprendentemente, parece llevar una vida austera. En cualquier caso, no cabe ninguna duda de que su currículo avala sus decisiones, de ahí que la que acaba de tomar resulte un poco extraña dado el trance que ya está atravesando la industria de los semiconductores.

Buffett ha invertido 5.000 millones en una TSMC que anuncia tiempos difíciles

2023 no va a ser un buen año para los fabricantes de chips. Esto es, al menos, lo que prevén Pat Gelsinger, el director general de Intel, y Dave Reeder, el director financiero de GlobalFoundries. Estos dos ejecutivos aseguran haber identificado ya un descenso perceptible de la demanda de circuitos integrados que presumiblemente alcanzará su punto álgido durante el próximo año. Hace pocos meses difícilmente podríamos haber oteado este panorama tan sombrío.

Gelsinger y Reeder atribuyen el descenso de la demanda de chips a tres agentes: la recesión económica, la inflación y el incremento de los costes de la energía

Gelsinger y Reeder atribuyen el descenso de la demanda de chips a tres agentes con los que, desafortunadamente, los consumidores también estamos familiarizados: la recesión económica, la inflación y el incremento de los costes de la energía. No obstante, los fabricantes de semiconductores estadounidenses no son los únicos que se están preparando para apretarse el cinturón. TSMC, que lidera con mucha claridad el mercado de los chips, también vaticina que 2023 será un año difícil.

Durante los primeros diez meses de 2022 a esta compañía taiwanesa le ha ido de maravilla. Sus ingresos se han incrementado un 44% frente al mismo periodo de 2021, y sus beneficios durante el tercer trimestre de 2022 ascienden a 8.810 millones de dólares. La salud financiera de TSMC es envidiable, y está fuera de toda duda. Sin embargo, a pesar de su fortaleza esta empresa no puede mantenerse al margen de la delicada coyuntura económica y geoestratégica mundial.

Wendell Huang, su máximo responsable financiero, confesó durante la última presentación de las cuentas trimestrales de la compañía que, al igual que Intel y GlobalFoundries, TSMC está percibiendo un descenso de la demanda de circuitos integrados. Y esta tendencia tendrá un impacto tangible en su volumen de negocio durante los próximos meses. En cualquier caso, y esta afirmación es de nuestra cosecha, es poco probable que los profundos cimientos de esta compañía se tambaleen por mucho que este bandazo de la industria tenga cierta intensidad.

Warren Buffett se ha hecho con un paquete de 60 millones de acciones de TSMC a través de su compañía Berkshire Hathaway

Volvamos con Warren Buffett. Este es el contexto en el que este inversor se ha hecho con un paquete de nada menos que 60 millones de acciones de TSMC a través de su compañía Berkshire Hathaway. Ha invertido en esta operación 5.000 millones de dólares, y no cabe duda alguna de que lo ha hecho previendo la rentabilidad de su apuesta no a cortísimo plazo, sino a medio y largo plazo. Y es que, como asegura Pat Gelsinger, el crecimiento de la industria de los semiconductores a medio y largo plazo está garantizado.

Imagen de portada: TSMC

-
La noticia Warren Buffett, a contracorriente: con la industria de los chips en horas bajas ha invertido 5.000 millones en TSMC fue publicada originalmente en Xataka por Juan Carlos López .

Leer más