EEUU desata su agresividad: va a ampliar sus sanciones más allá de China a algunos países de Oriente Medio

EEUU desata su agresividad: va a ampliar sus sanciones más allá de China a algunos países de Oriente Medio

El Gobierno estadounidense está atando en corto a NVIDIA y AMD. Y lo está haciendo con un propósito muy claro: dificultar a China la compra de chips para inteligencia artificial a través de las vías de importación paralela. NVIDIA lidera el mercado de las GPU para aprendizaje profundo, pero AMD también tiene soluciones competitivas diseñadas expresamente para este escenario de uso (como Instinct), y es evidente que la Administración liderada por Joe Biden no quiere dejar ningún cabo suelto.

Los principales mercados paralelos a través de los que los chips de vanguardia de NVIDIA y otras empresas están llegando a China son Singapur, India y Taiwán, y es razonable asumir que buena parte de este hardware va a parar directamente a las empresas controladas de forma directa por el Gobierno chino. En el contexto de esta delicada coyuntura el Gobierno de EEUU acaba de tomar una decisión rotunda: va a ampliar sus sanciones más allá de las fronteras de China para extenderlas a algunos países confinados en las difusas fronteras de Oriente Medio.

NVIDIA por el momento no se inquieta

No ha trascendido cuáles son los países a los que NVIDIA, AMD, y con toda probabilidad también otras compañías estadounidenses, no podrán vender sus chips para inteligencia artificial y aprendizaje profundo más avanzados. Aun así, es probable que India y Singapur estén en esa lista. Curiosamente sabemos que el Gobierno estadounidense ha tomado esta decisión gracias a NVIDIA.

NVIDIA ha declarado que las nuevas sanciones no tendrán un impacto inmediato en sus resultados económicos

Y es que la empresa dirigida por Jensen Huang ha declarado, probablemente con el propósito de tranquilizar a sus accionistas, que las nuevas sanciones no tendrán un impacto inmediato en sus resultados económicos.

Presumiblemente lo que NVIDIA no podrá hacer en adelante es vender a los países recién incluidos en la extensión de las sanciones sus GPU para inteligencia artificial más sofisticadas: sus chips A100 y H100. Eso sí, con toda probabilidad podrá seguir vendiéndoles los chips A800 y H800, que no son otra cosa que revisiones simplificadas de las GPU originales.

Las restricciones a las que están sometidas AMD y otras compañías estadounidenses son similares a las de NVIDIA. De hecho, la empresa liderada por Lisa Su ha tomado el mismo rumbo que esta última y también se ha apresurado a declarar que las nuevas sanciones no tendrán un impacto perceptible en sus ingresos.

El Departamento de Comercio, que es la institución estadounidense que administra las licencias de exportación, no se ha manifestado públicamente, por lo que no tenemos una declaración oficial que ampare las nuevas sanciones. Aun así, podemos estar razonablemente seguros de que su propósito es cercenar las vías de importación paralela de China.

Imagen de portada: AMD

Más información: ReutersSCMP

En Xataka: Los temores del director general de NVIDIA se confirman: China prepara una avalancha de chips para inteligencia artificial

-
La noticia EEUU desata su agresividad: va a ampliar sus sanciones más allá de China a algunos países de Oriente Medio fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

La Tierra no es la mayor amenazada por el calentamiento global. Son las vidas de 1.000 millones de personas

La Tierra no es la mayor amenazada por el calentamiento global. Son las vidas de 1.000 millones de personas

El titular de este artículo intimida, sí, pero se sostiene escrupulosamente sobre las conclusiones a las que han llegado los científicos Joshua M. Pearce, de la Universidad del Oeste de Ontario (Canadá), y Richard Parncutt, de la Universidad de Graz (Austria). El propósito de la investigación que han llevado a cabo estos técnicos es cuantificar empleando modelos climáticos avanzados qué impacto tendrá el calentamiento global en la biosfera si las emisiones de gases de efecto invernadero perduran y la temperatura durante las próximas décadas se incrementa 2 ºC o más.

Afortunadamente su estudio no asegura que este vaticinio tan dramático se vaya a cumplir; lo que defiende es que si se dan las circunstancias más desfavorables como resultado de la huella de la actividad del hombre en la evolución del clima podrían perder la vida hasta 1.000 millones de personas durante este siglo. Precisamente el propósito de Pearce y Parncutt es anticipar a los Gobiernos de las principales potencias qué sucederá con una alta probabilidad si sus decisiones no abordan los desafíos climáticos de una manera realmente ambiciosa.

Los países más pobres serán los que más sufrirán si no cambiamos de rumbo

Un apunte importante antes de seguir adelante: un modelo climático es una representación presumiblemente fidedigna de los procesos que condicionan la interacción que se produce en nuestro planeta entre la atmósfera, los océanos, las grandes masas de hielo y la superficie continental. Los científicos utilizan modelos climáticos cada vez más avanzados y precisos para intentar anticiparse a los cambios en el clima global que podrían desencadenarse si se dan ciertas condiciones, como, por ejemplo, si perduran los niveles actuales de emisión de gases de efecto invernadero.

Las industrias del petróleo y el gas son directa e indirectamente las responsables del 40% de las emisiones de carbono

Los modelos climáticos más sofisticados son muy complejos debido a la enorme cantidad de parámetros que deben contemplar con el propósito de entregarnos una simulación fidedigna, por lo que habitualmente es necesario procesarlos en un superordenador con una enorme capacidad de cálculo. Aun así, esta disciplina es tan exigente que incluso los modelos más avanzados están lastrados de forma implícita por cierto margen de error. En cualquier caso, ahora mismo son la mejor herramienta de la que disponen los climatólogos para intentar entender el clima y anticiparse a su evolución desde una perspectiva global.

El estudio liderado por Pearce y Parncutt se apoya en decenas de investigaciones climáticas previas, aunque es el primero que cuantifica expresamente el coste en vidas humanas que presumiblemente tendrán las emisiones de gases de efecto invernadero en el contexto global. Según estos autores las industrias del petróleo y el gas son directa e indirectamente las responsables del 40% de las emisiones de carbono, por lo que en su estudio sugieren que las medidas que deben adoptar los Gobiernos de los países responsables deben ser más enérgicas que las actuales.

Los más de 180 artículos científicos sobre los que han trabajado Pearce y Parncutt han sido revisados por pares, por lo que las conclusiones a las que han llegado merecen ser tenidas en cuenta. A priori puede parecer que un incremento de la temperatura global de 2 ºC es muy poca cosa, pero no lo es en absoluto. Y no lo es debido a que esta cifra basta para modificar con intensidad algunos de los procesos que condicionan la interacción entre la atmósfera, los océanos, las masas de hielo y las superficies continentales, que son, como hemos visto más arriba, las variables fundamentales de la ecuación climática.

El impacto del cambio climático no sería el mismo en todo el planeta: las países más pobres o en vías de desarrollo serían los más desfavorecidos

En cualquier caso, lo que vaticinan Pearce y Parncutt es que si llegasen a darse sus peores presagios el impacto del cambio climático no sería el mismo en todo el planeta: las países más pobres o en vías de desarrollo serían los más desfavorecidos. La evolución del clima acentuaría la desertificación de algunas zonas del globo, lo que probablemente provocaría hambrunas como resultado de unos periodos de sequía cada vez más frecuentes e intensos.

Además, cabe la posibilidad de que los fenómenos climatológicos extremos sean cada vez más frecuentes, y, como es natural, los países más pobres son los que están peor preparados para amortiguarlos. Confiemos en que el esfuerzo de los científicos sirva para impedir que este panorama tan dramático finalmente tenga lugar.

Imagen de portada: Markus Spiske

Más información: MDPI

En Xataka: "El ser humano ha influido en el calentamiento global de manera inequívoca": así de contundente es el exhaustivo informe sobre cambio climático del IPCC

-
La noticia La Tierra no es la mayor amenazada por el calentamiento global. Son las vidas de 1.000 millones de personas fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

El CERN suma otro exitazo: por primera vez ha logrado observar directamente la partícula más escurridiza que existe

El CERN suma otro exitazo: por primera vez ha logrado observar directamente la partícula más escurridiza que existe

Los científicos del CERN, el mayor laboratorio de física de partículas del planeta, son incombustibles. A principios de agosto os explicamos que un grupo de investigadores de estas instalaciones alojadas muy cerca de Ginebra y justo sobre la frontera que delimita Suiza y Francia se ha propuesto encontrar unas partículas muy especiales: los neutrinos estériles. Su existencia es por el momento tan solo hipotética, pero estos físicos tienen razones fundadas para ser optimistas y prever que acabarán dando con ellos. Especialmente ahora.

Y es que apenas unas semanas después de dar a conocer este proyecto los investigadores que operan los detectores FASER (Forward Search Experiment) y SND (Scattering and Neutrino Detector) vinculados al LHC han confirmado la primera observación directa de la interacción entre neutrinos durante las colisiones de partículas efectuadas en este gigantesco acelerador. Este fenómeno lo han identificado llevando a cabo colisiones con una energía de 13,6 TeV, lo que, una vez más, nos recuerda lo importantes que son las mejoras introducidas en el acelerador durante las fases de parada.

Cristovao Vilela, uno de los físicos involucrados en este proyecto, nos explica cuáles son los desafíos a los que se enfrentan: "Los neutrinos se producen en abundancia en los colisionadores de protones como el LHC. Sin embargo, hasta ahora nunca habían sido observados de forma directa. Su extremadamente débil interacción con otras partículas provoca que detectarlos sea un auténtico reto, por lo que por el momento son las partículas menos estudiadas del modelo estándar de la física de partículas".

Unas pinceladas acerca de los neutrinos nos recuerdan por qué son importantes

Vilela ha puesto el dedo en la llaga. Y es que con toda probabilidad los neutrinos son las partículas más esquivas de la naturaleza. Fueron descritos por primera vez desde un punto de vista teórico en la década de los 30 por Wolfgang Pauli, uno de los padres de la física cuántica. Sin embargo, su descubrimiento experimental se produjo dos décadas y media más tarde, a mediados de los años 50. En cualquier caso, lo que los hace tan irresistibles es que apenas interaccionan con la materia ordinaria.

La masa de los neutrinos es pequeñísima, su carga eléctrica es neutra y no se ven influenciados por la interacción nuclear fuerte ni por la fuerza electromagnética

Además, su masa es pequeñísima, su carga eléctrica es neutra y no se ven influenciados por la interacción nuclear fuerte ni por la fuerza electromagnética, aunque sí por la gravedad y la interacción nuclear débil. Los científicos suelen ilustrar lo difícil que es capturar un neutrino explicando que cada segundo varios trillones de estas partículas atraviesan tanto la Tierra como a nosotros sin colisionar con ninguna otra partícula. Pese a todo ahora sabemos que el CERN ya dispone de las herramientas necesarias para estudiarlos, aunque hay otros observatorios que también están ideados expresamente para cazar neutrinos.

Uno de los más avanzados es el Super-Kamiokande, una mole de 40 metros de altura y otros 40 metros de anchura que está alojada a 1 km de profundidad en la localidad japonesa de Hida. En su interior se acumulan nada menos que 50.000 toneladas de agua con una pureza extrema rodeadas por 11.000 tubos fotomultiplicadores, que, sin entrar en detalles complejos, son los sensores que nos permiten «ver» los neutrinos. Puede parecer exagerado poner a punto unos ingenios tan complejos como los detectores FASER, SND o el observatorio nipón Super-K, pero no cabe duda de que el esfuerzo merece la pena.

Los físicos del experimento FASER confían en multiplicar al menos por diez el volumen de datos que han recabado

Los neutrinos son una herramienta esencial que puede proporcionarnos mucha información acerca de las supernovas, que son esas explosiones tan violentas que se producen en aquellas estrellas que en un momento dado son incapaces de soportar la presión de degeneración de los electrones, entre otros posibles orígenes. Y este conocimiento es vital para entender mejor cuál es la estructura del universo. Ahí queda eso. Un último apunte para concluir: los físicos del experimento FASER esperan continuar operando este detector durante muchos años más y confían en multiplicar al menos por diez el volumen de datos que han recabado.

Imagen de portada: CERN

Más información: Phys.org

En Xataka: El bosón de Higgs vuelve a sorprender: el CERN se prepara para descubrir partículas más allá del Modelo Estándar

-
La noticia El CERN suma otro exitazo: por primera vez ha logrado observar directamente la partícula más escurridiza que existe fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

DLSS 3.5 está en camino: ya sabemos qué nos promete y cuándo llegará la próxima gran apuesta de NVIDIA

DLSS 3.5 está en camino: ya sabemos qué nos promete y cuándo llegará la próxima gran apuesta de NVIDIA

La tecnología DLSS (Deep Learning Super Sampling) de NVIDIA llegó junto a la primera generación de tarjetas gráficas GeForce RTX de esta marca con una promesa bajo el brazo: permitirnos disfrutar nuestros videojuegos con una cadencia de imágenes por segundo más alta aunque nuestras exigencias gráficas fuesen muy ambiciosas. Incluso al activar el trazado de rayos.

Su propósito es liberar a la GPU de una parte del esfuerzo que conlleva el renderizado de las imágenes para incrementar la cadencia de fotogramas por segundo sin que se resienta la calidad gráfica. La inteligencia artificial (IA) juega un papel fundamental en esta tecnología, y cada nueva revisión ha logrado mejorar de forma perceptible tanto la cadencia de imágenes como la calidad gráfica.

DLSS 3.5 está ya muy cerca

Ante de indagar en las novedades que implementará la iteración 3.5 de la tecnología DLSS merece la pena que repasemos brevemente qué mejoras introdujo DLSS 3. Esta técnica de reconstrucción de la imagen aprovecha la presencia de los núcleos Tensor de cuarta generación de las GPU GeForce RTX 40 para hacer posible la ejecución de un nuevo algoritmo de reconstrucción llamado Optical Multi Frame Generation.

En vez de abordar la reconstrucción de cada fotograma trabajando con píxeles aislados, que es lo que hace DLSS 2, esta estrategia genera fotogramas completos. Para hacerlo analiza dos imágenes secuenciales del juego en tiempo real y calcula la información del vector que describe el movimiento de todos los objetos que aparecen en esos fotogramas, pero que no son procesados por el motor del propio juego.

Dlss35 1

Además, el procesado de los fotogramas en alta resolución y los vectores de movimiento se alimentan de una red neuronal convolucional que analiza toda esta información y genera en tiempo real un frame adicional por cada fotograma procesado por el motor del juego. Otra baza de DLSS 3 consiste en que puede trabajar en tándem con Unity y Unreal Engine, lo que facilita su implementación en un abanico amplio de juegos.

Como cabía esperar, la revisión 3.5 de DLSS está siendo desarrollada sobre la base de DLSS 3, aunque introduce una estrategia nueva e ingeniosa: la reconstrucción del trazado de rayos mediante inteligencia artificial. En la diapositiva que publicamos debajo de estas líneas podemos ver que DLSS 3.5 incorpora nuevas etapas en el cauce de renderizado que, precisamente, persiguen reconstruir el trazado de rayos mediante IA en paralelo al algoritmo de escalado y después del procesado de los vectores de movimiento.

Dlss35 2

Es evidente que se trata de un procedimiento complicado en el que los recursos de la microarquitectura de las nuevas GPU de NVIDIA juegan un papel muy importante. En cualquier caso, lo más interesante para nosotros, los usuarios, es saber qué mejoras nos entrega DLSS 3.5 si la comparamos con las anteriores iteraciones de esta tecnología. Una de las promesas que nos hace NVIDIA consiste en que esta innovación es capaz de identificar con más precisión los píxeles de los fotogramas del búfer temporal que contribuyen a incrementar la calidad de imagen final y permiten reducir el ruido de alta frecuencia.

Dlss35 3

Además, según NVIDIA esta revisión de la tecnología DLSS mejora la calidad de los efectos de iluminación gracias a la habilidad con la que los algoritmos de inteligencia artificial consiguen identificar patrones. Su propósito en este contexto es recrear estos efectos tomando como punto de partida varios fotogramas con distintas muestras de trazado de rayos. La inteligencia artificial sobre el papel es capaz de seleccionar las mejores muestras a partir de las que se va a obtener la composición final.

Dlss35 4

La siguiente diapositiva recoge la que sin duda es la promesa más importante que nos hace NVIDIA junto a DLSS 3.5: su rendimiento es perceptiblemente mayor que el de DLSS 3. Concretamente en 'Cyberpunk 2077' oscila alrededor del 10%, aunque es probable que esta cifra varíe cuando esta tecnología convive con el motor gráfico de otros juegos. En cualquier caso, lo relevante es que NVIDIA no nos promete solo que DLSS 3.5 nos entrega una calidad de imagen más alta que DLSS 3; también nos asegura que su rendimiento es perceptiblemente más alto.

Dlss35 5

Algunos de los juegos que implementarán DLSS 3.5 cuando esta tecnología esté disponible serán 'Cyberpunk 2077: Phantom Liberty', 'Portal con RTX' o 'Alan Wake II'. Por último, esta revisión de DLSS llegará en la recta final de este año, probablemente a tiempo para lidiar con FSR 3 de AMD.

Dlss35 6

En Xataka: La dependencia de EEUU y China es absoluta: las empresas chinas acaban de gastar 1.000 millones de dólares en NVIDIA

-
La noticia DLSS 3.5 está en camino: ya sabemos qué nos promete y cuándo llegará la próxima gran apuesta de NVIDIA fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

Oppenheimer ha pasado a la historia por la bomba atómica, pero su mayor legado lo dejó en los agujeros negros

Oppenheimer ha pasado a la historia por la bomba atómica, pero su mayor legado lo dejó en los agujeros negros

Oppenheimer está de moda. La película dirigida por Christopher Nolan ha colocado a este físico teórico estadounidense con raíces alemanas en el centro del debate. 'Prometeo americano: El triunfo y la tragedia de J. Robert Oppenheimer', la biografía escrita por Kai Bird y Martin J. Sherwin, explica con todo lujo de detalles el rol esencial que tuvo como líder del Proyecto Manhattan. La película de Nolan también lo hace, pero pasa de puntillas por encima de otra aportación fundamental de este científico.

Y es que a Oppenheimer no le fascinaba solo la física cuántica; también le apasionaban la astrofísica y la física de partículas. De hecho, en realidad estas tres ramas de la física están íntimamente entrelazadas. En cualquier caso, este científico participó en aportaciones muy relevantes más allá del Proyecto Manhattan y la bomba atómica. Una de ellas se conoce como 'aproximación Born-Oppenheimer', y fue elaborada por el físico alemán Max Born y Oppenheimer en 1927, cuando este último completaba sus estudios en la Universidad de Gotinga (Alemania).

Esta aproximación se utiliza frecuentemente en el ámbito de la química cuántica para acelerar el cálculo de las propiedades de algunas moléculas. Oppenheimer también participó en la primera predicción del efecto túnel, contribuyó en el ámbito de la teoría cuántica de campos y junto a la física estadounidense Melba Phillips elaboró el 'proceso Oppenheimer-Phillips', entre otras aportaciones relevantes. A grandes rasgos este proceso describe la reacción de fusión que se produce en determinadas circunstancias entre un neutrón y el núcleo de un isótopo, que se transforma en un elemento más pesado.

Oppenheimer y los agujeros negros

Julius Robert Oppenheimer es uno de los padres de la física de los agujeros negros. A finales de los años 20, cuando ya había completado su formación en algunas de las mejores universidades europeas e iniciaba su carrera como docente en Estados Unidos, dio clase en el Instituto Tecnológico de California (Caltech) y en la Universidad de California en Berkeley. Según sus biógrafos su forma de abordar las clases ejercía un magnetismo irresistible en algunos de sus alumnos, a los que animaba a zambullirse en algunos grandes enigmas de la ciencia. Uno de ellos fueron los agujeros negros.

El 'límite de Tolman-Oppenheimer-Volkoff' describe qué masa debe superar una estrella de neutrones sin rotación para que colapse en un agujero negro

En 1939 Oppenheimer y el físico ruso-canadiense George Michael Volkoff predijeron la existencia de las estrellas de neutrones. El trabajo previo que habían llevado a cabo Lev Landau y Richard Chace Tolman, que a su vez se nutrieron del principio de exclusión de Pauli, les permitió formular el 'límite de Tolman-Oppenheimer-Volkoff'. Este cálculo es a las estrellas de neutrones esencialmente lo mismo que el 'límite de Chandrasekhar' a las enanas blancas. Este último describe cuál es la masa límite de una estrella para que, en vez de acabar sus días bajo la forma de una enana blanca, lo haga transformada en una estrella de neutrones: 1,44 masas solares.

El 'límite de Tolman-Oppenheimer-Volkoff', sin embargo, describe qué masa límite debe superar una estrella de neutrones sin rotación para que colapse y dé lugar a la formación de una estrella de quarks o un agujero negro. Resolver este cálculo con precisión es extremadamente complicado debido a que las ecuaciones de estado que describen el comportamiento de la materia degenerada todavía no están perfectamente definidas. Aun así, Oppenheimer y Volkoff realizaron una aproximación razonablemente certera que décadas después ha sido refinada hasta quedar establecida entre 2,01 y 2,17 masas solares.

Los agujeros negros despertaron en Oppenheimer una fascinación irrefrenable en un momento en el que los físicos apenas sabían nada de ellos. Es importante que no pasemos por alto que muchos científicos inicialmente negaron su existencia a pesar de ser una consecuencia irrenunciable de la teoría general de la relatividad, y, en particular, de las ecuaciones de campo de Einstein. El resto es historia.

Muchos científicos inicialmente negaron la existencia de los agujeros negros a pesar de ser una consecuencia irrenunciable de la teoría general de la relatividad

Actualmente miles de astrofísicos desarrollan su investigación en el ámbito de los agujeros negros. Precisamente uno de los físicos teóricos españoles más reputados en esta materia es José Luis F. Barbón, doctor en física e investigador del CSIC. Tuve la oportunidad de hablar con él para preparar mi artículo dedicado a la física de los viajes en el tiempo, y es indudablemente uno de los físicos teóricos a los que merece la pena seguir la pista muy de cerca.

Imagen de portada: Universal

En Xataka: Nolan ha desvelado sus planes tras 'Oppenheimer', y no incluyen ni series ni superhéroes, pero quizás sí una sorpresa

-
La noticia Oppenheimer ha pasado a la historia por la bomba atómica, pero su mayor legado lo dejó en los agujeros negros fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

La dependencia de EEUU y China es absoluta: las empresas chinas acaban de gastar 1.000 millones de dólares en NVIDIA

La dependencia de EEUU y China es absoluta: las empresas chinas acaban de gastar 1.000 millones de dólares en NVIDIA

EEUU y China sostienen una relación de dependencia muy profunda. Las sanciones que están promoviendo el Gobierno estadounidense y sus aliados con el propósito de frenar el desarrollo tecnológico y armamentístico chino parecen invitarnos a pasar por alto la sólida relación comercial que mantienen estos dos países. El mercado chino es uno de los mayores del planeta, y algunas empresas estadounidenses difícilmente se pueden permitir prescindir de él.

No obstante, este dependencia se sostiene también desde la perspectiva contraria. Y es que la competitividad de muchas empresas chinas depende en gran medida de su capacidad de acceder a algunas tecnologías de origen estadounidense. Lo que está sucediendo actualmente con los chips para inteligencia artificial (IA) de NVIDIA ilustra a la perfección esta frágil coyuntura. Y es que varias grandes corporaciones chinas, entre las que se encuentran Tencent, Alibaba, Baidu o ByteDance, han realizado una compra conjunta de GPU por valor de 1.000 millones de dólares.

El equilibrio comercial que sostienen China y EEUU es extremadamente frágil

Según la consultora AMR (Allied Market Research) en 2031 el mercado de los chips para aplicaciones de inteligencia artificial facturará más de 263.000 millones de dólares. Es una auténtica barbaridad, sobre todo si tenemos presente que en 2021 su negocio ascendió a poco más de 11.000 millones de dólares. Esta previsión de crecimiento intimida, pero también lo hace el hecho de que aproximadamente el 80% de este mercado está en las manos de una sola empresa.

En septiembre de 2022 el Gobierno de EEUU prohibió a NVIDIA vender a las empresas chinas sus chips A100 y H100

Esta compañía es NVIDIA. De hecho, sus chips para aplicaciones de inteligencia artificial y computación de alto rendimiento son en gran medida los responsables de auparla al privilegiado lugar que ocupa actualmente. Durante las últimas semanas su cotización ha subido como la espuma gracias a la altísima demanda de sus GPU para centros de datos, lo que ha provocado que su capitalización de mercado supere el billón de dólares. Aun así, de una cosa no cabe duda: el mercado chino es muy importante para la compañía liderada por Jensen Huang.

En septiembre de 2022 el Gobierno de EEUU dio un paso hacia delante importante en su guerra tecnológica con China: prohibió a NVIDIA vender a las empresas de este país asiático sus chips A100 y H100, que son sus GPU más avanzadas para aplicaciones de inteligencia artificial. Huang sostiene que este movimiento ha provocado que la Administración china destine una cantidad ingente de recursos al desarrollo de sus propios chips para inteligencia artificial, pero, mientras tanto, las empresas chinas necesitan a NVIDIA.

Y NVIDIA necesita a las empresas chinas. Tanto, de hecho, que ha recortado las capacidades de sus GPU A100 y H100 lo suficiente para que cumplan los requisitos estipulados por la Administración de Joe Biden. El resultado son los chips A800 y H800, que no son otra cosa que revisiones simplificadas de las GPU originales. Precisamente estos son los procesadores que han comprado de manera conjunta las empresas chinas que he mencionado en el segundo párrafo de este artículo, nada menos que 100.000 chips para IA que tienen un coste aproximado de 1.000 millones de dólares.

NVIDIA ha recortado las capacidades de sus GPU A100 y H100 lo suficiente para que cumplan los requisitos estipulados por la Administración de Joe Biden

NVIDIA ejemplifica con claridad la evidente dependencia comercial que existe entre EEUU y China, pero muchos otros países tampoco pueden prescindir del mercado chino. Uno de ellos es Países Bajos. Peter Wennink, el director general de ASML, declaró después de su viaje a China del pasado mes de marzo que el 30% de los pedidos que su compañía entregará en el futuro procede de clientes chinos. Otro dato muy revelador: en noviembre de 2022 ASML confirmó que el 18% de los 38.000 millones de euros que había vendido el año pasado hasta ese momento está asociado a clientes chinos. Estas cifras reflejan con contundencia la importancia que tiene el mercado chino para muchas empresas extranjeras.

Imagen de portada: NVIDIA

Más información: Financial Times

En Xataka: Las sanciones de Estados Unidos quieren mandar a China a la obsolescencia de los chips. Y lo están consiguiendo

-
La noticia La dependencia de EEUU y China es absoluta: las empresas chinas acaban de gastar 1.000 millones de dólares en NVIDIA fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

EEUU quiere dar el empujón definitivo a la fusión nuclear inercial. Ya tiene un plan y una fecha para la primera planta

EEUU quiere dar el empujón definitivo a la fusión nuclear inercial. Ya tiene un plan y una fecha para la primera planta

El Departamento de Energía de EEUU (conocido como DOE por su denominación en inglés) está firmemente comprometido con el desarrollo de la fusión nuclear mediante confinamiento inercial. Y la institución que está llevando a cabo la mayor parte de la investigación en este ámbito es el Laboratorio Nacional Lawrence Livermore (LNLL), que está ubicado en California. Este centro dedica una buena parte de su actividad al desarrollo de armamento nuclear, aunque su propósito también es innovar en materia energética.

En cualquier caso, la principal fuente de financiación del LNLL es el DOE. Hace apenas dos semanas esta institución científica se apuntó un tanto importante: sus técnicos habían conseguido repetir con éxito el hito que dieron a conocer a mediados de diciembre de 2022. En definitiva lo que habían logrado era generar una energía de 3,15 megajulios en su reactor de fusión mediante confinamiento inercial. Según los responsables del experimento esta entrega de energía representa un beneficio energético neto del 35%, aunque la aplicación comercial de esta tecnología está aún muy lejos.

Y lo está debido a que la fusión nuclear inercial debe resolver varios desafíos muy importantes para ser viable comercialmente. Más, incluso, que la fusión mediante confinamiento magnético, que será la que utilizará ITER. Muy a grandes rasgos tiene que lidiar con el neutrón de alta energía que resulta de la fusión de los núcleos de deuterio y tritio, así como contar con el respaldo tecnológico necesario para garantizar al reactor un suministro de microbolas de combustible continuo, preciso y muy rápido de al menos diez cápsulas por segundo, entre otros retos.

112 millones de dólares para dar un espaldarazo a la fusión nuclear

Los responsables del DOE y los científicos del LNLL conocen mejor que nadie los enorme desafíos técnicos que tienen por delante para desarrollar aplicaciones prácticas de la fusión nuclear inercial. Y podemos estar razonablemente seguros de que el reciente éxito de esta última institución ha propiciado que el DOE haya anunciado una inversión de 112 millones de dólares en 12 proyectos de supercomputación que, precisamente, persiguen contribuir a la resolución de estos retos.

Los superordenadores son muy importantes a la hora de llevar a cabo simulaciones de sistemas complejos

Esta inyección de dinero del DOE va a llegar en el marco de un programa conocido como SciDAC (Scientific Discovery through Advanced Computing) que promueve la utilización de superordenadores para resolver algunos desafíos científicos. Y sí, tiene sentido. Lo tiene debido a que estas máquinas son unas herramientas muy importantes a la hora de llevar a cabo simulaciones de sistemas complejos, como, por ejemplo, la dinámica del plasma en los reactores de fusión nuclear mediante confinamiento magnético.

No obstante, si nos ceñimos a la fusión nuclear inercial, que es la que nos ocupa, el plan del DOE consiste en modelar y simular los múltiples procesos físicos involucrados en la dinámica del plasma bajo condiciones extremas con el propósito de iniciar el camino que concluirá con el diseño de una planta piloto de fusión. No suena nada mal, aunque, como hemos visto, es evidente que este objetivo está aún muy lejos. La Administración liderada por Joe Biden se ha marcado como meta tener una planta de fusión durante la próxima década, pero a priori suena demasiado ambicioso. Ya veremos si lo logran.

Imagen de portada: LNLL

Más información: DOEThe Register

En Xataka: El reactor de fusión nuclear japonés JT-60SA acaba de hacer a ITER un favor impagable

-
La noticia EEUU quiere dar el empujón definitivo a la fusión nuclear inercial. Ya tiene un plan y una fecha para la primera planta fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

China tiene un grave problema en la industria de los chips y lo sabe: va cinco generaciones por detrás

China tiene un grave problema en la industria de los chips y lo sabe: va cinco generaciones por detrás

Gerald Yin lo tiene claro. Este ejecutivo es el fundador y director general de Advanced Micro-Fabrication Equipment, una compañía china que se dedica al diseño y la fabricación de los equipos involucrados en la producción de semiconductores. Los medios chinos han recogido unas declaraciones en las que este experto defiende que las sanciones impuestas por EEUU y sus aliados persiguen mantener a China al menos cinco generaciones por detrás de sus competidores en el ámbito de la industria de los chips.

Y por el momento están teniendo éxito. Para comprobarlo podemos mirar hacia SMIC (Semiconductor Manufacturing International Corp), que es el mayor fabricante chino de semiconductores con una cuota en el mercado mundial de alrededor del 5%. Durante los últimos meses esta empresa ha fabricado chips en sus nodos de 14 nm, aunque en agosto de 2022 varios medios chinos filtraron que ya tenía lista la base tecnológica necesaria para fabricar chips de 7 nm.

Sin embargo, a principios del pasado mes de mayo SMIC sufrió un revés. Y es que la sección de su página web que recoge los procesos litográficos que mantiene en operación ya no incorpora la tecnología de integración de 14 nm. Aparecen los procesos de 28, 40, 55, 65 y 90 nm en adelante, pero no el de 14 nm. Y justo hasta ese momento sí aparecía. Lo interesante es que esta capacidad tecnológica está alineada con las declaraciones de Gerald Yin: en la práctica China va cinco generaciones por detrás en materia de chips de EEUU, Taiwán, Corea del Sur o Japón.

EEUU, Países Bajos y Japón son los que más han debilitado a China

Yin también declaró algo importante que merece la pena que no pasemos por alto: la presión de EEUU se agudizó el pasado 7 de octubre de 2022. Ese día la Administración estadounidense colocó toda la industria china de los semiconductores en su punto de mira mediante la aprobación de un paquete de sanciones extremadamente riguroso. Según este ejecutivo chino estas medidas perseguían, precisamente, detener el desarrollo tecnológico de China y mantener al país liderado por Xi Jinping al menos a cinco generaciones de distancia de sus rivales.

EEUU ha involucrado de forma directa a sus aliados con un mayor peso específico en la industria de los chips

No obstante, el Gobierno de Joe Biden hizo algo más: involucró de forma directa a sus aliados con un mayor peso específico en la industria de los semiconductores. Países Bajos y Japón. Estos dos países producen los equipos litográficos más avanzados del planeta. De hecho, sin sus máquinas no es posible poner en marcha una planta de fabricación de chips de vanguardia. A principios de marzo el Gobierno de Países Bajos aprobó un paquete de sanciones que, entre otras cosas, pone fuera del alcance de las empresas chinas los equipos litográficos de ultravioleta profundo (UVP) de ASML.

China nunca ha tenido acceso a las máquinas de litografía de ultravioleta extremo (UVE), que son las más sofisticadas de esta empresa neerlandesa, pero estas sanciones hacían todavía más profunda la herida. Poco después Japón siguió los pasos de EEUU y Países Bajos, y su Administración también aprobó nuevas sanciones que prohibían la venta a China de 23 categorías de equipos involucrados en la fabricación de semiconductores avanzados. Como cabía esperar el Gobierno chino reaccionó.

Mao Ning, un portavoz del Ministerio de Asuntos Exteriores chino, aseguró que "la utilización de la economía, el comercio y la tecnología como si fuesen un arma con el propósito de desestabilizar la cadena industrial global no herirá solo a los demás; también dañará a quien realiza estas prácticas". No cabe duda de que es una advertencia en toda regla. En esta coyuntura a China no le queda más remedio que independizar su industria de los chips de las tecnologías desarrolladas por las potencias extranjeras.

A ASML le llevó dos décadas poner a punto sus equipos de fotolitografía de ultravioleta extremo

Este gigantesco país asiático tiene los recursos necesarios para producir sus propios equipos avanzados de litografía, pero necesitará invertir mucho dinero y mucho tiempo en este proceso. De hecho, a ASML le llevó dos décadas poner a punto sus equipos de fotolitografía de ultravioleta extremo. Y contó con la ayuda de empresas y equipos de investigación estadounidenses, alemanes y de otros países, así como con el respaldo económico de grandes inversores. Definitivamente, China no lo tiene fácil. Es muy improbable que a medio plazo consiga lidiar de tú a tú en este ámbito con las potencias rivales.

Imagen de portada: Samsung

Más información: DigiTimes Asia

En Xataka: El mayor fabricante chino de chips se tambalea mientras las sanciones de EEUU lo tienen bien agarrado por el cuello

-
La noticia China tiene un grave problema en la industria de los chips y lo sabe: va cinco generaciones por detrás fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

El mayor fabricante chino de chips se tambalea mientras las sanciones de EEUU lo tienen bien agarrado por el cuello

El mayor fabricante chino de chips se tambalea mientras las sanciones de EEUU lo tienen bien agarrado por el cuello

China tiene muchísimas compañías que se dedican expresamente a la industria de los semiconductores. Hua Hong Semiconductor, Honghu Suzhou Semiconductor Technology, Naura Technology Group o Advanced Micro-Fabrication Equipment son algunas de ellas, pero una brilla con luz propia por encima de las demás: SMIC (Semiconductor Manufacturing International Corp).

Su cuota en el mercado mundial oscila actualmente alrededor del 5%, lo que la sitúa lejos del 17% que tienen Intel y Samsung, y mucho más aún del 54% que sostiene la gigantesca empresa taiwanesa TSMC. Aun así, pisa los talones a la estadounidense GlobalFoundries, que tiene una cuota aproximada del 7%. Estas cifras reflejan con claridad su relevancia en el mercado de los circuitos integrados.

Pese a todo tiene en su contra a un rival temible: EEUU. El país liderado por Joe Biden colocó el pasado 7 de octubre de 2022 en su punto de mira toda la industria china de los semiconductores, y lo hizo con un propósito: impedir que este país asiático sea capaz de desarrollar chips de alta integración similares a los que producen actualmente TSMC, Samsung o Intel. SMIC es su punta de lanza, lo que ha colocado a esta empresa al frente de la lista negra de Estados Unidos.

Los ingresos de SMIC han caído un 18% durante el segundo trimestre de 2023

El informe financiero publicado por SMIC la semana pasada refleja con claridad que los ingresos de esta compañía han caído un 18% durante el segundo trimestre de este año al compararlos con los que obtuvo durante el mismo periodo de 2022. No obstante, también revela que el segundo trimestre ha sido un poco mejor que el primero de 2023 debido a que sus ingresos se han incrementado un 6,7%.

Estos resultados están propiciados por un descenso de la demanda en el ámbito de la electrónica de consumo

Los responsables de esta empresa prevén que sus ingresos se incrementarán entre un 3 y un 5% durante el tercer trimestre de este año frente al mismo periodo de 2022. En cualquier caso, lo realmente interesante es que defienden que estos resultados están propiciados por una coyuntura global en la que se está produciendo un descenso de la demanda en el ámbito de la electrónica de consumo.

Zhao Haijun, codirector general de SMIC, justifica de esta forma el rendimiento económico de su compañía: "Aunque la demanda de ordenadores personales, componentes industriales, chips para automoción y la de algunos otros sectores se ha estabilizado y la recesión de la industria ha tocado fondo, nuestro negocio todavía tiene por delante muchos desafíos. La incertidumbre geopolítica y la ausencia de crecimiento de la demanda son algunos de ellos".

En cierta medida las declaraciones de Haijun persiguen poner el énfasis en el descenso global de la demanda de dispositivos electrónicos, pero parece razonable asumir que tanto SMIC como los otros fabricantes chinos de semiconductores están sufriendo por las sanciones impuestas por EEUU y sus aliados. Estas prohibiciones impiden a las empresas chinas tener acceso a los equipos de litografía más avanzados, como las máquinas UVE y UVP de ASML.

No está del todo claro en qué medida se está viendo condicionado el rendimiento económico de SMIC por las sanciones, pero es evidente que su incapacidad de acceder a los equipos de vanguardia limita su competitividad frente a algunos de sus rivales, como TSMC, Samsung, UMC o GlobalFoundries. El mercado chino es enorme, y podemos estar seguros de que ocupa un rol fundamental en las cuentas de SMIC, pero es poco probable que una compañía con su envergadura pueda preservar su salud alimentándose solo de su propio mercado interno.

Imagen de portada: SMICTSMC

Más información: SMICSCMP

En Xataka: China tiene un plan para evitar que las sanciones de EEUU asfixien su industria de los chips: invertir, invertir e invertir

-
La noticia El mayor fabricante chino de chips se tambalea mientras las sanciones de EEUU lo tienen bien agarrado por el cuello fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

Esta es mi experiencia después de seis meses utilizando dos teclados mecánicos personalizables

Esta es mi experiencia después de seis meses utilizando dos teclados mecánicos personalizables

Antes de meternos en harina ahí va una declaración de intenciones: me gustan mucho los teclados mecánicos, pero no me considero un fan incondicional de estos dispositivos. Durante las últimas dos décadas he utilizado simultáneamente teclados mecánicos y de membrana de buena calidad, y estos últimos me han deparado una experiencia fantástica. Sin embargo, a principios de este año se me ocurrió embarcarme en una pequeña aventura.

Hasta ese momento nunca había tenido un teclado mecánico personalizable (mi veterano Corsair K63 es relativamente modesto y manifiestamente mejorable), y me apetecía comprobar si cabía la posibilidad de que tuviesen un impacto beneficioso en mi productividad. Al fin y al cabo me paso al menos 8 horas al día de lunes a viernes "aporreando" teclas en uno de ellos. Después de indagar durante varias semanas y llegar a la conclusión de que necesito dos porque utilizo con frecuencia otros tantos PC simultáneamente, decidí cuáles serían mis opciones.

No tenía la intención de gastarme una fortuna (si te dejas llevar puedes invertir tanto como en cualquier otra afición "adictiva"), pero quería que fuesen dos teclados de buena calidad y completamente personalizables. Finalmente me decanté por estos dos modelos: el Ducky One 3 TKL y el Keychron Q1. Por supuesto, hay muchas más opciones atractivas, pero sobre el papel estos dos tenían muy buena pinta y su precio me parecía razonable (ambos se mueven en la órbita de los 200 euros).

Merecen mucho la pena, pero no son la mejor opción para todos los usuarios

Ya hace casi seis meses que convivo diariamente con estos dos teclados, y durante este tiempo he descubierto qué es lo que más me gusta de ellos, y también qué características no me convencen del todo. No obstante, antes de que las exponga merece la pena que invirtamos unos minutos en repasar sus principales peculiaridades (aunque tienen mucho en común). Vaya por delante que ambos teclados, como os he anticipado desde el principio, son personalizables, y, lo que para muchos usuarios es si cabe más importante, su distribución es ISO en español (podéis verlo en la fotografía de portada de este artículo).

Son una buena opción para cualquier usuario que quiere hacerse con un buen teclado mecánico sin complicarse la vida lo más mínimo

El de la firma taiwanesa Ducky es un teclado TKL con RGB (aunque, eso sí, tiene una retroiluminación moderada y nada estridente), interruptores Cherry MX Brown, es de tipo hotswap y las teclas están fabricadas en plástico PBT de doble inyección (que habitualmente tiene más calidad que el ABS). Y el de la empresa china Keychron, el modelo Q1, también es un RGB "discreto", es de tipo 75%, la versión que tengo incorpora interruptores Gateron G Pro prelubricados, es de tipo hotswap y las teclas son de plástico PBT de doble inyección.

Honestamente, aunque estos dos teclados son personalizables, y, por tanto, nos permiten cambiar buena parte de sus componentes a nuestro antojo, tal y como los he recibido son muy disfrutables. Ambos están impecablemente acabados en aluminio y tienen un diseño que a mí me gusta bastante. Son muy diferentes desde un punto de vista estético, de eso no cabe la menor duda, pero los dos me parecen bonitos. Sea como sea me parecen una buena opción para cualquier usuario que quiere hacerse con un buen teclado mecánico sin complicarse la vida lo más mínimo.

Llegamos a la parte final de este artículo y lo prometido es deuda, así que ahí van mis conclusiones, por si a alguna de las personas que estáis leyéndolo os resultan de ayuda. Estoy razonablemente satisfecho con ambos teclados. Me gustan su tacto, el sonido de los interruptores me parece agradable (de hecho, lo buscaba) y lo cierto es que su ergonomía es mucho mejor que la de mi anterior Corsair K63. No obstante, si tuviese que quedarme solo con uno de los dos me decantaría por el Keychron Q1. Al fin y al cabo es el que más he utilizado en mi sesión diaria de escritura.

Si tuviese que quedarme solo con uno de los dos me decantaría por el Keychron Q1

En cualquier caso, también tengo pegas. No son inconvenientes que representen un problema para mí, pero creo firmemente que pueden serlo para otros usuarios. El más evidente en su precio. No son extremadamente caros, pero, desde luego, tampoco son ninguna ganga. Además, entiendo perfectamente que el ruido que emiten puede llegar a molestar a algunas personas, especialmente cuando son utilizados en espacios compartidos.

Y, por otro lado, su tacto puede no ser del agrado de todo el mundo. De hecho, me parece absolutamente razonable que algunas personas prefieran los teclados de membrana o los híbridos. Tanto es así que he cambiado de opinión. Creí que no volvería a estos últimos, pero no descarto hacerme con un buen teclado de membrana en el futuro.

En Xataka: Tres teclados mecánicos 'hot swap' perfectos para entrar en el fascinante mundo de los teclados personalizables

-
La noticia Esta es mi experiencia después de seis meses utilizando dos teclados mecánicos personalizables fue publicada originalmente en Xataka por Juan Carlos López .

Leer más