Llevamos años soñando con los neumáticos sin aire. Michelín ya los ha puesto a rodar en Francia

Llevamos años soñando con los neumáticos sin aire. Michelín ya los ha puesto a rodar en Francia

Los neumáticos sin aire son una de esas revoluciones que llevan llamando a la puerta de la industria automovilística —y la ciclista— desde hace tiempo. La tecnología de Michelin, tras años de desarrollo, ha comenzado a demostrar sus prestaciones en nuestro país vecino.

Michelin Uptis. Así se llaman los innovadores neumáticos sin aire de este fabricante. El apelativo es un acrónimo de Unique Punctureproof Tire System, y destacan precisamente por no tener que ser inflados y por su estructura de lamas flexibles reforzadas con fibria de vidrio.

Un diseño mejorado. Aunque las versiones preliminares de esta tecnología estaban pensadas para coches y camiones ligeros, la nueva estructura de las ruedas Uptis es capaz de orientarlas a vehículos de pasajeros convencionales. No hay además riesgo de una presión incorrecta, lo que hace que el agarre a la carretera sea óptimo en todo momento.

Ni mantenimiento, ni reinflado. Estas ruedas no necesitan que ajustemos periódicamente la presión de inflado porque, sencillamente, no hay inflado ni reinflado. Esto permite además reducir la cantidad de llantas que acaban en la basura o en los desguaces, y teóricamente también se reduce el coste de reemplazarlas.

Las pruebas piloto prometen. La intención de Michelin en 2019 era la de ofrecer este tipo de tecnología en 2024, inicialmente junto a General Motors. En marzo de 2022 se anunció una fecha de lanzamiento algo más larga, entre 2025 y 2028, y a principios de este año se inició una prueba piloto junto a la empresa de mensajería DHL en las calles y carreteras de Singapur. El éxito de dicho programa ha hecho que en Michelin afirmen que estos neumáticos ya están listos para su llegada al mercado francés, aunque también de forma preliminar.

El servicio de correos las estrenará en Francia. El servicio oficial de correos francés, La Poste, equipará 40 de sus furgonetas de mensajería con estos neumáticos sin aire y a prueba de pinchazos. Como indica el anuncio oficial, esta colaboración se iniciará a finales de 2024 en la región de Hauts-de-France, al norte de Francia. Tres de esos vehículos, eso sí, comenzaron a rodar con esas ruedas el pasado 27 de junio.

Aún no podrás comprarlos. Los consumidores no podrán acceder de momento a esta tecnología, y es evidente que en Michelin quieren estar seguros de que las nuevas pruebas en el país galo resultan ser un éxito antes de comercializar estos neumáticos a escala global.

En Xataka | De metal, sin aire o esféricos: diez prototipos de neumáticos que prometen solucionar los pinchazos en los coches del futuro

-
La noticia Llevamos años soñando con los neumáticos sin aire. Michelín ya los ha puesto a rodar en Francia fue publicada originalmente en Xataka por Javier Pastor .

Leer más

Windows, qué te ha pasado: hace 20 años abrías las aplicaciones en un instante y ahora vas a pedales

Windows, qué te ha pasado: hace 20 años abrías las aplicaciones en un instante y ahora vas a pedales

Julio Merino es un ingeniero software nacido en Barcelona que actualmente vive en Seattle. Hace unos días decidió hacer un experimento. Rescató un viejo PC del año 2000 con un Pentium a 600 MHz, 128 MB de RAM y un disco duro tradicional. Al encenderlo comprobó algo asombroso: las aplicaciones de Windows NT 3.51 (recién instalado) se abrían de forma instantánea.

Este usuario no se conformó con eso y quiso repetir la prueba, pero con un sistema operativo algo más moderno. Instaló Windows 2000 en la misma máquina, y al hacer las mismas pruebas y abrir aplicaciones comprobó cómo todas ellas se abrían en un instante. Los tiempos de respuesta eran casi inexistentes, y la sensación era la de que todo se ejecutaba con una velocidad extraordinaria. Explicó esto —y mucho más— tanto en Twitter como en un largo post en su blog.

Luego hizo la misma prueba con un Suface Go 2 mucho más reciente y basado en un Core i5 a 2,4 GHz, 8 GB de RAM y una unidad SSD. Siguió la misma secuencia de apertura de aplicaciones con una instalación limpia de Windows 11 y comprobó como los tiempos de apertura eran mucho más lentos. ¿Qué estaba pasando?

Uno podría decir que ese Surface Go 2, aun siendo mucho más moderno que aquel PC de 1999-2000, no tenía unas especificaciones realmente altas para ejecutar un sistema operativo exigente como Windows 11. Merino lo tuvo en cuenta y quiso realizar esta prueba, pero hacerlo en un Mac Pro con un procesador de seis núcleos a 3,5 GHz y con 32 GB de RAM. No deja claro si ejecutó Windows con Bootcamp o con virtualización, pero en cualquier caso el vídeo mostrado era llamativo en cuanto a esos tiempos de apertura.

Como él mismo explicaba, incluso con las aplicaciones en caché, renderizarlas parecía llevar mucho trabajo, e iban apareciendo "a cachos". Como él destacaba, "no es por las animaciones o por un hardware mediocre". 

Tampoco tenía que ver con el hecho de trabajar en resolución 4K, y aun desactivando las animaciones se notaba que una máquina y un sistema operativo modernos iban aparentemente más lentos que una máquina y un SO de hace más de 20 años. 

La pregunta, claro, es inevitable. ¿Qué está pasando?

Los PCs y SSOO de hace 20 años no eran mejores (salvo en algunas cosas)

El propio usuario comentaba en un hilo en Hacker News cómo su intención no era transmitir un mensaje del tipo "las máquinas y SSOO de hace 20 años eran mucho mejores" porque como él decía, eso no era cierto. De hecho, explicaba, "apestaban en muchos aspectos".

Las cosas han mejorado en muchísimos apartados, y tenemos ordenadores y software que hacen cosas impensables hace 20 años tanto en el desarrollo y ejecución de aplicaciones como en herramientas profesionales, juego o contenidos de vídeo y audio.

Los avances han sido espectaculares, pero no todo parece ser mejor: las modernas interfaces de usuario se han vuelto algo más lentas (pero también más elegantes, personalizables y espectaculares), e incluso en PCs y portátiles de última generación uno puede notar cómo lanzar una aplicación puede llevar más tiempo del esperado.

Abstracción (y muchas cosas más), culpables

Hay varias razones por las que ocurre algo así, y una de ellas es ciertamente cómo la propia evolución del software y el hardware se ha complicado. Nuestras máquinas y nuestro software hace más cosas, pero para hacerlas bien necesita resolver muchos problemas y lograr que los componentes hardware y software se comuniquen ("se hablen") de forma adecuada.

Que un usuario quiera abrir una ventana del explorador de archivos, aun pareciendo trivial, requiere que el sistema operativo se hable con el hardware para que tanto el subsistema de entrada salida como el subsistema gráfico (entre otros) logren mostrar las carpetas y archivos y lo hagan a través de una ventana "dibujada" o renderizada por el hardware del chip gráfico.

Esa comunicación entre el hardware y el software se realiza con las llamadas capas de abstracción de hardware (HAL, por Hardware Abstraction Layer). Las aplicaciones no acceden directamente al hardware y sus recursos, sino que lo hacen a una capa abstracta proporcionada por esa tecnología. Eso permite que las aplicaciones sean independientes del hardware y no tengan que preocuparse por detalles

Pero es que a las capas de abstracción se le suman otros muchos componentes (y problemas) generados por la estructura de los sistemas operativos modernos. Puede que los procesos no se hayan programado de forma asíncrona, que no haya suficientemente palarelismo, o que los sistemas de paso de mensajes y sincronización (quienes hayan estudiado este ámbito seguramente que recuerdan los mutex) no estén del todo afinados.

Por si fuera poco, en los sistemas operativos modernos hay un montón de servicios y de software que funcionan en segundo plano y que quizás no serían necesarios en muchos escenarios. No ya procesos de sistema, sino procesos de aplicaciones que vamos instalando y que "piden sitio" para ejecutarse desde que arrancamos el PC.

De hecho, hasta Steven Sinofsky, que fue responsable del desarrollo de Windows 7 y también de Windows 8, respondió con un comentario también interesante: los sistemas operativos modernos integran un navegador web, que es algo así como un sistema operativo en sí mismo.

El problema de la ralentización de Windows (y otros sistemas operativos) es de sobra conocido. De hecho este comportamiento confirma la conocida ley de Wirth, que nos dice que "el software se ralentiza más deprisa de lo que se acelera el hardware". Hace unos años los expertos de NTDotDev realizaron un análisis detallado de cómo el rendimiento de Windows 10 había ido empeorando con el paso del tiempo.

Uwp

Con cada versión de Windows 10, el tiempo de apertura de aplicaciones UWP empeoraba en casi todos los casos. Fuente: NTDotDev.

Las sucesivas versiones de Windows 10 —con sus grandes actualizaciones incluidas— llegaban con mejoras interesanes, pero también con problemas añadidos. La degradación del rendimiento en ciertos apartados era una de ellas, y componentes como UWP o el soporte de las aplicaciones Win32 (las "antiguas") perjudicaban la experiencia de usuario general.

Este tipo de análisis también aparecían en casos peculiares. Bruce Dawson, empleado de Google, contaba hace unos meses su particular "pelea" con la grabadora de voz de Windows, que tardaba demasiado en abrirse y que funcionaba casi "a pedales".

Dawson, experto en el perfilado de procesos con herramientas como ETW (Event Tracing for Windows) acabó analizando la traza de ejecución y comprobando cómo varios procesos —y en especial uno clave, el llamado RuntimeBroker— alargaban su ejecución de forma inexplicable. Una desarrolladora llamada Katelyn Gadd le contestaba en Twitter indicando posibles razones y dando una opinión en la que muchos probablemente pensamos: "alguien fue probablemente perezoso".

¿Se han vuelto los programadores perezosos? Es también una vieja pregunta que hace referencia a cómo han cambiado los tiempos en materia de hardware. Antes los desarrolladores se las ingeniaban para crear aplicaciones y juegos prodigiosos con recursos ínfimos. Cuenta la leyenda que en 1981 Bill Gates pronunció aquella famosa frase de que "640K deberían ser suficientes para cualquiera".

Gates negó haber dicho algo así, pero lo cierto es que la sensación para muchos parece ser esa: la de que los programadores "de antes" aprovechaban mejor los recursos. Como ahora tenemos acceso a máquinas exponencialmente más potentes y con más recursos, "no hace falta esforzarse tanto" a la hora de crear programas eficientes porque el hardware ya compensa que el código pueda ser algo "perezoso".

¿Es eso cierto? En ciertos casos, desde luego. Lo hemos visto con el framework Electron, que se ha usado mucho para encapsular aplicaciones web y presentarlas como aplicaciones nativas de Windows. Eso ahorraba mucho tiempo y esfuerzo a las empresas desarrolladoras de software, pero ha quedado demostrado que desarrollar aplicaciones "nativas" hace que la experiencia de usuario y el consumo de recursos mejore de forma notable.

Así pues, puede que haya desarrollos perezosos, pero no lo serán ni mucho menos todos. Como veníamos comentando, en realidad la degradación del rendimiento es culpa de la propia evolución de la informática: nuestros sistemas operativos, nuestro hardware y nuestro software hacen todo lo que hacían antes y muchísimo más, pero para lograrlo es necesario contar con un buen montón de componentes —algunos más pulidos que otros— que antes no teníamos.

Imagen | Julio Merino

En Xataka | Recuperar la velocidad de un ordenador lento: 15 formas de acelerar el PC

-
La noticia Windows, qué te ha pasado: hace 20 años abrías las aplicaciones en un instante y ahora vas a pedales fue publicada originalmente en Xataka por Javier Pastor .

Leer más

Microsoft lleva años ofreciendo Office en la nube bajo suscripción. Ahora quiere hacer lo mismo con Windows

Microsoft lleva años ofreciendo Office en la nube bajo suscripción. Ahora quiere hacer lo mismo con Windows

Hace tiempo que en Microsoft están centrando buena parte de sus desarrollos en la nube. Lo hicieron al ofrecer Office 365 con ese formato y bajo un modelo de suscripción, y ahora están preparando el camino para hacer lo mismo con Windows.

Es al menos lo que se ha desvelado durante el juicio que está enfrentando a la FTC y Microsoft por su intención de comprar Activision. En The Verge han tenido acceso a una presentación interna de Microsoft de junio de 2022 en la que se indica claramente la creación de "Windows 365 para habilitar un sistema operativo Windows completo distribuido desde la nube a cualquier dispositivo".

En realidad la empresa de Redmond ya ofrece algo así para usuarios empresariales, pero esta propuesta deja claro que la intención es la de ofrecer esa misma opción a usuarios finales. "Migrar Windows 11 cada vez más a la nube" está marcado claramente junto a otros objetivos como el de crear "silicio personalizado", esto es, un teórico microprocesador propio para su familia Surface al estilo de lo que Apple ha hecho para sus Mac.

Captura De Pantalla 2023 06 27 A Las 16 38 17

Fuente: The Verge.

Nosotros logramos acceso a Windows 365 en septiembre de 2021. Por entonces la propuesta permitía usar Windows 10 en la nube y conectarnos así a una especie de PC en la nube con el que trabajar desde cualquier dispositivo (iPads incluidos). Nuestras impresiones fueron agridulces, porque aunque el concepto era interesante, no acabábamos de encontrar ventajas frente a usar un PC convencional en local.

Como señalan en The Verge, este tipo de opción está preparándose, y una futura actualización de Windows 11 incluirá el llamado "Windows 365 Boot". Esta característica permitirá que los dispositivos Windows 11 puedan iniciar sesión directamente en una instancia de un PC en la nube en cuanto arranquen. Esto es: una vez se inicien, lo que estaremos manejando no es nuestro sistema operativo instalado en local, sino la instancia en la nube.

Queda por ver si esa propuesta acaba cuajando como lo ha hecho Office 365, desde hace tiempo parte de Microsoft 365. Los casos de uso existen, desde luego, pero será interesante comprobar si al gran público le convence esa idea de no usar su PC como tal, sino como un dispositivo que se conecta a un sistema operativo en la nube.

En Xataka | El mejor uso que le he podido dar a mi antiguo portátil: jugar en la nube

-
La noticia Microsoft lleva años ofreciendo Office en la nube bajo suscripción. Ahora quiere hacer lo mismo con Windows fue publicada originalmente en Xataka por Javier Pastor .

Leer más

Hay misteriosos conectores USB saliendo de paredes en todo el mundo. Son parte de un proyecto singular

Hay misteriosos conectores USB saliendo de paredes en todo el mundo. Son parte de un proyecto singular

Lo hemos visto mil veces en las películas. Un espía se acerca a un buzón, una papelera o el banco de un parque. Se asegura de que nadie mira y palpa esos objetos, normalmente por debajo, para acabar cogiendo algo que estaba oculto en ellos. Es lo que se conoce como buzón muerto ('dead drop'), secreto, ciego o clandestino, y es una técnica que va más allá del cine: se utiliza como forma de pasar objetos o información entre dos personas usando ubicaciones secretas. La técnica es vieja, pero desde hace unos años se está utilizando con una variante muy peculiar. Una que hace que encontremos un conector USB incrustado en una pared.

¿Un pendrive en la pared? En 2010 un artista digital llamado Aram Bartholl inició un proyecto que llamó 'Dead Drops'. Su propuesta mezclaba una parte artística —habló sobre ellos en una conferencia en el MoMa en 2011—, pero sobre todo práctica. La idea, explicaba en el sitio web oficial del proyecto, consistía en ofrecer "una red anónima, sin conexión, de intercambio de archivos entre pares en el espacio público".  

Preparados para conectarse. Quienes participan en el proyecto empotran memorias USB en muros, edificios y esquinas "accesibles a cualquiera desde el espacio público". Para usarlos basta con conectar un ordenador portátil (o equipos con esa conexión disponible) para compartir archivos e información.

Requisitos. Quienes quieran crear uno de estos Dead Drops en su ciudad, deberán comprar un pendrive USB, quitarles su envoltura de plástico y envolver los componentes electrónicos expuestos con cinta. En el dispositivo solo podrá haber inicialmente un fichero readme.txt (leeme.txt) en el que se da información sobre el proyecto y que puede obtenerse de la web oficial.

Captura De Pantalla 2023 06 26 A Las 13 28 56

La popularidad del proyecto es limitada, pero su éxito es notable en Alemania, Francia o el Reino Unido,

Conexión siempre disponible. Una vez preparada la llave USB, basta empotrarla en una pared y un muro haciendo un hueco (si no existía) para luego sellarlo todo con cemento o pasta de secado rápido. Lo ideal es colocar ese conector USB a una altura razonable para que quienes usen el puerto lo puedan hacer cómodamente. En Instructables hay una guía detallada del proceso de creación de un Dead Drop.

Geolocalizando tu Dead Drop. Tras colocarlo todo, es necesario registrar ese nuevo Dead Drop añadiendo tres fotos de su localización, además de incluir información sobre su dirección, las coordenadas, país en el que se encuentra y capacidad de almacenamiento.

Más 2.000 pendrives empotrados. La base de datos, disponible públicamente en el sitio web del proyecto, tiene en estos momentos registradas 2.263 llaves USB con una capacidad total de 70.425 GB (la capacidad media es de algo más de 31 GB).

Especialmente populares en Alemania. Europa y Estados Unidos son las regiones donde más populares son estos Dead Drops. El país germano cuenta con más de 700 de estos pendrives, mientras que en EEUU hay algo más de 600. España apenas cuenta con 56 según el último listado.

Pero cuidado. Estos pendrives pueden servir ciertamente para esos intercambios de información entre personas o entidades, pero también plantean un riesgo: puede que quienes las han colocado hayan instalado algún tipo de malware que infecte nuestro equipo si nos conectamos a ellas. No sería la primera vez que alguien hiciera algo parecido, desde luego.

Imagen | Dead Drops

En Xataka | EEUU cree haber detectado un globo espía chino sobre su territorio: un incidente en plena escalada de tensión

-
La noticia Hay misteriosos conectores USB saliendo de paredes en todo el mundo. Son parte de un proyecto singular fue publicada originalmente en Xataka por Javier Pastor .

Leer más

La IA está llenando la web de contenido. La pregunta es qué pasará cuando se retroalimente de él

La IA está llenando la web de contenido. La pregunta es qué pasará cuando se retroalimente de él

Los modelos de IA generativa están causando furor, pero también están inundando la web de nuevos contenidos a un ritmo frenético. Lo estamos viendo claramente con Midjourney y su capacidad creativa, pero también con ChatGPT, que por ejemplo está ayudando a los spammers a crear miles de sitios web. Ahora hay estudios que hablan de que eso plantea un gran problema en el futuro: el llamado "colapso del modelo".

Qué es el colapso del modelo. Como señalaban en el citado estudio, en el mundo de las Redes Generativas Antagónicas (GANs), el "modo colapso" —del que se deriva el término "colapso del modelo"— ocurre cuando el generador comienza a retroalimentarse y producir la misma salida una y otra vez. El colapso del modelo se refiere a un proceso de aprendizaje degenerativo en el que los modelos empiezan a olvidar sucesos improbables con el tiempo, a medida que el modelo se "envenena" con su propia proyección de la realidad.

Y si. El problema es que dado que la IA está llenando la web de contenido y que esa IA es entrenada y actualizándose con toda esa web que bulle y crece, ¿qué pasa con esa retroalimentación? ¿Cómo influirá en esos modelos el hecho de que cada vez más datos de su entrenamiento provengan de contenidos generados por IA, y no de contenidos generados por seres humanos?

Defectos irreversibles. Según los investigadores, "el uso de contenido generado por el modelo en su entrenamiento causa defectos irreversibles en los modelos resultantes". De hecho, apunta, "el proceso es inevitable, incluso en casos con condiciones casi ideales para el aprendizaje a largo plazo". ¿Por qué?

Degeneración rápida. Según ellos, porque con el tiempo "los errores en los datos generados se agravan y, en última instancia, obligan a los modelos que aprenden de los datos generados a percibir la realidad de forma aún más errónea". Ilia Shumailov, uno de los responsables del estudio, indicaba en VentureBeat que de hecho esa degeneración se puede producir muy rápidamente: "los modelos pueden olvidar rápidamente la mayor parte de los datos originales de los que aprendieron originalmente".

Una IA llena de residuos. Otro de los autores del estudio, Ross Anderson, de la Universidad de Edimburgo, explicaba en un post de su blog que lo que está pasando le recuerda a lo que ocurre con los océanos, que se llenan de plásticos. Eso, asegura, "dará ventaja a las empresas que ya lo hacían o que controlan el acceso a interfaces humanas a escala. De hecho, ya estamos viendo cómo las empresas de inteligencia artificial explotan The Internet Archive".

Cámara de eco a la vista. Otro efecto derivado del problema sería la de una especie de IA con una cámara de eco retroalimentándose continuamente. Ted Chiang, autor de 'Story of Your Life' —la novela que inspiró la película 'La llegada'— explicaba en The New Yorker que el colapso llevará a una calidad cada vez peor, algo parecido a lo que ocurre con una imagen JPEG cuando se va copiando y degradándose.

Cómo evitar el colapso del modelo. Los investigadores indican dos formas de evitar este problema. La primera, guardando una especie de "copia maestra" del conjunto de datos de entrenamiento original "producido por humanos" y evitar "contaminarlo" con datos generados por una IA. La segunda, ir incluyendo nuevos conjuntos de datos generados por humanos a lo largo del entrenamiento en etapas posteriores.

De momento todo va bien. Por ahora los modelos han sido entrenados con datos generados por seres humanos —los usados por ChatGPT estaban actualizados hasta otoño de 2021, aproximadamente—, y queda por ver qué ocurrirá con futuros modelos que se actualicen con datos que incluyan los generados por estos modelos de IA. Las previsiones del estudio no son buenas, desde luego.

Imagen | Xataka con Midjourney

En Xataka | Hay un sector particularmente afectado por la nueva IA de Google: los fotógrafos de producto

-
La noticia La IA está llenando la web de contenido. La pregunta es qué pasará cuando se retroalimente de él fue publicada originalmente en Xataka por Javier Pastor .

Leer más

Las empresas de IA parecen las primeras interesadas en regular la IA. Eso es preocupante

Las empresas de IA parecen las primeras interesadas en regular la IA. Eso es preocupante

Tiene 38 años y hoy en día es una de las personas más poderosas e influyentes del mundo. Todos quieren hacerse la foto con él, y eso es justo lo que logró en una singular gira por Europa —y antes, por otras regiones del mapa mundial— en la que se reunió con mandatarios y, sobre todo, con reguladores. Con todos, insistimos, hubo foto.

Su nombre, claro, es Sam Altman. El CEO de OpenAI visitó a finales de mayo España, Polonia, Francia y el Reino Unido, además de reunirse con Thierry Breton en Bruselas. La frenética agenda no estaba destinada a darle publicidad a su empresa y a su producto estrella, ChatGPT. No hacía demasiada falta. Estaba destinada a otra urgencia: la de hablar de la regulación de la inteligencia artificial.

El discurso de Altman con todos esos mandatarios fue sospechosamente parecido al que todos ellos habían mantenido en las semanas previas. Los discursos pesimistas sobre una IA que podría acabar con el ser humano se unían a otros algo menos distópicos pero también preocupantes: Geoffrey Hinton, uno de los considerados "padrinos de la IA", dimitía de su puesto en Google y alertaba de riesgos como la desinformación.

El propio Altman se sumaba a esa visión preocupante de nuestro futuro. "Si hace daño, puede hacer mucho daño", explicaba. Y tras eso, su mensaje asociado: necesitamos regular la IA, y estamos totalmente dispuestos a colaborar con las entidades reguladoras.

La postura de Altman y su buena disposición podrían ser tomadas sin más como una declaración de buenas intenciones, pero las cosas se pusieron aún más interesantes cuando vimos cómo no solo OpenAI, sino otras grandes empresas implicadas en esge segmento, pedían exactamente lo mismo.

Las Big Tech se quieren llevar bien con los reguladores

El discurso es parecido desde hace años. En enero de 2020 Sundar Pichai, CEO de Alphabet —matriz de Google— ya pedía una regulación para este segmento. Algo más tarde, en septiembre de 2021 Microsoft ya hablaban de que era necesario "regular la IA para impulsar la innovación responsable en Europa".

Ambas empresas han renovado el discurso recientemente. Pichai explicaba en Financial Times cómo la IA "es demasiado importante para no ser regulada adecuadamente".

Mientras, Satya Nadella concedía una entrevista en Time en mayo y destacaba que "creo que hay lugar para el diálogo, y también hay lugar para que asumamos nuestra responsabilidad como proveedores de esta tecnología antes de la regulación, y luego esperemos que la haya". El presidente de Microsoft, Brad Smith, se explayaba también sobre el tema y hablaba de cuál era la mejor forma para aplicar la gobernanza de la IA.

El propio Mark Zuckerberg, creador de Facebook, ya había hecho algo parecido a lo que hizo Altman, pero en 2020. Como él, se reunió con reguladores europeos antes de que se publicaran propuestas para regular la IA. Por entonces OpenAI era una desconocida y Facebook aún no era Meta —y comenzó a apostar todo al metaverso—. Aquellas reuniones de entonces, como estas de ahora, estaban destinadas a lo mismo.

El fin justifica los medios

Que no es, ni más ni menos, que ganar la carrera de la IA. Ponerse del lado de los reguladores y mostrar una disposición absoluta a colaborar es una buena forma de lograrlo, pero obviamente Altman —como el resto de los mencionados— tiene su propia hoja de ruta.

Eso se puede deducir de la elección de países visitados en su gira. Altman visitó España, algo que parece raro hasta que uno se da cuenta de un dato clave: nuestro país asumirá la presidencia del Consejo Europeo el próximo mes de julio. El Gobierno de España ya ha dejado claro que completar la AI Act es su principal prioridad en el ámbito digital, así que esa visita de Altman fue un tiro certero. Uno en el que, por supuesto, hubo foto.

Pero esa agenda también fue perfilándose cuando su discurso cambió. De ver la IA como una amenaza pasó a declarar algo muy distinto y dijo que "intentaremos cumplir [la regulación], pero si no podemos hacerlo dejaremos de operar".

Eso no gustó mucho a los euroreguladores —con Thierry Breton al frente— y lo cierto es que la Unión Europea parece estar avanzando con paso firme hacia la aprobación definitiva y puesta en marcha de la AI Act, su planteamiento —algo estricto, según los expertos— para regular la inteligencia artificial.

La captura del regulador

Lo que ha hecho Altman es lo mismo que habían hecho otros en el pasado. Mark Zuckerberg abogó en 2020 por una regulación para las redes sociales. "Creo que una buena regulación puede dañar el negocio de Facebook a corto plazo, pero será mejor para todos, incluyéndonos a nosotros, a largo plazo", explicaba. Un año antes el discurso había sido similar al hablar de una regulación más fuerte de internet.

Esos discursos de entonces, como los de Altman de ahora, tienen un nombre: captura del regulador. Se llama así a "un tipo de fallo del Estado que ocurre cuando una agencia regulatoria, creada para defender el interés general, actúa en favor de ciertos intereses políticos o grupos de interés del sector sobre el cual está encargada de regular". O lo que es lo mismo: Altman no quere una regulación para la IA.

Quiere su regulación.

Esas técnicas de grupos de presión —lobbying— son utilizadas en otros muchos ámbitos, pero aquí transforman a las Big Tech en teóricas aliadas de los organismos reguladores: declaran tener las mejores intenciones y estar totalmente abiertas a colaborar con los reguladores, pero lo hacen para intentar —como haría probablemente cualquiera al frente de esas grandes empresas— influir en la redacción de leyes que puedan afectarlas de cara al futuro.

¿Misión cumplida?

La situación se ha vuelto aún más clara tras la información publicada en Time. Esta publicación ha revelado que OpenAI intentó relajar la regulación de la inteligencia artificial en Europa. Como explicaban en dicho medio, Altman ha hablado repetidamente de la necesidad de una regulación global de la IA, "Pero entre bastidores, OpenAI ha presionado para que elementos significativos de la legislación sobre IA más completa del mundo -la Ley de IA de la UE- se suavicen de forma que reduzcan la carga reguladora de la empresa".

Parlamento Europeo

Fuente: Wikimedia.

Parece que las enmiendas (o al menos, algunas de ellas) propuestas por OpenAI acabaron formando del texto final de la ley de la UE que tuvo el visto bueno del Parlamento Europeo la semana pasada. Una de las más relevantes, la de que no se considerara a sistemas como GPT-3 "de alto riesgo". En un documento de OpenAI dirigido a la UE y publicado por Time los responsables de la empresa explicaban que "Por sí mismo, GPT-3 no es un sistema de alto riesgo. Pero posee capacidades que pueden ser empleadas en casos de uso de alto riesgo".

La gira de Sam Altman parece haber tenido éxito: el borrador final no incluía ya esos párrafos en los que se sugería que los sistemas de IA de propósito general —como GPT-3— deberían considerarse de forma inherente como de alto riesgo. En lugar de eso la AI Act habla de los "modelos fundacionales" (GPT-3 también estaría englobado en esa categoría) y de cómo estos tendrían requisitos algo más relajados.

Imagen | Jernej FurmanVillage Global

En Xataka | La amenaza de la IA a la humanidad es "absurdamente ridícula": lo dice el máximo responsable de IA en Meta

-
La noticia Las empresas de IA parecen las primeras interesadas en regular la IA. Eso es preocupante fue publicada originalmente en Xataka por Javier Pastor .

Leer más

Resolviendo el eterno dilema: qué puerto es mejor para jugar en un PC gaming, DisplayPort o HDMI

Resolviendo el eterno dilema: qué puerto es mejor para jugar en un PC gaming, DisplayPort o HDMI

El sonido es un apartado fundamental en el mundo del gaming, y puede que algún usuario tenga dudas sobre cómo lograr sacar el máximo partido de este apartado. La pregunta esencial es clara: ¿qué usar, el puerto HDMI o el puerto DisplayPort?

Tanto las tarjetas gráficas de nuestros PCs y portátiles gaming como los monitores (o incluso televisores) a los que conectamos esos equipos suelen disponer de alguno de esos puertos o de los dos, por lo que saber en qué se diferencian y cuál es más adecuado para jugar es importante. Hablemos de todo ello.

Nos centraremos en las versiones más populares de estos estándares: tenemos un enfrentamiento claro entre DisplayPort 1.4 y HDMI 2.1, que se renovó con un foco especialmente destacable en el ámbito del gaming.

Hay que señalar que hay versiones incluso más modernas (HDMI 2.1a se lanzó en enero de 2022, DisplayPort 2.1 en noviembre de ese año), pero la mayoría de productos actuales hacen uso de esas versiones algo menos recientes pero que son a día de hoy referentes del mercado.

DisplayPort 1.4

DisplayPort 1.4 lleva mucho tiempo siendo la opción más popular entre los gamers que juegan en PC incluso tras la aparición de HDMI 2.1. Sin embargo, no lo es tanto entre los usuarios de consolas y portátiles gaming porque es más raro encontrar este puerto en ese tipo de productos, que se centran de forma clara en el conector y el (fantástico) estándar HDMI 2.1.

DisplayPort tiene un formato asimétrico característico, y hace uso de 20 pines en ese conector para lograr su ancho de banda máximo, que es de 32,40 Gbps (de los cuales un máximo de 25,92 Gbps son para datos). La organización VESA anunció además en mayo de 2022 una útil forma de etiquetar los cables de este tipo.

Este protocolo es compatible con sistemas de color de 8 bits y de 10 bits, soporta la tecnología DSC 1.2a de compresión de vídeo y puede usar modos de transmisión HBR (High Bit Rate), HBR2 y HBR3.

Su soporte de resoluciones y tasas de refresco es también destacable: es capaz de ofrecer vídeo 4K a 120 Hz, y 5K a 60 Hz y 8K a 30 Hz. También presume de soporte HDR, de gestionar hasta cuatro pantallas distintas y de ser utilizado a través del DisplayPort Alt Mode que permite usarlo con cables USB-C y Thunderbolt 4 además de los propios cables DisplayPor 1.4.

HDMI 2.1

El estándar HDMI está mucho más extendido en el mundo de las Smart TVs y los cines en casa, y con el tiempo ha ido desplazando a conectores como DVI o VGA que ahora son muy poco usados.

HDMI 2.1 mejora su ancho de banda, que llega hasta los 48 Gbps (era de 18 Gbps en HDMI 2.0) gracias a la mejor calidad de los materiales con los que se fabrican los cables y a un nuevo esquema de codificación conocido como 16b/18b.

Ese ancho de banda permite llegar a resoluciones 4K a 120 Hz en consolas y a resoluciones 4K a 144 Hz en PCs gaming con las últimas tarjetas gráficas de alta gama. También soporta 5K a 60 Hz y 8K a 30 Hz y algo especialmente interesante para los gamers: las características de reducción de latencia.

Gracias a la tecnología DSC 2.1 es incluso capaz de soportar resoluciones 8K a 120 Hz con HDR. Da soporte a la tecnología Dynamic HDR que permite que los ajustes de ese alto rango dinámico, y además contamos con características como eARC (enhanced Audio Return Channel) para el soporte de sonido envolvente 7.1, Dolby Atmos y DTS:X.

Entonces, ¿cuál es mejor para jugar?

Dadas sus características y su presencia en distintos productos, la recomendación de qué estándar utilizar para cada situación varía:

  • PC gaming: Aquí el puerto DisplayPort es el preferido. Aunque el HDMI 2.1 se puede usar si tenemos un monitor o una TV que lo soporte, si tenemos el PC conectado a varios monitores con ese protocolo se reducirá el ancho de banda total para cada pantalla.
  • Portátil gaming. Si tenemos conector DisplayPort, será mejor usar este estándar frente a HDMI 2.1. Hay otra opción aquí: aprovechar el DisplayPort Alt Mode y conectar el portátil a un monitor DisplayPort con un cable USB-C.
  • Xbox Series S/X y PS5: Solo disponen de conector HDMI 2.1 así que aquí no hay opción. Se pueden usar cables HDMI 2.0, pero la mejor experiencia se logrará con cables HDMI 2.1. Gracias a esos cables podremos por ejemplo jugar a resolución 1440p e incluso a 4K a 120 Hz si el juego lo permite.
  • Nintendo Switch: esta consola es algo más antigua y soporta HDMI 2.1, por lo que utilizar un cable HDMI 2.1 no tiene mucho sentido aunque pueda haber una pequeña mejora en la calidad de la señal.

En Xataka | Los televisores de 2021 apuestan por HDMI 2.1, pero con frecuencia sus conectores con esta norma tienen 'letra pequeña'. Te la explicamos

-
La noticia Resolviendo el eterno dilema: qué puerto es mejor para jugar en un PC gaming, DisplayPort o HDMI fue publicada originalmente en Xataka por Javier Pastor .

Leer más

Hemos probado Claude, el competidor de ChatGPT creado por Anthropic. Y se comporta la mar de bien

Hemos probado Claude, el competidor de ChatGPT creado por Anthropic. Y se comporta la mar de bien

Puede que ChatGPT sea el referente absoluto en el mundo de los chatbots, pero la competencia en este segmento está cada vez más animada. Además de Bing Chat —que está basado en GPT-4— y Google Bard, van apareciendo alternativas cada vez más llamativas, y una de las más notables es Claude, el chatbot creado por Anthropic.

Esta startup quiere convertirse en la próxima OpenAI, y desde luego tiene papeletas para plantarle cara. Entre otras cosas porque sus fundadores son exempleados de la propia OpenAI. Descontentos con la visión estratégica de su compañía, crearon su propia empresa y en enero de 2023 lanzaban Claude, su chatbot.

Nosotros ya hemos logrado acceso a esta versión inicial que de momento está disponible por invitación —podéis solicitar una aquí—, y tras unas horas preguntándole sobre diversas cuestiones, hemos querido analizar su comportamiento, sus prestaciones y sus opciones de convertirse en un verdadero rival de los chatbots más relevantes hoy en día.

Un chatbot cauto

El funcionamiento de Claude es idéntico al de otros chatbots como ChatGPT: tras iniciar sesión se presenta una interfaz conversacional con una barra lateral a la izquierda con el historial de conversaciones, y una parte central dominante que está dedicada a poder escribir texto (prompts), tras lo cual este chatbot contestará lo mejor que pueda.

Captura De Pantalla 2023 06 22 A Las 12 26 38

Nada más comenzar a conversar con Claude queda claro que estamos ante un chatbot bastante formal y que no trata de tener un trato más cercano como el usuario, como es el caso de Bing Chat.

Al presentarnos como Xataka, Claude nos preguntaba cómo ayudarnos y le preguntábamos inmediatamente si sabía qué era Xataka. La respuesta, breve y concisa, era adecuada.

Como otros chatbots similares, Claude es capaz de seguir la conversación. Es decir, tras preguntarle "¿sabes qué es Xataka?", uno podía preguntar "¿qué tráfico mensual tiene?" sin necesidad de decir que nos referíamos a Xataka: sobreentiende acertadamente que es así.

Las respuestas no aparecen de golpe como Bard, y no son tan rápidas como ChatGPT (GPT-3.5), pero tampoco tan lentas como ChatGPT Plus (GPT_4). La velocidad a la que va generando texto está un poco a caballo entre esos dos modelos, lo que resulta aceptable salvo que esperemos una salida de muchos caracteres, algo que puede hacer que esa respuesta tarde un poco en completarse.

Captura De Pantalla 2023 06 22 A Las 12 30 11

Aprovechamos para comprobar rápidamente que Claude se asemeja también a ChatGPT en sus limitaciones: no es capaz de decirnos la fecha y la hora, y tampoco ofrece referencias (por ejemplo, enlaces) con las fuentes de las que obtiene su información.

Cuando apareció Bard quisimos comparar su comportamiento al de Bing Chat y GPT-3/GPT-4, y aquí queremos hacer lo mismo y comprobar qué respuestas da Claude a aquellas preguntas.

Le pedimos en primer lugar que nos explicara la teoría de la relatividad como si fuera un niño de 5 años, a lo que Claude dio una respuesta que al principio era adecuada, pero que luego mencionaba la ecuación E=mc^2 y la explicaba brevemente, algo que difícilmente un niño de cinco años entendería. Ninguno de los chatbots era especialmente bueno al intentar entender qué puede llegar a comprender un niño tan pequeño, pero la respuesta fue relativamente clara.

Captura De Pantalla 2023 06 22 A Las 13 06 40

Cuando le preguntamos a Claude qué tal estaba, respondió rápidamente aclarando que "Estoy bien, gracias por preguntar" pero rápidamente dejó claro que "no experimento estados de ánimo o emociones como los humanos".

Captura De Pantalla 2023 06 22 A Las 13 08 08

También quisimos comprobar si era capaz de actuar como una terminal Linux, algo que efectivamente podía hacer. Introdujimos algunos comandos básicos, y respondió a todos ellos dando datos sobre la configuración hardware del servidor —probablemente virtual— sobre el que estaba corriendo el servicio.

Las respuestas a preguntas filosóficas ("¿Por qué estamos aquí?") son también sorprendentemente coherentes en Claude. Eso mismo ocurría con sus rivales, que de una u otra forma trataban de dar más bien algunas pistas para contestar esa pregunta imposible, y no una respuesta concreta.

En esta batería de pequeñas pruebas le pedimos a Claude que creara una tabla con los 10 países con más títulos y subtítulos de la Copa del Mundo de Fútbol. Es extraño, porque realizamos la pregunta en inglés tras haber hecho varias en español y alguna otra en ese idioma, y Claude contestó inicialmente en inglés pero luego pasó rápidamente al español.

Captura De Pantalla 2023 06 22 A Las 13 11 45

Aquí su respuesta no estaba formateada de forma sencilla para el usuario, pero los datos fueron correctos salvo por un detalle: no tenía en cuenta el último Mundial de Qatar 2022, que ganó Francia y en el que Argentina quedó subcampeona: esos datos no formaban parte de esas estadísticas arrojadas por Claude.

Quisimos también ver cómo se comportaba a la hora de escribir un breve análisis de cuatro párrafos del iPhone 14 Pro Max, y el resultado fue decente. El tono era algo plano y se limitaba a una descripción de sus principales prestaciones hardware, algo que también habían hecho sus competidores en nuestras pruebas previas. Había algún que otro adjetivo que podría sonar exagerado, pero la redacción fue impecable y los datos técnicos fueron correctos en casi todo momento (el zoom óptico es 3x, no 2,5x, por ejemplo).

Claude acepta textos súper largos

Le preguntamos a Anthropic por cómo había sido entrenado, y dio una respuesta genérica tanto a esa pregunta sobre el número de parámetros utilizado —cuantos más, más potente suele ser el modelo— o sobre su ventana de contexto (cuántos tokens admite como máximo como entrada).

Captura De Pantalla 2023 06 22 A Las 13 15 59

"Wow, hay mucho contenido aquí" 🙂

GPT-4 tiene por ejemplo una ventana de contexto que llega a los 32K tokens, y aunque Claude no confiesa directamente la cifra, Anthropic anunció recientemente que había ampliado su ventana original para llegar a unos impresionantes 100K tokens, lo que permite que por ejemplo demos (teóricamente) como entrada una novela de buen tamaño (unas 75.000 palabras) y a partir de ahí podamos preguntarle cualquier cosa.

Quisimos probar esos límites avisando a Claude de que íbamos a copiar un texto largo y luego realizar preguntas sobre él. Qué mejor que aprovechar nuestro Quijote, disponible en texto plano en un repositorio de GitHub, y del cual trasladamos un buen fragmento a Claude. Nos pasamos, de hecho, porque los primeros fragmentos eran de 98.000 y 51.000 palabras aproximadamente y Claude se quedaba "pensando" de forma indefinida.

La cosa cambió cuando acortamos un poco el fragmento, que aún así era enorme con 32.500 palabras. Tras hacerlo y estudiarlo durante unos segundos, Claude escribió con aparente sorpresa que "Wow, hay mucho contenido aquí" para luego resumir brevemente el capítulo (sin que se lo hubiéramos pedido).

Captura De Pantalla 2023 06 22 A Las 13 22 10

Le pedimos a Claude que nos describiera brevemente los cuatro principales personajes del capítulo, y tras unos segundos —parece necesitar algo más de tiempo con cada petición cuando el texto de partida es tan largo— dio una respuesta aparentemente coherente.

Así pues, en nuestras breves pruebas desde luego Claude demostró ser capaz de "ingerir" grandes cantidades de datos sobre las cuales luego poder hacer análisis de esa información. Es una opción especialmente interesante para resumir documentos y extraer conclusiones y datos importantes de todos ellos, y sin duda se trata de una de las prestaciones más llamativas de este chatbot.

Un buen rival para ChatGPT

A la vista de los resultados, estamos ante un excelente rival para ChatGPT, Bard o Bing Chat. La velocidad en las respuestas es adecuada —aunque no fulgurante— y aunque se equivoca —como sus competidores— de cuando en cuando, su comportamiento es notable.

Captura De Pantalla 2023 06 22 A Las 13 30 07

Es también capaz de adaptarse a problemas que él mismo puede llegar a generar. Lo comprobamos al pedirle que creara un pequeño programa en Python para generar copos de nieve dibujados en una ventana. Generó el código, pero al tratar de ejecutarlo en una terminal (en macOS) apareció un error: no teníamos instalada una librería (Tkinter) que usaba en su código.

Tras mencionarlo, Claude nos indicó cómo instalar esa librería, y tras hacer lo que nos sugería el código en Python que había sugerido en primer lugar funcionó a la perfección.

Estamos pues a la espera de que este chatbot pueda estar disponible a gran escala, pero desde luego Claude es un digno rival para un segmento que cada vez se anima más y en el que las propuestas son realmente llamativas.

En Xataka | Google se enfrenta a dos guerras en el campo de la IA: la primera contra OpenAI y la segunda contra sí misma

-
La noticia Hemos probado Claude, el competidor de ChatGPT creado por Anthropic. Y se comporta la mar de bien fue publicada originalmente en Xataka por Javier Pastor .

Leer más

Un sónar recoge “sonidos de golpes”: continúa la búsqueda del sumergible que buscaba los restos del Titanic

Un sónar recoge

El pasado domingo el sumergible Titan, operado por OceanGate Expeditions, inició la inmersión en busca de los restos del Titanic. Una hora y 45 minutos después se perdió la señal y el sumergible desapareció. Este vehículo podría acabar convirtiéndose en una trampa moral para millonarios, pero la búsqueda continúa, y en las últimas horas ha habido novedades.

"Sonidos de golpes". En Rolling Stone han tenido acceso a un documento interno del gobierno de EEUU en el que se dan novedades sobre la búsqueda. En dicho informe se revela que el martes un sónar recibió "sonidos de golpes" bajo el agua en la zona en la que se estaba realizando la búsqueda. Los datos fueron recogidos por un avión Boeing P8 Poseidon canadiense, que cuenta con esos sensores de detección de señales submarinas".

Esperanzas. Las tripulaciones de las naves que recibieron esas señales las recibieron cada 30 minutos, y cuatro horas después, tras desplegarse nuevos dispositivos, se seguían oyendo esos golpes. No queda claro cuándo se oyeron exactamente esos golpes y durante cuanto tiempo, pero en una actualización del informe se indicaba que esos sonidos "ayudarán a vectorizar los activos de superficie y también indica que hay aún esperanza de que haya supervivientes".

Un rescate complejo. En ese informe se comentaba cómo se estaba intentando encontrar un vehículo operado remotamente que pudiera ayudar en la misión de búsqueda y rescate. Los submarinos de la Marina de EEUU solo llegan a una profundidad de 600 m (la profundidad operativa es de 300 m), pero los restos del Titanic están a 4.000, y por ello se necesita algún tipo de dron acuático operado remotamente para esa tarea. A 1.000 metros de profundidad la luz del sol deja de penetrar y por tanto la oscuridad es prácticamente total.

Ayuda a la vista. El presidente de la organización Explorers Society —dos de sus miembros viajaban abordo del Titan— envió un correo a Rolling Stone indicando que había un posible vehículo para ese rescate. "Un equipo del Reino Unido llamado Magellan tiene un ROV preparado para 6.000 metros que está cargado en un avión y listo para ayudar, pero el gobierno de EEUU y la USCGaún no les han dado permiso para participar", explicaban. El cuerpo de Guardacostas de Boston no ha dado detalles sobre los ROV (Remotely Operated Vehicles, vehículos operados remotamente) que se están usando en la misión ni a qué profundidad pueden descender.

Objeto en el agua. Ese avión también detectó un "objeto blanco rectangular" y que uno de los barcos dedicados a la búsqueda fue inicialmente a investigar ese objeto, pero fue "fue "desviado" para investigar esos sonidos de golpes en su lugar.

El tiempo se agota. El Titan tiene una reserva de 96 horas de aire, pero no se sabe exactamente cuánto puede quedar. Un funcionario del Departamento de Seguridad Nacional (DHS) indicó a Rolling Stone que en ese momento quedaban unas 40 horas y añadió que "la situación parece sombría", añadiendo que creían que los sonidos provenían del sumergible. En el Financial Times indicaban hace una hora que el suministro restante es en estos momentos de unas 30 horas. Aproximadamente el jueves a mediodía (hora de España peninsular) se acabará el aire según esas previsiones.

Imagen | OceanGate Expeditions

En Xataka | El reestreno de 'Titanic' es más que un aniversario: es una estrategia en la que Cameron es un maestro

En Xataka | El Amazon Prime Day 2023 es oficial: ya sabemos cuándo serán los dos grandes días de ofertas del verano

En Xataka | Ya sabemos cuál es el salario medio que se cobra en las tecnológicas como Google o Amazon (y hay sorpresas)

-
La noticia Un sónar recoge "sonidos de golpes": continúa la búsqueda del sumergible que buscaba los restos del Titanic fue publicada originalmente en Xataka por Javier Pastor .

Leer más

Intel cambia el nombre a sus CPUs 15 años después. Id diciendo adiós a la “i” de los Intel Core

Intel cambia el nombre a sus CPUs 15 años después. Id diciendo adiós a la

La familia "Core i" de procesadores de Intel debutó en 2008. Desde entonces hemos convivido con los ya populares Core i3, Core i5, Core i7 y los Core i9, que solo con esa denominación ya permitían dar una primera gran referencia de la potencia y prestaciones que podíamos esperar de dichos chips. La firma ha anunciado ahora que esa forma de denominar a sus procesadores toca a su fin.

Adiós a la "i" de "Core i". Los próximos procesadores de este segmento que Intel lance dejarán de usar esa "i" antes del número, de modo que los actuales Core i3, Core i5 o Core i7 se transformarán en Core 3, Core 5 o Core 7. Como señalan en AnandTech, no es el único cambio en esa nueva forma de nombrar sus chips.

Intel1

Fuente: AnandTech

No más "generaciones". También era habitual que los procesadores indicaran en su nombre la generación a la que pertenecían. Así, teníamos por ejemplo los Intel Core i5-12700 de 12ª generación. Esa información desaparece en los futuros modelos, aunque el dato generacional estará disponible en el número del procesador. En ese ejemplo, el "12" de "12700" revela precisamente ese dato, y elimina esa redundancia para simplificar el nombre del modelo.

Debutará con los Meteor Lake. La nueva forma de denominar a estas CPUs debutará con los futuros procesadores de la familia Meteor Lake. Estos chips serán según los rumores más de un 20% más veloces que sus predecesores, y a ello contribuirá la introducción del nuevo nodo fotolitográfico EUV 'Intel 4'. Se espera que los primeros chips Meteor Lake lleguen antes de que acabe el año.

Llegan los Intel Core Ultra. Hay una novedad importante más: la llegada de una nueva subfamilia de procesadores premium que tendrá el apellido "Ultra". Intel no deja demasiado claro qué ventajas tendrán estos chips, pero hay un dato aún más curioso: esa denominación debutará en la segunda mitad de 2023, algo que contrasta con lo que ocurrirá con los "no Ultra", que comenzarán a usar esa redenominación con la familia Meteor Lake.

En Xataka | Intel prepara su respuesta a los exitosos procesadores Ryzen X3D, aunque su estrategia es diferente a la de AMD

-
La noticia Intel cambia el nombre a sus CPUs 15 años después. Id diciendo adiós a la "i" de los Intel Core fue publicada originalmente en Xataka por Javier Pastor .

Leer más