GPT-5 nos ha dejado una sensación agridulce, jugando a quién quiere ser millonario y más en CrossOver 1×19

Hace apenas unas semanas que OpenAI lanzó GPT-5, pero su relevancia e impacto ya ha sido colosal. De hecho, llevábamos tanto tiempo esperando este nuevo modelo de IA que era imposible no convertirlo en tema absolutamente protagonista de Crossover 1x19.

Este episodio, parte de la colaboración entre Topes de Gama y Xataka, arranca con un debate sobre este modelo de IA, que se suponía iba a ser un salto cualitativo notable y que al menos de momento no ha provocado apenas cambios en el panorama actual de la industria.

Aquí Jaume Lahoz y Carlos Santa Engracia son los encargados de dirigir el debate, pero además dan paso al resto de las secciones del programa, que como siempre combina ese debate tecnológico con el entretenimiento puro.

Que es lo que nos trae Anna Boria con una divertida sección que sigue la estela del mítico "Quién quiere ser millonario" para poner a prueba a Jaume y Carlos.

La cosa no termina ahí, porque Carlos y Jose —otro de los habituales de Crossover— han viajado a Los Ángeles, en Estados Unidos, y nos cuentan algunas cosas curiosas sobre su experiencia allí. ¡Esperamos que disfrutéis del episodio!

En YouTube | Crossover

-
La noticia GPT-5 nos ha dejado una sensación agridulce, jugando a quién quiere ser millonario y más en CrossOver 1x19 fue publicada originalmente en Xataka por Javier Pastor .

Leer más

Las Vivo Vision quieren acertar allí donde las Vision Pro de Apple fallaron. De momento lo hacen en lo más importante: el peso

Las Vivo Vision quieren acertar allí donde las Vision Pro de Apple fallaron. De momento lo hacen en lo más importante: el peso

El fabricante chino Vivo está de aniversario, y para celebrarlo acaba de presentar en China un producto sorpresa y muy, muy prometedor: sus nuevas gafas de realidad mixta y aumentada, las Vivo Vision Discovery Edition.

Este lanzamiento supone el debut de este fabricante en una categoría que se va a animar mucho en los próximos meses, pero lo hace adelantándose a sus competidores del mercado Android, sobre todo a la alianza Google/Samsung. Pero es que además lo hace con un argumento de lo más llamativo: el peso.

Más compactas, más ligeras, ¿más cómodas?

Así, estamos ante unas gafas que se inspiran claramente en las Vision Pro de Apple y que son muy parecidas tanto exteriormente como en sus prestaciones, pero que las superan en ese apartado de forma notable.

Así, las gafas de Apple pesan entre 600 y 650 gramos en función de la banda y almohadilla de ajuste, pero estas Vivo Vision pesan 398 gramos y son un 26% más compactas en dimensiones "que la media de la industria", aseguran sus creadores, probablemente refiriéndose precisamente al modelo de Apple.

En Vivo aseguran que estas gafas son el resultado de cuatro años de desarrollo y en su diseño han tenido muy en cuenta la comodidad a la hora de llevarlas puestas durante largas sesiones.

Vision3

En Vivo han tenido muy en cuenta la presión que las gafas ejercen en sesiones duraderas: nada de marcas alrededor de los ojos tras 30 minutos de uso, aseguran sus creadores.

Ya vimos cómo las opciones de  bandas y ajustes de las Apple Vision Pro no eran óptimas —tuvieron que sacar una opcional para resolver las quejas— y de hecho tras sesiones prolongadas lo normal es acabar con una marca alrededor de los ojos por la presión que ejercen las gafas sobre la cara.

Vision12

Ese peso es realmente sorprendente, sobre todo teniendo en cuenta que por ejemplo las VIsion Pro de Apple se sitúan en los 600-650 g.

Con las Vivo Vision ese problema parece haber desaparecido y el fabricante ofrece cuatro tamaños de sellado de luz y ocho opciones de acolchado para tratar de garantizar la máxima comodidad tanto en sesiones largas como si nos movemos con las gafas.

Vision8

El sistema operativo que gobierna estas gafas es OriginOS Vision, que ofrece una interfaz similar a la que ya habíamos visto en las Vision Pro y en Android XR. Ante nosotros aparecen una serie de de iconos por los que nos podremos mover gracias al "seguimiento ocular de precisión milimétrica" (1,5º), como apuntan en Vivo.

Vision6

La interfaz del sistema operativo OriginOS Vision es la que plantean tanto las VIsion Pro de Apple como Android XR.

El sistema de control por gestos con los dedos también parece prometedor, y según Vivo se permiten 26 grados de libertad en movimientos con los dedos, mientras que el rango vertical de seguimiento es de 175º. El manejo de las gafas es por tanto teóricamente idéntico al de las Vision Pro de Apple.

La calidad de las pantallas también es realmente prometedora, porque cuenta con pantallas dual Micro-OLED 8K con una cobertura del 94% DCI-P3 y una precisión cromática DeltaE < 2. Son palabras mayores que desde luego plantean una calidad y definición de imagen espectacular que estamos deseando poder probar.

Vision2

En el interior, otro componente crucial: el Snapdragon XR2+ Gen 2 ofrece hasta 2,5 veces el rendimiento de GPU y 8 veces el rendimiento de IA de la generación anterior de este SoC, lo que según Vivo permite ofrecer potencia de sobra para videojuegos, entretenimiento inmersivo y productividad avanzada, los tres campos en los que estas gafas de realidad mixta/aumentada quieren destacar.

Vision7

En Vivo ha llegado a acuerdos para ofrecer contenidos deportivos inmersivos, y LaLiga es una de las participantes en este proyecto, aunque no se han dado detalles específicos sobre qué podemos esperar de dicha alianza.

Por ejemplo, una de las opciones de las gafas es poner ante nosotros una pantalla virtual de 120 pulgadas en cualquier lugar para disfrutar en ella de películas, series o retransmisiones deportivas desde distintos ángulos y sin perder detalle.

Como ocurre con las Vision Pro, las Vivo Vision también hacen uso de una batería externa en formato petaca, que es la que proporciona esa autonomía que permitirá disfrutar de estas experiencias con plena movilidad sin necesidad de estar necesariamente "anclados" a un enchufe en la pared.

Vision9

Entre las opciones disponibles de uso está el de disfrutar de imágenes y vídeos espaciales similares a los que también se pueden disfrutar en las Vision Pro de Apple. Para impulsar ese tipo de contenidos Vivo ha lanzado nuevos modos de fotos e imágenes 3D en su Vivo X100 Ultra y también la posibilidad de grabar vídeo espacial a 60 fps en el Vivo X200 Ultra.

Disponibilidad y precio de las Vivo Vision

En Vivo indican que las Vivo Vision Discovery Edition estarán disponibles desde el 22 de agosto para disfrutar de experiencias de demostración en 13 tiendas físicas de la empresa en 10 ciudades en China continental.

También se pueden reservar para compra desde las plataformas oficial de Vivo, pero no hay de momento información sobre su precio. Las gafas estarán inicialmente disponibles en China, pero indican que "animamos a nuestros fans globales y los consumidores del extranjero a que estén atentos a futuras actualizaciones", planteando así su potencial disponibilidad fuera de China.

En Xataka | Google ha declarado la guerra en el segmento de la realidad aumentada. Apple y Meta no van a ponérselo fácil

-
La noticia Las Vivo Vision quieren acertar allí donde las Vision Pro de Apple fallaron. De momento lo hacen en lo más importante: el peso fue publicada originalmente en Xataka por Javier Pastor .

Leer más

Duolingo creyó que la IA era su aliada. GPT-5 acaba de demostrar que puede ser su competencia mortal

Duolingo creyó que la IA era su aliada. GPT-5 acaba de demostrar que puede ser su competencia mortal

Duolingo se hunde en bolsa. A principios de junio su acción rondaba los 525 dólares, pero ahora su valor se ha desplomado hasta los 325 dólares, un 38%. No está del todo claro qué ha provocado esta debacle, pero tenemos una sospechosa clara: la IA.

Cuidado con lo que dices. Hace tres meses Luis von Ahn, CEO de Duolingo, hizo unas declaraciones muy polémicas e indicó que sustituiría parte de su red de colaboradores externos (humanos) por sistemas de IA generativa. A pesar de que recalcaba que seguirían siendo una empresa que cuidaba mucho a sus empleados, también destacaba que la IA iría tomando un papel cada vez más notable en toda la operativa de la empresa, sobre todo para "eliminar cuellos de botella para que podamos hacer más" con los empleados que ya tenían.

Captura De Pantalla 2025 08 18 A Las 12 39 35

El valor de la acción de Duolingo ha sufrido importantes altibajos en lo que llevamos de año, pero la última tendencia es claramente negativa. Fuente: Google Finance.

Auge y caída de las acciones. Esas declaraciones se producían a finales de abril. El impacto inicial para las acciones pareció ser positivo, que pasaron de los 400 a los 530 dólares (un 32,5% de crecimiento) en pocos días. Pero poco después ese optimismo por el papel de la IA en la empresa se desvanecía entre los inversores: la acción cayó incluso por debajo de esos niveles iniciales, y ahora ronda niveles de principio de año.

Parecía que Duolingo remontaba. La empresa presentó resultados financieros recientemente y corroboró el éxito de su modelo de negocio. La sensación de progreso a la hora de aprender un idioma —la gamificación es una poderosa (y como veremos, peligrosa) herramienta— vendía más que el propio aprendizaje. Eso permitió frenar momentáneamente la caída de las acciones hace unos días, pero entonces pasó algo.

GPT-5. Durante la presentación del nuevo modelo de OpenAI hubo una demostración en la cual uno de los ingenieros de la empresa lanzaba un dardo envenenado a Duolingo. Esa demo consistía en crear una aplicación web personalizada en apenas tres minutos con la que el usuario podía aprender francés. Con un simple prompt se había creado una app que competía directamente con Duolingo, y que por supuesto evitaba pagar por esa aplicación para aprender idiomas.

Captura De Pantalla 2025 08 18 A Las 13 08 46

Ese sencillo prompt hizo que GPT-5 fuera capaz de crear una web interactiva para enseñarte a hablar en francés. Fuente: OpenAI.

Cuidado con gamificarlo todo. Aunque esa demo de GPT-5 convirtiéndose en un profesor personalizado es llamativa, la caída de valor de la acción de Duolingo puede haber estado también motivada por otras causas. En especial, por ese foco claro en la gamificación del proceso de aprendizaje. Convertir ese proceso en un juego es atractivo y anima a muchos usuarios a tomarse esa tarea de una forma más divertida, pero las críticas al excesivo foco en la gamificación de Duolingo son frecuentes. Como decía un usuario en Reddit, "para mí la recompensa para aprender un idioma es aprender el idioma". Otro explicaba que Duolingo no es una aplicación de aprendizaje, sino que hay que tomársela como otra cosa: un juego.

La condena de la publicidad. Otras críticas van dirigidas a la excesiva aparición de anuncios publicitarios cuando uno usa Duolingo para aprender un idioma. La publicidad se produce en la versión gratuita, porque la versión premium tiene la ventaja de no mostrarla. El modelo es razonable —Duolingo, después de todo, es una empresa y está ahí para ganar dinero— pero como sucede por ejemplo con el streaming, la presencia de anuncios se está incrementando y es cada vez más molesta para esos usuarios de la versión gratuita.

De apostar por la IA a estar amenazada por ella. Lo cierto es que aunque todos esos factores puedan haber influido en esa valoración, la volatilidad puede haber sido influida por esas expectativas que constantemente se viven con la IA. Las empresas que más apuestan por esta tecnología son las que más están subiendo en bolsa —que se lo digan a la "trinidad de la IA"—, aunque el impacto real de dicha tecnología sea por el momento muy discreto.

La IA como profesora particular. Lo que es indudable es que el potencial de la IA como profesora de cualquier disciplina —no ya solo de idiomas— es innegable. Es algo a lo que ya apuntó GPT-4o, cuyas demostraciones iban en la misma dirección. Por ejemplo, el vídeo del chico aprendiendo a resolver una cuestión matemática —aquí incluido— era especialmente llamativo, y aputaba a un futuro en la que quien quiera podrá sacar mucho partido de estos "profesores particulares" que podemos crear con un sencillo prompt en ChatGPT (y otros chatbots, por supuesto). Es pronto para saberlo, desde luego, pero Duolingo, como otras muchas, parece estar ya sufriendo las consecuencias de ese potencial futuro.

En Xataka | No sabemos si la IA se va a comer tu trabajo, pero los CEO de algunas startups están empeñados en convencerte de ello

-
La noticia Duolingo creyó que la IA era su aliada. GPT-5 acaba de demostrar que puede ser su competencia mortal fue publicada originalmente en Xataka por Javier Pastor .

Leer más

Duolingo creyó que la IA era su aliada. GPT-5 acaba de demostrar que puede ser su competencia mortal

Duolingo creyó que la IA era su aliada. GPT-5 acaba de demostrar que puede ser su competencia mortal

Duolingo se hunde en bolsa. A principios de junio su acción rondaba los 525 dólares, pero ahora su valor se ha desplomado hasta los 325 dólares, un 38%. No está del todo claro qué ha provocado esta debacle, pero tenemos una sospechosa clara: la IA.

Cuidado con lo que dices. Hace tres meses Luis von Ahn, CEO de Duolingo, hizo unas declaraciones muy polémicas e indicó que sustituiría parte de su red de colaboradores externos (humanos) por sistemas de IA generativa. A pesar de que recalcaba que seguirían siendo una empresa que cuidaba mucho a sus empleados, también destacaba que la IA iría tomando un papel cada vez más notable en toda la operativa de la empresa, sobre todo para "eliminar cuellos de botella para que podamos hacer más" con los empleados que ya tenían.

Captura De Pantalla 2025 08 18 A Las 12 39 35

El valor de la acción de Duolingo ha sufrido importantes altibajos en lo que llevamos de año, pero la última tendencia es claramente negativa. Fuente: Google Finance.

Auge y caída de las acciones. Esas declaraciones se producían a finales de abril. El impacto inicial para las acciones pareció ser positivo, que pasaron de los 400 a los 530 dólares (un 32,5% de crecimiento) en pocos días. Pero poco después ese optimismo por el papel de la IA en la empresa se desvanecía entre los inversores: la acción cayó incluso por debajo de esos niveles iniciales, y ahora ronda niveles de principio de año.

Parecía que Duolingo remontaba. La empresa presentó resultados financieros recientemente y corroboró el éxito de su modelo de negocio. La sensación de progreso a la hora de aprender un idioma —la gamificación es una poderosa (y como veremos, peligrosa) herramienta— vendía más que el propio aprendizaje. Eso permitió frenar momentáneamente la caída de las acciones hace unos días, pero entonces pasó algo.

GPT-5. Durante la presentación del nuevo modelo de OpenAI hubo una demostración en la cual uno de los ingenieros de la empresa lanzaba un dardo envenenado a Duolingo. Esa demo consistía en crear una aplicación web personalizada en apenas tres minutos con la que el usuario podía aprender francés. Con un simple prompt se había creado una app que competía directamente con Duolingo, y que por supuesto evitaba pagar por esa aplicación para aprender idiomas.

Captura De Pantalla 2025 08 18 A Las 13 08 46

Ese sencillo prompt hizo que GPT-5 fuera capaz de crear una web interactiva para enseñarte a hablar en francés. Fuente: OpenAI.

Cuidado con gamificarlo todo. Aunque esa demo de GPT-5 convirtiéndose en un profesor personalizado es llamativa, la caída de valor de la acción de Duolingo puede haber estado también motivada por otras causas. En especial, por ese foco claro en la gamificación del proceso de aprendizaje. Convertir ese proceso en un juego es atractivo y anima a muchos usuarios a tomarse esa tarea de una forma más divertida, pero las críticas al excesivo foco en la gamificación de Duolingo son frecuentes. Como decía un usuario en Reddit, "para mí la recompensa para aprender un idioma es aprender el idioma". Otro explicaba que Duolingo no es una aplicación de aprendizaje, sino que hay que tomársela como otra cosa: un juego.

La condena de la publicidad. Otras críticas van dirigidas a la excesiva aparición de anuncios publicitarios cuando uno usa Duolingo para aprender un idioma. La publicidad se produce en la versión gratuita, porque la versión premium tiene la ventaja de no mostrarla. El modelo es razonable —Duolingo, después de todo, es una empresa y está ahí para ganar dinero— pero como sucede por ejemplo con el streaming, la presencia de anuncios se está incrementando y es cada vez más molesta para esos usuarios de la versión gratuita.

De apostar por la IA a estar amenazada por ella. Lo cierto es que aunque todos esos factores puedan haber influido en esa valoración, la volatilidad puede haber sido influida por esas expectativas que constantemente se viven con la IA. Las empresas que más apuestan por esta tecnología son las que más están subiendo en bolsa —que se lo digan a la "trinidad de la IA"—, aunque el impacto real de dicha tecnología sea por el momento muy discreto.

La IA como profesora particular. Lo que es indudable es que el potencial de la IA como profesora de cualquier disciplina —no ya solo de idiomas— es innegable. Es algo a lo que ya apuntó GPT-4o, cuyas demostraciones iban en la misma dirección. Por ejemplo, el vídeo del chico aprendiendo a resolver una cuestión matemática —aquí incluido— era especialmente llamativo, y aputaba a un futuro en la que quien quiera podrá sacar mucho partido de estos "profesores particulares" que podemos crear con un sencillo prompt en ChatGPT (y otros chatbots, por supuesto). Es pronto para saberlo, desde luego, pero Duolingo, como otras muchas, parece estar ya sufriendo las consecuencias de ese potencial futuro.

En Xataka | No sabemos si la IA se va a comer tu trabajo, pero los CEO de algunas startups están empeñados en convencerte de ello

-
La noticia Duolingo creyó que la IA era su aliada. GPT-5 acaba de demostrar que puede ser su competencia mortal fue publicada originalmente en Xataka por Javier Pastor .

Leer más

Polestar ha roto un récord de autonomía en coches eléctricos circulando más de 900 kilómetros. Evidentemente hay truco

Polestar ha roto un récord de autonomía en coches eléctricos circulando más de 900 kilómetros. Evidentemente hay truco

935,4 kilómetros sin recargar la batería. Ese es el récord que ha conseguido un Polestar 3 convencional —en su versión de un solo motor—, demostrando así que es posible hacer viajes muy largos sin pasar por un punto de recarga. El secreto es del récord es obvio, eso sí.

Súperdespacio. Para lograr recorrer todos esos kilómetros la técnica fue sencilla: ir muy despacio. De hecho la velocidad media fue inferior a los 40 km/h, y tardaron nada menos que 22 horas y 57 minutos en completar la tarea. La autonomía publicitada por Polestar para este modelo en su versión de motor único es de 706 km, así que aquí lograron alargarla un 32.5%.

Tres conductores profesionales. Las pruebas se realizaron en Reino Unido, donde tres conductores especializados en la conducción eficiente se turnaron para lograr ese hito. El consumo final alcanzado fue de 12,1 kWh por cada 100 km, lo que supone un ahorro de cerca del 40% respecto a una conducción convencional.

Sin trucos. Este Polestar 3 logró esa autonomía sin usar equipamiento especial: tanto el coche como las ruedas eran las mismas que las que uno obtiene cuando saca el coche del concesionario. Sin embargo, es posible ir más allá si se realizan algunas modificaciones.

Si además tuneas el coche, puedes llegar aún más lejos. Hace unos días Chevrolet modificó una camioneta Silverado WT y le metió una batería enorme de 205 kWh (la del Polestar 3 es de 111 kWh). También le colocaron unas ruedas viejas con sobrepresión y 40 conductores se turnaron para conducirlo en los alrededores de Detroit.

Lograron recorrer 1.704 km con una sola carga, y como en el caso del Polestar 3 la velocidad media no superó los 40 km/h. El consumo en ese trayecto fue de 12,7 kWh a los 100 km, una cifra igualmente destacable en la que eso sí, influyó que tuvieron el aire acondicionado sin funcionar durante casi todo el recorrido.

Cuesta abajo también vale. En julio un Lucid Air Grand Touring consiguió su particular récord Guinnes al recorrer 1.205 kilómetros con una carga única. El coche cuenta con una batería con la misma capacidad que la del Polestar 3 (111 kWh), y recorrió la distancia entre St. Moritz y Munich. Aunque el coche era un modelo convencional, el Lucid se benefició tanto de una conducción eficiente como del sistema de regeneración de energía en frenadas y pendientes: esa ruta estaba llena de ellas, pero es que además era descendente en su mayor parte.

La clave no es la batería, son los consumos. Aunque obviamente la capacidad de la batería influye en la autonomía de los coches eléctricos, influye aún más el consumo de cada modelo. El Mercedes Vision EQXX por ejemplo logró un récord anterior al recorrer 1.010 km sin recargar yendo a 79,4 km/h de media... y le quedaban otros 392 kilómetros en esas condiciones.

El secreto está en que ese modelo homologa 7,4 kWh de consumo a los 100 km, mientras que por ejemplo un Tesla Model 3 de tracción trasera homologa 13,2 kWh a los 100 km. La aerodinámica ayuda, pero si a los consumos se suman cosas como una conducción eficiente y a baja velocidad, esas cifras suben notablemente.

Récords absurdos. Aunque todos estos récords son llamativos, son también un ejercicio de marketing para unas empresas que lógicamente intentan siempre lo mismo: que se hable (bien) de ellas. Aquí tenemos unos mensajes que además son hasta absurdas: ir a 40 km/h durante 23 horas tiene su recompensa en este caso, pero en la vida real sería una absoluta tortura.

La inutilidad práctica de estos récords —no solo el de Polestar— es el mismo que el que nos habla de cómo El Xiaomi SU7 batió a todos sus competidores en Nürburgring el año pasado: ninguno de nosotros vamos a ir a esas velocidades o a conducir en esos circuitos, pero los récords de velocidad siempre son llamativos. Poner al límite a estos vehículos está bien, pero es importante contemplar estos récords con perspectiva.

Imagen | Polestar

En Xataka | En 2017 Noruega se propuso que el 100% de los coches vendidos en 2025 fueran eléctricos. Está a punto de conseguirlo

-
La noticia Polestar ha roto un récord de autonomía en coches eléctricos circulando más de 900 kilómetros. Evidentemente hay truco fue publicada originalmente en Xataka por Javier Pastor .

Leer más

España se está convirtiendo en una auténtica Meca de los centros de datos. Uruguay tiene algunas lecciones al respecto

España se está convirtiendo en una auténtica Meca de los centros de datos. Uruguay tiene algunas lecciones al respecto

España está de moda entre las Big Tech. Prácticamente todas ellas han elegido nuestro país para crear en él nuevos centros de datos. Las inversiones son notables en distintas comunidades, pero Aragón es sin duda una de las que más ha apostado por estas instalaciones, pero hay (al menos) un problema.

El agua.

Así lo señala un reportaje de El País en el que se habla de los riesgos que estos nuevos centros de datos plantean no solo en España, sino en otros países como México o Chile, donde también hay fuertes inversiones de este tipo.

Aragón tiende una alfombra roja a Amazon

En el caso de España se presta especialmente a lo que ha ocurrido en los últimos meses en Huesca, donde Amazon ya tenía tres centros de datos para su plataforma AWS (en El Burgo de Ebro, Villanueva de Gállego y el polígono PHLUS en Huesca capital), pero proyecta ya uno nuevo en Walqa. La empresa anunció el año pasado una inversión de 15.700 millones ed dólares en la región entre 2024 y 2033.

A

Este proyecto planteó bastante polémica a principios de año. Fue entonces cuando los vecinos del barrio rural de Cuarte comenzaron a recibir cartas avisándoles de una expropiación de terrenos junto al Parque Tecnológico de Walqa. Entre las preocupaciones de dichos vecinos estaba la del trazado de una nueva línea eléctrica de alta tensión que atravesaba el pueblo, además del elevado consumo de recursos hídricos.

Los vecinos se reunieron con representantes de Amazon en febrero y finalmente lograron que la tecnológica desviase ese trazado de la línea de alta tensión fuera del pueblo. Amazon también llegó a un acuerdo para financiar infraestructuras para suministrar agua a Cuarte y otras poblaciones gracias a nuevas obras de canalización desde el manantial de San Julián de Banzo.

El problema energético sigue siendo llamativo. Esos centros de datos, a los que seune el que proyecta uno en La Cartuja, en Zaragoza, consumirán 10.800 GWh, una cifra enorme que supera de hecho el consumo de energía eléctrica de toda la provincia en 2024, que fue de 10,54 GWh. Para solventar ese problema la empresa ha pagado 1,5 millones de euros para ampliar la red eléctrica a todos sus centros de datos.

Pero el consumo de agua es aún más destacable. Carlos López, miembro de Ecologistas en Acción en Aragón, explicaba en El País cómo Amazon instalará dentro de sus parcelas varios pozos para extraer agua del subsuelo y así refrigerar los equipos.

Se estima que estos centros de datos consumirán más de 755.000 metros cúbicos de agua al año para refrigerar equipos, pero según López no habrá control y "no se va a poder demostrar cuánta agua van a extraer". Un portavoz de Amazon aclaraba en ese reportaje que esos pozos "están sujetos a una estructa supervisión regulatoria" y están planteados como una fuente de agua de reserva.

La empresa ya indicó este año que está usando un 48% más de agua de lo que esperaba por una razón simple: el calor. Queda por ver, por supuesto, qué ocurre cuando estos centros estén operativos: será entonces cuando se puedan valorar realmente esos consumos energéticos y de agua y su impacto real en Aragón, tanto para los consumos de sus ciudadanos y resto de industria —y en especial, el regadío— como en el caso del impacto medioambiental.

Eso hace que sea muy difícil valorar el verdadero retorno de este tipo de proyectos para países como España. Aunque es cierto que durante su construcción se genera empleo, la operativa no suele requerir tantos puestos.

En el reciente proyecto del centro de datos que Meta está creando en Talavera de la Reina (Toledo) se espera que se creen unos 5.000 empleos para su construcción. Sin embargo, cuando esté operativo Meta empleará a unos 250 profesionales para su gestión y mantenimiento.

Documentos obtenidos por el país selan que en octubre de 2021, en los tres centros de datos que existían en Aragón "el total de empleados directos en cada uno de los tres centros en Aragón no superaba en ese momento la veintena". Esa alfombra roja con la que algunas comunidades autónomas están recibiendo estas inversiones puede acabar dando muchos disgustos.

Un caso similar: Uruguay

Todo parecía prometedor en el nuevo proyecto del centro de datos que Google quería instalar en el Parque de las Ciencias, en el departamento uruguayo de Canelones, pegado a Montevideo.

Nevada1

Centros de datos de Google en Storey, Nevada. Fuente: Google.

Este centro de datos, el segundo de la compañía en América Latina, se comenzó a construir en agosto de 2024 con una inversión de más de 850 millones de dólares. No obstante el proyecto lleva desde sus inicios rodeado en una importante polémica.

A Daniel Pena, investigador de la Facultad de Ciencias Sociales de la Universidad de la República (Uruguay), algo le escamaba en ese proyecto del gigante de las búsquedas. En julio de 2022 este experto analizó el proyecto que Google presentó, pero se dio cuenta de algo importante: en ningún momento se daban detalles sobre el consumo de agua o energía que impondría dicho centro de datos.

El Ministerio de Ambiente uruguayo le denegó el acceso a esos datos, y en diciembre presentó una demanda con la ayuda de la abogada Carolina Neme. Meses después Pena pudo acceder a la información y descubrió que en una primera etapa el centro de datos necesitará 3,8 millones de litros de agua al día (3.800 metros cúbicos). En la segunda ese requisito se doblaba: necesitaría 7,6 millones de litros de agua (7.600 metros cúbicos). Pero no cualquier tipo de agua.

Agua potable.

Pena señaló que las necesidades de agua por parte de ese centro de datos eran "considerables". El consumo promedio mensual de un hogar por tres o cuatro personas es de 15 metros cúbicos, lo que significa que el centro de datos plantea un consumo equivalente al de unas 55.000-60.000 personas al día.

Google acabó modificando varios aspectos del proyecto, y entre ellos el de ese uso de agua potable. La empresa acabó obteniendo el permiso para construirlo, cuando entre otras cosas señaló que en lugar de utilizar agua potable usaría un sistema de refrigeración basado en los llamados chillers, circuitos cerrados que recirculan el agua y no la desperdician, lo que reduce de forma significativa su consumo.

Hay que señalar además que hay también sistemas de refrigeración por evaporación que no necesitan agua potable y que pueden funcionar perfectamente con agua reciclada, como por ejemplo la recuperada de otros procesos industriales. Aun así el agua utilizada debe tener una baja salinidad y mineralización para no dañar los equipos con corrosión o sedimentos.

Imagen | AWS

En Xataka | Si la pregunta es qué necesita Europa para competir con EEUU en IA, España tiene una respuesta peculiar: Tarragona

-
La noticia España se está convirtiendo en una auténtica Meca de los centros de datos. Uruguay tiene algunas lecciones al respecto fue publicada originalmente en Xataka por Javier Pastor .

Leer más

Si la pregunta es cuál de las grandes tecnológicas está ganando la carrera de la IA, la respuesta es: ninguna

Si la pregunta es cuál de las grandes tecnológicas está ganando la carrera de la IA, la respuesta es: ninguna

¿Quién está ganando la carrera de la IA? A estas alturas deberíamos tenerlo más o menos claro. Lo teníamos cuando Microsoft e Intel se perfilaron como los dominadores del mundo del PC o cuando Apple y Google triunfaron con sus smartphones. Pero con la IA ocurre algo curioso: las cosas están muy igualadas.

De, hecho, demasiado.

Desde luego en el ámbito de la popularidad OpenAI es la más destacada con ChatGPT. Hace poco la empresa presumía de estar rozando los 700 millones de usuarios semanales activos, una cifra realmente notable que deja atrás a sus competidoras. Sin embargo, esa métrica no es de momento definitiva, sobre todo cuando tenemos una gran incógnita que dilucidar: ¿Cuál es el mejor modelo de IA?

Es imposible saber a día de hoy cuál es el mejor modelo de IA

Nadie puede dar una respuesta clara a esa pregunta. Ni las empresas, que sacan pecho continuamente con sus nuevas versiones, ni los benchmarks, que se han convertido en una herramienta útil pero imperfecta a la hora de evaluar la calidad de esos modelos. 

Captura De Pantalla 2025 08 11 A Las 14 44 59

En Polymarket la gente creía que el mejor modelo de IA a finales de agosto iba a ser OpenAI. Tras salir GPT-5, la percepción cambió.

Que la respuesta a esa pregunta es difícil lo demuestra Polymarket, esta singular plataforma de predicción en la que los usuarios apuestan por un resultado y lo hacen además pagando por votar a una u otra conclusión. A la pregunta de "¿Qué compañía tiene el mejor modelo de IA a finales de agosto?

Todo parecía sonreirle a OpenAI, pero tras el lanzamiento de GPT-5, el batacazo: ahora el claro favorito es Gemini, el modelo de Google, con OpenAI desplomándose al 16% de los votos y aún más atrás Grok (xAI) con un 6,3% de votos y Claude (Anthropic) con un bajísimo (en mi opinión) 1,5%.

No es que Polymarket sea un indicador especialmente fiable de esto (ni de nada), pero deja claro que la percepción pública de estos modelos puede ser muy distinta de su comportamiento real en cosas como su número de usuarios —aquí OpenAI tumba a sus competidores— o su rendimiento en pruebas como ARC-AGI 2 (donde Grok 4 gana a todos, incluido GPT-5).

Arc Agi 2

En el benchmark de pensamiento abstracto ARC-AGI 2, Grok 4 está muy por encima de sus competidores. Incluido GPT-5, que supera por muy poco a Claude Opus 4. Fuente: ARC-AGI.

Y eso nos deja aún más claro cuáles son los dos grandes motivos por los que es un verdadero problema saber qué modelo de IA está ganando esta carrera. El primero, que esas pruebas son a menudo muy específicas y concretas, y se centran en evaluar aspectos como la capacidad de programar o resolver problemas matemáticos de estos modelos.

Y el segundo, que los modelos no paran de mejorar y de ir superando lo que sus rivales habían logrado unos días, semanas o meses antes. No paramos de ver cómo nuevas versiones de los modelos son (lógicamente) algo mejores programando, generando texto o imágenes o resolviendo cierto tipo de problemas, pero no hay una forma consensuada ni definitiva de decir "este modelo es mejor".

Como hemos visto, cada usuario tiene además su propia percepción personal (hola, Polymarket) al usarlos. Unos prefieren Claude para programar, otros ChatGPT para preguntas genéricas, otros Gemini para conversar sobre temas diversos y para aprender, por ejemplo. Y ninguno parece ser el modelo definitivo "para todo".

Captura De Pantalla 2025 08 11 A Las 15 16 24

En un reciente estudio científico, el investigador Steve Hsu llegaba a la conclusión de que el camino que siguen los modelos de IA generativa actuales no llevará a la AGI. Ni ahora, ni nunca.

Eso nos lleva a una reflexión: la de que esa inteligencia artificial general (AGI) está lejos de llegar. Esos sistemas, que se supone nos iban a superar en todas las áreas, no están ni remotamente cerca de hacerlo, y siguen cometiendo errores aun cuando por ejemplo GPT-5 parece haber mitigado sensiblemente el problema de las alucinaciones. Analistas como Gary Marcus nos recordaban estos días que llevan cerca de 30 años diciendo lo mismo: que con este tipo de técnicas de escalado no vamos a llegar a una AGI y que el camino tiene que ser otro.

Y eso nos deja algunas ideas interesantes.

David Sacks —cofundador de PayPal, fundador de Yammer, inversor— analizaba la situación de este segmento y planteaba conclusiones llamativas. Las cinco principales empresas que desarrollan modelos fundacionales —OpenAI, Google, Meta, Anthropic o xAI— siguen sin dominar el mercado, pero eso es (o puede ser) buena noticia.

Y lo es porque no hay ni un monopolio ni un duopolio de la IA. Lo que hay es una competencia feroz no solo entre estas cinco empresas norteamericanas, sino entre ellas y todas sus competidoras chinas, a las que se suman un montón de startups que no tienen recursos para trabajar en modelos fundacionales —carísimos— y en su lugar tratan de resolver otra gran pregunta: cuál es la killer app de la IA.

Ahí es donde hay grandes oportunidades para estas startups, que pueden resolver casos de éxito en los que la IA realmente pueda ser una disrupción para una industria. Es por ejemplo lo que han hecho empresas emergentes como Cursor o Windsurf, que han apostado por el auge del vibe coding y están captando mucho interés entre el segmento de los desarrolladores.

De hecho, cada vez vemos cómo incluso las grandes de la IA presumen de que sus nuevos modelos programan especialmente bien o quizás están más orientadas que nunca a resolver problemas matemáticos. GPT-5 precisamente esgrime esos dos argumentos para declararse mejor que la competencia, y aunque algunos benchmarks le dan la razón, la percepción de los usuarios determinará si cumplen con las expectativas o no.

Pero también está ese gran debate entre los modelos propietarios (como GPT-5) y los modelos Open Source. Como dice Sacks, el hecho de que los modelos Open Source puedan ofrecer un 80-90% de la capacidad con un coste del 10-20% de los modelos fundacionales es sensacional para ciertos usuarios.

En concreto, para los que priorizan personalización, control y ahorro de costes sobre el uso de modelos fundacionales. China va a por todas con esa filosofía, aunque curiosamente fue Meta la que enseñó el camino —que ahora parece haber descartado— y OpenAI acaba de cogerlo como plan B.

Una ganadora insospechada de la carrera de la IA: Apple

Han pasado casi tres años desde que OpenAI lanzara ChatGPT, y en todo este tiempo hemos asistido al auge frenético de la IA. Las promesas y las expectativas lo han inundado todo, y aunque estos modelos han demostrado ser muy útiles y ciertamente sorprendentes en algunos escenarios, la revolución real no está ahí.

Capex

Los gastos de capital proyectados para 2025 por parte de las Big Tech son extraordinarios excepto en un caso: Apple, que parece no confiar demasiado en la IA. Al menos, de momento.

Pero mientras se produce, casi todas las grandes empresas tecnológicas se han gastado cantidades irreverentes de dinero para desarrollar sus modelos de IA o infraestructura con la que soportar la teórica demanda de un mundo ávido por conversar con sus chatbots.

Y sin embargo, todas ellas están perdiendo dinero a lo grande. Las inversiones siguen sin ser rentables y no está claro cuándo lo serán (si es que lo son alguna vez), pero hay una Big Tech que se ha mantenido en un sorprendente segundo plano: Apple.

Puede que ellos mismos fueran los que decidieron perder el tren y cogerlo si por fin tenía sentido hacerlo. Puede que lo perdieran por negligencia o por un error de cálculo. Sea como fuere, Apple no trabaja en grandes modelos fundacionales ni tampoco en crear una red gigantesca de centros de datos.

Así que en lugar de apostarlo todo a la IA inmediatamente, en Apple se mantienen en un discretísimo —y decepcionante— segundo plano, con una implementación muy pobre de opciones de IA en sus sistemas operativos y con un claro fiasco y retraso en el despliegue de la nueva versión de Siri.

En lugar de eso, Apple parece confiar en acabar creando la killer app de la IA. Esa que pueda demostrar que esta tecnología era una commodity y lo que importa no era tener el mejor modelo fundacional, sino en saber aplicarlo y aprovecharlo. 

El enfoque de la compañía de Cupertino parece claro: apuestan una vez más por la privacidad y por poder ejecutar esos modelos en local. Eso, conjugado con la obsesión de Tim Cook por las gafas de realidad aumentada podría acabar dando resultado —unas Meta RayBan con mucha IA, pero de Apple—, pero hoy por hoy todo son cábalas y especulación.

Si esa es realmente la apuesta de Apple, lo va a tener complicado. Sobre todo porque no va a estar sola en ese ámbito. Google está trabajando en sus propias gafas de realidad aumentada con IA, y desde luego Meta lleva tiempo en esa batalla y es referente absoluto (sin olvidar la alianza OpenAI-Jony Ive). Las empresas tecnológicas chinas tampoco van a dejar escapar su oportunidad, pero si hay una empresa que sabe combinarlo software y hardware de forma notable, esa es Apple. 

Todo está por ver, pero lo que está claro es que hoy por hoy ninguna empresa está ganando la carrera de la IA. Y ahí está lo emocionante.

Imagen | Xataka con ChatGPT

En Xataka | ¿Es Tim Cook el Ballmer de Apple y es Nadella el Jobs de Microsoft?

-
La noticia Si la pregunta es cuál de las grandes tecnológicas está ganando la carrera de la IA, la respuesta es: ninguna fue publicada originalmente en Xataka por Javier Pastor .

Leer más

Si la pregunta es cuál de las grandes tecnológicas está ganando la carrera de la IA, la respuesta es: ninguna

Si la pregunta es cuál de las grandes tecnológicas está ganando la carrera de la IA, la respuesta es: ninguna

¿Quién está ganando la carrera de la IA? A estas alturas deberíamos tenerlo más o menos claro. Lo teníamos cuando Microsoft e Intel se perfilaron como los dominadores del mundo del PC o cuando Apple y Google triunfaron con sus smartphones. Pero con la IA ocurre algo curioso: las cosas están muy igualadas.

De, hecho, demasiado.

Desde luego en el ámbito de la popularidad OpenAI es la más destacada con ChatGPT. Hace poco la empresa presumía de estar rozando los 700 millones de usuarios semanales activos, una cifra realmente notable que deja atrás a sus competidoras. Sin embargo, esa métrica no es de momento definitiva, sobre todo cuando tenemos una gran incógnita que dilucidar: ¿Cuál es el mejor modelo de IA?

Es imposible saber a día de hoy cuál es el mejor modelo de IA

Nadie puede dar una respuesta clara a esa pregunta. Ni las empresas, que sacan pecho continuamente con sus nuevas versiones, ni los benchmarks, que se han convertido en una herramienta útil pero imperfecta a la hora de evaluar la calidad de esos modelos. 

Captura De Pantalla 2025 08 11 A Las 14 44 59

En Polymarket la gente creía que el mejor modelo de IA a finales de agosto iba a ser OpenAI. Tras salir GPT-5, la percepción cambió.

Que la respuesta a esa pregunta es difícil lo demuestra Polymarket, esta singular plataforma de predicción en la que los usuarios apuestan por un resultado y lo hacen además pagando por votar a una u otra conclusión. A la pregunta de "¿Qué compañía tiene el mejor modelo de IA a finales de agosto?

Todo parecía sonreirle a OpenAI, pero tras el lanzamiento de GPT-5, el batacazo: ahora el claro favorito es Gemini, el modelo de Google, con OpenAI desplomándose al 16% de los votos y aún más atrás Grok (xAI) con un 6,3% de votos y Claude (Anthropic) con un bajísimo (en mi opinión) 1,5%.

No es que Polymarket sea un indicador especialmente fiable de esto (ni de nada), pero deja claro que la percepción pública de estos modelos puede ser muy distinta de su comportamiento real en cosas como su número de usuarios —aquí OpenAI tumba a sus competidores— o su rendimiento en pruebas como ARC-AGI 2 (donde Grok 4 gana a todos, incluido GPT-5).

Arc Agi 2

En el benchmark de pensamiento abstracto ARC-AGI 2, Grok 4 está muy por encima de sus competidores. Incluido GPT-5, que supera por muy poco a Claude Opus 4. Fuente: ARC-AGI.

Y eso nos deja aún más claro cuáles son los dos grandes motivos por los que es un verdadero problema saber qué modelo de IA está ganando esta carrera. El primero, que esas pruebas son a menudo muy específicas y concretas, y se centran en evaluar aspectos como la capacidad de programar o resolver problemas matemáticos de estos modelos.

Y el segundo, que los modelos no paran de mejorar y de ir superando lo que sus rivales habían logrado unos días, semanas o meses antes. No paramos de ver cómo nuevas versiones de los modelos son (lógicamente) algo mejores programando, generando texto o imágenes o resolviendo cierto tipo de problemas, pero no hay una forma consensuada ni definitiva de decir "este modelo es mejor".

Como hemos visto, cada usuario tiene además su propia percepción personal (hola, Polymarket) al usarlos. Unos prefieren Claude para programar, otros ChatGPT para preguntas genéricas, otros Gemini para conversar sobre temas diversos y para aprender, por ejemplo. Y ninguno parece ser el modelo definitivo "para todo".

Captura De Pantalla 2025 08 11 A Las 15 16 24

En un reciente estudio científico, el investigador Steve Hsu llegaba a la conclusión de que el camino que siguen los modelos de IA generativa actuales no llevará a la AGI. Ni ahora, ni nunca.

Eso nos lleva a una reflexión: la de que esa inteligencia artificial general (AGI) está lejos de llegar. Esos sistemas, que se supone nos iban a superar en todas las áreas, no están ni remotamente cerca de hacerlo, y siguen cometiendo errores aun cuando por ejemplo GPT-5 parece haber mitigado sensiblemente el problema de las alucinaciones. Analistas como Gary Marcus nos recordaban estos días que llevan cerca de 30 años diciendo lo mismo: que con este tipo de técnicas de escalado no vamos a llegar a una AGI y que el camino tiene que ser otro.

Y eso nos deja algunas ideas interesantes.

David Sacks —cofundador de PayPal, fundador de Yammer, inversor— analizaba la situación de este segmento y planteaba conclusiones llamativas. Las cinco principales empresas que desarrollan modelos fundacionales —OpenAI, Google, Meta, Anthropic o xAI— siguen sin dominar el mercado, pero eso es (o puede ser) buena noticia.

Y lo es porque no hay ni un monopolio ni un duopolio de la IA. Lo que hay es una competencia feroz no solo entre estas cinco empresas norteamericanas, sino entre ellas y todas sus competidoras chinas, a las que se suman un montón de startups que no tienen recursos para trabajar en modelos fundacionales —carísimos— y en su lugar tratan de resolver otra gran pregunta: cuál es la killer app de la IA.

Ahí es donde hay grandes oportunidades para estas startups, que pueden resolver casos de éxito en los que la IA realmente pueda ser una disrupción para una industria. Es por ejemplo lo que han hecho empresas emergentes como Cursor o Windsurf, que han apostado por el auge del vibe coding y están captando mucho interés entre el segmento de los desarrolladores.

De hecho, cada vez vemos cómo incluso las grandes de la IA presumen de que sus nuevos modelos programan especialmente bien o quizás están más orientadas que nunca a resolver problemas matemáticos. GPT-5 precisamente esgrime esos dos argumentos para declararse mejor que la competencia, y aunque algunos benchmarks le dan la razón, la percepción de los usuarios determinará si cumplen con las expectativas o no.

Pero también está ese gran debate entre los modelos propietarios (como GPT-5) y los modelos Open Source. Como dice Sacks, el hecho de que los modelos Open Source puedan ofrecer un 80-90% de la capacidad con un coste del 10-20% de los modelos fundacionales es sensacional para ciertos usuarios.

En concreto, para los que priorizan personalización, control y ahorro de costes sobre el uso de modelos fundacionales. China va a por todas con esa filosofía, aunque curiosamente fue Meta la que enseñó el camino —que ahora parece haber descartado— y OpenAI acaba de cogerlo como plan B.

Una ganadora insospechada de la carrera de la IA: Apple

Han pasado casi tres años desde que OpenAI lanzara ChatGPT, y en todo este tiempo hemos asistido al auge frenético de la IA. Las promesas y las expectativas lo han inundado todo, y aunque estos modelos han demostrado ser muy útiles y ciertamente sorprendentes en algunos escenarios, la revolución real no está ahí.

Capex

Los gastos de capital proyectados para 2025 por parte de las Big Tech son extraordinarios excepto en un caso: Apple, que parece no confiar demasiado en la IA. Al menos, de momento.

Pero mientras se produce, casi todas las grandes empresas tecnológicas se han gastado cantidades irreverentes de dinero para desarrollar sus modelos de IA o infraestructura con la que soportar la teórica demanda de un mundo ávido por conversar con sus chatbots.

Y sin embargo, todas ellas están perdiendo dinero a lo grande. Las inversiones siguen sin ser rentables y no está claro cuándo lo serán (si es que lo son alguna vez), pero hay una Big Tech que se ha mantenido en un sorprendente segundo plano: Apple.

Puede que ellos mismos fueran los que decidieron perder el tren y cogerlo si por fin tenía sentido hacerlo. Puede que lo perdieran por negligencia o por un error de cálculo. Sea como fuere, Apple no trabaja en grandes modelos fundacionales ni tampoco en crear una red gigantesca de centros de datos.

Así que en lugar de apostarlo todo a la IA inmediatamente, en Apple se mantienen en un discretísimo —y decepcionante— segundo plano, con una implementación muy pobre de opciones de IA en sus sistemas operativos y con un claro fiasco y retraso en el despliegue de la nueva versión de Siri.

En lugar de eso, Apple parece confiar en acabar creando la killer app de la IA. Esa que pueda demostrar que esta tecnología era una commodity y lo que importa no era tener el mejor modelo fundacional, sino en saber aplicarlo y aprovecharlo. 

El enfoque de la compañía de Cupertino parece claro: apuestan una vez más por la privacidad y por poder ejecutar esos modelos en local. Eso, conjugado con la obsesión de Tim Cook por las gafas de realidad aumentada podría acabar dando resultado —unas Meta RayBan con mucha IA, pero de Apple—, pero hoy por hoy todo son cábalas y especulación.

Si esa es realmente la apuesta de Apple, lo va a tener complicado. Sobre todo porque no va a estar sola en ese ámbito. Google está trabajando en sus propias gafas de realidad aumentada con IA, y desde luego Meta lleva tiempo en esa batalla y es referente absoluto (sin olvidar la alianza OpenAI-Jony Ive). Las empresas tecnológicas chinas tampoco van a dejar escapar su oportunidad, pero si hay una empresa que sabe combinarlo software y hardware de forma notable, esa es Apple. 

Todo está por ver, pero lo que está claro es que hoy por hoy ninguna empresa está ganando la carrera de la IA. Y ahí está lo emocionante.

Imagen | Xataka con ChatGPT

En Xataka | ¿Es Tim Cook el Ballmer de Apple y es Nadella el Jobs de Microsoft?

-
La noticia Si la pregunta es cuál de las grandes tecnológicas está ganando la carrera de la IA, la respuesta es: ninguna fue publicada originalmente en Xataka por Javier Pastor .

Leer más

La IA ha convertido las entrevistas de trabajo en un circo de tramposos. Así que las empresas están volviendo a lo presencial

La IA ha convertido las entrevistas de trabajo en un circo de tramposos. Así que las empresas están volviendo a lo presencial

Las entrevistas de trabajo virtuales son ya lo normal en procesos de búsqueda de empleo. El problema es que en ciertos ámbitos, como en el de los ingenieros software y programadores, los candidatos suelen aprovechar herramientas de IA para hacer trampas. La tendencia es tan preocupante que algunas empresas ya están volviendo a lo que siempre funcionó: las entrevistas en persona.

Google te quiere conocer en persona. Sundar Pichai, CEO de Google, explicaba en junio en el podcast de Lex Friedman esa renovación de las políticas de la empresa a la hora de contratar ciertos perfiles. "Estamos asegurándonos de que introducimos al menos una ronda de entrevista presecial para los candidatos, solo para asegurarno de que los aspectos fundamentales se cumplen".

Vuelta a lo presencial. El mensaje de Pichai es el mismo que están adoptando otras empresas como Apple, Meta, Cisco o la consultora McKinsey, que están entre un creciente número de compañías que están recuperando las entrevistas cara a cara con los candidatos en diversas etapas del proceso de selección. Mike Kyle, de la agencia de empleo Coda Search/Staffing, explicaba cómo la cuota de empresas que tienen como requisito hacer entrevistas presenciales ha pasado a ser del 30%, cuando en 2024 era de tan solo el 5%.

Si quieres qué sueldo te ofrezco, necesito conocerte. Esa vuelta a las entrevistas presenciales suele además centrarse en la última parte del proceso de selección, pero en realidad se puede producir en cualquier momento. Si no te presentas físicamente en algún momento en ese proceso, no sabrás qué condiciones (salario incluido) te ofrece la empresa.

Programadores tramposos. Como decíamos, eso es especialmente cierto para perfiles como el de los programadores. Durante algunas fases de las entrevistas suelen plantearse sesiones en tiempo real en las que los candidatos deben resolver algún problema de programación. En entrevistas virtuales lo que ha sucedido es que los entrevistados hacen trampas y utilizan la IA para resolver el problema, lo que no deja claro si esos candidatos cumplen o no con los requisitos.

La IA se ha convertido en un problema. El resurgimiento de las entrevistas en persona trata de mitigar el problema que la IA ha planteado. Las empresas que ofrecen puestos de trabajo han acabado usando sistemas de IA para filtrar a los candidatos, que suelen inundar esas ofertas porque también usan IA para generar sus CVs adaptados a cada puesto y automatizar la solicitud de diversos puestos de forma rápida.

El arte de las trampas Hace unos meses contábamos como un estudiante logró superar una entrevista técnica de Amazon gracias al uso de IA. Aquello le dio una idea inquietante, porque creó una startup llamada Cluely para ayudar a otros a hacer lo mismo o para hacer exámanes. Una que de hecho publicita con un mensaje insólito: "haz trampas en todo". La idea parece haber gustado, porque la firma de inversión a16z ya ha inyectado 15 millones de dólares en el proyecto.

Deepfakes que se entrevistan por ti. Ese es un buen ejemplo de una tendencia peligrosa. No es ya que los candidatos traten de engañar a las empresas sobre sus capacidades reales gracias a la IA: es que hay gente que está utilizando estos métodos de forma mucho más preocupante. El FBI advertía ya en 2023 de un fraude que involucró a miles de norcoreanos que simulaban ser norteamericanos buscando trabajar de forma remota en empresas de EEUU. Su forma de hacerlo era realmente llamativa y compleja.

Cuidado con murmurar. Las empresas que usan entrevistas virtuales en sus procesos de selección están también prestando especial atención a estas trampas. De hecho, algunas tratan de detectarlas vigilando indicios que pueden apuntar a un fraude: murmurar fuera de pantalla o teclear y luego hacer una pausa antes de responder (esperando a ver qué les dice el ChatGPT de turno para leer esa respuesta) suele ser una pista para cazar a candidatos tramposos.

Imagen | Mina Rad

En Xataka | Disimular los huecos en el currículum de una carrera laboral intermitente: el arte de no engañar sin decir toda la verdad

-
La noticia La IA ha convertido las entrevistas de trabajo en un circo de tramposos. Así que las empresas están volviendo a lo presencial fue publicada originalmente en Xataka por Javier Pastor .

Leer más

Lo malo del Framework Desktop es que tiene la memoria soldada. Lo bueno también

Lo malo del Framework Desktop es que tiene la memoria soldada. Lo bueno también

En 2021 el panorama de los portátiles era desolador en un apartado clave: el derecho a reparar. Los fabricantes cada vez hacían más difícil intentar solucionar problemas o actualizar estas máquinas. Fue entonces cuando una pequeña y desconocida empresa nos mostró que había una alternativa. Esa empresa se llamaba (y se llama) Framework.

Sus portátiles modulares han demostrado desde entonces ser un referente absoluto en reparabilidad y capacidad de expansión, y en los últimos años han mantenido esa tradición. Hace unos meses adelantaron el lanzamiento de dos nuevos modelos de portátiles, pero junto a ellos llegaba una máquina sorprendente: un miniPC de sobremesa que, curiosamente, parecía una traición a los principios de la compañía.

Esa máquina no es otra que el Framework Desktop, un equipo diferente tanto por su exterior como por su interior. Para empezar, estamos hablando de un equipo en formato miniPC con una placa mini-ITX y una caja diminuta con un volumen de 4,5 litros.

Esa caja tiene además un diseño diferenciador con un panel frontal en el que podemos colocar 21 "baldosas" que además podremos personalizar imprimiéndolas en 3D nosotros mismos (los diseños para hacerlo están disponibles).

F1

El equipo presume también de esos puertos modulares ya célebres en sus portátiles y que permiten crear una configuración de entradas y salidas a medida. Podemos comprarlos por separado e ir incorporando nuevos módulos cuando lo necesitemos. Eso en lo que respecta al exterior. En el interior, las especificaciones técnicas son las siguientes:


Framework Desktop

Procesador

AMD Ryzen AI Max 385 (8 núcleos, 16 hilos, hasta 5,0 GHz,soldado)

AMD Ryzen AI Max+ 395 (16 núcleos, 32 hilos, hasta 5,1 GHz,soldado)

GPU

Radeon 8050S Graphics (32 núcleos, 2,8 GHz)

Radeon 8060S Graphics (40 núcleos, 2,9 GHz)

NPU

Hasta 50 TOPS

Memoria

32 / 64 / 128 GB

LPDDR5x-8000 soldada

Almacenamiento

FlexATX 400W

Puertos Frontales

2 x Módulos de E/S personalizables

Puertos traseros

1 x HDMI 2.1

2 x DisplayPort 2.1

2 x USB-C (USB4)

1 x RJ45 (5GbE)

2 x USB-A (USB 3.2 Gen1)

1 x minijack 3,5 mm

Alimentación

FlexATX 400W

Dimensiones y peso

96.8 x 205.5 x 226.1mm

3,1 kg

Caja Mini-ITX de 4,5 l

Precio

Desde 1.309 euros

En esas especificaciones sorprende como decimos encontrarnos con una configuración en la que el SoC de AMD (con la CPU, la GPU integrada y la NPU) está soldada a la placa base, pero es que también lo está la memoria. Eso parece una traición al espíritu "reemplazable y reparable" de los equipos de Framework, y es algo que ya ha provocado algunas críticas.

Una workstation de IA para todos los públicos

Algunos de los análisis independientes que han evaluado el equipo lo critican por eso. Sin embargo esa decisión tiene su razón de ser: como explicaban los responsables de la compañía en el anuncio oficial:

"Para habilitar el enorme ancho de banda de memoria de 256 GB/s que ofrece Ryzen AI Max, se ha soldado la LPDDR5x. Pasamos meses trabajando con AMD para explorar formas de solucionar esto, pero finalmente determinamos que no era técnicamente viable instalar memoria modular con un alto rendimiento con el bus de memoria de 256 bits".

F2

Es un argumento razonable, sobre todo teniendo en cuenta que aunque este equipo tiene cierta personalidad gaming, su verdadero foco es otro. Estos equipos hacen uso de una arquitectura unificada de memoria (UMA) que hace que no haya memoria dedicada de vídeo: la GPU usa la memoria RAM como memoria de vídeo, así que los 32, 64 o 128 GB de RAM se comparten entre CPU y GPU. Es una idea similar a la que maneja Apple en sus chips Mx: allí la memoria unificada permite ser utilizada indistintamente por parte de la CPU o de la GPU.

Y ahí está lo interesante de estas máquinas, que son en esencia estaciones de trabajo asequibles para trabajar con modelos de IA en local. Ya hablábamos esta semana de cómo gpt-oss-20b, el modelo abierto de OpenAI, era estupendo pero demostraba que tener mucha memoria gráfica era importante para este tipo de escenarios.

F4

Pues bien, el Framework Desktop plantea una alternativa decente a los equipos de Apple y a su memoria unificada. Si por ejemplo compráramos el modelo de 128 GB de RAM (2.359 euros), podríamos dedicar hasta 112 GB de los disponibles para memoria de vídeo. Eso da mucho juego para trabajar con modelos pesados como la variante "grande" de OpenAI (gpt-oss-120b) o, como explican en Framework, con modelos como Llama 3.3 70B Q6, por ejemplo.

De hecho, ahí es donde realmente aporta valor este equipo, que además mantiene un perfil bajo en cuanto a potencia (el pico de consumo es de 140W) y también en ruido. No estamos pues ante un competidor de equipos gaming con gráficas dedicadas: si lo que queréis es jugar a toda pastilla (incluso en formato miniPC), esta quizás no sea la mejor alternativa.

Pero si queréis sois más bien gamers ocasionales y lo que os interesa es tener un equipo de trabajo potente y que os permita experimentar con modelos de IA en local, estamos ante la que probablemente es una de las mejores alternativas actuales si buscáis un equipo compacto, eficiente y silencioso.

Las otras opciones son claras: un Mac de gama alta con la máxima cantidad de memoria unificada que podáis pagar, o bien un PC en el que combinéis varias gráficas dedicadas (para sumar sus memorias gráficas) y que por tanto consumirá mucha energía, será voluminoso y previsiblemente hará bastante ruido.

¿Podría Framework Desktop haber sido un equipo más modular, reparable y reemplazable? Sin duda. Pero eso es lo que ya son la mayoría de PCs actuales. Aquí el fabricante ha tomado otro camino, y creemos que es un planteamiento muy intersante. Ahora serán los usuarios los que decidirán (decidiréis).

En Xataka | El polémico "ratón eterno" de Logitech no necesita suscripciones. Lo que necesita es ser reparable

-
La noticia Lo malo del Framework Desktop es que tiene la memoria soldada. Lo bueno también fue publicada originalmente en Xataka por Javier Pastor .

Leer más