Hace un cuarto de siglo un estudiante unió 32 tarjetas gráficas GeForce para jugar a Quake III. De allí salió CUDA

Hace un cuarto de siglo un estudiante unió 32 tarjetas gráficas GeForce para jugar a Quake III. De allí salió CUDA

En el año 2000 Ian Buck quiso hacer algo que parecía imposible: jugar a Quake III en resolución 8K. El joven Buck estaba estudiando informática en Stanford y especializándose en gráficos computerizados, y entonces se le ocurrió una idea loca: unir 32 tarjetas gráficas GeForce y renderizar Quake III en ocho proyectores colocados estratégicamente. 

"Aquello", explicó años más tarde, "era precioso". 

Buck contó esa historia en 'The Thining Machine', el ensayo publicado por Stephen Witt en 2025 que recorre la historia de NVIDIA. Y por supuesto una de las partes fundamentales de esa historia es el origen de CUDA, la arquitectura que los desarrolladores de IA han convertido en una joya y que ha permitido impulsar a la empresa y convertirla en la más importante del mundo por capitalización bursátil.

Y todo empezó con Quake III.

La GPU como supercomputadora doméstica

Aquello, por supuesto, solo fue un experimento divertido, pero para Buck fue una revelación, porque allí descubrió que quizás las chips gráficos especializados (GPUs, por Graphic Processing Units) podían hacer algo más que dibujar triángulos y renderizar fotogramas de Quake. 

Geforce 8800 Gts

En 2006 la GeForce 8800 GTS (y su versión superior, la GTX) iniciaron la era CUDA.

Para averiguarlo se adentró en los aspectos técnicos de los procesadores gráficos de NVIDIA y comenzó a investigar sobre sus posibilidades como parte de su doctorado de Stanford. Reunió a un pequeño grupo de investigadores y, con una subvención del DARPA (Defense Advanced Research Projects Agency)  comenzó a trabajar en un lenguaje de programación d ecódigo abierto al que llamó Brook. 

Ese lenguaje permitía algo asombroso: lograr que las tarjetas gráficas se convirtieran en supercomputadoras domésticas. Buck demostró que las GPUs, teóricamente dedicadas a trabajar con gráficos, podían resolver problemas de propósito general, y hacerlo además aprovechando el paralelismo que ofrecían esos chips.

Así, mientras una parte del chip iluminaba el triángulo A, otro ya estaba rasterizando el triángulo B y otro escribiendo el triángulo C en memoria. No era exactamente lo mismo que el paralelismo de datos actual, pero aun así ofrecía una potencia de cálculo asombrosa, muy superior a cualquier CPU de la época.

Aquel lenguaje especializado acabó convirtiéndose en un paper llamado 'Brook for GPUs: stream computing on graphics hardware'. De repente la computación paralela estaba disponible para cualquiera, y aunque aquel proyecto apenas tuvo cobertura pública, se convirtió en algo que una persona tuvo claro que era importante. 

Esa persona era Jensen Huang.

Poco después de publicar ese estudio, el fundador de NVIDIA se reunió con Buck y lo fichó en el acto. Se dio cuenta de que aquella capacidad de los procesadores gráficos podía y debía explotarse, y comenzó a dedicar más y más recursos a ello. 

Nace CUDA

Cuando en 2005 Silicon Graphics se hundió —por culpa de una NVIDIA que estaba intratable en estaciones de trabajo— muchos de sus empleados acabaron trabajando para la compañía. 1.200 de ellos de hecho fueron directos a la división de I+D, y uno de los grandes proyectos de esa división era precisamente el de sacar adelante esa capacidad de estas tarjetas.

Nickolls Buck

John Nickolls / Ian Buck.

Nada más llegar a NVIDIA, Ian Buck comenzó a trabajar con John Nickolls, que antes de trabajar para la firma había intentando —sin éxito— adelantarse al futuro con su apuesta por la computación paralela. Aquel intento fracasó, pero junto con Buck y algunos ingenieros más puso en marcha un proyecto al que NVIDIA prefirió dar un nombre algo confuso. Lo llamó Compute Unified Domain Architecture. 

Había nacido CUDA.

El trabajo en CUDA avanzó rápidamente y NVIDIA lanzó la primera versión de esta tecnología en noviembre de 2006. Aquel software era gratuito, pero solo era compatible con hardware de NVIDIA. Y como suele suceder con muchas revoluciones, CUDA tardó en cuajar. 

En 2007 la plataforma software se descargó 13.000 veces: los cientos de millones de usuarios de gráficas de NVIDIA solo las querían para jugar, y así siguió siendo durante mucho tiempo. Programar para sacar provecho de CUDA era difícil, y esos primeros tiempos fueron muy difíciles para este proyecto, que consumía mucho talento y finanzas en NVIDIA sin que se vieran beneficios reales. 

De hecho, los primeros usos de CUDA no tuvieron nada que ver con inteligencia artificial porque apenas se hablaba de inteligencia artificial en aquel momento. Quienes aprovecharon esta tecnología eran departamentos científicos, y solo años después se perfilaría la revolución que podría provocar esta tecnología. 

Un éxito tardío (pero merecido)

De hecho, el propio Buck lo apuntó en una entrevista en 2012 con Tom's Hardware en 2012. Cuando el entrevistador le preguntó qué futuros usos le veía a la tecnología GPGPU que ofrecía CUDA en el futuro, él dio algunos ejemplos. 

Habló de empresas que estaban usando CUDA para diseñar ropa o coches de última generación, pero añadió algo importante: 

"En el futuro, seguiremos viendo oportunidades en los medios personales, como la clasificación y búsqueda de fotos basadas en el contenido de la imagen, es decir, rostros, ubicación, etc., que es una operación que requiere una gran capacidad de cálculo".

Aquí Buck sabía de lo que hablaba, aunque no se imaginaba que aquello sí sería el principio de la verdadera revolución de CUDA. En 2012 dos jóvenes estudiantes de doctorado llamados Alex Krizhevsky e Ilya Sutskever desarrollaron un proyecto bajo la tutela de su supervisor, Geoffrey Hinton.

Aquel proyecto no era otro que AlexNet, el software que permitía clasificar imágenes de forma automática y que hasta entonces había sido un reto inútil por el coste de la computación que requería. Fue entonces cuando estos académicos entrenaron una red neuronal con tarjetas gráficas de NVIDIA y con el software CUDA. 

De repente la IA y CUDA comenzaban a tener sentido. 

El resto, como suele decirse, es historia.

En Xataka | Nos podemos ir olvidando de una IA sin alucinaciones por ahora. El director general de NVIDIA explica por qué

 

-
La noticia Hace un cuarto de siglo un estudiante unió 32 tarjetas gráficas GeForce para jugar a Quake III. De allí salió CUDA fue publicada originalmente en Xataka por Javier Pastor .

Leer más

La IA necesita 650.000 millones al año para sostenerse. El problema es quién los pondrá sobre la mesa

La IA necesita 650.000 millones al año para sostenerse. El problema es quién los pondrá sobre la mesa

Los responsables de la entidad bancaria JPMorgan han hecho números. Para que las empresas de IA logren un 10% del retorno de sus gastos de capital en 2030, necesitarán ingresar colectivamente 650.000 millones de dólares. Eso es como decir que los 1.400 millones de usuarios de un iPhone pagarán 400 dólares al año por usar esos modelos. No es imposible, pero desde luego no parece sencillo.

Muchos la usan, pocos pagan. Sobre todo, porque hoy por hoy el número de usuarios de pago es muy reducido. Según los datos de la consultora Menlo Ventures, hoy en día 1.800 millones de personas usan IA en todo el mundo, pero todos ellos solo el 3% (54 millones) son clientes de pago de alguna suscripción. 

ChatGPT como ejemplo. OpenAI estima que en 2030 ese porcentaje subirá al 8,5% para su base de usuarios, que proyectan que será de 2.600 millones a la semana. Es decir: 220 millones de personas estarán suscritas a alguno de los planes de pago de ChatGPT, que probablemente en 2030 tengan precios distintos a los actuales. No parecen suficientes, al menos a priori, para poder lograr que la firma sea rentable como promete. 

Anuncios. Es más que probable que los anuncios acaben siendo el otro gran recurso para obtener ingresos por parte de los modelos de IA. Aunque Sam Altman indicó en el pasado que la publicidad sería "el último recurso" para monetizar, datos recientes revelan que esos anuncios están a punto de ser parte de la experiencia de usuario en ChatGPT.

Una apuesta con mucho riesgo. La estimación de JPMorgan apunta a un futuro en el que miles de millones de personas pagarán mucho dinero al año para usar la mejor IA. Apple cuenta con 1.000 millones de suscriptores a sus servicios, Netflix con 300, Spotify con unos 280, y Google cuenta con 150 millones de suscriptores solo en Google One.  Es evidente que hay muchos usuarios dispuestos a pagar por servicios que son útiles y entretenidos. La pregunta es si la IA lo serán para tanta gente. Y las empresas de IA, por supuesto, confían en que sí.

La no sorpresa de la burbuja. En The Economist indican que una potencial explosión de la burbuja de la IA ya no va a sorprender a nadie. Lo curioso es que no hay una preocupación excesivamente notable por las consecuencias. En los últimos años la economía parece haberse recuperado sorprendentemente bien de desastres como la crisis energética europea tras el inicio de la Guerra de Ucrania o como los aranceles impuestos por EEUU. Las recesiones, apuntan en este diario económico, cada vez son más raras.

Todo el mundo se ha subido al carro. La vulnerabilidad masiva existe, no obstante. Las acciones representan hoy en día el 21% del patrimonio económico de los estadounidenses —más que en la burbuja de las puntocom—, y la inversión en empresas de IA es responsable de la mitad del incremento de ese patrimonio durante el pasado año. Y ahí está el peligro. 

¿Recesión a la vista? La gente ha ganado más dinero y ha ahorrado menos: si la burbuja explota de forma similar a como lo hizo con las puntocom, en The Economist creen que el patrimonio neto caerá un 8%. Eso a su vez provocaría una disminución notable del gasto por parte de los consumidores. Se estima que el PIB de EEUU se reduciría un 1,6%, suficiente para llevar al país a la recesión. 

La diferencia con las puntocom. En este caso esa recesión global podría no ser tan profunda por una razón clara: la raíz estaría en los mercados de inversión, y por tanto se podría superar con algo más de margen de maniobra. Los bancos centrales podrían recortar los tipos de interés para impulsar el consumo, algo bueno por ese lado pero peligroso para economías vulnerables. 

La onda expansiva del estallido. Si la burbuja acaba explotando, lo que también podría producirse es una dolorosa reconfiguración del comercio mundial. Una menor demanda estadounidense reduciría su déficit comercial, pero agravaría el exceso de capacidad de producción de China. Al no poder vender (tanto) a EEUU, inundaría otros mercados con sus productos, lo que probablemente provocaría cierto proteccionismo en Europa y Asia. El mundo está preparándose para la caída de la bolsa, pero no tanto para las consecuencias económicas y geopolíticas que seguirán.

En Xataka | OpenAI no tiene ningún problema en inflar la burbuja de la IA: tiene un problema con que estalle demasiado pronto

-
La noticia La IA necesita 650.000 millones al año para sostenerse. El problema es quién los pondrá sobre la mesa fue publicada originalmente en Xataka por Javier Pastor .

Leer más

De la Motorola de antes a la Motorola de ahora: la policía y los bomberos la han convertido en una empresa de 60.000 millones

De la Motorola de antes a la Motorola de ahora: la policía y los bomberos la han convertido en una empresa de 60.000 millones

Es cierto que en realidad el iPhone no mató del todo a Motorola, pero la dejó muy tocada. En 2007 sus móviles se vendían como churros. Sus plegables de antes, los RAZR, formaban parte de la cultura popular gracias a los acuerdos promocionales que hacían que Paris Hilton, Eva Longoria Abril Lavigne o David Beckham posaran orgullosos con ellos sin parar. 

Pero entonces llegó el iPhone y las cosas empezaron a cambiar para muchos fabricantes tradicionales. Nokia y Blackberry jamás volvieron a ser lo mismo, y algo parecido —aunque no tan severo— le pasó a Motorola, que ante el descenso de ventas decidió escindirse en dos empresas distintas en 2008. 

La "Motorola" de antes ahora es Lenovo

La primera de ellas, Motorola Mobility, acabó siendo comprada por Google en mayo de 2012 para luego ser recomprada por Lenovo en 2014. Este fabricante ha conservado la marca y ha logrado reflotar esa parte del negocio con un catálogo de móviles destacable, pero la empresa original fue por otro camino totalmente distinto.

De hecho, la firma ha reforzado su propuesta con los nuevos Razr, los plegables "gama media" que plantean una opción ciertamente interesante, especialmente para amantes de los móviles pequeños

La popularidad de estos dispositivos no es la misma que antaño, pero este año vivimos un guiño simpático: Paris Hilton, que ya fue protagonista de una edición limitada con el Razr original hace 20 años, ha vuelto a repetir. A principio de año conocíamos el Motorola Razr Plus Paris Hilton Edition, muy rosa, muy "exclusivo" y nada barato. 

La verdadera Motorola es ahora Motorola Solutions Inc.

Pero lo verdaderamente llamativo es que Motorola Solutions Inc., la parte "aburrida" de la empresa que se dividió en 2008, ha resurgido con fuerza de la situación. Lo ha hecho centrándose en lo que ya hacía bien entonces: comunicaciones críticas.

Captura De Pantalla 2025 11 28 A Las 12 52 05

Fuente: Bloomberg.

Sus productos se han convertido en todo un éxito entre las fuerzas y cuerpos de seguridad, que las utilizan masivamente en Estados Unidos, pero también en países como Bulgaria, Brasil o Reino Unido. 

De hecho, en Bloomberg destacan que desde que se separaron de Motorola Mobility el retorno para los inversores ha crecido un 1.000%, más del doble de lo que ha logrado por ejemplo el índice S&P 500 y mucho más de lo que han logrado otras empresas como Ericsson o Nokia a las que el iPhone les hizo mucho más daño. 

Captura De Pantalla 2025 11 28 A Las 13 00 57

Fuente: Motorola Solutions Inc.

Los productos de Motorola Solutions son muy variados, y van desde cámaras corporales para cuerpos policiales hasta equipos de comunicación para emergencias en cuerpos sanitarios o de bomberos y, últimamente (cómo no) drones. 

Greg Brown, el CEO de la empresa, ha logrado convertirla en un gigante de 60.000 millones de dólares. Lo ha conseguido con una estrategia en la que las adquisiciones han sido parte fundamental y han acelerado el tradicional crecimiento orgánico, a menudo mucho más lento.

El camino de Brown no ha sido fácil, aunque lo más duro fue aquella división en un momento en la que la empresa estaba sufriendo una verdadera hemorragia financiera: "congelamos las pensiones, despedimos a 15.000 personas, anunciamos que salíamos del negocio de los móviles... que eran la verdadera identidad de la empresa". 

Acabó sobreviviendo a aquello y logró hacer resurgir a la empresa precisamente volviendo a aquello con lo que se había hecho famosa: Motorola ya proporcionaba equipos de comunicación a la policía poco después de su fundación en 1928, aunque nosotros la conocimos mucho más tarde. 

Primero, cuando desarrolló el célebre procesador Motorola 68000 que formó parte de ordenadores legendarios de Apple, Commodore o Atari. Luego, en 1983, cuando inició su particular revolución móvil con el legendario DynaTAC 8000X.

El futuro de Motorola Solutions parece prometedor, aunque no está exento de retos. La empresa, que cumplirá 100 años en 2028, está ahora comenzando a integrar IA en sus productos. 

Captura De Pantalla 2025 11 28 A Las 13 11 02

La cámara corporal SVX integra funciones de IA y es el claro exponente de hacia dónde se dirige la Motorola (Solutions) actual.

Este año lanzaron una cámara corporal para fuerzas de seguridad que usa IA para crear automáticamente transcripciones de audio, proporciona indicaciones a los operadores remotos y examina las imágenes de vigilancia. Es la demostración de que aquella Motorola original —no la de los móviles actuales, que ahora es Lenovo— sigue vivita y coleando.

En Xataka | Qué fue de NeXT, la compañía que fundó Steve Jobs al abandonar Apple y que terminó siendo su salvación

-
La noticia De la Motorola de antes a la Motorola de ahora: la policía y los bomberos la han convertido en una empresa de 60.000 millones fue publicada originalmente en Xataka por Javier Pastor .

Leer más

DeepMind es la rara avis de la industria IA: mientras otros nos venden fuegos artificiales, ella está reescribiendo la ciencia

DeepMind es la rara avis de la industria IA: mientras otros nos venden fuegos artificiales, ella está reescribiendo la ciencia

OpenAI no busca crear una AGI. Busca que no dejemos de hablar de ella. Es el máximo exponente de la "productización" de la IA. Ella y otras rivales se centran en ofrecer opciones llamativas que mejoran nuestra productividad pero que no cambian el mundo. Que es justamente lo que están intentando hacer algunas empresas, entre las cuales destaca una especialmetne: DeepMind.

La IA que ayudaba a la ciencia. Durante los últimos dos años la industria tecnológica ha parecido un concurso de fuegos artificiales. Cada pocos días o semanas un nuevo modelo promete escribir mejores correos, generar vídeos más realistas o mantener conversaciones más y más humanas. El ciclo de la novedad es a menudo efímero —las imágenes estilo Studio Ghibli fueron un buen ejemplo—, pero lejos de esos "efectos wow" hay una IA silenciosa que no busca impresionar en redes sociales, sino ayudar a resolver problemas científicos que llevan décadas bloqueando nuevos avances.

The Thinking Game. El reciente documental sobre DeepMind titulado 'The Thinking Game' y disponible de forma gratuita en YouTube precisamente nos muestra esa otra cara de la IA. Aunque el tono no está exento de esa épica que ya experimentamos con el documental 'AlphaGo', lo que nos cuenta sirve de recordatorio de esta dicotomía que vive la industria. Mientras la burbuja de la IA se infla buscando rentabilidad inmediata, DeepMind parece haber mantenido su espíritu original. Uno que quiere usar la IA no para imitar al ser humano, sino para —en este caso— descifrar el código de la biología. 

De Pong a AlphaFold. En ese documental de 84 minutos se narra la historia de DeepMind a través de la trayectoria de su cofundador, Demis Hassabis. Ese recorrido es fascinante y nos muestra cómo la startup comenzó a desarrollar modelos de IA que aprendían solos a jugar a videojuegos retro como Pong o Breakout (Arkanoid) para, poco a poco, evolucionar hacia retos mucho más ambiciosos. En concreto, lograr predecir la estructura de las proteínas mediante aprendizaje profundo. 

La IA sí puede cambiar la ciencia. El reto al que se enfrentaron los ingenieros de DeepMind parecía imposible. Predecir la estructura de esas proteínas a menudo llevaba a error y requería una enorme capacidad de cómputo, pero con AlphaFold 1 (2018) y sobre todo con AlphaFold 2 (2020) DeepMind logró resultados espectaculares. En 2021 la empresa publicó tanto el código fuente del proyecto como una base de datos con la estructura de más de 200 millones de proteínas disponible para cualquier laboratorio o investigador. Fue un absoluto regalazo para el mundo científico. Luego llegaría AlphaFold 3, más orientado al desarrollo de fármacos y con un punto algo más comercial.

Una IA ganadora del Premio Nobel. Dos de los ganadores del Premio Nobel de química de 2024 trabajan en DeepMind. Se trata de Demis Hassabis y de John M. Jumper, que recibieron el premio por sus contribuciones a la predicción de la estructura de las proteínas. Ese trabajo con AlphaFold demostró que efectivamente la IA podía contribuir al avance científico, y puso más que nunca a DeepMind en el trono de dicho segmento.

Un enfoque radicalmente distinto. Es importante hacer pedagogía aquí. Mientras que los LLM (grandes modelos de lenguaje como GPT-5) funcionan prediciendo la siguiente palabra más probable en una frase, la "IA para la ciencia" predice comportamientos físicos y químicos: mientras que los LLM pueden alucinar y mentir como si nada, la IA científica se somete a las leyes de la física. 

De la observación a la simulación. Tradicionalmente la ciencia avanzaba mediante la observación, la hipótesis y el experimento, lo que solía ser lento y costoso. Con la IA se introduce una fase intermedia, la simulación masiva, que actúa como un catalizador de ese proceso. Gracias a la IA es posible descartar millones de callejones sin salida antes de que el científico pise el laboratorio. DeepMind ha visto esto tan claro que ha creado Isomorphic Labs, una escisión comercial dedicada exclusivamente a usar esta tecnología para descubrir nuevos fármacos.

DeepMind no está sola. Aunque la empresa cofundada por Demis Hassabis es el claro referente en este ámbito, hay otros ejemplos que siguen ese mismo camino: 

  • Microsoft: logró un hito llamativo en colaboración con el PNNL (Pacific Northwest National Laboratory) al filtrar con IA 32 millones de materiales inorgánicos potenciales y encontrar uno nuevo capaz de reducir el uso de litio en baterías en un 70%.
  • MIT: el prestigioso instituto técnico usó modelos de deep learning para descubrir la halicina, un antibiótico capaz de eliminar bacterias resistentes a todos los tratamientos conocidos. 
  • NVIDIA: la firma no solo domina de forma imperial el mercado de los chips de IA, sino que ha construido un "gemelo digital" de la Tierra llamado Earth-2. Sus modelos de IA (FourCastNet) predicen fenómenos metereológicos extremos miles de veces más rápido y consumiendo mucho menos que los supercomputadores tradicionales.

La promesa (un poco) cumplida. Prácticamente desde que apareció ChatGPT se nos prometió que la IA cambiaría el mundo. De momento no lo ha hecho demasiado, pero lo logrado por DeepMind y otras empresas en el campo de la ciencia sí que parece plantear verdaderas revoluciones. Te recomiendo no perderte el documental: es fantástico.

En Xataka | Qué dicen ahora sobre la IA y sus riesgos los pioneros de la IA premiados hoy con el Nobel



-
La noticia DeepMind es la rara avis de la industria IA: mientras otros nos venden fuegos artificiales, ella está reescribiendo la ciencia fue publicada originalmente en Xataka por Javier Pastor .

Leer más

Creíamos que el NVIDIA-killer sería algún otro fabricante de chips. Estábamos equivocadísimos

Creíamos que el NVIDIA-killer sería algún otro fabricante de chips. Estábamos equivocadísimos

Ayer NVIDIA tuvo un tropezón en bolsa. Las acciones llegaron a perder un 7% para luego recuperar parte de la caída. Mientras, Google crecía cerca de un 4%. Ambos movimientos tenían el mismo origen: el rumor de que Meta está considerando utilizar los chips TPU de Google en sus centros de datos en 2027. 

Por qué es importante. Durante los últimos años NVIDIA ha logrado dominar de forma imperial el segmento de los chips de IA. Sus GPUs aceleradoras marcaban la diferencia, pero aunque otros fabricantes tradicionales como AMD trataban de seguir la estela, el dominio de la empresa liderada por Jensen Huang era espectacular. Eso podría cambiar, y la sorpresa es que quien amenaza esa posición es Google.

Google prefiere echar balones fuera. Un portavoz de Google explicó en CNBC que "Google Cloud está experimentando una demanda acelerada tanto de nuestras TPUs personalizadas como de las GPUs de NVIDIA; estamos comprometidos a soportar ambas, como hemos hecho durante años". 

Pero llevan una década preparando la jugada. La empresa de Sundar Pichai lleva trabajando en el desarrollo de las Tensor Processing Unit desde 2015. Lanzaron la primera versión en 2018 para aprovecharla en su negocio de computación en la nube, pero poco a poco dichas TPUs han ido ganando prestaciones y ahora son unas alternativas prometedoras para cargas de IA, tanto para entrenamiento como sobre todo inferencia, como demuestra Ironwood.

Anthropic ya las usa, Meta podría hacerlo. Google ya llegó a un acuerdo de financiación circular con Anthropic, a la que suministrará sus TPUs para centros de datos que trabajen con su modelo, Claude. Los rumores a los que apuntaba The Information hacen factible que Meta llegue a un acuerdo similar con Google y utilice esos chips en sus centros de datos. La diferencia, por supuesto, es la dimensión de Meta frente a la de Anthropic. 

NVIDIA saca pecho. En una publicación en X, la empresa destacaba que "estamos emocionados con el éxito de Google — están haciendo grandes avances en IA y seguiremos suministrando [GPUs] a Google", para luego sacar pecho señalando que "NVIDIA está una generación por delante de la industria". Es un mensaje con dos caras: por un lado, la felicitación. Por otro, la declaración de intenciones.

Pero ya sabe lo que se le viene encima. El CEO de NVIDIA, Jensen Huang, ya advirtió en la conferencia para inversores al presentar resultados de la situación actual: la rivalidad con las TPUs de Google está incrementándose. Sin embargo, también insistió en que Google sigue siendo cliente suya y Gemini —que acaba de renovarse con un espectacular Gemini 3— puede correr sobre la tecnología de NVIDIA.

La competencia es buena. Todas las grandes tecnológicas tratan de evitar la dependencia de NVIDIA, y casi todas tienen apuestas propias. Está AMD, pero también Intel, Microsoft, Amazon y por supuesto la citada Google. Pero aparte de ellas hay propuestas como las de OpenAI, Broadcom o TSMC que con sus XPUs quieren poner fin al reinado de NVIDIA.

Pero CUDA sigue siendo mucho CUDA. El desarrollo de chips propios es prometedor, pero como bien sabe AMD, NVIDIA sigue teniendo un comodín espectacular con CUDA, la plataforma estándar de desarrollo de soluciones de IA en la industria. El efecto red que ha generado esta tecnología va a ser difícil de superar, pero desde luego Google tiene recursos para intentarlo.

Imagen | World Economic Forum | Hilel Steinberg

En Xataka | Que Qualcomm prepare sus propios chips de IA es buena noticia. Que tenga una oportunidad en el mercado es otra cosa muy distinta

-
La noticia Creíamos que el NVIDIA-killer sería algún otro fabricante de chips. Estábamos equivocadísimos fue publicada originalmente en Xataka por Javier Pastor .

Leer más

La pregunta no es si Tim Cook dejará pronto de ser CEO de Apple, sino quién le sucederá: Crossover 1×30

Se acerca el fin de una era, dicen. O quizás no. Los rumores sobre la potencial "jubilación" de Tim Cook son contradictorios, y si hace unos días el Financial Times hablaba de que se retiraría a principios del año que viene, ayer nuevos datos echaban por tierra esa posibilidad. 

Pero aquí ocurre que cuando el río suena, agua lleva, y esta converación no viene de ahora, sino de hace meses... o años. El actual CEO de Apple llegó a dicha posición en 2011, tras la muerte de Steve Jobs, y desde entonces ha convertido a la empresa en una absoluta máquina de hacer dinero. Una que, eso sí, ha defraudado con (teóricos) proyectos como Project Titan, con unas Vision Pro que de momento siguen sin despegar o con la sorprendente irrelevancia en el segmento de la IA.

El problema no es ese, por supuesto. Aunque Apple se ha consolidado entre las tres empresas con mayor capitalización bursátil del mundo en los últimos años, lo que le falta es chispa y capacidad de innovar. Hoy Apple sigue dependiendo muchísimo del iPhone, aunque es cierto que en los últimos años los servicios le han dado muchas alegrías.

Eso hace que sea especialmente interesante configurar una quiniela con los principales candidatos a suceder a Tim Cook, y eso es lo que hemos hecho en esta nueva entrega de Crossover, en la que debatimos sobre la trayectoria de Cook, pero también sobre quién puede coger ese testigo.

Y es que aquí entran muchísimas variables. Desde esa estrategia operativa —¿será la nueva Apple más innovadora, o seguirá centrándose en hacer dinero?— hasta las implicaciones geopolíticas que tiene la elección de un nuevo CEO. Porque admitámoslo: este puesto no es solo tecnológico, sino también político y diplomático. Hay mucha tela que cortar aquí, y desde luego será interesante ver cómo transcurren los próximos meses.

En YouTube | Crossover

En Xataka | Tim Cook ha admitido que Apple está "muy abierta" a adquisiciones en IA. Estas son nuestras candidatas

-
La noticia La pregunta no es si Tim Cook dejará pronto de ser CEO de Apple, sino quién le sucederá: Crossover 1x30 fue publicada originalmente en Xataka por Javier Pastor .

Leer más

La burbuja de la IA es peor que la de las puntocom: hay más dinero en menos tiempo y demasiados huevos en pocas cestas

La burbuja de la IA es peor que la de las puntocom: hay más dinero en menos tiempo y demasiados huevos en pocas cestas

La expectación y el optimismo desaforado sobre la revolución de la IA está dando paso a una etapa de risas nerviosas. La pregunta ya no es si hay una burbuja de la IA, sino cuándo explotará y qué impacto tendrá esa explosión. Es inevitable comparar esta situación con la que vivimos con el auge de internet y la burbuja de las puntocom, pero es que esta es aún peor.

Años perro, años ratón. Vinton Cerf, uno de los padres de internet, hablaba en 1999 de cómo "un año en el negocio de internet era como un año perro, es decir, siete años en la vida de una persona normal". Todo iba muy rápido entonces, pero ahora se habla de "año ratón": cada uno de ellos equivaldría a unos 35 años humanos. En la IA todo va ciertamente mucho más rápido, y eso es muy, muy peligroso.

Las caídas en bolsa no ayudan. Hasta hace un mes el extraordinario optimismo que existía en este mercado había hecho que las grandes tecnológicas no pararan de crecer en bolsa mientras el resto de la economía apenas sí lo hacía. NVIDIA ha sido el mejor ejemplo de ello, pero en el último mes han caído un buen puñado de acciones de tecnológicas. La propia NVIDIA, (-4%), Microsoft (-10%), Meta (-20%), Amazon (-2%), Broadcom (-4%), Oracle (-30%), AMD (-20%), Intel (-10%). Solo Google (+15%) y Apple (+3%) parecen resistir esta tendencia bajista.

Captura De Pantalla 2025 11 24 A Las 9 14 08

La burbuja es enorme.  Las últimas estimaciones para los gastos de capital (capex) sumados a las inversiones de capital riesgo ya superan los 600.000 millones de dólares para 2025, y la consultora Gartner indicó que según sus datos en 2025 el gasto relacionado con IA ascenderá en 2025 a 1,5 billones de dólares, cuando en 2024 fue de 988.000 millones. Para 2026 estima que se superarán los dos billones de dólares. 

Y ha crecido mucho más rápido. Como explica el analista Fred Vogelstein, ese gasto "se está produciendo en una fracción de tiempo. La burbuja de internet se infló durante 4,6 años antes de explotar. La burbuja de la IA se ha inflado en dos tercios de ese tiempo". Las cifras siguen creciendo sin parar, se hacen más grandes y empiezan a no tener sentido. Y cuando no tienen sentido, es probable que realmente no lo tengan. 

Demasiada concentración. Hay diferencias entre esta burbuja y la de las puntocom. Por ejemplo, gran parte de la gigantesca inversión en centros de datos proviene de las propias empresas tecnológicas, y no tanto de empresas de capital riesgo o de inversión. Aun así, la concentración es enorme: Microsoft, Alphabet, Meta, Amazon, NVIDIA, Oracle y Apple representan aproximadamente una tercera parte del mercado crítico S&P 500, que ya apuntaba a ello hace años, antes incluso de que todo el mundo se pusiera a hablar de IA. Ya hemos visto este año cómo si las tecnológicas caían, la economía se resentía de forma notable.

Esto no es una inversión, es una apuesta. Las empresas como Microsoft, Alphabet, Meta o Amazon están hablando de gastos de capital (capex) proyectados de 70.000 a 100.000 millones de dólares en centros de datos. Estas empresas se lo están jugando todo a la IA, cuando de momento no hay justificación razonable para hacerlo porque la incertidumbre es total. La mejor forma de entender esa filosofía es recordar lo que dijo Mark Zuckerberg sobre su inversión en IA: 

"Vamos a invertir agresivamente. Incluso si perdiéramos un par de cientos de miles de millones de dólares sería un fastidio, pero es mejor que quedarnos atrás en la carrera por la superinteligencia". 

O lo que es lo mismo: si no arriesgas, no ganas.

OpenAI, paradigma de la burbuja. Si hay una empresa que represente la locura que se vive por la IA, esa es OpenAI. Está valorada en 500.000 millones de dólares, pero la propia empresa estima que hasta 2029 no comenzará a ganar dinero. Se estima que su "quema de efectivo" (cash burn) en 2025 sea de 8.000 millones de dólares, y que en 2026 esa cifra pase a ser de 17.000 millones de dólares. Está creciendo en ingresos, sí, pero no a un ritmo sostenible de momento. Las cuentas no salen, pero lo importante para Sam Altman (y sus inversores) es que teóricamente acabarán saliendo. O eso dicen ellos.

Bloom

Fuente: Bloomberg.

Financiación circular. Otra señal de alerta la estamos viviendo con los recientes acuerdos de financiación circular entre grandes empresas tecnológicas. En dichas alianzas OpenAI y NVIDIA (entre otras) se están convirtiendo en algo así como bancos e inversores que garantizan la demanda de sus productos. Eso logra que estas empresas salgan probablemente reforzadas, pero también aumenta el riesgo sistémico de esa explosión de burbuja. Lo estamos viendo con Oracle, que emitió 18.000 millones de dólares en bonos y ha elevado su deuda total por encima de los 100.000 millones de dólares. Otras están en una situación comprometida también.

Valoraciones disparatadas. Y tenemos más avisos inquietantes, desde luego. Entre ellos, los que afectan a las inversiones y valoraciones multimillonarias que están recibiendo las startups de IA. Reflection AI, la empresa fundada por dos exinvestigadores de Google DeepMind, ha levantado 2.000 millones de dólares en una ronda, mientras que Safe SuperIntelligence, la startup creada por Ilya Sutskever, está valorada en 32.000 millones de dólares sin tener producto público alguno. Se estima que hay 498 unicornios de IA, y no parece que la fiebre inversora tenga freno, como demuestra el interés por la inminente startup de Yann LeCun

Altman, Nadella y Pichai avisan. Hasta los líderes tecnológicos reconocen que hay indicios de una burbuja tecnológica, aunque lo hacen con matices. Pichai hablaba de que observaba "elementos de irracionalidad", y en esa misma línea estaban Satya Nadella (Microsoft) o Sam Altman (OpenAI). Mientras, Robin Li, CEO de Baidu, explicó hace meses que estamos ante una burbuja que hará que solo el 1% de las empresas sobrevivan

China. Ese gasto desaforado se ha visto además ayudado por el auge de China en este ámbito. El gigante asiático ha demostrado su capacidad para desarrollar modelos abiertos extraordinarios. El efecto DeepSeek provocó que en EEUU las empresas echaran aún más leña (dinero) al fuego mientras China toma una postura más conservadora. Dominar la IA es una gran preocupación de seguridad nacional y eso vincula las valoraciones con la imprevisibilidad política y arancelaria.

Nasdaq

Fuente: Financial Review

Pero esta burbuja no es como la otra. Aunque todo parece disparado, si uno echa la vista atrás se da cuenta de que hay señales que dejan claro que (de momento) la situación no es del todo comparable a la de la burbuja de las puntocom. En Financial Review comparan por ejemplo el índice de rendimiento de los valores tecnológicos del Nasdaq, que estaba absolutamente disparada tres años antes de que explotara. En el caso de la IA ese crecimiento, aunque notable, no es tan grande. Hay otros factores a los que aluden y que parecen hacer pensar que la situación es inquietante, pero no alarmante:

  • Las acciones suben, pero no tanto: El índice Nasdaq creció un 281% en los tres años antes de que la burbuja de las puntocom explotase. Hoy en día el crecimiento del índice es del 100%.
  • Las valoraciones no están tan disparadas: el economista de Harvard Jason Furman explicaba en NYT su argumento con el llamado Shiller CAPE, una medida del ratio PER que evalúa si una acción está cara o barata. Ahora está en 40, mientras que en la burbuja de las puntocom estuvo en 44.
  • Las tecnológicas ganan (mucha) pasta. Las "Siete magníficas" tienen en total unos 200.000 millones de dólares en efectivo en sus balances de cuentas. Además, tienen ingresos combinados de 2,1 billones de dólares y una capitalización bursátil de 20,8 billones de dólares. Mal, lo que se dice mal, no les va.

Imagen | Aedrian Salazar

En Xataka | Las grandes fortunas se están desangrando con el desplome de la bolsa. Warren Buffett ha vuelto a acertar con su vieja receta

-
La noticia La burbuja de la IA es peor que la de las puntocom: hay más dinero en menos tiempo y demasiados huevos en pocas cestas fue publicada originalmente en Xataka por Javier Pastor .

Leer más

El precio de la memoria se dispara un 300%: la industria ha dejado de fabricar para las personas, lo hace para las máquinas

El precio de la memoria se dispara un 300%: la industria ha dejado de fabricar para las personas, lo hace para las máquinas

El 1 de octubre de 2025 el precio medio de dos módulos DDR4-3200 de 8 GB era de 60 dólares. Hoy ese precio es de 110 dólares. La cosa es peor para la memoria DDR5: a principios de septiembre el precio medio de dos módulos de DDR5-4800 de 16 GB era de unos 100 dólares, pero ahora el precio se acerca a los 250 dólares. En apenas unos meses esos precios se han disparado y sabemos perfectamente quién tiene la culpa: la IA.

Qué ha pasado. El que avisa no es traidor: a principios de octubre hablábamos de cómo se había gestado una tormenta perfecta con la IA y los centros de datos. Dicha tormenta iba a provocar subidas notables en los precios de las memorias NAND y DRAM. Y efectivamente esos precios se han disparado de forma asombrosa y preocupante.

Captura De Pantalla 2025 11 21 A Las 13 02 28

El precio medio de los módulos DDR5-4800 2x16GB se ha multiplicado por 2,5 en menos de dos meses. Fuente: PC PartPicker

Un 307% más. La consultora TrendForce, especializada en este tipo de análisis de mercado, indicaba esta semana cómo el precio de las memorias DDR5 se ha incrementado hasta en un 307% desde el mes de septiembre, pero lo peor no es eso: lo peor es que esos precios van a seguir subiendo y afecta también a módulos DDR4, aunque algo menos ("solo" un 158%). De hecho, en un gráfico mostraban cómo dos módulos DDR4-3200 de 8 GB habían pasado de 30,55 dólares a 34,42 dólares, un 12,67% más caros... que hacía una semana.

Más datos. La conocida web PCPartPicker ofrece entre sus servicios un análisis de la evolución de precios de distitnos componentes. Las gráficas de las memorias DRAM eran bastante aburridas por ser casi siempre relativamente planas, pero ahora se han vuelto locas y muy poco divertidas. En todos los tipos de memoria analizados el incremento de precios medios confirma los datos de TrendForce. La curva es más preocupante para módulos DDR5, pero está claro que todos están afectados.

Las NAND van por el mismo camino. Las memorias NAND tienen el mismo problema, y eso hará que las unidades SSD también aumenten de precio. La demanda por parte de centros de datos está haciendo que los usuarios finales estén sufriendo las consecuencias directas, y se prevé que los precios crezcan de forma notable. Khein Seng Pua, CEO de Phison —uno de los mayores fabricantes de este tipo de chips— advertía de que "recientemente todas las empresas NAND han empezado ha incrementar sus precios de venta cerca del 50 o del 75%" y advertía de que todo ello hará que "la oferta de chips NAND sea muy ajustada durante muchos, muchos años". O lo que es lo mismo: precios que subirán pero que no bajarán a medio (o largo plazo).

Un círculo vicioso. La noticia es terrible para quienes pensaban actualizar su equipo con más memoria RAM o con más capacidad de almacenamiento. La tendencia alcista de los precios no se relajará al menos en este trimestre, y puede que se mantenga aun bastante más tiempo debido a esa fiebre por la IA. Los centros de datos necesitan GPUs de IA, las GPUs de IA necesitan (a menudo) memorias HBM y las memorias HBM hacen que los fabricantes pongan en segundo plano las memorias RAM. 

Mal momento para actualizar o montar un PC (o quizás sea bueno). Es un círculo vicioso que hará que actualizar o montar un PC ahora mismo sea mal negocio. Pero claro, también se puede ver desde otro prisma: igual esperar es aún peor y este es "un buen momento" o al menos, "el mejor de los malos momentos" a medio plazo. Desde luego la amenaza está ahí.

Smartphones y portátiles más caros a la vista. Por supuesto esto también puede afectar directamente a los nuevos smartphones, tabletas, PCs y portátiles que aparezcan en el mercado desde este momento. Las subidas de precio de los componentes impactan claramente en los costes de fabricación de esos dispositivos, y no sería extraño ver subidas sensibles en todo tipo de dispositivos. De hecho, Khein Seng explicaba que algunos fabricantes podrían decidir hacer una especie de "reduflacción" de sus productos rebajando especificaciones para poder mantener precios de venta. 

Imagen | Andrey Matveev

En Xataka | Samsung tiene a su mayor competidor en casa. Su futuro con los chips depende de su rivalidad con SK Hynix


-
La noticia El precio de la memoria se dispara un 300%: la industria ha dejado de fabricar para las personas, lo hace para las máquinas fue publicada originalmente en Xataka por Javier Pastor .

Leer más

Cuando nos vendieron la “Inteligencia Artificial” generativa sabíamos que iba a ser artificial y generativa pero no “inteligente”

Cuando nos vendieron la "Inteligencia Artificial" generativa sabíamos que iba a ser artificial y generativa pero no "inteligente"

Hace unos meses a un grupo de investigadores españoles se les ocurrió poner a prueba a un chatbot de IA con una prueba curiosa. Subieron al chatbot una imagen de un reloj analógico y le preguntaron a la IA un simple "¿Qué hora es en ese reloj?". La IA falló de forma inquietante.

Máquina, ¿me dices la hora? Los investigadores de la Universidad Politécnica de Madrid, la Universidad de Valladolid y el Politecnico de Milano firmaron hace un mes un estudio en el que quisieron evaluar cómo de inteligente era la inteligencia artificial de esos modelos. Para ello construyeron un gran conjunto de imágenes sintéticas de relojes analógicos —disponibles en Hugging Face— en los que se mostraban 43.000 horas distintas. 

Captura De Pantalla 2025 11 18 A Las 12 37 55

Antes de afinar (fine-tuning) su comportamiento los modelos de IA fallaron de forma consistente al intentar decir la hora. Tras el ajuste el comportamiento fue mucho mejor, pero aun así imperfecto. Que no debería ocurrir con una cuestión tan "simple" para los humanos.

Resultado desastroso. A partir de ahí fueron preguntando a cuatro modelos de IA generativa qué hora mostraban esas imágenes de esos relojes analógicos. Ninguno de ellos logró decir la hora de forma precisa. Ese grupo de modelos estaba compuesto por GPT-4o, Gemma3-12B, LlaMa3.2-11B y QwenVL-2.5-7B, y todos ellos tuvieron serios problemas para "leer" la hora y diferenciar por ejemplo las manecillas o el ángulo y dirección de esas manecillas en relación a los números marcados en el reloj. 

Ajuste fino para mejorar. Tras esas primeras pruebas, el grupo de investigadores logró mejorar de forma notable el comportamiento de esos modelos tras realizar un ajuste fino: los entrenaron con 5.000 imágenes adicionales de ese conjunto de datos y luego volvieron a evaluar el comportamiento de los modelos. Sin embargo los modelos volvieron a fallar de forma consistente cuando los probaron con un conjunto distinto de imágenes de relojes analógicos. La conclusión estaba clara.

No saben generalizar. Lo que descubrieron con esta prueba fue la confirmación de lo que venimos observando desde el principio con los modelos de IA: son buenos reconociendo datos con los que están familiarizados (memorizados), pero a menudo fallan en escenarios a los que nunca se han enfrentado y que no forman parte de sus conjuntos de entrenamiento. O lo que es lo mismo: eran incapaces de generalizar.

Dalí entra en escena. Para tratar de averiguar las causas de esos fallos los investigadores crearon nuevos conjuntos de imágenes en los que por ejemplo utilizaban los célebres relojes distorsionados de Dalí, o en los que incluían flechas al final de las manecillas. Los seres humanos son capaces de decir la hora en relojes analógicos aun estando distorsionados, pero para los modelos de IA aquello fue un problema enorme. 

Si hacen esto con relojes, imagina con análisis médicos. El peligro de estas conclusiones es que vuelven a detonar el debate sobre si los modelos de IA generativa son ciertamente artificiales y generativos, pero no demasiado inteligentes. Si tienen estas dificultades para identificar las manecillas o sus orientaciones, la cosa es peligrosa si lo que tienen que analizar los modelos son imágenes médicas o, por ejemplo, imágenes en tiempo real de un coche autónomo circulando por una ciudad. 

Las IAs son tontísimas. Aunque es cierto que los modelos de IA generativa son fantásticos como ayuda en diversos escenarios como la programación, la realidad es que lo que hacen es "regurgitar" respuestas que ya forman parte de sus datos de entrenamiento. Como explicaba Thomas Wolf, Chief Science Officer de Hugging Face, una IA generativa "nunca va a preguntarse cosas que nadie había pensado o que nadie se había atrevido a preguntar". Aunque gracias a su descomunal memoria y entrenamiento pueden recuperar multitud de datos y presentarlos de formas útiles, que encuentren soluciones a problemas para los que no han sido entrenados es muy complicado. Para expertos como Yann LeCun la realidad es clara: la IA generativa es tontísima y, además, un callejón sin salida.

Captura De Pantalla 2025 11 18 A Las 13 43 12

Fuente: clocks.brianmoore.com

La IA tampoco dibuja relojes muy bien. Al experimento de esos investigadores se le suma otra pequeña prueba que vuelve a poner en entredicho la capacidad de la IA generativa. Se trata de pedirles a distintos modelos que creen el código que permita mostrar un reloj analógico con la hora actual. Un diseñador llamado Brian Moore ha querido compartir el resultado de varios modelos de IA y lo cierto es que el resultado obtenido en la mayoría de ellos es terrible, aunque otros como Kimi K2 logran un buen resultado. Nosotros hemos probado con los recientes Grok 4.1 y GPT-5.1. Tras insistir un poco Grok 4.1 ha dibujado el reloj perfecto y funcionando. Con GPT-5.1 no ha habido forma, al menos en nuestras pruebas. 

Una realidad preocupante. Esa incapacidad de resolver tareas que parecen sencillas hace que desde luego estos modelos no queden en buen lugar. Es cierto que un buen prompt puede ayudar a resolver algunas de esas limitaciones, pero lo que cada vez resulta más evidente es que los modelos de IA siguen cometiendo errores a pesar del paso del tiempo. La teórica revolución de esta tecnología necesita precisamente erradicarlos, y no parece que estemos en vías de conseguirlo. Los modelos mejoran, sí, pero no lo suficiente para que podamos fiarnos de ellos al 100%. 

Imagen | Yaniv Knobel

En Xataka | Por si no había suficientes empresas de IA, Jeff Bezos acaba de volver de las sombras para levantar otra más, según el NYT

-
La noticia Cuando nos vendieron la "Inteligencia Artificial" generativa sabíamos que iba a ser artificial y generativa pero no "inteligente" fue publicada originalmente en Xataka por Javier Pastor .

Leer más

Gemini 3 promete más calidad y precisión que nunca en sus respuestas. La cuestión es si realmente notaremos la diferencia

Gemini 3 promete más calidad y precisión que nunca en sus respuestas. La cuestión es si realmente notaremos la diferencia

Google ha anunciado el lanzamiento de Gemini 3, su nuevo modelo de inteligencia artificial. En la empresa afirman que es su modelo de razonamiento más avanzado porque "se ha diseñado para comprender la profundidad y los matices". 

Gemini 3 estará además disponible de serie como parte del Modo IA en el renovado buscador de Google (en este caso y por el momento, solo en EEUU). Es la primera vez que Google ofrece las prestaciones de su modelo de IA desde el primer día en el buscador, pero también llega a la app de Gemini y los desarrolladores que trabajan con AI Studio y Vertex AI.

Tras el éxito de Gemini 2.5 Pro y Flash, la nueva versión llega en 30 nuevos idiomas entre los que están el catalán, el euskera y el gallego, y como decimos se puede comenzar a probar desde hoy en Estados Unidos... o fuera de allí mediante una VPN.

Gemini 3 promete. Al menos, en las pruebas

En Google destacan cómo el comportamiento del modelo ha sido sobresaliente en diversas pruebas sintéticas. Así, Gemini 3 encabeza la clasificación de LMArena con 1.501 puntos —el primero en superar la barrera de los 1.500 puntos—. 

Captura De Pantalla 2025 11 18 A Las 10 34 00

Según Google, los resultados de las pruebas de Gemini 3 lo sitúan por encima de todos sus competidores en prácticamente todos los escenarios.

De hecho, logra razonar "al nivel de un doctorado" según las pruebas de Humanity's Last Exam (supera el 37,5% de la prueba sin herramientas) y GPQA Diamond (91,9%). También avanza de forma espectacular en matemáticas, como demuestra el 23,4% de la prueba MathArena Apex: GPT 5.1 obtiene un 1,0% y Claude Sonnet 4.5 un 1,6% en la misma prueba, por ejemplo. 

El modelo quiere ser además más directo: sus respuestas son más "concisas [...] y prefiere ofrecer información valiosa en lugar de recurrir a clichés y halagos. Te dice lo que necesitas oír, no solo lo que quieres oír".

El modo 'Deep Think' de Gemini 3 va incluso más allá en pruebas: en Humanity's Last Exam logra un 41,0%, pero es que además en el exigente ARC-AGI 2 logra un 45,1% (con ejecución de código), lo que demuestra el avance también en ese razonamiento abstracto y comprensión visual.

Gemini 3 te explica el mundo de forma sencilla

El modelo cuenta con una ventana de contexto de hasta un millón de tokens, lo que permite utilizarlo por ejemplo para analizar enormes repositorios de código o de texto y luego trabajar sobre esos datos. 

Captura De Pantalla 2025 11 18 A Las 15 18 37

Su soporte multimodal permite analizar todo tipo de información. Por ejemplo, Gemini 3 puede descifrar y traducir recetas escritas a mano en distintos idiomas para crear un libro de cocina familiar que poder compartir. 

O analizar tus partidos de pickleball (suponemos que lo mismo ocurre en otros deportes) e identificar áreas en las que puedes mejorar y generar un plan de entrenamiento. O escrutar los datos de un paper de investigación y a partir de ellos generar código para una guía interactiva que nos ayude a comprender mejor esos estudios.

De hecho, la integración con Google Search es una parte especialmente importante de Gemini 3, que al estar "embebido" en AI Mode tiene capacidad para generar elementos visuales interactivos (widgets, calculadoras, simulaciones) en tiempo real. En Google quieren que la búsqueda sea más interactiva que nunca, y eso hará que en ocasiones las respuestas no sean un texto sin más, sino una pequeña webapp interactiva que nos permita entender mejor la respuesta.

Programación (y agentes) al poder

El otro elemento crucial del modelo está en su capacidad en el ámbito de la programación. Sus resultados en pruebas de este tipo vuelven a ser sobresalientes, y por ejemplo encabeza la clasificación de WebDev Arena con una puntuación de 1.487 ELO. 

Captura De Pantalla 2025 11 18 A Las 15 26 25

El modelo se comporta ahora de forma mucho más potente en la parte visual.

También obtiene una puntuación del 54,2% en Terminal-Bench 2.0, que evalúa la  capacidad de un modelo para usar herramientas y operar un ordenador a través de un terminal. Además, supera con creces a 2.5 Pro en SWE-bench Verified (76,2%), una prueba comparativa que mide la eficacia de los agentes de programación. 

Esas capacidades de Gemini 3 para programar se quieren aprovechar en una nueva plataforma de desarrollo de agentes llamada Google Antigravity. La experiencia para el desarrollador es la de usar un entorno de desarrollo integrado (IDE) con IA "convencional", pero sus agentes pueden tener acceso al editor, al terminal y al navegador. 

Eso significa que dichos agentes pueden planificar y ejecutar de forma autónoma tareas de software complejas y validar su propio código, algo que hace que más que nunca los desarrolladores humanos puedan dedicarse a revisar y auditar ese código.

El verdadero reto de los modelos más recientes

Sobre el papel Gemini 3 se postula como un modelo que realmente puede marcar la diiferencia frente a sus competidores. Los resultados en las pruebas y la propia trayectoria de Gemini nos hacen pensar que efectivamente el comportamiento de este modelo será notable.

Gemini2

Sin embargo la cuestión es si realmente notaremos la diferencia. En los últimos meses hemos visto cómo otras empresas de IA han lanzado nuevos modelos, pero el impacto para una gran mayoría de usuarios ha sido discreto: los modelos anteriores ya se comportaban realmente bien, y aunqeu los nuevos sin duda aportan mejoras, para muchas consultas dichas mejoras son permiten percibir ese salto de rendimiento.

Aquí vemos dos formas de que Google efectivamente demuestre la capacidad de estos modelos. La primera oportunidad para Gemini 3 estará probablemente en el ámbito de la programación, y serán estos profesionales los que probablemente podrán sacar más partido de esas capacidades adicionales. 

Pero para el resto de los usuarios, serán ese nuevo AI Mode y la Gemini app los que tendrán que lograr que notemos esas prestaciones. Nos intriga esa capacidad de responder con pequeños elementos interactivos —gráficos, widgets—, y puede que con ellos realmente sí descubramos esa nueva capacidad de este chatbot. 

En Xataka | Despidamos a Google Assistant una década después. Google ha empezado a borrar su código para dejar una única opción: Gemini

-
La noticia Gemini 3 promete más calidad y precisión que nunca en sus respuestas. La cuestión es si realmente notaremos la diferencia fue publicada originalmente en Xataka por Javier Pastor .

Leer más