El lanzamiento de las NVIDIA RTX 5060 es un cataclismo reputacional: hay acusaciones de amenazas y chantaje a los medios especializados

El lanzamiento de las NVIDIA RTX 5060 es un cataclismo reputacional: hay acusaciones de amenazas y chantaje a los medios especializados

NVIDIA lanzó sus nuevas tarjetas gráficas RTX 5060 el pasado 19 de mayo —las había presentado un mes antes—. Sobre el papel la propuesta era interesante: a pesar de ser más modestas, cuentan con la tecnología DLSS 4 y son las más asequibles de la familia. Si tu presupuesto es ajustado, podrían ser una opción interesante. Pero para estar seguros lo ideal es esperar a que los medios especializados puedan analizar estas tarjetas y arrojar sus conclusiones. Y ese fue el principio de una lanzamiento tan polémico como desastroso.

Ay, qué coincidencia. Curiosamente NVIDIA eligió ese día como fecha de lanzamiento a sabiendas de que la mayoría de los expertos estarían en el evento más importante del año para este sector: la feria Computex, en Taiwán. Eso hacía mucho más difícil que esos analistas pudieran analizar adecuadamente el producto si la compañía les enviaba las muestras de evaluación. Cosa que, por cierto, no sucedió, como explicaron hace un mes en el canal de YouTube de Linus Tech Tips, uno de los más conocidos en este ámbito.

Nada de controladores. Según señalan en The Verge, incluso si los expertos hubieran tenido tarjetas antes del evento, NVIDIA tenía la forma perfecta de evitar que sacasen sus análisis el mismo 19 de mayo. La compañía solo tendría que negarse a proporcionar los controladores (drivers) de las gráficas, sin los cuales no funcionan a la perfección, sobre todo a la hora de jugar.

Puedes pasar los tests, pero solo los que te digamos. No contentos con eso, en NVIDIA sí que enviaron algunas RTX 5060 a algunos medios y les proporcionaron controladores preliminares. Pero lo hicieron con una condición: solo podían probar cinco juegos concretos a resolución 1080p, con otros parámetros específicos y solo comparándolas con otras dos gráficas (3060 y 2050 Super) para que la 5060 saliera ganadora.

Y amenazas. En The Verge destacan cómo además en algunos casos NVIDIA amenazó con vetar acceso a los medios a futuros lanzamientos si no hacían comparaciones desiguales en las que la IA que da acceso a la tecnología Multi Frame Generation (MFG) estaba activada en las 5060 pero no disponible en sus competidoras para que la diferencia fuera aún más destacable.

Guerra con los youtubers. NVIDIA incluso decidió amenazar a GamersNexus con cortarle futuro acceso a sus lanzamientos. Estamos hablando de uno de los canales de YouTube más conocidos y reputados del mundo en el ámbito del análisis de hardware para PC, y que precisamente se ha hecho famoso por denunciar este tipo de situaciones en el pasado. Steve Burke, su creador, explicó en un reciente vídeo cómo fue la comunicación con los responsables de NVIDIA. Incluso grabó la conversación y comentó en el vídeo "NVIDIA, estoy preparado para publicarlo [el audio]" si era necesario.

Una situación terrible. Las empresas tienen perfecto derecho a no enviar muestras de evaluación de sus productos y lanzarlos directamente al mercado, pero esta forma de tratar de controlar la narrativa y el mensaje es a todas luces preocupante. Los medios acabarán teniendo el mismo acceso a él que el resto de los usuarios, pero el riesgo aquí es reputacional: si NVIDIA no envía las tarjetas a los analistas y está haciendo este tipo de movimientos, es porque probablemente las gráficas no sean tan interesantes como intentan hacer ver. Y si eso pasa, la empresa acaba llevándose un golpe reputacional que se añade al de toda la familia RTX 5000, que es un salto generacional modesto  —lo vimos con nuestro análisis de las RTX 5080 y 5090— salvo en el caso de que podamos aprovechar la tecnología DLSS4, cosa que no es siempre posible.

Lo peor es que probablemente no compensan. Desde entonces han aparecido análisis independientes al completo. Los datos de TechSpot revelan que esta tarjeta es en esencia "una RTX 4060 TI con un 25% de descuento" o una RTX 3070 con un ahorro del 40%", pero estamos hablando de gráficas de hace dos y casi cinco años respectivamente. En Guru3D revelan que es un producto correcto que "vive bajo la gracia de DLSS4, así que mejor espera que muchos juegos soporten dicha característica". A estos precios hay alternativas llamativas como las Intel B580 y desde luego las inminentes AMD RX 9060 XT que se lanzarán en junio.

NVIDIA debe recapacitar. Hace tiempo que el mercado gamer parece estar en segundo plano para la compañía, que se ha convertido en una de las más valiosas del mundo gracias a sus chips de IA. El problema no es ya que sus tarjetas gráficas para gamers decepcionen, es que traten de ocultar o disfrazar la realidad con este tipo de medidas. Resulta preocupante para una empresa con tales recursos y potencial, y eso hace que su actual dominio de este mercado quede en peligro. AMD ofrece alternativas cada vez más llamativas, e incluso Intel parece haber acertado con sus propuestas, aunque de momento estén dedicadas a gamers menos ambiciosos.

Qué dice NVIDIA. En Xataka nos hemos puesto en contacto con los responsables de la compañía. Actualizaremos este tema si recibimos datos y aclaraciones por parte de la misma.

En Xataka | Si NVIDIA viviese solo de las GPU para PC estaría a punto de morir de éxito. Y los aranceles de EEUU no ayudan

-
La noticia El lanzamiento de las NVIDIA RTX 5060 es un cataclismo reputacional: hay acusaciones de amenazas y chantaje a los medios especializados fue publicada originalmente en Xataka por Javier Pastor .

Leer más

El último evento de Google deja claro cuál es el verdadero futuro de los accesorios: gafas conectadas con Android XR

El último evento de Google deja claro cuál es el verdadero futuro de los accesorios: gafas conectadas con Android XR

Google quiere que todos usemos gafas. No para corregir un defecto de nuestra vista, sino para convertir este accesorio en el complemento definitivo de nuestro smartphone. El avance de Android XR mostrado durante su evento Google I/O 2025 así lo demostró, y se perfila un futuro en el que las gafas conectadas irán mucho más allá de lo que han ido los auriculares o los relojes inteligentes.

Dos mejor que uno. El lanzamiento de las Vision Pro de Apple en febrero del año pasado provocó un inevitable efecto "wow". Meses después descubrimos que Google y Samsung habían unido fuerzas para lanzar Project Moohan, unas gafas de realidad aumentada con un enfoque similar al de Apple. Ahora esa apuesta se ha desdoblado, porque además tendremos gafas conectadas de Google que siguen la línea de las Ray-Ban Meta y van incluso más allá al integrar una pequeña pantalla en una de las lentes de la gafa.

Android XR al poder. El nuevo sistema operativo de Google para esta familia de dispositivos es Android XR, una variante de Android específicamente diseñada para correr en gafas de realidad aumentada y gafas conectadas como las mencionadas. La interfaz está basada en gestos y sobre todo en la voz, y no parece haber de momento ningún tipo de sistema de seguimiento de la mirada, como sí sucede en las Vision Pro.

Gemini como elemento diferencial. El avance de Gemini, el modelo de IA generativa de Google, es patente. Hace meses que es posible conversar con Gemini de forma natural y con cada nueva versión esas conversaciones se vuelven no solo más naturales, sino más útiles. Las demos de ayer con Project Astra lo demostraron, y convierten la voz y el lenguaje natural en un componente crucial para el éxito de las gafas.  Aquí Google parece ir un paso por delante de sus competidores, tanto de Apple como de Meta, al menos con las funciones de IA incluidas en este momento.

La experiencia es un grado. Lo que estamos viendo ahora es el resultado de más de una década de trabajo de Google. La firma ya trató de convencernos de ponernos gafas hace años con las singulares Google Glass, pero aquello no cuajó. Las ideas eran buenas, pero la implementación no tanto. Causaban tanta fascinación como repugnancia, quizás por un formato y diseño que falló en lo esencial: para bien y para mal se notaba que eras usuario de ese tipo de gafas. Con Android XR el diseño quiere ser totalmente tradicional, como lo es en las Ray-Ban Meta.

Las gafas son más versátiles. Hay otro elemento que favorece a las gafas como producto: prometen casos de uso más variado. Sustituyen a los auriculares gracias a los altavoces integrados, y aportan más cosas que los relojes inteligentes, que se centran mucho más en la actividad física y la salud desde hace años. Las gafas son de hecho una forma de sacar menos el móvil del bolsillo cuando vas por la calle, y probablemente la evolución de la tecnología hará que cada vez más tengamos que sacarlo menos aún. Llegar andando a un sitio, enviar mensajes, recibir llamadas, hacer preguntas sobre algo que estamos viendo: todo eso que ya podemos hacer de una forma u otra con el móvil podremos hacerlo de forma más directa, natural y mejor con las gafas. O esa es la promesa, al menos.

Meta está en la pelea. Las gafas conectadas de Google tardarán aún tiempo en llegar, pero las citadas Ray-Ban de Meta son actualmente la gran referencia en este segmento. Mark Zuckerberg cree firmemente en este producto, y de hecho prevé que en 2030 casi no sacaremos el móvil del bolsillo porque lo haremos todo desde las gafas y con la voz. Otras grandes empresas tecnológicas chinas como Xiaomi o Baidu parecen tenerlo igual de claro.

¿Y Apple, qué? El salto tecnológico propuesto por las Apple Vision Pro es notable, pero los casos de uso práctico son limitados y el precio es un obstáculo demasiado importante para muchos usuarios. Eso ha hecho que su éxito sea limitado, pero en Apple parecen tener un plan B. Sería desarrollar una alternativa asequible de las Vision Pro que quizás adopte el formato de las Ray-Ban de Meta: más modestas en prestaciones, pero también mucho más aptas para usar como complemento del todopoderoso iPhone.

Más competencia. Meta y Google llevan aquí la delantera, pero está claro que otros fabricantes, como las citadas Xiaomi y Baidu, se sumarán a este mercado para tratar de llevarse un trozo de ese pastel. Ayer conocimos que una de las primeras en ofrecer estas gafas conectadas con Android XR será XReal, que lleva ya tiempo ofreciendo productos destacables en este ámbito.

La ventaja del ecosistema. Aquí importa el hardware, sin duda, pero también el sistema operativo utilizado y desde luego las funciones de IA que permitan interactuar con este wearable mediante la voz. Aquí Google vuelve a tener ventaja gracias a su ecosistema (Android XR + Gemini), pero sin duda veremos propuestas de otros fabricantes. Si todo va como parece, es probable que en pocos años mucha más gente lleve gafas por la calle. Y no porque tengan problemas de visión.

En Xataka | Musk, Gates, Zuckerberg y Altman creen que nuestros móviles tienen los días contados. Tim Cook no lo tiene tan claro

-
La noticia El último evento de Google deja claro cuál es el verdadero futuro de los accesorios: gafas conectadas con Android XR fue publicada originalmente en Xataka por Javier Pastor .

Leer más

Google ha pegado un acelerón en la carrera por IA. Eso multiplica el valor de Android

Google ha pegado un acelerón en la carrera por IA. Eso multiplica el valor de Android

Un martillo pilón. Eso es lo que parecía ayer Google en la charla inaugural de su evento Google I/O. La empresa nos dejó una avalancha de anuncios relacionados con avances en sus modelos de inteligencia artificial y, por supuesto, de las aplicaciones prácticas que esos avances supondrán. La ambición de Google es clara, y ayer dieron un paso de gigante para convertirse en los grandes ganadores de la carrera y de la IA.

Hola, este es el futuro. Aunque algunas de las novedades no estarán disponibles de inmediato, el discurso de Google era claro: así puede ser el futuro. Uno en el que ya no tocaremos tanto el móvil, sino que conversaremos con él constantemente. El avance de Gemini —que ahora cuenta con un modo "Deep Think" de razonamiento— es claro, y Google ha pegado un acelerón para aplicarlo por todos lados. Y sobre todo en uno.

AI Mode vs buscador tradicional. Es probable que buscar en internet haya cambiado para siempre. Lo que ya vimos con Perplexity llega ahora de forma mucho más clara al buscador de Google gracias a su "AI Mode" en el que el buscador ya no entrega resultados, sino que conversa con nosotros. Eso dejará cada vez más en segundo plano al buscador tradicional, que de momento sigue siendo el que está seleccionado por defecto. De momento.

Avances por doquier. Las mejoras en Project Astra demostraron cómo el asistente de IA está ya preparado para "infiltrarse" en nuestras vidas. Ya lo han integrado con Chrome, pero además gana superpoderes con Search Live, el modo de funcionamiento con el que nuestro móvil sirve como sus ojos, oídos y boca para interactuar con el mundo. Los avances en Imagen 4 y Veo 3 —fusionados en su nueva app para creadores de vídeo, Flow— se unen a otros como la traducción en tiempo real en Google Meet —que también llegará a las gafas conectadas—.

Una IA más práctica y útil que nunca. Pero el mensaje más relevante fue precisamente el que Google dio con sus demos de producto. La IA que ahora parece estar limitada a tareas muy específicas demostró en esos lanzamientos cómo podía ayudar a resolver problemas cotidianos. Arreglar una bici con el asistente, probarte nueva ropa de forma virtual, que la IA vigile el precio de un producto y te avise y lo compre (con tu confirmación previa) o viajar a cualquier país y entenderte con otras personas sin hablar su idioma —una vieja promesa, ahora más cerca que nunca— fueron algunas de esas demostraciones. Y en todas ellas, la IA de Google mostraba un avance imparable. Uno que, por cierto, va a impulsar su otro gran producto.

Android con superpoderes. La plataforma móvil de Google sigue siendo pilar fundamental de estos avances, porque la IA que está disponible a través de modelos como Gemini no actúa sola: es un complemento, casi un "plugin" para Android, cuya inercia e influencia son evidentes en el mercado móvil. 

Y sus variantes, también. Aunque en muchos casos las soluciones de IA creadas por Google se usan en otras plataformas (Jules en PCs y portátiles, Veo/Imagen también) hay una íntima relación con Android y por supuesto, con sus variantes. Hace unos días Google ya dejó claros sus planes para integrar Gemini en el coche, en el reloj o en la televisión. Todos ellos hacen uso de sistemas operativos derivados de Android, pero hay otro especialmente prometedor.

Gafas. En Xataka hemos podido probar las nuevas gafas de Google con Gemini y la experiencia, aun siendo limitada por basarse en un prototipo, es esperanzadora para este tipo de producto. La integración de funciones de IA es algo que ya habían apuntado las Ray-Ban Meta, y está claro que este mercado promete ser especialmente importante en los próximos años. Y de nuevo, por debajo Android XR, que puede acabar convirtiéndose en un verdadero pilar de la estrategia de Google.

Frente a la ambición de Google, la indiferencia de Apple. La puesta en escena de Google ayer —y de Microsoft en su conferencia Build el día anterior— demostró la ambición de estas empresas en materia de IA. Lo han apostado todo a dicha tecnología y parecen estar especialmente preparadas para sacarle todo el jugo a esta revolución. Mientras, Apple no para de perder trenes y de dar noticias decepcionantes en este segmento.

A la espera del WWDC 2025. Podremos tomarle el pulso a Apple mucho mejor en menos de un mes. El 9 de junio se celebra la charla inaugural de la WWDC 2025, y será entonces cuando sepamos si Apple tiene algo real que mostrarnos en materia de IA o se descuelga aún más del pelotón de cabeza. A priori no parece que puedan mover ficha pronto, y el enfoque de la compañía parece ser mucho más cauto y gradual que el de la competencia. Aquí puede que Apple prefiera esperar a que sus propuestas estén mucho más pulidas antes de presentarlas, pero también existe la otra opción: que realmente estén en problemas y esto pueda pasarles factura a largo plazo.

En Xataka | Todo lo que hemos visto de Apple Intelligence coloca a Apple muy por detrás en IA. Hasta sus empleados lo creen



-
La noticia Google ha pegado un acelerón en la carrera por IA. Eso multiplica el valor de Android fue publicada originalmente en Xataka por Javier Pastor .

Leer más

Google ya tiene una IA agéntica capaz de programar por ti: se llama Jules y busca plantarle cara a OpenAI

Google ya tiene una IA agéntica capaz de programar por ti: se llama Jules y busca plantarle cara a OpenAI

Google lo califica como un "agente asíncrono de programación", pero es mucho más fácil definir a Jules como lo que es: un sistema de IA que te ayuda a programar más y mejor. Pero también es otra cosa.

Guerra de "vibe coding". Cursor o WindSurf se han convertido en estandartes de una nueva fiebre por la programación asistida por IA. Esa del "vibe coding" en la que hablas para que te haga el trabajo o pides que te autocomplete el código a base de pulsar el tabulador repetidamente ("tab-tab-tab"). OpenAI de hecho acaba de comprar Windsurf por 3.000 millones de dólares, y la razón es evidente: conquistar a la comunidad de desarrolladores para que usen su herramienta de programación con IA y no otra. Y justo ahí es donde entra Jules.

Las máquinas que programaban por nosotros. Jules fue presentado en diciembre en Google Labs de forma preliminar con un objetivo: no ofrecer solo un copilot para programar o una herramienta de autocompletado de código, sino un agente autónomo que lee el código, entiende lo que pretende hacer y se pone a trabajar para resolver el problema.

Jules "se cuela" en tu repositorio. Como sus rivales, una de las claves de Jules es que es capaz de integrarse ("colarse") en tu repositorio de código para poder analizarlo y ayudarte con tu proyecto. Clona todo el código en una máquina virtual en Google Cloud, estudia ese código para entenderlo y a partir de ahí puede realizar diversas tareas. Por ejemplo:

  • Diseñar pruebas de ejecución
  • Crear nuevas características
  • Proporcionar registros de cambios en forma de audio
  • Corregir errores
  • Actualizar versiones de dependencias

Un asistente en segundo plano. Jules hace todo esto mientras tú te enfocas en cualquier otra tarea, y cuando termina de "pensar" lo que tiene que hacer te informa y te presenta el registro de cambios (diff) realizados.

Tu código es tuyo. Como explican en Google, Jules es privado por defecto. No solo eso: el modelo de IA de Google no hará uso de ese código como datos para su entreamiento, y todos los datos que utilices se mantienen aislados en ese entorno de ejecución que se crea al utilizar esta potente herramienta.

Integrado con GitHub. Otro de los elementos clave de Jules es que funciona de forma totalmente transparente con GitHub, la plataforma de repositorios de código por excelencia. No habrá que instalar nada extra, lo que hará que el flujo de trabajo sea teóricamente perfecto.

Beta pública. Google ha destacado que Jules está disponible desde ya mismo para todos usuarios de Estados Unidos en la URL jules.google. Eso permitirá que cualquiera pueda probarlo de forma gratuita (y sin límites mientras el uso no sea exagerado) durante esta fase preliminar de desarollo y despliegue. Son buenas noticias para desarrolladores que quieran probarlo, incluidos los que no vivan en Estados Unidos, que podrán hacerlo con la solución tradicional: usar una VPN para "simular" que están en EEUU y luego conectarse a esa web.

En Xataka | OpenAI acaba de lanzar su nuevo agente de programación. Lo interesante es lo que puede hacer cuando nadie lo mira

-
La noticia Google ya tiene una IA agéntica capaz de programar por ti: se llama Jules y busca plantarle cara a OpenAI fue publicada originalmente en Xataka por Javier Pastor .

Leer más

Google ya tiene una IA agéntica capaz de programar por ti: se llama Jules y busca plantarle cara a OpenAI

Google ya tiene una IA agéntica capaz de programar por ti: se llama Jules y busca plantarle cara a OpenAI

Google lo califica como un "agente asíncrono de programación", pero es mucho más fácil definir a Jules como lo que es: un sistema de IA que te ayuda a programar más y mejor. Pero también es otra cosa.

Guerra de "vibe coding". Cursor o WindSurf se han convertido en estandartes de una nueva fiebre por la programación asistida por IA. Esa del "vibe coding" en la que hablas para que te haga el trabajo o pides que te autocomplete el código a base de pulsar el tabulador repetidamente ("tab-tab-tab"). OpenAI de hecho acaba de comprar Windsurf por 3.000 millones de dólares, y la razón es evidente: conquistar a la comunidad de desarrolladores para que usen su herramienta de programación con IA y no otra. Y justo ahí es donde entra Jules.

Las máquinas que programaban por nosotros. Jules fue presentado en diciembre en Google Labs de forma preliminar con un objetivo: no ofrecer solo un copilot para programar o una herramienta de autocompletado de código, sino un agente autónomo que lee el código, entiende lo que pretende hacer y se pone a trabajar para resolver el problema.

Jules "se cuela" en tu repositorio. Como sus rivales, una de las claves de Jules es que es capaz de integrarse ("colarse") en tu repositorio de código para poder analizarlo y ayudarte con tu proyecto. Clona todo el código en una máquina virtual en Google Cloud, estudia ese código para entenderlo y a partir de ahí puede realizar diversas tareas. Por ejemplo:

  • Diseñar pruebas de ejecución
  • Crear nuevas características
  • Proporcionar registros de cambios en forma de audio
  • Corregir errores
  • Actualizar versiones de dependencias

Un asistente en segundo plano. Jules hace todo esto mientras tú te enfocas en cualquier otra tarea, y cuando termina de "pensar" lo que tiene que hacer te informa y te presenta el registro de cambios (diff) realizados.

Tu código es tuyo. Como explican en Google, Jules es privado por defecto. No solo eso: el modelo de IA de Google no hará uso de ese código como datos para su entreamiento, y todos los datos que utilices se mantienen aislados en ese entorno de ejecución que se crea al utilizar esta potente herramienta.

Integrado con GitHub. Otro de los elementos clave de Jules es que funciona de forma totalmente transparente con GitHub, la plataforma de repositorios de código por excelencia. No habrá que instalar nada extra, lo que hará que el flujo de trabajo sea teóricamente perfecto.

Beta pública. Google ha destacado que Jules está disponible desde ya mismo para todos usuarios de Estados Unidos en la URL jules.google. Eso permitirá que cualquiera pueda probarlo de forma gratuita (y sin límites mientras el uso no sea exagerado) durante esta fase preliminar de desarollo y despliegue. Son buenas noticias para desarrolladores que quieran probarlo, incluidos los que no vivan en Estados Unidos, que podrán hacerlo con la solución tradicional: usar una VPN para "simular" que están en EEUU y luego conectarse a esa web.

En Xataka | OpenAI acaba de lanzar su nuevo agente de programación. Lo interesante es lo que puede hacer cuando nadie lo mira

-
La noticia Google ya tiene una IA agéntica capaz de programar por ti: se llama Jules y busca plantarle cara a OpenAI fue publicada originalmente en Xataka por Javier Pastor .

Leer más

Google ya ofrece SynthID para marcar contenidos generados por IA como tales. Ahora nos ayudará a identificarlos

Google ya ofrece SynthID para marcar contenidos generados por IA como tales. Ahora nos ayudará a identificarlos

Cuando el Papa Francisco I apareció con un vistoso abrigo blanco de plumas muchos probablemente creyeron que esa imagen era real. No lo era, pero aquella imagen, como la del arresto de Donald Trump, dejaron clara una cosa: que cada vez íbamos a tener más difícil diferenciar las imágenes creadas por una IA de las que no lo son. ¿Cómo resolverlo?

Marcas de agua. Entre las soluciones posibles, había una bastante obvia: identificar las imágenes de IA como generadas por IA. Es decir: cada vez que alguien le pidiese a ChatGPT una imagen con estilo de de Studio Ghibli o a Grok alguna de Bill Gates con una pistola, esos modelos de IA deberían incluir ciertos metadatos en el fichero de la imagne. Básicamente sería como "ponerle un sello" a estas imágenes para poder identificarlas en caso de duda.

Ahí entra SynthID. Hay varios esfuerzos en ese sentido, y entre ellos está SynthID. Esta tecnología de marcas de agua se presentó en 2023 y un año después lo ofrecían como herramienta libre para que cualquiera pudiera implementarlo.

Lucha contra los deepfakes. Como comentan los responsables de la compañía, desde su lanzamiento en 2023 SynthID ha colocado marcas de agua en más de 10.000 millones de imágenes, vídeos, archivos de audio y textos. Eso hace que se puedan identificar como generados por IA y así reducir las posibilidades de desinformación y atribución errónea. Además, destacan en Google, los resultados generados por Veo 3, Imagen 4 y Lyria 2 seguirán teniendo marcas de agua de SynthID.

Llega el detector de contenidos de IA. La empresa ha anunciado durante el evento Google I/O 2025 que lanza SynthID Detector, un portal de verificación para ayudar a los usuarios a identificar los contenidos generados por IA. Su funcionamiento es sencillo: basta con subir cualquier contenido (texto, imagen, vídeo, audio), y el Detector de SynthID identificará si todo el archivo o solo una parte contiene SynthID.

Preparándonos para lo bueno y lo malo de la IA. Este tipo de herramienta puede ser especialmente útil para artistas y creadores que podrán así defender su trabajo como legítimo, pero es sobre todo una útil opción que nos ayuda a protegernos de deepfakes y de intentos de desinformación.

Pero. Como ya comentamos hace meses, SynthID es una propuesta prometedora y con muchas características llamativas, pero tiene un problema: que (de momento) no es un estándar universal. Aquí Google no solo debe lograr utilizarlo en sus plataformas, sino llegar a un consenso con el resto de grandes tecnológicas para que lograr que haya un solo sistema abierto e interoperable que resuelva el problema de las marcas de agua de forma universal.

En Xataka | La nueva empresa de Ilya Sutskever tiene un objetivo claro: crear una superinteligencia con seguridad "nuclear"

-
La noticia Google ya ofrece SynthID para marcar contenidos generados por IA como tales. Ahora nos ayudará a identificarlos fue publicada originalmente en Xataka por Javier Pastor .

Leer más

Una incidencia de Telefónica está afectando al teléfono de emergencias 112. Hay alternativas para los afectados

Una incidencia de Telefónica está afectando al teléfono de emergencias 112. Hay alternativas para los afectados

Una incidencia en la infraestructura de Telefónica está provocando algunos problemas en líneas fijas en diversas regiones de España. Especialmente llamativo es el impacto que esta incidencia está teniendo en el número de teléfono de emergencias, el 112.

Qué ha pasado. Como indican en El País, un portavoz de Telefónica revela que "Hemos hecho unos trabajos de actualización de la red que han afectado a servicios puntuales en algunas empresas. Estamos trabajando en resolverlo".

Varias regiones sin 112. Son varias las Comunidades Autónomas y regiones que sen han quedado sin poder recibir llamadas a sus servicios de emergencias 112 por parte de clientes de Telefónica en dichas zonas.  Algunas de las alternativas son:

  • Gobierno de Aragón: 683 638 273 / 683 134 645 / 660 705 897
  • Gobierno Vasco: 902 112 088
  • Generalitat Valenciana: 96 342 80 00

Otras afectadas. En Extremadura también han avisado de problemas e indican que están "trabajando desde primera hora para que no afecten al ciudadano", pero no hay números alternativos. Lo mismo ocurre en el 112 de Andalucía, donde se indica que esta incidencia comienza a recuperarse en esta Comunidad Autónoma. En el comunicado de la Junta de Andalucía indican lo siguiente:

"Cabe destacar que, esta madrugada la empresa Movistar tenía programada una intervención a las 03.00 horas, a partir de ese momento se han empezado a dejar sentir algunos problemas las llamadas salientes, aunque sin afectación a las llamadas de la ciudadanía que solo se han visto afectadas a primera hora de la mañana".

Otras se libran. En la Generalitat de Cataluña indican que la incidencia ha sido mínima "y los sistemas de contingencia han operado y ahora se trabaja con normalidad". En el 112 de la Comunidad de Madrid no hay avisos y no parece que haya habido impacto. El 112 de Castilla y León también parece estar libre de incidencias según sus responsables, y lo mismo ocurre en Galicia o en Islas Baleares. Otras comunidades autónomas como Islas Canarias, Murcia, Navarra o Cantabria no registran avisos en sus cuentas en X, por ejemplo.

Impacto irregular. La incidencia parece afectar de forma irregular a los clientes de Telefónica. Desde el Departamento de Seguridad de Telefónica indican que alrededor de las cuatro de la mañana se han comenzado a detectar "problemas con algunas de las llamadas que entraban en el call center".

En Xataka | La alerta de la DANA que has recibido en tu móvil no es un SMS ni usa tu número: así funciona el sistema de emergencias ES-Alert 

-
La noticia Una incidencia de Telefónica está afectando al teléfono de emergencias 112. Hay alternativas para los afectados fue publicada originalmente en Xataka por Javier Pastor .

Leer más

Todas las empresas de IA prometen que la AGI llegará muy pronto. El problema es que ChatGPT no es el camino

Todas las empresas de IA prometen que la AGI llegará muy pronto. El problema es que ChatGPT no es el camino

En diciembre de 2022 ChatGPT nos dejó boquiabiertos a todos. Sin embargo, dos años y medio después tenemos un problema: no parece que tras todo este tiempo pueda ir a mucho más. Ha mejorado, sí, pero mientras tanto nos estamos alejando de la Gran Promesa de la IA, que no es otra que la de ir más allá y que alguien logre llegar a lo que se conoce como la inteligencia artificial general. Y parece estar claro que este camino, el de ChatGPT, no es el bueno para conseguirlo.

Promesas, promesas. Hace unos meses Sam Altman llamó al presidente de Estados Unidos, Donald Trump, y le dijo que la AGI llegaría antes de que terminase su mandato. Es un mensaje que lleva repitiendo desde hace meses, aunque entonces habló de "unos pocos miles de días".  Dario Amodei, CEO de Anthropic, cree que podría llegar antes, en 2026. Elon Musk —el que prometió que tendría listo Tesla totalmente autónomo en 2016— se mostraba de acuerdo y apuntaba a 2026 como el año en el que lograremos tener una AGI. Todos son hiperoptimistas por una sencilla razón.

Dinero. Como Altman, todos los que defienden el auge y desarrollo de la IA y la inminente llegada de la AGI lo hacen para lograr recaudar más y más dinero para sus empresas. Sabemos que desarrollar, entrenar y hacer funcionar modelos de IA cuesta verdaderas fortunas, pero es que el avance en este campo parece estar desacelerando.

Dudas con el escalado. Son muchos los que creen que la estrategia actual de escalar los modelos —dedicar más GPUs y obtener más datos para entrenarlos— ya no compensa tanto como antes. Las últimas versiones de los grandes modelos fundacionales superan a sus predecesoras, sí, pero no de forma llamativa. Es como si hubiéramos tocado techo.

Este no es el camino. Y desde hace meses se comienzan a oír las voces de los expertos dejando claro que hay que buscar otras soluciones. Nick Frosst, alumno de Geoffrey Hinton y fundador de Cohere, tiene claro que la tecnología actual no es suficiente para llegar a una AGI. Lo que hace la IA generativa es "predecir la siguiente palabra más probable", pero eso es muy distinto de la forma en la que los humanos pensamos.

LeCun cree que tardaremos mucho en lograr una AGI. Personalidades respetadas en el mundo de la IA como Yann LeCun, máximo responsable de la división de IA en Meta, lo tienen claro. Los modelos como ChatGPT no lograrán igualar la inteligencia humana. Asegura además que lograr una IA de nivel humano va a llevar mucho tiempo: nada de "unos pocos miles de días" como afirmaba Altman.

Y Sutskever coincide. Este cofundador de OpenAI, también se muestra escéptico con el potencial de la IA generativa, que según él apenas está mejorando. Su nueva startup, Safe SuperIntelligence, tiene como objetivo crear una superinteligencia con seguridad "nuclear", aunque de momento no ha habido detalles sobre la estrategia que están siguiendo para lograrlo. No es desde luego la que siguió cuando ayudó a crear ChatGPT. Una encuesta reciente a una asociación académica de expertos en este campo opinaban igual: tres cuartas partes de quienes respondieron no creen que los métodos actuales sirvan para acabar desarrollando una AGI.

La IA generativa no es un ningún milagro. Como señalan en The New York Times, lo que logran chatbots como ChatGPT u otros desarrollos en este campo es hacer muy bien una cosa, "pero no son necesariamente mejor que los humanos en otras". Según él hay cierta tentación a pensar en estos chatbots como algo mágico, pero "estos sistemas no son un milagro. Son gadgets muy impresionantes".

ChatGPT no desafía lo que sabe. Thomas Wolf, cofundador y Chief Science Officer de Hugging Face, tiene claro que la IA generativa está muy bien, pero está muy lejos de llevarnos a una AGI. Lo que tenemos, explicó hace unas semanas, es como "un país lleno de personas que nos dicen sí a todo". ChatGPT no nos desafía, pero es que tampoco desafía lo que sabe. "Necesitamos un sistema que sea capaz de preguntarse cosas que nadie había pensado o que nadie se había atrevido a preguntar", comentó.

Muchos retos por delante. Entre las diferencias entre la IA y la inteligencia humana está que esta última está ligada al mundo físico: parte de nuestra inteligencia está en saber cuándo darle la vuelta a la tostada, por ejemplo. Hay avances en robótica y sensores que pueden ayudar a resolver ese tipo de problemas, pero este es un buen ejemplo de cómo hay aún muchísimos retos por superar para alcanzar esa inteligencia artificial general que se supone igualará (o superará) a la inteligencia humana en todas las disciplinas.

¿Y las IAs que razonan? Las empresas de IA generativa han encontrado un pequeño respiro con los modos de razonamiento de sus chatbots. Aquí encontramos un avance singular que permite que la IA responda de forma más precisa y detallada gracias a "pensar" sus respuestas y seguir un proceso de "razonamiento" que trata de imitar al humano. 

Sin embargo esto no nos parece llevar a una AGI, y de nuevo estos modos de razonamiento son más bien un modo de intentar que las respuestas sean algo mejores y no veamos "alucinaciones" por parte de los chatbots. A pesar de todo, ChatGPT y sus rivales siguen equivocándose en este y el resto de modos.

Posibilidades. En el horizonte asoman algunas posibilidades. Al enfoque actual basado en redes neuronales le acompaña el enfoque de sistemas simbólicos (basado en reglas) que puede ayudar a aportar elementos como el razonamiento deductivo o el manejo de conocimiento abstracto a los modelos actuales. También se trabaja en entrenamiento de modelos con entornos virtuales físicamente precisos y en los llamados sistemas de meta-aprendizaje, que permiten entrenar redes neuronales nuevas tareas rápidamente y con un conjunto de datos limitados.

Pero las empresas necesitan productos que vendernos. Esos enfoques para el desarrollo de nuevas vías de investigación están ahí, pero el problema es que las empresas siguen aparentemente muy centradas en la IA generativa y el escalado. Siguen invirtiendo cantidades ingentes de dinero en tratar de mejorar sus modelos actuales o de aplicarlos a nuevos problemas. Por ejemplo, con los llamativos agentes de IA de programación, como Cursor, Windsurf o el nuevo Codex de OpenAI. Es desde luego interesante que mejoren y eso es lo que necesitan las empresas para convencernos de que usemos sus plataformas de IA y acabemos pagando por ellas. Pero también distrae del que debería ser el verdadero objetivo final: lograr una AGI que a priori parece estar bastante más lejos de lo que nos dicen Altman, Amodei o Musk.

En Xataka | La hipotética red social de OpenAI no quiere conectar gente. Quiere tus datos para entrenar su IA

-
La noticia Todas las empresas de IA prometen que la AGI llegará muy pronto. El problema es que ChatGPT no es el camino fue publicada originalmente en Xataka por Javier Pastor .

Leer más

A la caza de los criptomillonarios: una oleada de secuestros y violencia les puesto en el punto de mira en todo el mundo

A la caza de los criptomillonarios: una oleada de secuestros y violencia les puesto en el punto de mira en todo el mundo

David Balland es uno de los cofundadores de Ledger. Ya no trabaja activamente en la empresa y se retiró con su pareja a una localidad de la parte central de Francia. En enero ambos fueron secuestrados a punta de pistola. Poco después los secuestradores enviaron un vídeo para pedir rescate: en él mostraban cómo le cortaban uno de los dedos a Balland. El violento suceso es solo un ejemplo de una peligrosa tendencia en los últimos meses.

Oleada de secuestros y ataques. Como señalan en The Wall Street Journal, en los últimos meses han sido varios los casos de intentos de secuestro o de ataques con violencia que han sufrido personas con un supuesto gran patrimonio en criptomonedas.

"¡Ayuda! ¡Ayuda!". La hija del CEO de Paymium, un mercado de compraventa de criptodivisas en Francia, sufrió un intento de secuestro recientemente. La mujer iba con su hijo y su marido cuando uns hombres trataron de meterla en una furgoneta blanca. La mujer pidió ayuda, el marido forcejeó con los atacantes y un vecino que estaba cerca cogió al niño para tratar de llevarlo lejos. Cuando otros vecinos se acercaron los atacantes acabaron metiéndose en la furgoneta y huyendo.

Por todo el mundo. El pasado mes de septiembre un hombre fue sentenciado a 47 años de cárcel por dirigir a una banda de delincuentes que llevó a cabo varios asaltos a los domicilios de personas con grandes cantidades de criptodivisas. En uno de ellos atacaron a un hombre de 76 años en Durham (EEUU) y le amenazaron con cortarle los genitales.

En España, también. El pasado 1 de febrero una mujer se presentó en la comisaría de Marbella para alertar que su hijo estaba secuestrado. La víctima, un "trader" de criptomonedas londinense, acabó usando una treta para avisar a un amigo en Londres y de hecho escapó de sus captores. El fundador de Tuenti, Zaryn Dentzel, también fue secuestrado en 2021 para robarle 25 millones de euros en bitcoins. Sus captores acabaron sendo arrestados y han sido condenados a nueve años de prisión.

Mejor no presumir. Killian Desnos es un influencer francés que reside en Malta y que a menudo ha hablado de lo rico que es gracias a las criptomonedas. En agosto de 2023 una persona disfrazada de mensajero de Amazon llamó a casa de su padre y lo secuestró. Mandó a Desnos un vídeo apuntando al padre con una pistola. Acabó pagando el rescate, el padre fue puesto en libertad al día siguiente y la policía encontró y arrestó a los dos responsables del secuestro. "Presumir en internet no fue una buena idea, me doy cuenta", contó en X poco después del incidente.

Para qué hackear. Tradicionalmente los criminales han tratado de robar criptomonedas mediante ciberataques a mercados de compraventa de estos activos, pero en los últimos tiempos se están produciendo también numerosos ataques directos a personas reconocidas por formar parte de este segmento y que supuestamente tienen grandes cantidades de dinero en forma de criptodivisas. Kames Lopp, cofundador de la empresa de seguridad de bitcoin Casa, explica que "mucha gente está llegando al nivel de seguridad de esconder el dinero debajo del colchón", y los criptomillonarios se arriesgan así a ataques físicos.

Los robos de datos no ayudan. ¿Cómo identifican los criminales a sus víctimas? Una de las posibilidades es que obtengan esos datos de los robos que han sufrido algunas empresas de este segmento. Hace cuatro días Brian Armstrong, CEO de Coinbase, admitió que alguien había robado los datos de un 1% de los usuarios de su plataforma (se estiman unos 100.000 afectados). Antes ya había ocurrido con Ledger, que en 2020 también sufrió una intrusión que hizo que se filtraran los datos de 270.000 clientes.

Identificar a los criptomillonarios. En Francia, como en España, hay registros públicos de los propietarios de las empresas y en ellos se pueden encontrar los domicilios de esos emprendedores. Taylor Monahan, que trabaja en ciberseguridad en MetaMask, explica que los cibercriminales logran cruzar bases de datos e incluso pagan por fuentes de información. El doxing es un problema cada vez más común y permite a atacantes obtener información personal para luego acosarla o, como en estos casos, amenazar con secuestros o ataques violentos.

Imagen | Freepik | Amjith S

En Xataka | Hoy ya solo necesitas una cosa para convertirte en pionero de los vuelos espaciales: haberte hecho millonario con Bitcoin

-
La noticia A la caza de los criptomillonarios: una oleada de secuestros y violencia les puesto en el punto de mira en todo el mundo fue publicada originalmente en Xataka por Javier Pastor .

Leer más

RootedCON va con todo contra LaLiga y sus bloqueos indiscriminados de IPs: ha acudido al Tribunal Consitucional

RootedCON va con todo contra LaLiga y sus bloqueos indiscriminados de IPs: ha acudido al Tribunal Consitucional

Román Ramírez, máximo responsable de RootedCON, ya lo dejó claro en la pasada edición de este evento. Hay que luchar contra los bloqueos indiscriminados de IP que está ordenando LaLiga. Y vaya si lo están haciendo.

El primer intento falló. RootedCON presentó en marzo una petición de nulidad de la sentencia en la que se apoya LaLiga para los bloqueos. Aquel primer intento de acudir a la justicia para que detuviese esta situación fracasó, y un tribunal rechazó el intento de anular dicha sentencia.

RootedCON prometió acudir al Constitucional si era necesario. El pasado 7 de marzo se celebró el evento RootedCON, y en él se organizó una mesa redonda titulada "Tebas a quedar sin fútbol". Varios expertos debatieron sobre los bloqueos de IPs, y Román Ramírez, máximo responsable de RootedCON, explicó que había que parar esto antes de que sea demasiado tarde y vaya aún más allá. Es más: aseguró que "lo llevaremos al [Tribunal] Constitucional si es necesario".

Recurso de amparo. Los responsables de RootedCON han anunciado que han presentado un recurso de amparo ante el Tribunal Constitucional. En el comunicado se indica que la organización ha "agotado todas las vías legales a nuestro alcance" para intentar convencer al juez de la "grave anomalía" que suponen estos bloqueos.

Deriva autoritaria. En RootedCON argumentan que los bloqueos suponen una violación de los derechos fundamentales. Explican que la negativa del juez a valorar esos derechos elementales "deja en evidencia una preocupante deriva autoritaria". Para estos expertos la situación es un "atropello" y consideran que las medidas adoptadas por LaLiga y las operadoras se han tomado "sin transparencia, sin proporcionalidad y sin garantías adecuadas":

Debate en el Congreso. Además de solicitar medidas cautelares para solucionar el problema, en RootedCON exigen al Congreso de los Diputados un debate público y técnico sobre los límites de control en la red. Citan expresamente a la iniciativa propuesta por Néstor Rego, diputado por el NBG, que estos días exigió precisamente que se actuase contra el bloqueo reiterado de páginas web.

Confianza en el sistema judicial. Nos hemos puesto en contacto con Omar Benbouazza, Director de Comunicaciones de RootedCON. Nos ha indicado que "tenemos esperanzas [en el recurso de amparo] porque todavía creemos en el sistema judicial. No nos queda otra. Esperamos que por fin alguien tenga algo de sentido común y se lleve las manos a la cabeza por todo lo que se está haciendo".

Qué pasa si esto también fracasa. Benbouazza confía en que el Tribunal Constitucional acepte este recurso y dé solución al problema, y destaca que ahora lo que hay que intentar es "llamar la atención a nivel mediático, social y político". Puede no obstante que este recurso de amparo tampoco progrese, y aquí la opción es llevar la causa a los tribunales europeos. "No descartamos Europa", explica, pero deja claro que hay que ir "paso a paso" y espera que el citado recurso de amparo sí dé resultados positivos.

Imágenes | Wirestock | LaLiga

En Xataka | Sabíamos que los bloqueos de IPs de LaLiga han sido masivos e indiscriminados. Lo que no sabíamos era hasta qué punto

-
La noticia RootedCON va con todo contra LaLiga y sus bloqueos indiscriminados de IPs: ha acudido al Tribunal Consitucional fue publicada originalmente en Xataka por Javier Pastor .

Leer más