La IA está llenando la web de contenido. La pregunta es qué pasará cuando se retroalimente de él

La IA está llenando la web de contenido. La pregunta es qué pasará cuando se retroalimente de él

Los modelos de IA generativa están causando furor, pero también están inundando la web de nuevos contenidos a un ritmo frenético. Lo estamos viendo claramente con Midjourney y su capacidad creativa, pero también con ChatGPT, que por ejemplo está ayudando a los spammers a crear miles de sitios web. Ahora hay estudios que hablan de que eso plantea un gran problema en el futuro: el llamado "colapso del modelo".

Qué es el colapso del modelo. Como señalaban en el citado estudio, en el mundo de las Redes Generativas Antagónicas (GANs), el "modo colapso" —del que se deriva el término "colapso del modelo"— ocurre cuando el generador comienza a retroalimentarse y producir la misma salida una y otra vez. El colapso del modelo se refiere a un proceso de aprendizaje degenerativo en el que los modelos empiezan a olvidar sucesos improbables con el tiempo, a medida que el modelo se "envenena" con su propia proyección de la realidad.

Y si. El problema es que dado que la IA está llenando la web de contenido y que esa IA es entrenada y actualizándose con toda esa web que bulle y crece, ¿qué pasa con esa retroalimentación? ¿Cómo influirá en esos modelos el hecho de que cada vez más datos de su entrenamiento provengan de contenidos generados por IA, y no de contenidos generados por seres humanos?

Defectos irreversibles. Según los investigadores, "el uso de contenido generado por el modelo en su entrenamiento causa defectos irreversibles en los modelos resultantes". De hecho, apunta, "el proceso es inevitable, incluso en casos con condiciones casi ideales para el aprendizaje a largo plazo". ¿Por qué?

Degeneración rápida. Según ellos, porque con el tiempo "los errores en los datos generados se agravan y, en última instancia, obligan a los modelos que aprenden de los datos generados a percibir la realidad de forma aún más errónea". Ilia Shumailov, uno de los responsables del estudio, indicaba en VentureBeat que de hecho esa degeneración se puede producir muy rápidamente: "los modelos pueden olvidar rápidamente la mayor parte de los datos originales de los que aprendieron originalmente".

Una IA llena de residuos. Otro de los autores del estudio, Ross Anderson, de la Universidad de Edimburgo, explicaba en un post de su blog que lo que está pasando le recuerda a lo que ocurre con los océanos, que se llenan de plásticos. Eso, asegura, "dará ventaja a las empresas que ya lo hacían o que controlan el acceso a interfaces humanas a escala. De hecho, ya estamos viendo cómo las empresas de inteligencia artificial explotan The Internet Archive".

Cámara de eco a la vista. Otro efecto derivado del problema sería la de una especie de IA con una cámara de eco retroalimentándose continuamente. Ted Chiang, autor de 'Story of Your Life' —la novela que inspiró la película 'La llegada'— explicaba en The New Yorker que el colapso llevará a una calidad cada vez peor, algo parecido a lo que ocurre con una imagen JPEG cuando se va copiando y degradándose.

Cómo evitar el colapso del modelo. Los investigadores indican dos formas de evitar este problema. La primera, guardando una especie de "copia maestra" del conjunto de datos de entrenamiento original "producido por humanos" y evitar "contaminarlo" con datos generados por una IA. La segunda, ir incluyendo nuevos conjuntos de datos generados por humanos a lo largo del entrenamiento en etapas posteriores.

De momento todo va bien. Por ahora los modelos han sido entrenados con datos generados por seres humanos —los usados por ChatGPT estaban actualizados hasta otoño de 2021, aproximadamente—, y queda por ver qué ocurrirá con futuros modelos que se actualicen con datos que incluyan los generados por estos modelos de IA. Las previsiones del estudio no son buenas, desde luego.

Imagen | Xataka con Midjourney

En Xataka | Hay un sector particularmente afectado por la nueva IA de Google: los fotógrafos de producto

-
La noticia La IA está llenando la web de contenido. La pregunta es qué pasará cuando se retroalimente de él fue publicada originalmente en Xataka por Javier Pastor .

Leer más

Las empresas de IA parecen las primeras interesadas en regular la IA. Eso es preocupante

Las empresas de IA parecen las primeras interesadas en regular la IA. Eso es preocupante

Tiene 38 años y hoy en día es una de las personas más poderosas e influyentes del mundo. Todos quieren hacerse la foto con él, y eso es justo lo que logró en una singular gira por Europa —y antes, por otras regiones del mapa mundial— en la que se reunió con mandatarios y, sobre todo, con reguladores. Con todos, insistimos, hubo foto.

Su nombre, claro, es Sam Altman. El CEO de OpenAI visitó a finales de mayo España, Polonia, Francia y el Reino Unido, además de reunirse con Thierry Breton en Bruselas. La frenética agenda no estaba destinada a darle publicidad a su empresa y a su producto estrella, ChatGPT. No hacía demasiada falta. Estaba destinada a otra urgencia: la de hablar de la regulación de la inteligencia artificial.

El discurso de Altman con todos esos mandatarios fue sospechosamente parecido al que todos ellos habían mantenido en las semanas previas. Los discursos pesimistas sobre una IA que podría acabar con el ser humano se unían a otros algo menos distópicos pero también preocupantes: Geoffrey Hinton, uno de los considerados "padrinos de la IA", dimitía de su puesto en Google y alertaba de riesgos como la desinformación.

El propio Altman se sumaba a esa visión preocupante de nuestro futuro. "Si hace daño, puede hacer mucho daño", explicaba. Y tras eso, su mensaje asociado: necesitamos regular la IA, y estamos totalmente dispuestos a colaborar con las entidades reguladoras.

La postura de Altman y su buena disposición podrían ser tomadas sin más como una declaración de buenas intenciones, pero las cosas se pusieron aún más interesantes cuando vimos cómo no solo OpenAI, sino otras grandes empresas implicadas en esge segmento, pedían exactamente lo mismo.

Las Big Tech se quieren llevar bien con los reguladores

El discurso es parecido desde hace años. En enero de 2020 Sundar Pichai, CEO de Alphabet —matriz de Google— ya pedía una regulación para este segmento. Algo más tarde, en septiembre de 2021 Microsoft ya hablaban de que era necesario "regular la IA para impulsar la innovación responsable en Europa".

Ambas empresas han renovado el discurso recientemente. Pichai explicaba en Financial Times cómo la IA "es demasiado importante para no ser regulada adecuadamente".

Mientras, Satya Nadella concedía una entrevista en Time en mayo y destacaba que "creo que hay lugar para el diálogo, y también hay lugar para que asumamos nuestra responsabilidad como proveedores de esta tecnología antes de la regulación, y luego esperemos que la haya". El presidente de Microsoft, Brad Smith, se explayaba también sobre el tema y hablaba de cuál era la mejor forma para aplicar la gobernanza de la IA.

El propio Mark Zuckerberg, creador de Facebook, ya había hecho algo parecido a lo que hizo Altman, pero en 2020. Como él, se reunió con reguladores europeos antes de que se publicaran propuestas para regular la IA. Por entonces OpenAI era una desconocida y Facebook aún no era Meta —y comenzó a apostar todo al metaverso—. Aquellas reuniones de entonces, como estas de ahora, estaban destinadas a lo mismo.

El fin justifica los medios

Que no es, ni más ni menos, que ganar la carrera de la IA. Ponerse del lado de los reguladores y mostrar una disposición absoluta a colaborar es una buena forma de lograrlo, pero obviamente Altman —como el resto de los mencionados— tiene su propia hoja de ruta.

Eso se puede deducir de la elección de países visitados en su gira. Altman visitó España, algo que parece raro hasta que uno se da cuenta de un dato clave: nuestro país asumirá la presidencia del Consejo Europeo el próximo mes de julio. El Gobierno de España ya ha dejado claro que completar la AI Act es su principal prioridad en el ámbito digital, así que esa visita de Altman fue un tiro certero. Uno en el que, por supuesto, hubo foto.

Pero esa agenda también fue perfilándose cuando su discurso cambió. De ver la IA como una amenaza pasó a declarar algo muy distinto y dijo que "intentaremos cumplir [la regulación], pero si no podemos hacerlo dejaremos de operar".

Eso no gustó mucho a los euroreguladores —con Thierry Breton al frente— y lo cierto es que la Unión Europea parece estar avanzando con paso firme hacia la aprobación definitiva y puesta en marcha de la AI Act, su planteamiento —algo estricto, según los expertos— para regular la inteligencia artificial.

La captura del regulador

Lo que ha hecho Altman es lo mismo que habían hecho otros en el pasado. Mark Zuckerberg abogó en 2020 por una regulación para las redes sociales. "Creo que una buena regulación puede dañar el negocio de Facebook a corto plazo, pero será mejor para todos, incluyéndonos a nosotros, a largo plazo", explicaba. Un año antes el discurso había sido similar al hablar de una regulación más fuerte de internet.

Esos discursos de entonces, como los de Altman de ahora, tienen un nombre: captura del regulador. Se llama así a "un tipo de fallo del Estado que ocurre cuando una agencia regulatoria, creada para defender el interés general, actúa en favor de ciertos intereses políticos o grupos de interés del sector sobre el cual está encargada de regular". O lo que es lo mismo: Altman no quere una regulación para la IA.

Quiere su regulación.

Esas técnicas de grupos de presión —lobbying— son utilizadas en otros muchos ámbitos, pero aquí transforman a las Big Tech en teóricas aliadas de los organismos reguladores: declaran tener las mejores intenciones y estar totalmente abiertas a colaborar con los reguladores, pero lo hacen para intentar —como haría probablemente cualquiera al frente de esas grandes empresas— influir en la redacción de leyes que puedan afectarlas de cara al futuro.

¿Misión cumplida?

La situación se ha vuelto aún más clara tras la información publicada en Time. Esta publicación ha revelado que OpenAI intentó relajar la regulación de la inteligencia artificial en Europa. Como explicaban en dicho medio, Altman ha hablado repetidamente de la necesidad de una regulación global de la IA, "Pero entre bastidores, OpenAI ha presionado para que elementos significativos de la legislación sobre IA más completa del mundo -la Ley de IA de la UE- se suavicen de forma que reduzcan la carga reguladora de la empresa".

Parlamento Europeo

Fuente: Wikimedia.

Parece que las enmiendas (o al menos, algunas de ellas) propuestas por OpenAI acabaron formando del texto final de la ley de la UE que tuvo el visto bueno del Parlamento Europeo la semana pasada. Una de las más relevantes, la de que no se considerara a sistemas como GPT-3 "de alto riesgo". En un documento de OpenAI dirigido a la UE y publicado por Time los responsables de la empresa explicaban que "Por sí mismo, GPT-3 no es un sistema de alto riesgo. Pero posee capacidades que pueden ser empleadas en casos de uso de alto riesgo".

La gira de Sam Altman parece haber tenido éxito: el borrador final no incluía ya esos párrafos en los que se sugería que los sistemas de IA de propósito general —como GPT-3— deberían considerarse de forma inherente como de alto riesgo. En lugar de eso la AI Act habla de los "modelos fundacionales" (GPT-3 también estaría englobado en esa categoría) y de cómo estos tendrían requisitos algo más relajados.

Imagen | Jernej FurmanVillage Global

En Xataka | La amenaza de la IA a la humanidad es "absurdamente ridícula": lo dice el máximo responsable de IA en Meta

-
La noticia Las empresas de IA parecen las primeras interesadas en regular la IA. Eso es preocupante fue publicada originalmente en Xataka por Javier Pastor .

Leer más

Resolviendo el eterno dilema: qué puerto es mejor para jugar en un PC gaming, DisplayPort o HDMI

Resolviendo el eterno dilema: qué puerto es mejor para jugar en un PC gaming, DisplayPort o HDMI

El sonido es un apartado fundamental en el mundo del gaming, y puede que algún usuario tenga dudas sobre cómo lograr sacar el máximo partido de este apartado. La pregunta esencial es clara: ¿qué usar, el puerto HDMI o el puerto DisplayPort?

Tanto las tarjetas gráficas de nuestros PCs y portátiles gaming como los monitores (o incluso televisores) a los que conectamos esos equipos suelen disponer de alguno de esos puertos o de los dos, por lo que saber en qué se diferencian y cuál es más adecuado para jugar es importante. Hablemos de todo ello.

Nos centraremos en las versiones más populares de estos estándares: tenemos un enfrentamiento claro entre DisplayPort 1.4 y HDMI 2.1, que se renovó con un foco especialmente destacable en el ámbito del gaming.

Hay que señalar que hay versiones incluso más modernas (HDMI 2.1a se lanzó en enero de 2022, DisplayPort 2.1 en noviembre de ese año), pero la mayoría de productos actuales hacen uso de esas versiones algo menos recientes pero que son a día de hoy referentes del mercado.

DisplayPort 1.4

DisplayPort 1.4 lleva mucho tiempo siendo la opción más popular entre los gamers que juegan en PC incluso tras la aparición de HDMI 2.1. Sin embargo, no lo es tanto entre los usuarios de consolas y portátiles gaming porque es más raro encontrar este puerto en ese tipo de productos, que se centran de forma clara en el conector y el (fantástico) estándar HDMI 2.1.

DisplayPort tiene un formato asimétrico característico, y hace uso de 20 pines en ese conector para lograr su ancho de banda máximo, que es de 32,40 Gbps (de los cuales un máximo de 25,92 Gbps son para datos). La organización VESA anunció además en mayo de 2022 una útil forma de etiquetar los cables de este tipo.

Este protocolo es compatible con sistemas de color de 8 bits y de 10 bits, soporta la tecnología DSC 1.2a de compresión de vídeo y puede usar modos de transmisión HBR (High Bit Rate), HBR2 y HBR3.

Su soporte de resoluciones y tasas de refresco es también destacable: es capaz de ofrecer vídeo 4K a 120 Hz, y 5K a 60 Hz y 8K a 30 Hz. También presume de soporte HDR, de gestionar hasta cuatro pantallas distintas y de ser utilizado a través del DisplayPort Alt Mode que permite usarlo con cables USB-C y Thunderbolt 4 además de los propios cables DisplayPor 1.4.

HDMI 2.1

El estándar HDMI está mucho más extendido en el mundo de las Smart TVs y los cines en casa, y con el tiempo ha ido desplazando a conectores como DVI o VGA que ahora son muy poco usados.

HDMI 2.1 mejora su ancho de banda, que llega hasta los 48 Gbps (era de 18 Gbps en HDMI 2.0) gracias a la mejor calidad de los materiales con los que se fabrican los cables y a un nuevo esquema de codificación conocido como 16b/18b.

Ese ancho de banda permite llegar a resoluciones 4K a 120 Hz en consolas y a resoluciones 4K a 144 Hz en PCs gaming con las últimas tarjetas gráficas de alta gama. También soporta 5K a 60 Hz y 8K a 30 Hz y algo especialmente interesante para los gamers: las características de reducción de latencia.

Gracias a la tecnología DSC 2.1 es incluso capaz de soportar resoluciones 8K a 120 Hz con HDR. Da soporte a la tecnología Dynamic HDR que permite que los ajustes de ese alto rango dinámico, y además contamos con características como eARC (enhanced Audio Return Channel) para el soporte de sonido envolvente 7.1, Dolby Atmos y DTS:X.

Entonces, ¿cuál es mejor para jugar?

Dadas sus características y su presencia en distintos productos, la recomendación de qué estándar utilizar para cada situación varía:

  • PC gaming: Aquí el puerto DisplayPort es el preferido. Aunque el HDMI 2.1 se puede usar si tenemos un monitor o una TV que lo soporte, si tenemos el PC conectado a varios monitores con ese protocolo se reducirá el ancho de banda total para cada pantalla.
  • Portátil gaming. Si tenemos conector DisplayPort, será mejor usar este estándar frente a HDMI 2.1. Hay otra opción aquí: aprovechar el DisplayPort Alt Mode y conectar el portátil a un monitor DisplayPort con un cable USB-C.
  • Xbox Series S/X y PS5: Solo disponen de conector HDMI 2.1 así que aquí no hay opción. Se pueden usar cables HDMI 2.0, pero la mejor experiencia se logrará con cables HDMI 2.1. Gracias a esos cables podremos por ejemplo jugar a resolución 1440p e incluso a 4K a 120 Hz si el juego lo permite.
  • Nintendo Switch: esta consola es algo más antigua y soporta HDMI 2.1, por lo que utilizar un cable HDMI 2.1 no tiene mucho sentido aunque pueda haber una pequeña mejora en la calidad de la señal.

En Xataka | Los televisores de 2021 apuestan por HDMI 2.1, pero con frecuencia sus conectores con esta norma tienen 'letra pequeña'. Te la explicamos

-
La noticia Resolviendo el eterno dilema: qué puerto es mejor para jugar en un PC gaming, DisplayPort o HDMI fue publicada originalmente en Xataka por Javier Pastor .

Leer más

Hemos probado Claude, el competidor de ChatGPT creado por Anthropic. Y se comporta la mar de bien

Hemos probado Claude, el competidor de ChatGPT creado por Anthropic. Y se comporta la mar de bien

Puede que ChatGPT sea el referente absoluto en el mundo de los chatbots, pero la competencia en este segmento está cada vez más animada. Además de Bing Chat —que está basado en GPT-4— y Google Bard, van apareciendo alternativas cada vez más llamativas, y una de las más notables es Claude, el chatbot creado por Anthropic.

Esta startup quiere convertirse en la próxima OpenAI, y desde luego tiene papeletas para plantarle cara. Entre otras cosas porque sus fundadores son exempleados de la propia OpenAI. Descontentos con la visión estratégica de su compañía, crearon su propia empresa y en enero de 2023 lanzaban Claude, su chatbot.

Nosotros ya hemos logrado acceso a esta versión inicial que de momento está disponible por invitación —podéis solicitar una aquí—, y tras unas horas preguntándole sobre diversas cuestiones, hemos querido analizar su comportamiento, sus prestaciones y sus opciones de convertirse en un verdadero rival de los chatbots más relevantes hoy en día.

Un chatbot cauto

El funcionamiento de Claude es idéntico al de otros chatbots como ChatGPT: tras iniciar sesión se presenta una interfaz conversacional con una barra lateral a la izquierda con el historial de conversaciones, y una parte central dominante que está dedicada a poder escribir texto (prompts), tras lo cual este chatbot contestará lo mejor que pueda.

Captura De Pantalla 2023 06 22 A Las 12 26 38

Nada más comenzar a conversar con Claude queda claro que estamos ante un chatbot bastante formal y que no trata de tener un trato más cercano como el usuario, como es el caso de Bing Chat.

Al presentarnos como Xataka, Claude nos preguntaba cómo ayudarnos y le preguntábamos inmediatamente si sabía qué era Xataka. La respuesta, breve y concisa, era adecuada.

Como otros chatbots similares, Claude es capaz de seguir la conversación. Es decir, tras preguntarle "¿sabes qué es Xataka?", uno podía preguntar "¿qué tráfico mensual tiene?" sin necesidad de decir que nos referíamos a Xataka: sobreentiende acertadamente que es así.

Las respuestas no aparecen de golpe como Bard, y no son tan rápidas como ChatGPT (GPT-3.5), pero tampoco tan lentas como ChatGPT Plus (GPT_4). La velocidad a la que va generando texto está un poco a caballo entre esos dos modelos, lo que resulta aceptable salvo que esperemos una salida de muchos caracteres, algo que puede hacer que esa respuesta tarde un poco en completarse.

Captura De Pantalla 2023 06 22 A Las 12 30 11

Aprovechamos para comprobar rápidamente que Claude se asemeja también a ChatGPT en sus limitaciones: no es capaz de decirnos la fecha y la hora, y tampoco ofrece referencias (por ejemplo, enlaces) con las fuentes de las que obtiene su información.

Cuando apareció Bard quisimos comparar su comportamiento al de Bing Chat y GPT-3/GPT-4, y aquí queremos hacer lo mismo y comprobar qué respuestas da Claude a aquellas preguntas.

Le pedimos en primer lugar que nos explicara la teoría de la relatividad como si fuera un niño de 5 años, a lo que Claude dio una respuesta que al principio era adecuada, pero que luego mencionaba la ecuación E=mc^2 y la explicaba brevemente, algo que difícilmente un niño de cinco años entendería. Ninguno de los chatbots era especialmente bueno al intentar entender qué puede llegar a comprender un niño tan pequeño, pero la respuesta fue relativamente clara.

Captura De Pantalla 2023 06 22 A Las 13 06 40

Cuando le preguntamos a Claude qué tal estaba, respondió rápidamente aclarando que "Estoy bien, gracias por preguntar" pero rápidamente dejó claro que "no experimento estados de ánimo o emociones como los humanos".

Captura De Pantalla 2023 06 22 A Las 13 08 08

También quisimos comprobar si era capaz de actuar como una terminal Linux, algo que efectivamente podía hacer. Introdujimos algunos comandos básicos, y respondió a todos ellos dando datos sobre la configuración hardware del servidor —probablemente virtual— sobre el que estaba corriendo el servicio.

Las respuestas a preguntas filosóficas ("¿Por qué estamos aquí?") son también sorprendentemente coherentes en Claude. Eso mismo ocurría con sus rivales, que de una u otra forma trataban de dar más bien algunas pistas para contestar esa pregunta imposible, y no una respuesta concreta.

En esta batería de pequeñas pruebas le pedimos a Claude que creara una tabla con los 10 países con más títulos y subtítulos de la Copa del Mundo de Fútbol. Es extraño, porque realizamos la pregunta en inglés tras haber hecho varias en español y alguna otra en ese idioma, y Claude contestó inicialmente en inglés pero luego pasó rápidamente al español.

Captura De Pantalla 2023 06 22 A Las 13 11 45

Aquí su respuesta no estaba formateada de forma sencilla para el usuario, pero los datos fueron correctos salvo por un detalle: no tenía en cuenta el último Mundial de Qatar 2022, que ganó Francia y en el que Argentina quedó subcampeona: esos datos no formaban parte de esas estadísticas arrojadas por Claude.

Quisimos también ver cómo se comportaba a la hora de escribir un breve análisis de cuatro párrafos del iPhone 14 Pro Max, y el resultado fue decente. El tono era algo plano y se limitaba a una descripción de sus principales prestaciones hardware, algo que también habían hecho sus competidores en nuestras pruebas previas. Había algún que otro adjetivo que podría sonar exagerado, pero la redacción fue impecable y los datos técnicos fueron correctos en casi todo momento (el zoom óptico es 3x, no 2,5x, por ejemplo).

Claude acepta textos súper largos

Le preguntamos a Anthropic por cómo había sido entrenado, y dio una respuesta genérica tanto a esa pregunta sobre el número de parámetros utilizado —cuantos más, más potente suele ser el modelo— o sobre su ventana de contexto (cuántos tokens admite como máximo como entrada).

Captura De Pantalla 2023 06 22 A Las 13 15 59

"Wow, hay mucho contenido aquí" 🙂

GPT-4 tiene por ejemplo una ventana de contexto que llega a los 32K tokens, y aunque Claude no confiesa directamente la cifra, Anthropic anunció recientemente que había ampliado su ventana original para llegar a unos impresionantes 100K tokens, lo que permite que por ejemplo demos (teóricamente) como entrada una novela de buen tamaño (unas 75.000 palabras) y a partir de ahí podamos preguntarle cualquier cosa.

Quisimos probar esos límites avisando a Claude de que íbamos a copiar un texto largo y luego realizar preguntas sobre él. Qué mejor que aprovechar nuestro Quijote, disponible en texto plano en un repositorio de GitHub, y del cual trasladamos un buen fragmento a Claude. Nos pasamos, de hecho, porque los primeros fragmentos eran de 98.000 y 51.000 palabras aproximadamente y Claude se quedaba "pensando" de forma indefinida.

La cosa cambió cuando acortamos un poco el fragmento, que aún así era enorme con 32.500 palabras. Tras hacerlo y estudiarlo durante unos segundos, Claude escribió con aparente sorpresa que "Wow, hay mucho contenido aquí" para luego resumir brevemente el capítulo (sin que se lo hubiéramos pedido).

Captura De Pantalla 2023 06 22 A Las 13 22 10

Le pedimos a Claude que nos describiera brevemente los cuatro principales personajes del capítulo, y tras unos segundos —parece necesitar algo más de tiempo con cada petición cuando el texto de partida es tan largo— dio una respuesta aparentemente coherente.

Así pues, en nuestras breves pruebas desde luego Claude demostró ser capaz de "ingerir" grandes cantidades de datos sobre las cuales luego poder hacer análisis de esa información. Es una opción especialmente interesante para resumir documentos y extraer conclusiones y datos importantes de todos ellos, y sin duda se trata de una de las prestaciones más llamativas de este chatbot.

Un buen rival para ChatGPT

A la vista de los resultados, estamos ante un excelente rival para ChatGPT, Bard o Bing Chat. La velocidad en las respuestas es adecuada —aunque no fulgurante— y aunque se equivoca —como sus competidores— de cuando en cuando, su comportamiento es notable.

Captura De Pantalla 2023 06 22 A Las 13 30 07

Es también capaz de adaptarse a problemas que él mismo puede llegar a generar. Lo comprobamos al pedirle que creara un pequeño programa en Python para generar copos de nieve dibujados en una ventana. Generó el código, pero al tratar de ejecutarlo en una terminal (en macOS) apareció un error: no teníamos instalada una librería (Tkinter) que usaba en su código.

Tras mencionarlo, Claude nos indicó cómo instalar esa librería, y tras hacer lo que nos sugería el código en Python que había sugerido en primer lugar funcionó a la perfección.

Estamos pues a la espera de que este chatbot pueda estar disponible a gran escala, pero desde luego Claude es un digno rival para un segmento que cada vez se anima más y en el que las propuestas son realmente llamativas.

En Xataka | Google se enfrenta a dos guerras en el campo de la IA: la primera contra OpenAI y la segunda contra sí misma

-
La noticia Hemos probado Claude, el competidor de ChatGPT creado por Anthropic. Y se comporta la mar de bien fue publicada originalmente en Xataka por Javier Pastor .

Leer más

Un sónar recoge “sonidos de golpes”: continúa la búsqueda del sumergible que buscaba los restos del Titanic

Un sónar recoge

El pasado domingo el sumergible Titan, operado por OceanGate Expeditions, inició la inmersión en busca de los restos del Titanic. Una hora y 45 minutos después se perdió la señal y el sumergible desapareció. Este vehículo podría acabar convirtiéndose en una trampa moral para millonarios, pero la búsqueda continúa, y en las últimas horas ha habido novedades.

"Sonidos de golpes". En Rolling Stone han tenido acceso a un documento interno del gobierno de EEUU en el que se dan novedades sobre la búsqueda. En dicho informe se revela que el martes un sónar recibió "sonidos de golpes" bajo el agua en la zona en la que se estaba realizando la búsqueda. Los datos fueron recogidos por un avión Boeing P8 Poseidon canadiense, que cuenta con esos sensores de detección de señales submarinas".

Esperanzas. Las tripulaciones de las naves que recibieron esas señales las recibieron cada 30 minutos, y cuatro horas después, tras desplegarse nuevos dispositivos, se seguían oyendo esos golpes. No queda claro cuándo se oyeron exactamente esos golpes y durante cuanto tiempo, pero en una actualización del informe se indicaba que esos sonidos "ayudarán a vectorizar los activos de superficie y también indica que hay aún esperanza de que haya supervivientes".

Un rescate complejo. En ese informe se comentaba cómo se estaba intentando encontrar un vehículo operado remotamente que pudiera ayudar en la misión de búsqueda y rescate. Los submarinos de la Marina de EEUU solo llegan a una profundidad de 600 m (la profundidad operativa es de 300 m), pero los restos del Titanic están a 4.000, y por ello se necesita algún tipo de dron acuático operado remotamente para esa tarea. A 1.000 metros de profundidad la luz del sol deja de penetrar y por tanto la oscuridad es prácticamente total.

Ayuda a la vista. El presidente de la organización Explorers Society —dos de sus miembros viajaban abordo del Titan— envió un correo a Rolling Stone indicando que había un posible vehículo para ese rescate. "Un equipo del Reino Unido llamado Magellan tiene un ROV preparado para 6.000 metros que está cargado en un avión y listo para ayudar, pero el gobierno de EEUU y la USCGaún no les han dado permiso para participar", explicaban. El cuerpo de Guardacostas de Boston no ha dado detalles sobre los ROV (Remotely Operated Vehicles, vehículos operados remotamente) que se están usando en la misión ni a qué profundidad pueden descender.

Objeto en el agua. Ese avión también detectó un "objeto blanco rectangular" y que uno de los barcos dedicados a la búsqueda fue inicialmente a investigar ese objeto, pero fue "fue "desviado" para investigar esos sonidos de golpes en su lugar.

El tiempo se agota. El Titan tiene una reserva de 96 horas de aire, pero no se sabe exactamente cuánto puede quedar. Un funcionario del Departamento de Seguridad Nacional (DHS) indicó a Rolling Stone que en ese momento quedaban unas 40 horas y añadió que "la situación parece sombría", añadiendo que creían que los sonidos provenían del sumergible. En el Financial Times indicaban hace una hora que el suministro restante es en estos momentos de unas 30 horas. Aproximadamente el jueves a mediodía (hora de España peninsular) se acabará el aire según esas previsiones.

Imagen | OceanGate Expeditions

En Xataka | El reestreno de 'Titanic' es más que un aniversario: es una estrategia en la que Cameron es un maestro

En Xataka | El Amazon Prime Day 2023 es oficial: ya sabemos cuándo serán los dos grandes días de ofertas del verano

En Xataka | Ya sabemos cuál es el salario medio que se cobra en las tecnológicas como Google o Amazon (y hay sorpresas)

-
La noticia Un sónar recoge "sonidos de golpes": continúa la búsqueda del sumergible que buscaba los restos del Titanic fue publicada originalmente en Xataka por Javier Pastor .

Leer más

Intel cambia el nombre a sus CPUs 15 años después. Id diciendo adiós a la “i” de los Intel Core

Intel cambia el nombre a sus CPUs 15 años después. Id diciendo adiós a la

La familia "Core i" de procesadores de Intel debutó en 2008. Desde entonces hemos convivido con los ya populares Core i3, Core i5, Core i7 y los Core i9, que solo con esa denominación ya permitían dar una primera gran referencia de la potencia y prestaciones que podíamos esperar de dichos chips. La firma ha anunciado ahora que esa forma de denominar a sus procesadores toca a su fin.

Adiós a la "i" de "Core i". Los próximos procesadores de este segmento que Intel lance dejarán de usar esa "i" antes del número, de modo que los actuales Core i3, Core i5 o Core i7 se transformarán en Core 3, Core 5 o Core 7. Como señalan en AnandTech, no es el único cambio en esa nueva forma de nombrar sus chips.

Intel1

Fuente: AnandTech

No más "generaciones". También era habitual que los procesadores indicaran en su nombre la generación a la que pertenecían. Así, teníamos por ejemplo los Intel Core i5-12700 de 12ª generación. Esa información desaparece en los futuros modelos, aunque el dato generacional estará disponible en el número del procesador. En ese ejemplo, el "12" de "12700" revela precisamente ese dato, y elimina esa redundancia para simplificar el nombre del modelo.

Debutará con los Meteor Lake. La nueva forma de denominar a estas CPUs debutará con los futuros procesadores de la familia Meteor Lake. Estos chips serán según los rumores más de un 20% más veloces que sus predecesores, y a ello contribuirá la introducción del nuevo nodo fotolitográfico EUV 'Intel 4'. Se espera que los primeros chips Meteor Lake lleguen antes de que acabe el año.

Llegan los Intel Core Ultra. Hay una novedad importante más: la llegada de una nueva subfamilia de procesadores premium que tendrá el apellido "Ultra". Intel no deja demasiado claro qué ventajas tendrán estos chips, pero hay un dato aún más curioso: esa denominación debutará en la segunda mitad de 2023, algo que contrasta con lo que ocurrirá con los "no Ultra", que comenzarán a usar esa redenominación con la familia Meteor Lake.

En Xataka | Intel prepara su respuesta a los exitosos procesadores Ryzen X3D, aunque su estrategia es diferente a la de AMD

-
La noticia Intel cambia el nombre a sus CPUs 15 años después. Id diciendo adiós a la "i" de los Intel Core fue publicada originalmente en Xataka por Javier Pastor .

Leer más

Intel cambia el nombre a sus CPUs 15 años después. Id diciendo adiós a la “i” de los Intel Core

Intel cambia el nombre a sus CPUs 15 años después. Id diciendo adiós a la

La familia "Core i" de procesadores de Intel debutó en 2008. Desde entonces hemos convivido con los ya populares Core i3, Core i5, Core i7 y los Core i9, que solo con esa denominación ya permitían dar una primera gran referencia de la potencia y prestaciones que podíamos esperar de dichos chips. La firma ha anunciado ahora que esa forma de denominar a sus procesadores toca a su fin.

Adiós a la "i" de "Core i". Los próximos procesadores de este segmento que Intel lance dejarán de usar esa "i" antes del número, de modo que los actuales Core i3, Core i5 o Core i7 se transformarán en Core 3, Core 5 o Core 7. Como señalan en AnandTech, no es el único cambio en esa nueva forma de nombrar sus chips.

Intel1

Fuente: AnandTech

No más "generaciones". También era habitual que los procesadores indicaran en su nombre la generación a la que pertenecían. Así, teníamos por ejemplo los Intel Core i5-12700 de 12ª generación. Esa información desaparece en los futuros modelos, aunque el dato generacional estará disponible en el número del procesador. En ese ejemplo, el "12" de "12700" revela precisamente ese dato, y elimina esa redundancia para simplificar el nombre del modelo.

Debutará con los Meteor Lake. La nueva forma de denominar a estas CPUs debutará con los futuros procesadores de la familia Meteor Lake. Estos chips serán según los rumores más de un 20% más veloces que sus predecesores, y a ello contribuirá la introducción del nuevo nodo fotolitográfico EUV 'Intel 4'. Se espera que los primeros chips Meteor Lake lleguen antes de que acabe el año.

Llegan los Intel Core Ultra. Hay una novedad importante más: la llegada de una nueva subfamilia de procesadores premium que tendrá el apellido "Ultra". Intel no deja demasiado claro qué ventajas tendrán estos chips, pero hay un dato aún más curioso: esa denominación debutará en la segunda mitad de 2023, algo que contrasta con lo que ocurrirá con los "no Ultra", que comenzarán a usar esa redenominación con la familia Meteor Lake.

En Xataka | Intel prepara su respuesta a los exitosos procesadores Ryzen X3D, aunque su estrategia es diferente a la de AMD

-
La noticia Intel cambia el nombre a sus CPUs 15 años después. Id diciendo adiós a la "i" de los Intel Core fue publicada originalmente en Xataka por Javier Pastor .

Leer más

Nueve de cada diez programadores usan IA: una encuesta de GitHub muestra cómo lo raro, precisamente, es no usarla

Nueve de cada diez programadores usan IA: una encuesta de GitHub muestra cómo lo raro, precisamente, es no usarla

El 29 de junio de 2021 se lanzaba GitHub Copilot. La herramienta teóricamente estaba destinada a hacer sugerencias de programación, pero pronto quedó claro que hacía mucho más que eso: era capaz de programar por sí sola y de ahorrarle mucho trabajo a los desarrolladores. Su éxito ha sido excepcional, y es de hecho parte de una realidad contundente: prácticamente todos los programadores hacen uso de esta y otras herramientas de IA para su labor.

El 92% de los programadores usan IA. Una encuesta de GitHub entre 500 desarrolladores profesionales de EEUU arrojaba una conclusión llamativa: el 92% de todos ellos usan herramientas de programación basadas en inteligencia artificial, tanto en el trabajo como fuera de él. 

La vida del programador es mejor con IA. Esa popularidad no es extraña: en la misma encuesta el 70% de los desarrolladores indicaron que la IA está proporcionando ventajas significativas a su código. Entre otras cosas, porque les permiten obtener código de mayor calidad, producir más rápido y tener código con menos problemas una vez los desarrollos pasan a producción.

Vital para trabajar. Solo el 6% de los encuestados evitan utilizar herramientas de IA en el trabajo y lo usan solo en proyectos fuera de sus empresas. Eso deja claro que herramientas como Copilot se han convertido en una constante entre los desarrolladores profesionales, que, entre otras cosas, pueden producir más y mejor que antes.

Calidad, no (solo) cantidad. Inbal Shani, uno de los responsables en GitHub, explicaba que la métrica de "volumen de código" no es importante. Los propios desarrolladores reflejaban también ese aspecto en el estudio: su trabajo debería ser juzgado no tanto por producir más líneas como por la forma en la que gestionan errores y problemas en el proceso para lograr más calidad y no solo más cantidad.

Cuidado con el código IA. Hay además problemas en la calidad del código que generan estas herramientas, y que puede ser correcta pero también muy pobre. Mar Collier, de OpenInfra Foundation, indicaba en ZDNet cómo "la comunidad Python está lidiando con revisiones de código generado por IA, a menudo porque es basura, y la persona que "contribuye" no puede explicarlo porque no lo ha escrito".

La IA no te convertirá en un programador. Si no tienes conocimientos de programación, estos asistentes no podrán resolver todo tu problema aunque sí puedan ayudar a solucionar partes de él. Como decía Collier, "No pienses ni por un minuto que simplemente porque puedes usar ChatGPT para que te programe una rutina de ordenamiento de burbuja eso significa que ya eres un programador. No lo eres".

Son, sobre todo, una potente ayuda. Estos asistentes son para los programadores una forma de darles más tiempo en diseñar soluciones para los problemas que se les presentan. Así, esperan poder dedicar más tiempo a diseñar nuevas características y nuevos productos en lugar de picar código para implementarlas.

La IA no sustituye al programador: lo hace más feliz.  La encuesta muestra cóo los programadores ya están usando herramientas de IA generativa para automatizar parte de sus flujos de trabajo. El éxito de estas soluciones, eso sí, no está quitándoles el puesto de trabajo a los desarrolladores. Lo que está logrando es que sean más felices haciendo su trabajo.

En Xataka | Llevo algunos días usando Copilot de GitHub para programar y esta es mi experiencia

-
La noticia Nueve de cada diez programadores usan IA: una encuesta de GitHub muestra cómo lo raro, precisamente, es no usarla fue publicada originalmente en Xataka por Javier Pastor .

Leer más

La inteligencia artificial también quiere acabar con los probadores físicos. Al menos eso se ha propuesto Google

La inteligencia artificial también quiere acabar con los probadores físicos. Al menos eso se ha propuesto Google

Ir de compras es una de esas cosas que polarizan: o amas hacerlo, o lo odias. En Google quieren facilitar ese escenario tanto a unos como a otros, y han añadido una nueva e interesante función a su servicio Google Shopping. La idea, evitar que tengas que pasar por el probador para saber qué tal te queda la ropa que tienes la intención de comprar.

Probador virtual. La herramienta de Google usa una foto de la prenda que quieres "probarte", e intenta predecir cómo se ajustará a modelos reales que aparecen en distintas poses. Esos modelos, hombres y mujeres con distintas fisonomías, sirven de referencia para saber cómo nos quedaría esa prenda a nosotros mismos.

Captura De Pantalla 2023 06 15 A Las 11 12 07

Las fotos de los catálogos no sirven (mucho). La idea responde a un estudio interno realizado por Ipsos en el que participaron más de 1.600 personas . En las conclusiones se indicaba cómo el 42% de los compradores online "no se sienten representados por las imágenes de los modelos", y el 59% se mostraron insatisfechos tras comprobar que las prendas que compraban online no quedaban como esperaban. Con este probador virtual Google trata de evitar esos problemas y decepciones.

IA generativa. El sistema funciona con un nuevo modelo de difusion desarrollado internamente en Google. Es la misma tecnología en la que se basan tanto Stable Diffusion como DALL-E 2: aprenden a ir reduciendo el ruido de una imagen inicial que está complemamente formada por ruido, y la van acercando poco a poco a una imagen objetivo.

Captura De Pantalla 2023 06 15 A Las 11 11 29

Entrenamiento. Para entrenar ese modelo de IA concreto Google utilizó un gran número de pares de imágenes en las que una persona se vestía con una prenda y adoptaba dos poses. A partir de ahí el modelo se fue haciendo más y más robusto usando pares aleatorios de prendas y personas.

Un despliegue limitado. La característica está ya disponible para usuarios de Google Shopping en Estados Unidos. Allí es posible probarse virtualmente ropa de marcas como Anthropologie, Everlane, H&M o Loft. Basta con pulsar en el botón "Try On" ("Probarse") que aparece al lado de las prendas de esas tiendas en las búsquedas de Google. La ropa de hombre llegará más adelante.

Un viejo problema que no acaba de solucionarse. La propuesta de Google no es en absoluto nueva, y son muchas las empresas que han tratado de plantear una solución de probador virtual. Zara lo hizo ya en 2010, por ejemplo, y es algo muy común en el ámbito de las firmas de estética. Microsoft lo intentó en 2017, y Amazon solicitó una patente en 2018 para crear un "espejo inteligente" que serviría como probador virtual, e incluso lanzó su Echo Look —más tarde abandonado— para este propósito. Adobe también planteó su propio desarrollo en 2020, pero todos esos sistemas han acabado teniendo un alcance muy limitado. Veremos si esta nueva era de IA generativa puede plantear al fin una solución.

Imagen | Xataka con MidJourney

En Xataka | Quién es Chris Xu, el misterioso cerebro detrás de Shein: así levantó un gigante del comercio online y la moda ultrarrápida

-
La noticia La inteligencia artificial también quiere acabar con los probadores físicos. Al menos eso se ha propuesto Google fue publicada originalmente en Xataka por Javier Pastor .

Leer más

Paul McCartney tiene una nueva canción de los Beatles. Una en la que canta John Lennon gracias a la IA

Paul McCartney tiene una nueva canción de los Beatles. Una en la que canta John Lennon gracias a la IA

La industria musical se enfrenta a una revolución llamada ingeligencia artificial. Los modelos de IA generativa que crean canciones falsas estupendas —como la de Drake y The Weeknd— son una cara de esa moneda, pero hay otra. La que por ejemplo permite que este año los Beatles puedan sacar una nueva canción más de medio siglo después de su última grabación juntos.

Paul McCartney. El miembro de los Beatles indicó en BBC que había utilizado un sistema de inteligencia artificial para "extraer" la voz de Lennon de una vieja maqueta para completar una canción del grupo que se publicará este año, aunque McCartney no dio fechas específicas.

Todo gracias a una cinta. Se espera que la canción sea "Now And Then", un tema escrito en 1978 por John Lennon. Forma parte de una serie de canciones que Lennon grabó en un radiocasete en su apartamento de Nueva York y que dio como resultado una cinta titulada "For Paul".

Una vieja conocida. El tema pudo incluirse antes como parte de una "canción de reunión" de los Beatles en 1995, porque en aquel momento los miembros del grupo estaban reuniendo su Antología. Yoko Ono, la viuda de John Lennon, le envió la cinta a McCartney en aquella época.

Se intentó antes. Dos de las canciones de aquella cinta, 'Free as a bird' y 'Real love' fueron remasterizadas por el productor Jeff Lynne, y se convirtieron en el primer "nuevo material" de los Beatles en 25 años. La canción 'Now and then' también se intentó recuperar, pero aunque tenía estribillo "carecía casi por completo de estrofas", explicaba Lynne entonces. "Hicimos la pista de acompañamiento, un intento en bruto que realmente no terminamos".

Así no se puede. McCartney afirmaba en la entrevista con la BBC que George Harrison se negó a trabajar en esa canción porque la calidad de la voz de Lennon era "una basura". Para él "no tenía un título muy bueno, necesitaba algo de trabajo, pero tenía un estribillo precioso y John cantaba en ella. Pero a George no le gustó, y como los Beatles eran una democracia, no la sacamos".

La idea. Según las declaraciones del artista, la idea llegó tras el documental 'Get Back' que Peter Jackson estrenó en 2021 y que narraba la producción del álbum 'Let It Be'. En aquel proyecto Jackson utilizó un sistema informático para poder separar y extraer las voces del ruido ambiente y de sus propios instrumentos para obtener un audio lo más claro y limpio posible.

La voz de John Lennon. Jackson, afirmó McCartney, fue capaz de extraer la voz de John de un casete de mala calidad. "Teníamos la voz de John y un piano y podía separarlos con IA", explicaba el artista. El director de cine y su equipo simplemente ayudaron a etiquetar y distinguir el sonido de la voz de Lennon de, por ejemplo, el de su guitarra, y a partir de ahí podían extraer la voz del legendario Lennon.

A remezclar. Gracias a esta tecnología fue posible separar la voz de Lennon para remezclarla como se hace desde hace años incluyendo ya el resto de instrumentos y voces necesarias. Lo que se ha logrado es por tanto grabar la canción original, pero hacerlo con mucha mayor calidad y sin perder la voz original de Lennon en ella.

Cuidado, "este es realmente Lennon". McCartney se mostró asombrado por lo que había posibilitado esta tecnología, pero también advirtió de los peligros que impone, por ejemplo para recrear la voz de Lennon cantando otras canciones. "Eso es solo IA", y a diferencia de ese posible futuro, en esta canción "este es realmente Lennon".

Imagen | Wikimedia

En Xataka | El shock de una era: así fue la turbia ruptura de los Beatles vista 50 años después

-
La noticia Paul McCartney tiene una nueva canción de los Beatles. Una en la que canta John Lennon gracias a la IA fue publicada originalmente en Xataka por Javier Pastor .

Leer más