JPMorgan está creando su propio ChatGPT: uno que te dará recomendaciones de inversión

JPMorgan está creando su propio ChatGPT: uno que te dará recomendaciones de inversión

Las posibilidades de ChatGPT y de los grandes modelos de lenguaje parecen ilimitadas, y hay muchas empresas que están explorando esas opciones en todo tipo de escenarios. Uno de los más llamativos es el financiero. ¿Puede una máquina ser útil en el mundo de las inversiones? ¿Puede lograr que un cliente gane más dinero con su dinero? JPMorgan cree que sí.

IndexGPT. Así se llama el chatbot que está siendo desarrollado por este gigante financiero. Así lo señala CNBC, que indica cómo ese nombre se reveló en la solicitud de registro de una marca registrada con ese nombre que recientemente realizó JPMorgan. Este chatbot hará uso del "software de computación en la nube usando inteligencia artificial" para, segú dicha solicitud, "analizar y seleccionar valores adaptados a las necesidades de los clientes".

El primero de muchos. La decisión estratégica de JPMorgan es hasta cierto punto sorprendente para una entidad tan relevante como esta, pero los analistas creen que eso demuestra precisamente el potencial de herramientas como ChatGPT en este segmento.

Un lanzamiento seguro. Josh Gerben, abogado especializado en marcas registradas, explicaba que "las empresas como JPMorgan no solicitan marcas registradas por diversión". Esa petición deja claro que su objetivo es usar esa marca para ese producto: tienen un plazo de tres años para lanzar IndexGPT tras la aprobación de esa marca, que puede llegar aproximadamente en un año.

La intención es clara. Aunque en este tipo de solicitudes las empresas tratan de proteger sus intenciones y son vagas en la descripción de esas marcas, en este caso JPMorgan ha sido explícita. En el documento se indica que IndexGPT hace uso de la misma tecnología de inteligencia artificial que ChatGPT, y que el banco prepara el uso de la inteligencia artificial basada en modelos GPT (Generative Pre-trained Transformer).

¿Asesores financieros en peligro? Hace años que los asesores financieros temen la llegada de algoritmos lo suficientemente buenos como reemplazarlos total o parcialmente. De momento su labor sigue siendo muy importante, pero poco a poco hemos ido viendo cómo algunos experimentos en este ámbito han sido prometedores. Un experimento reciente mostró como las recomendaciones de ChatGPT permitieron crear un fondo de inversión virtual que se comportó mucho mejor que la media de otros importantes fondos financieros.

A por todas. En la plantilla de JPMorgan hay 1.500 científicos de datos e ingenieros especializados en aprendizaje profundo que están evaluando "ciertos casos de uso" que pueden plantearse con la tecnología GPT, afirmó Lori Beer, la máxima responsable de tecnología en esta entidad. Tienen claro el potencial de estas herramientas, afirmó, "y nos comprometemos a explorar todas las formas en que pueden aportar valor a la empresa". 

JPMorgan lleva tiempo apostando por la IA. No es el primer acercamiento de esta entidad a esta tecnología: recientemente anunciaban un sistema de IA para lograr descifrar los mensajes de la Reserva Federal. Anteriormente hizo algo aún más llamativo y anunció un sistema de inteligencia artificial que dejaba obsoleto a Don Draper: estaba dedicado a crear textos publicitarios para sus productos.

En Xataka | JP Morgan rescata al First Republic Bank y da por cerrada la crisis bancaria apagando la bomba de las hipotecas jumbo

-
La noticia JPMorgan está creando su propio ChatGPT: uno que te dará recomendaciones de inversión fue publicada originalmente en Xataka por Javier Pastor .

Leer más

WhatsApp prepara una opción definitiva para ganarle la batalla a Telegram: hola, nombres de usuario

WhatsApp prepara una opción definitiva para ganarle la batalla a Telegram: hola, nombres de usuario

WhatsApp fue como un regalo caído del cielo cuando llegó a nuestras vidas. Aquel servicio nos liberaba del yugo de los SMS y planteaba una forma de comunicación que nos ha conquistado por completo. En España lo usan nueve de cada diez personas, algo que explica que las llamadas de voz tradicionales hayan "muerto" en cierto sentido.

Pero WhatsApp no era perfecto entonces y tampoco lo es ahora. Una de sus condenas es la de aquel requisito original de ligar una cuenta de WhatsApp con un número de teléfono. Esa relación indivisible podría romperse —o más bien camuflarse— ahora con la llegada de una característica que desde luego sería fantástica: los nombres de usuario.

La opción ha aparecido en la versión beta de WhatsApp para Android (v2.23.11.15) que ya han podido probar en WaBetaInfo. Al hacerlo han descubierto esa nueva opción que permite elegir a los usuarios un nombre de usuario asociado a su cuenta, algo que plantea al fin la posibilidad de que nuestra cuenta no esté ligada de forma tan visible —aunque seguirá estándolo en esencia— a nuestro número de teléfono.

Whats

La propuesta de WhatsApp aún no está disponible de forma pública, pero aquí la idea es exactamente la misma que Telegram plantea desde hace años: que cada usuario tenga su nombre de usuario al estilo Twitter, precedido por la arroba.

Como indican nuestros compañeros de Xataka Móvil, los nombres de usuario sí están disponibles para perfiles de empresas y también lo estarán próximamente en los canales, pero hasta ahora los perfiles de usuario individuales estaban ligados al número de teléfono del móvil en el que instalábamos WhatsApp.

Muchas ventajas, pero sobre todo una: privacidad

Poder usar nombres de usuario en WhatsApp plantea mejoras importantes en el servicio. Una de las más evidentes es esa flexibilidad y personalización del servicio, que podremos asociar a nuestro nombre o un alias como los que usamos en Twitter. Nos identificamos mucho más con ese nombre de usuario que con un número de teléfono, desde luego.

Esos nombres de usuario también facilitan que compartamos ese nombre de usuario con otras personas y que memoricemos mejor esas cuentas de usuario. La sincronización de la cuenta en múltiples dispositivos es también más fácil y potente con este sistema, y aunque WhatsApp tiene el tradicional sistema de vinculación basado en códigos QR, este tipo de característica probablemente haría que usar WhatsApp en otros dispositivos aparte del móvil pudiera ser más sencillo.

La característica también elimina barreras geográficas, ya que una vez más al no depender de número de móvil, la comunicación con usuarios de otros países, con números de teléfono distintos por los prefijos nacionales y locales, se simplifica.

Sin embargo, la mayor ventaja que plantea este sistema es la de la privacidad: con los nombres de usuario podremos comunicarnos con otras personas sin necesidad de compartir nuestro número de teléfono.

Esto es muy llamativo no ya para entablar conversaciones con conocidos, sino para hacerlo con gente con la que lo hacemos ocasionalmente pero que preferiríamos que no pudiera acceder a nuestro número de teléfono.

Queda por ver si WhatsApp efectivamente activa esta característica, pero sin duda se tratará de una opción muy interesante que además eliminaría de raíz esa ventaja que hasta ahora tenía Telegram.

En Xataka | WhatsApp es una app cada vez más compleja. En el camino ha perdido lo que más valorábamos: la simplicidad

-
La noticia WhatsApp prepara una opción definitiva para ganarle la batalla a Telegram: hola, nombres de usuario fue publicada originalmente en Xataka por Javier Pastor .

Leer más

Opera renueva su navegador y presenta Aria, su chatbot de IA basado en ChatGPT: lo hemos probado

Opera renueva su navegador y presenta Aria, su chatbot de IA basado en ChatGPT: lo hemos probado

En abril Opera presentaba su nuevo navegador, Opera One, y lo hacía con un elegante diseño modular que apostaba por el tema oscuro y por una "navegación flexible". Ese lanzamiento ha sido reforzado hoy con la presentación de una característica a la que apuntaban ya hace meses y que es aún más llamativa: la integración de Aria, su propio asistente de inteligencia artificial integrado en el navegador.

Un chatbot de IA gratuito y siempre disponible. La nueva versión del navegador de Opera se renueva con este chatbot, llamado Aria, que como indican en el blog oficial de la compañía está basado en la tecnología GPT de OpenAI. Este asistente está siempre disponible en la barra lateral izquierda del navegador y podremos usarlo de forma gratuita. Esta implementación es una evolución del desarrollo inicial de Opera en este ámbito que se presentó el pasado mes de marzo.

Navegación con la ayuda de ChatGPT. El  navegador con IA integrada de Opera está diseñado para potenciar la  creatividad y productividad de los usuarios al incorporar el poder de la  inteligencia artificial a las funcionalidades propias del explorador.  Aria, basado en la infraestructura "Composer" propia de Opera, ofrece funciones avanzadas como resultados  actualizados como ya hacía Bing Chat en Microsoft Edge, aunque no incluye referencias o citas a sus fuentes.

Un chatbot que crecerá en prestaciones. La  infraestructura de Opera “Composer” es según la empresa fácilmente adaptable, y posibilitará que Aria se conecte a diferentes modelos de IA. En el futuro, Aria podrá  ampliarse aún más para integrar nuevas funciones, como servicios de  búsqueda, gracias a los socios de Opera.

¿Cómo funciona? Basta con pinchar en el botón de Aria en la barra lateral izquierda para que aparezca un panel lateral en el que podremos comenzar a realizar preguntas de cualquier tipo. En dichas respuestas podremos incluso pedir que nos muestre enlaces. Las respuestas suelen ser concisas y, como siempre, aparentemente coherentes.

Registro y privacidad. Antes de poder usar Aria es necesario iniciar sesión con nuestra cuenta de Opera o crear una si no la teníamos. En Opera aclaran que al usar Aria, los textos que introducimos son procesados por Opera de forma que puedan proporcionarse respuestas relevantes. Aún así, aseguran, no comparte ningún dato sobre el usuario con OpenAI. Los chats se guardan durante 30 días como máximo y tendremos acceso a ellos en todo momento, pero también podremos borrarlos en cualquier momento.

Captura De Pantalla 2023 05 24 A Las 16 07 48

Primeras impresiones. Ya hemos instalado el nuevo navegador de Opera con Aria y las primeras impresiones son agridulces: es capaz de hablar y chatear en español, y aunque da información adecuada en algunos casos, Aria también es propensa a inventar datos o a contestar de forma errónea.

Captura De Pantalla 2023 05 24 A Las 16 38 28

Una de cal, otra de arena. Contestó por ejemplo bastante bien a la pregunta de qué era Xataka, pero también le pedimos información sobre la última versión de Opera y nos indicó que la última era una versión de 2011 con el motor de renderizado Opera Presto 2.10. Al tratar de corregirle y preguntarle por Opera One y Aria, el chatbot dio error y pidió que cambiásemos de tema.

El que avisa no es traidor. Los propios responsables de Opera avisan de que las aplicaciones de inteligencia artificial como Aria "tienen limitaciones". Así, podríamos ver contenido dañino o subjetivo e información falsa, imprecisa o engañosa.

Aria tiene margen de mejora. Las prestaciones de Aria están de momento siguiendo la estela de las que por ejemplo plantea Bing en Microsoft Edge. Además de ofrecer información actualizada, citas y referencias, Bing se ha comportado de forma más precisa en nuestras pruebas —quizás porque está basado en GPT-4, no está claro en qué versión está basado Aria—, pero además será pronto capaz de interactuar con el contenido que estamos visitando, algo que de momento Aria no puede hacer en Opera.

En Xataka | Windows 11 pone más difícil que nunca cambiar el navegador por defecto: en Firefox, Chrome y Opera están que trinan

-
La noticia Opera renueva su navegador y presenta Aria, su chatbot de IA basado en ChatGPT: lo hemos probado fue publicada originalmente en Xataka por Javier Pastor .

Leer más

Un fake del Pentágono en llamas generado por IA generó el caos. El culpable no fue la IA: fue Twitter

Un fake del Pentágono en llamas generado por IA generó el caos. El culpable no fue la IA: fue Twitter

El pasado lunes por la mañana apareció un preocupante mensaje en Twitter. Según (entre otras) la cuenta verificada de Bloomberg Feed, había habido una explosión en el Pentágono. Bajo el llamativo titular aparecía una foto con una gran columna de humo negro muy cerca de un edificio que tenía una construcción similar a la de otros edificios del Pentágono. Era todo mentira: esa cuenta no tiene relación alguna con Bloomberg aunque su nombre tratara de indicar lo contrario, y Twitter la suspendió poco después de publicar esa falsa noticia.

Deepfake peligroso. El mensaje publicado por esa cuenta verificada se comenzó a compartir de forma viral y vertiginosa. Aunque ningún gran medio de noticias en EEUU lo difundió, si lo hicieron muchos usuarios e incluso la organización de medios rusa Russia Today (RT). El impacto de esa noticia fue importante en el ámbito financiero.

Caída repentina en bolsa. En pocos minutos se produjeron bajadas en varios índices bursátiles. El S&P 500 cayó un 0,3%, mientras que el índice Dow Jones también cayó sensiblemente en apenas 4 minutos. Ambos se recuperaron con la misma rapidez tras revelarse que la noticia era falsa.

Daños leves. A pesar de esas repentinas caídas, el daño real parece haber sido mínimo. El Cuerpo de Bomberos del Condado de Arlington (donde está situado el Pentágono) rápidamente desmintió la noticia en un tuit. Uno de sus integrantes, el capitán Nate Hiner, explicó que “simplemente mirando la imagen, eso no es el Pentágono. No tengo ni idea de qué edificio es. No hay un edificio como ese en Arlington”.

Era todo mentira.Una inspección detallada de la foto dejaba claro que se trataba de un deepfake, una imagen falsa creada digitalmente. Aparentemente podría haber sido creada por algún modelo de IA generativa, pero como explicaban los expertos, en realidad el problema no era ese. Así lo indicaba Renée DiResta, directora de investigación del Observatorio de Internet de Stanford y experta en cómo circula la desinformación, que lo indicaba en The Washington Post:

“No se trata de un problema de IA en sí. Cualquiera con experiencia en Photoshop podría haber hecho esa imagen; irónicamente, probablemente podría haberla hecho mejor. Pero es una muestra de cómo las señales que ayudan a la gente a decidir si la información sobre noticias de última hora es digna de confianza en Twitter se han vuelto inútiles, del mismo modo que la capacidad de crear irrealidad de alta resolución se ha puesto al alcance de todo el mundo”.

De quién es la culpa. No es de la IA, desde luego. Una de las claves está en Twitter, que tras los despidos masivos se ha quedado sin los equipos que moderaban y censuraban en el ámbito de la desinformación. También es un problema que ahora cualquiera pueda conseguir una cuenta verificada pagando la suscripción de Twitter Blue de 8 dólares al mes y confirmando con su teléfono móvil. Eso ya ha provocado bromas pesadas recientemente.

Cuidado con retuitear. La culpa la tiene la forma en la que funciona esa viralidad de estas imágenes: si uno no comprueba si el tuit es real, el problema se agranda. Como indican en WaPo, el problema aquí es que otras cuentas verificadas como OSINTdefender retuitó el mensaje a sus 336.000 seguidores.

Más tarde borraron el mensaje —ya se había visto al menos 730.000 veces—, pero explicaron que vieron la noticia en Discord por parte de alguien llamado "Walter Bloomberg" y la imagen de la explosión provenía de alguien que la había publicado en Facebook y que afirmaba trabajar en Arlington. Esa página de Facebook fue borrada posteriormente.

Si no tienes check azul, no te creo (tanto). Otras cuentas con miles de seguidores —sean o no bots— republicaron la noticia, y algunas de ellas tenían la marca verificada. La Agencia de Los Cuerpos de Protección del Pentágono que precisamente protege este organismo no tiene esa marca de verificada y Twitter no le ha concedido el check gris que muestra que es una institución verificada.

Este organismo retuiteó el mensaje del Cuerpo de Bomberos de Arlington que precisamente desmentía los hechos. Ese tuit tiene ahora mismo más de 117.000 reproducciones, mucho menos que los originales en los que se difundía la falsa noticia, y que replicaron multitud de cuentas. Desde entonces Twitter ha marcado varios de los tuits que difundieron la información falsa y ha añadido un recuadro con el texto "Mantente informado" avisando de que probablemente ese mensaje es falso.

Un viejo problema que probablemente se haga más frecuente. Aunque en este caso la imagen podía engañar a primera vista, detectar que era falsa era relativamente sencillo. Eso es cada vez más complicado con los modelos de IA generativa y probablemente sea casi imposible detectar que una imagen es falsa a corto plazo, pero el problema en realidad no será ese: los usuarios y sobre todo los medios y organismos oficiales serán los que tendrán que estar muy atentos para no ayudar a que esas informaciones falsas se propaguen. Aquí plataformas como Twitter harían bien en dedicar más personal este problema, sobre todo ahora que con estos modelos de IA probablemente aparezca con mucha mayor frecuencia. Mientras, eso sí, tratan de aparecer sistemas que validen o al menos etiqueten esos contenidos generados por IA.

En Xataka | Verificar información de internet en tiempos de las ‘fake news’: un problema que ni Facebook ni Google van a resolver

-
La noticia Un fake del Pentágono en llamas generado por IA generó el caos. El culpable no fue la IA: fue Twitter fue publicada originalmente en Xataka por Javier Pastor .

Leer más

Ya hay profesores utilizando ChatGPT para descubrir si sus alumnos utilizan ChatGPT. No funciona así

Ya hay profesores utilizando ChatGPT para descubrir si sus alumnos utilizan ChatGPT. No funciona así

En estos meses hemos oído y leído como ChatGPT plantea el fin de los deberes de toda la vida. Los alumnos pueden utilizar la herramienta para redactar trabajos y completar tareas impuestas en clase, y eso preocupa cada vez más en el entorno académico. Lo que ha ocurrido estos días es distinto, porque quien ha usado ChatGPT no han sido los alumnos, sino un profesor. El resultado, por cierto, ha sido desastroso.

Voy a corregir vuestros trabajos con ChatGPT. Jared Mumm, profesor de la Universidad de Texas, informó recientemente a sus estudiantes de que había usado ChatGPT para comprobar si sus trabajos para su asignatura habían sido escritos por una máquina. En un mensaje de Reddit que se ha hecho viral el novio de una de las alumnas de ese curso publicaba el aviso del profesor, que avusaba de que ChatGPT "me dirá si el programa generó el contenido [de vuestros trabajos]".

"Si habéis usado IA, estáis suspensos". Como indica The Register, en el mensaje Mumm explicaba cómo haría la prueba con los tres trabajos finales de sus alumnos y pasaría esa prueba dos veces. Si ChatGPT detectaba que los textos habían sido generados por este modelo, "suspendería ese trabajo". Tras hacerlo, comunicó a sus alumnos que "voy a calificar a todos en esta clase con una X". Varios de sus estudiantes afirmaron que después les dijo a varios de ellos que "no voy a calificar mierda [generada por] IA". Esa letra "X" significa que el curso no se ha completado, y también sirve como medida temporal para investigar el problema.

ChatGPT no sirve para detectar copias. Este profesor fue introduciendo los textos de los alumnos en ChatGPT y luego preguntó a este modelo de IA si ese texto había sido escrito por el propio ChatGPT. El problema es que ChatGPT no está hecho para detectar contenido generado por IA (ni por sí mismo). Hay sistemas que tratan de detectar contenidos generados por IA como Winston AI o Content at Scale, pero ChatGPT no puede hacerlo. Un estudio reciente de la Universidad de Maryland revela que detectar texto generado por una IA es muy difícil y en el futuro probablemente sea imposible.

Investigación en marcha. Algunos estudiantes ya han sido calificados correctamente y han sido "absueltos" de la acusación de haber copiado, mientras que otros han preferido enviar de nuevo sus ensayos para ser calificados. Al menos uno de esos alumnos ha admitido haber usado ChatGPT para sus trabajos. La institución ha publicado un comunicado en el que revelan que "a ningún alumno se le ha suspendido ni se le ha impedido graduarse por este problema". También cometaban cómo el incidente se está investigando de cara a desarrollar medidas para evitar "el mal uso de la tecnología de IA en clase".

Situación (más o menos) resuelta. En una actualización del mensaje original se explica que "la situación está prácticamente resuelta: la universidad ha admitido a sus estudiantes que sus notas no debían haber sido suspendidas. Era algo fuera del protocolo y un uso inapropiado de ChatGPT".

Pero intentarán detectar contenidos generados por IA. Aún así en el comunicado de la universidad se especificaba cómo en esta institución se está trabajando para "adoptar herramientas de detección de IA y otros recursos para gestionar la intersección de la tecnología de IA en la educación superior. El uso de la IA en trabajos de clase es un problema cambiante que confronta con todas las instituciones académicas".

Imagen | Xataka con Midjourney

En Xataka | El identificador de IA de OpenAI tiene un problema: ellos ponen el zorro y ellos vigilan las gallinas

-
La noticia Ya hay profesores utilizando ChatGPT para descubrir si sus alumnos utilizan ChatGPT. No funciona así fue publicada originalmente en Xataka por Javier Pastor .

Leer más

Ya hay profesores utilizando ChatGPT para descubrir si sus alumnos utilizan ChatGPT. No funciona así

Ya hay profesores utilizando ChatGPT para descubrir si sus alumnos utilizan ChatGPT. No funciona así

En estos meses hemos oído y leído como ChatGPT plantea el fin de los deberes de toda la vida. Los alumnos pueden utilizar la herramienta para redactar trabajos y completar tareas impuestas en clase, y eso preocupa cada vez más en el entorno académico. Lo que ha ocurrido estos días es distinto, porque quien ha usado ChatGPT no han sido los alumnos, sino un profesor. El resultado, por cierto, ha sido desastroso.

Voy a corregir vuestros trabajos con ChatGPT. Jared Mumm, profesor de la Universidad de Texas, informó recientemente a sus estudiantes de que había usado ChatGPT para comprobar si sus trabajos para su asignatura habían sido escritos por una máquina. En un mensaje de Reddit que se ha hecho viral el novio de una de las alumnas de ese curso publicaba el aviso del profesor, que avusaba de que ChatGPT "me dirá si el programa generó el contenido [de vuestros trabajos]".

"Si habéis usado IA, estáis suspensos". Como indica The Register, en el mensaje Mumm explicaba cómo haría la prueba con los tres trabajos finales de sus alumnos y pasaría esa prueba dos veces. Si ChatGPT detectaba que los textos habían sido generados por este modelo, "suspendería ese trabajo". Tras hacerlo, comunicó a sus alumnos que "voy a calificar a todos en esta clase con una X". Varios de sus estudiantes afirmaron que después les dijo a varios de ellos que "no voy a calificar mierda [generada por] IA". Esa letra "X" significa que el curso no se ha completado, y también sirve como medida temporal para investigar el problema.

ChatGPT no sirve para detectar copias. Este profesor fue introduciendo los textos de los alumnos en ChatGPT y luego preguntó a este modelo de IA si ese texto había sido escrito por el propio ChatGPT. El problema es que ChatGPT no está hecho para detectar contenido generado por IA (ni por sí mismo). Hay sistemas que tratan de detectar contenidos generados por IA como Winston AI o Content at Scale, pero ChatGPT no puede hacerlo. Un estudio reciente de la Universidad de Maryland revela que detectar texto generado por una IA es muy difícil y en el futuro probablemente sea imposible.

Investigación en marcha. Algunos estudiantes ya han sido calificados correctamente y han sido "absueltos" de la acusación de haber copiado, mientras que otros han preferido enviar de nuevo sus ensayos para ser calificados. Al menos uno de esos alumnos ha admitido haber usado ChatGPT para sus trabajos. La institución ha publicado un comunicado en el que revelan que "a ningún alumno se le ha suspendido ni se le ha impedido graduarse por este problema". También cometaban cómo el incidente se está investigando de cara a desarrollar medidas para evitar "el mal uso de la tecnología de IA en clase".

Situación (más o menos) resuelta. En una actualización del mensaje original se explica que "la situación está prácticamente resuelta: la universidad ha admitido a sus estudiantes que sus notas no debían haber sido suspendidas. Era algo fuera del protocolo y un uso inapropiado de ChatGPT".

Pero intentarán detectar contenidos generados por IA. Aún así en el comunicado de la universidad se especificaba cómo en esta institución se está trabajando para "adoptar herramientas de detección de IA y otros recursos para gestionar la intersección de la tecnología de IA en la educación superior. El uso de la IA en trabajos de clase es un problema cambiante que confronta con todas las instituciones académicas".

Imagen | Xataka con Midjourney

En Xataka | El identificador de IA de OpenAI tiene un problema: ellos ponen el zorro y ellos vigilan las gallinas

-
La noticia Ya hay profesores utilizando ChatGPT para descubrir si sus alumnos utilizan ChatGPT. No funciona así fue publicada originalmente en Xataka por Javier Pastor .

Leer más

La gran debilidad de ChatGPT son los teléfonos móviles. Y su competencia ha olido sangre

La gran debilidad de ChatGPT son los teléfonos móviles. Y su competencia ha olido sangre

ChatGPT es fantástico, pero tiene un pequeño problema: para usarlo necesitamos conectarnos a su servicio a la nube. OpenAI hace uso de cientos (¿miles?) de carísimas GPUs profesionales para dar servicio a los usuarios, y eso hace que el coste de dar el servicio y de utilizarlo pueda ser elevado. A esa carrera para ganar la batalla de los modelos de IA generativa ahora se le suma otra: la de lograr que podamos usarlos no en la nube, sino de forma local (e incluso offline) en nuestros smartphones.

Un miniChatGPT para tu móvil. Teniendo en cuenta los ingentes recursos que consume ChatGPT uno pensaría que poder tener un chatbot con esa capacidad corriendo nativamente en nuestro móvil parece impensable, pero no lo es. De hecho, en las últimas semanas hemos conocido varios proyectos que apuntan a ese futuro.

Google y Gecko. Uno de ellos es Gecko, que es una de las variantes en las que la empresa de Mountain View plantea el despliegue de su nuevo modelo LLM PaLM 2 —que compite con el GPT-4 de OpenAI—. Según Google Gecko es lo suficientemente pequeño para poder correr nativamente en un smartphone —consiguieron hacerlo funcionar en un Samsung Galaxy, por ejemplo—, y aunque no hicieron demostración de esa capacidad, la declaración de intenciones era contundente.

IA híbrida. Algunas empresas como Qualcomm comienzan a hablar ya de plataformas híbridas de inteligencia artificial en las que usemos tanto modelos como ChatGPT en la nube como otros como Gecko en el móvil. Cristiano Amon, CEO de la empresa, explicaba en Financial Times cómo depender solo de los modelos en la nube saldría muy caro. Combinar ese uso con el de modelos LLM capaces de correr en un móvil permitiría reducir los costes. En Qualcomm ya han experimentado con esa opción, y lograron hacer que Stable Diffusion corriese en uno de sus SoC de forma nativa y local.

LLaMA. Esta tendencia a "miniaturizar" ChatGPT ganó fuerza con la aparición de LLaMA, el modelo LLM de Meta. Este modelo cuenta con una versión —entre otras— que tiene un tamaño de 7.000 millones de parámetros ("7B"), que es trasladable a un dispositivo móvil para su ejecución de forma local. Precisamente eso es lo que hizo un equipo de la Universidad de Stanford, que creó una versión específica que lograron hacer funcionar en un Pixel 6 de Google. Funcionaba lento, sí, pero funcionaba. Esa misma institución publicaría también Alpaca, un modelo "afinado" basado en LLaMA 7B que era capaz de ejecutarse en hardware mucho más modesto que el modelo de Meta.

Y hay (bastantes) más. La aparición de modelos de IA generativa preparados para funcionar en el móvil está despegando. Hace unos días aparecía el proyecto Open Source MLC LLM con un objetivo claro: poder desplegar modelos LLM en distintas plataformas hardware entre las que las que estaban, cómo no, los móviles. Este proyecto se puede instalar en varios MacBook, pero también en algunos iPad o en el iPhone 14 Pro. El rendimiento es muy modesto: en el iPhone 14 Pro de unos 7,2 tokens/segundo, algo así como si ChatGPT escribiera sus respuestas a 4-6 palabras por segundo.


Que el ritmo no pare. Algunos hablan ya de una especie de "momento Android" en el ámbito de la IA por esa explosión de proyectos Open Source. En Madrona hablaban de proyectos prometedores como Dolly (Databricks), OpenChainKit (Together.xyz), Cerebras-GPT (Cerebras) o HuggingFace. La propia Apple acaba de hacer un pequeño guiño a este segmento con el anuncio estos días de la característica que permite entrenar al iPhone para que lea frases con tu voz (y ejecutando todo en el dispositivo). Al ritmo que todo está yendo en este ámbito, no parece descartable que pronto tengamos un ChatGPT funcionando directamente en local en el móvil sin necesidad de conectarnos a la nube. 

En Xataka | Instalar ChatGPT en nuestro PC o portátil todavía no es posible. Pero ya tenemos una alternativa

-
La noticia La gran debilidad de ChatGPT son los teléfonos móviles. Y su competencia ha olido sangre fue publicada originalmente en Xataka por Javier Pastor .

Leer más

Sam Altman tiene claro que para regular la IA hay que licenciarla. Eso es especialmente bueno para OpenAI

Sam Altman tiene claro que para regular la IA hay que licenciarla. Eso es especialmente bueno para OpenAI

Europa lleva meses trabajando en una legislación que regule la inteligencia artificial, pero su primer borrador es preocupante por restrictivo. En Estados Unidos están estudiando cómo regularla, y para averiguarlo han preguntado a Sam Altman, CEO de OpenAI y máximo responsable del desarrollo de GPT-4 y ChatGPT. Esto es lo que él opina.

Declaración ante el Congreso. Altman declaró ayer ante el Congreso de los Estados Unidos para tratar de explicar a los gobernantes del país cuáles son para él los siguientes pasos a la hora de regular la inteligencia artificial. El CEO de OpenAI dejó claro que "entendemos que la gente esté ansiosa sobre cómo la IA puede cambiar nuestra forma de vida. Nosotros también lo estamos".

La amenaza existe. En los últimos tiempos estamos viendo cómo diversos expertos alertan del peligro que pueden llegar a suponer estos sistemas de inteligencia artificial. El más reciente y conocido es el de Geoffrey Hinton, calificado como "el padrino de la IA" que expuso los riesgos que plantea esta tecnología. Para Altman la amenaza existe, y señaló que esta industria podría "causar daños signitificativos al mundo" y que "si esta tecnología se equivoca, puede equivocarse mucho".

Una agencia global para controlarla. La propuesta de este directivo fue la de crear una agencia estadounidense o global que sería la encargada de gestionar cómo se utilizan los sistemas de inteligencia artificial para restringir o no esos usos. La forma de habilitar y restringir esos usos sería para Altman obvia.

Licenciar. Según Altman, se necesitaría algún tipo de mecanismo para licenciar la inteligencia artificial. La agencia encargada de controlar el desarrollo y uso de IA podría así imponer límites que bloquearían a modelos de IA para que no pudieran"autoreplicarse y autoimplantarse a lo loco".

Las licencias favorecen a las Big Tech. Pero claro, ese modelo de licencias es especialmente ventajoso para empresas como OpenAI, Google o Anthropic, que desarrollan estos modelos y luego venden el acceso a su API. La propuesta de Altman no es en ningún caso altruista, y es una interesante respuesta a la amenaza que estas empresas están viendo en los modelos de IA Open Source.

Las licencias complicarían las cosas para el Open Source. Un documento filtrado de Google mostraba cómo "El Open Source nos puede eclipsar" en el campo de la IA. Estos modelos están demostrando ser más ágiles y rápidos a la hora de lograr equiparar sus prestaciones a las de modelos propietarios como GPT-4. Sin embargo, quienes los desarrollan tendrían en ese modelo de licencias un potencial obstáculo, ya que probablemente sea difícil para ellos establecer límites robustos y controles para lograr limitar cóo la gente los usa: al ser Open Source, la gente podría modificar el código para saltarse dichos límites.

Ni tanto ni tan poco. El debate generado en este campo demuestra que la solución al problema de la regulación es muy compleja: no es conveniente ser demasiado restrictivos —lo que impediría aprovechar la tecnología y lograr que evolucionara—, pero tampoco dejar que los modelos de IA campen a sus anchas. Ni la UE ni EEUU parecen tener claro cómo lograr una regulación adecuada, pero el propio estado de la tecnología, incipiente y con un futuro tan incierto como su potencial, no ayuda.

En Xataka | Mega-guía de IA gratis: 45 herramientas de inteligencia artificial sin coste para ayudarte con todo tipo de tareas

-
La noticia Sam Altman tiene claro que para regular la IA hay que licenciarla. Eso es especialmente bueno para OpenAI fue publicada originalmente en Xataka por Javier Pastor .

Leer más

Decktility es el miniPC basado en Raspberry Pi que recuerda a los tiempos dorados de las PDA de Palm

Decktility es el miniPC basado en Raspberry Pi que recuerda a los tiempos dorados de las PDA de Palm

Puede que no sean especialmente prácticos, pero los miniPCs con pantalla y teclado integrados —popularmente conocidos como cyberdecks— son un formato de dispositivo extremadamente querido por los makers. En los últimos años la aparición de las Raspberry Pi ha facilitado el desarrollo de nuevos y sorprendentes diseños, y ahora llega uno especialmente destacable.

Se trata de Decktility, un dispositivo creado por Ken "ByteWelder" Van Hoeylandt. Este desarrollador y maker lleva años trabajando en este tipo de productos, y su última creación es todo un homenaje tanto a proyectos más recientes como a las míticas PDA de Palm.

Decktility está basado en la Raspberry Pi Compute Module 4, que a su vez cuenta con un SoC Broadcom BCM2711. En el interior también ha utilizado una pequeña placa de Arduino para gestionar la entrega de corriente, mientras que un teclado compacto Bluetooth permite introducir texto.

La carcasa, impresa en una impresora 3D, mide 12,7 x 15,24 cm, mientras que el grosor de 10 mm permite que quepa la generosa batería de 18.650 mAh que permite ofrecer una autonomía de aproximadamente 7 horas.

La construcción aprovecha la llamada Bigtreetech Raspberry Pad 5, una pantalla de cinco pulgadas y resolución de 800 x 400 píxeles que además integra otros elementos. Entre ellos destacan cuatro puertos USB (uno de ellos USB-C), HDMI, Ethernet y ranura micro-SD.

Van Hoeylandt explicaba en Reddit cómo su Decktility está inspirada en otros cyberdecks como Yarh.io o la uConsole de Clockworks, pero también es un homenaje a dos PDAs que tuvo en el pasado: la Sharp Mobilon HC-4500 y la Palm III.

Este usuario está preparando una guía detallada para quienes quieran replicar el proceso, pero mientras aparece es posible consultar el código fuente del proyecto, una lista de componentes, los ficheros STEP y STEL para la carcasa y una guía de impresión y ensamblaje.

En Xataka | Si llevas meses buscando una Raspberry Pi, estás de suerte: está en marcha un plan para acabar con la escasez

-
La noticia Decktility es el miniPC basado en Raspberry Pi que recuerda a los tiempos dorados de las PDA de Palm fue publicada originalmente en Xataka por Javier Pastor .

Leer más

Hasta las portadas de los best-sellers empiezan a estar generadas por AI. Los artistas tienen algo que decir

Hasta las portadas de los best-sellers empiezan a estar generadas por AI. Los artistas tienen algo que decir

Sarah J. Maas es una escritora de novelas de fantasía. Sus sagas 'ACOTAR' , 'Trono de cristal' y 'Ciudad Medialuna' se han convertido en un absoluto éxito de ventas, y varios de los títulos que las componen han llegado a entrar en la lista de best-sellers de The New York Times. Ahora, no obstante, uno de sus libros ha generado bastante polémica. No por el texto en sí, sino por la cubierta de dicho libro.

Cubierta generada por IA. El libro 'Ciudad Medialuna: casa de tierra y sangre' forma parte de su última saga, pero la editorial, Bloomsbury —que se hizo famosa cuando comenzó a publicar las novelas de Harry Potter en 1997— ha utilizado una cubierta generada por inteligencia artificial. Como señalan en The Verge, lo revelaron varios lectores de la edición británica de la novela, que descubrieron que esa imagen de un singular forma parte del repositorio de imágenes generadas por IA de Adobe Stock. En el libro se incluye acreditación a Adobe Stock por esa imagen usada en la contraportada.

Críticas. La imagen de hecho está basada en una creada por el usuario Aperture Vintage y está etiquetada como generada por IA en la plataforma de Adobe, algo que ha provocado las críticas de algunos lectores. Uno de ellos explicaba en Reddit cómo "no han dedicado ni un ápice de atención o esfuerzo a su creación y, de hecho, sólo están estafando a los fans para producir una edición más que la gente pueda comprar. Teniendo en cuenta lo bonitos y detallados que son los libros de tapa dura, es decepcionante lo genéricos y desalmados que son los libros de bolsillo, y lo poco que representan la historia real".

Los artistas, amenazados. Kala Elizabeth, artista freelance, expresaba su preocupación ante lo que pasaba con esta editorial y este libro porque "Bloomsbury es una de las editoriales más importantes. Pueden permitirse contratar a ilustradores reales en lugar de comprar [imágenes de] Adobe Stock, que es de donde este contenido de IA proviene".

No es la primera vez (ni será la última).  En diciembre la editorial Tor hizo uso de una imagen generada por IA para la cubierta del libro 'Fractal Noise', pero ellos trataron de ocultarlo. Eso generó cierta polémica y la compañía acabó disculpando y explicando que no se dieron cuenta de que había sido creada con IA. La autora del libro que ahora ha generado este nuevo debate, Sarah J. Maas, se mostraba en cambio encantada por la portada del libro en su cuenta de Instagram sin mencionar su origen.

Getty y ShutterStock por un lado...  Getty Images demandó a Stable Diffusion por (supuestamente) robarle sus fotos. Shutterstock también planteó limitaciones y comenzó a eliminar imágenes generadas por IA aunque no las prohibieron totalmente. Esta empresa incluso planteó que para reconciliar a los artistas con la IA lo ideal sería, sencillamente, pagarles a todos, algo inadmisible para Getty.

... y Adobe por otro. Mientras, Adobe Stock señala claramente que "acepta contenido creado con herramientas de inteligencia artificial generativa (IA)" siempre que cumpla con sus estándares. "Creemos que las herramientas de IA generativa pueden ayudar a nuestra  comunidad de colaboradores a continuar creando contenido increíble, y  creemos en el etiquetado transparente y claro para los clientes cuando  se trata de este contenido".

Entrenamiento sin imágenes con copyright. No solo eso: cuando Adobe lanzó su motor de IA generativa propio, Adobe Firefly, lo hizo indicando que está entrenado solo con contenido licenciado o libre de derechos de autor. Además permite incluso que los artistas pueden elegir no entrenar a esta IA. La cosa es distinta para Adobe Stock, lo que hace que haya cierta confusión sobre si esa imagen del lobo —por ejemplo— realmente se generó con una IA que fue entrenada con imágenes con copyright.

Imagen | Sarah J. MaasAperture Vintage

En Xataka | OpenAI tiene una gran “deuda” con los creadores de contenido: ahora está considerando pagarles

-
La noticia Hasta las portadas de los best-sellers empiezan a estar generadas por AI. Los artistas tienen algo que decir fue publicada originalmente en Xataka por Javier Pastor .

Leer más