La gran debilidad de ChatGPT son los teléfonos móviles. Y su competencia ha olido sangre

La gran debilidad de ChatGPT son los teléfonos móviles. Y su competencia ha olido sangre

ChatGPT es fantástico, pero tiene un pequeño problema: para usarlo necesitamos conectarnos a su servicio a la nube. OpenAI hace uso de cientos (¿miles?) de carísimas GPUs profesionales para dar servicio a los usuarios, y eso hace que el coste de dar el servicio y de utilizarlo pueda ser elevado. A esa carrera para ganar la batalla de los modelos de IA generativa ahora se le suma otra: la de lograr que podamos usarlos no en la nube, sino de forma local (e incluso offline) en nuestros smartphones.

Un miniChatGPT para tu móvil. Teniendo en cuenta los ingentes recursos que consume ChatGPT uno pensaría que poder tener un chatbot con esa capacidad corriendo nativamente en nuestro móvil parece impensable, pero no lo es. De hecho, en las últimas semanas hemos conocido varios proyectos que apuntan a ese futuro.

Google y Gecko. Uno de ellos es Gecko, que es una de las variantes en las que la empresa de Mountain View plantea el despliegue de su nuevo modelo LLM PaLM 2 —que compite con el GPT-4 de OpenAI—. Según Google Gecko es lo suficientemente pequeño para poder correr nativamente en un smartphone —consiguieron hacerlo funcionar en un Samsung Galaxy, por ejemplo—, y aunque no hicieron demostración de esa capacidad, la declaración de intenciones era contundente.

IA híbrida. Algunas empresas como Qualcomm comienzan a hablar ya de plataformas híbridas de inteligencia artificial en las que usemos tanto modelos como ChatGPT en la nube como otros como Gecko en el móvil. Cristiano Amon, CEO de la empresa, explicaba en Financial Times cómo depender solo de los modelos en la nube saldría muy caro. Combinar ese uso con el de modelos LLM capaces de correr en un móvil permitiría reducir los costes. En Qualcomm ya han experimentado con esa opción, y lograron hacer que Stable Diffusion corriese en uno de sus SoC de forma nativa y local.

LLaMA. Esta tendencia a "miniaturizar" ChatGPT ganó fuerza con la aparición de LLaMA, el modelo LLM de Meta. Este modelo cuenta con una versión —entre otras— que tiene un tamaño de 7.000 millones de parámetros ("7B"), que es trasladable a un dispositivo móvil para su ejecución de forma local. Precisamente eso es lo que hizo un equipo de la Universidad de Stanford, que creó una versión específica que lograron hacer funcionar en un Pixel 6 de Google. Funcionaba lento, sí, pero funcionaba. Esa misma institución publicaría también Alpaca, un modelo "afinado" basado en LLaMA 7B que era capaz de ejecutarse en hardware mucho más modesto que el modelo de Meta.

Y hay (bastantes) más. La aparición de modelos de IA generativa preparados para funcionar en el móvil está despegando. Hace unos días aparecía el proyecto Open Source MLC LLM con un objetivo claro: poder desplegar modelos LLM en distintas plataformas hardware entre las que las que estaban, cómo no, los móviles. Este proyecto se puede instalar en varios MacBook, pero también en algunos iPad o en el iPhone 14 Pro. El rendimiento es muy modesto: en el iPhone 14 Pro de unos 7,2 tokens/segundo, algo así como si ChatGPT escribiera sus respuestas a 4-6 palabras por segundo.


Que el ritmo no pare. Algunos hablan ya de una especie de "momento Android" en el ámbito de la IA por esa explosión de proyectos Open Source. En Madrona hablaban de proyectos prometedores como Dolly (Databricks), OpenChainKit (Together.xyz), Cerebras-GPT (Cerebras) o HuggingFace. La propia Apple acaba de hacer un pequeño guiño a este segmento con el anuncio estos días de la característica que permite entrenar al iPhone para que lea frases con tu voz (y ejecutando todo en el dispositivo). Al ritmo que todo está yendo en este ámbito, no parece descartable que pronto tengamos un ChatGPT funcionando directamente en local en el móvil sin necesidad de conectarnos a la nube. 

En Xataka | Instalar ChatGPT en nuestro PC o portátil todavía no es posible. Pero ya tenemos una alternativa

-
La noticia La gran debilidad de ChatGPT son los teléfonos móviles. Y su competencia ha olido sangre fue publicada originalmente en Xataka por Javier Pastor .

Leer más

Sam Altman tiene claro que para regular la IA hay que licenciarla. Eso es especialmente bueno para OpenAI

Sam Altman tiene claro que para regular la IA hay que licenciarla. Eso es especialmente bueno para OpenAI

Europa lleva meses trabajando en una legislación que regule la inteligencia artificial, pero su primer borrador es preocupante por restrictivo. En Estados Unidos están estudiando cómo regularla, y para averiguarlo han preguntado a Sam Altman, CEO de OpenAI y máximo responsable del desarrollo de GPT-4 y ChatGPT. Esto es lo que él opina.

Declaración ante el Congreso. Altman declaró ayer ante el Congreso de los Estados Unidos para tratar de explicar a los gobernantes del país cuáles son para él los siguientes pasos a la hora de regular la inteligencia artificial. El CEO de OpenAI dejó claro que "entendemos que la gente esté ansiosa sobre cómo la IA puede cambiar nuestra forma de vida. Nosotros también lo estamos".

La amenaza existe. En los últimos tiempos estamos viendo cómo diversos expertos alertan del peligro que pueden llegar a suponer estos sistemas de inteligencia artificial. El más reciente y conocido es el de Geoffrey Hinton, calificado como "el padrino de la IA" que expuso los riesgos que plantea esta tecnología. Para Altman la amenaza existe, y señaló que esta industria podría "causar daños signitificativos al mundo" y que "si esta tecnología se equivoca, puede equivocarse mucho".

Una agencia global para controlarla. La propuesta de este directivo fue la de crear una agencia estadounidense o global que sería la encargada de gestionar cómo se utilizan los sistemas de inteligencia artificial para restringir o no esos usos. La forma de habilitar y restringir esos usos sería para Altman obvia.

Licenciar. Según Altman, se necesitaría algún tipo de mecanismo para licenciar la inteligencia artificial. La agencia encargada de controlar el desarrollo y uso de IA podría así imponer límites que bloquearían a modelos de IA para que no pudieran"autoreplicarse y autoimplantarse a lo loco".

Las licencias favorecen a las Big Tech. Pero claro, ese modelo de licencias es especialmente ventajoso para empresas como OpenAI, Google o Anthropic, que desarrollan estos modelos y luego venden el acceso a su API. La propuesta de Altman no es en ningún caso altruista, y es una interesante respuesta a la amenaza que estas empresas están viendo en los modelos de IA Open Source.

Las licencias complicarían las cosas para el Open Source. Un documento filtrado de Google mostraba cómo "El Open Source nos puede eclipsar" en el campo de la IA. Estos modelos están demostrando ser más ágiles y rápidos a la hora de lograr equiparar sus prestaciones a las de modelos propietarios como GPT-4. Sin embargo, quienes los desarrollan tendrían en ese modelo de licencias un potencial obstáculo, ya que probablemente sea difícil para ellos establecer límites robustos y controles para lograr limitar cóo la gente los usa: al ser Open Source, la gente podría modificar el código para saltarse dichos límites.

Ni tanto ni tan poco. El debate generado en este campo demuestra que la solución al problema de la regulación es muy compleja: no es conveniente ser demasiado restrictivos —lo que impediría aprovechar la tecnología y lograr que evolucionara—, pero tampoco dejar que los modelos de IA campen a sus anchas. Ni la UE ni EEUU parecen tener claro cómo lograr una regulación adecuada, pero el propio estado de la tecnología, incipiente y con un futuro tan incierto como su potencial, no ayuda.

En Xataka | Mega-guía de IA gratis: 45 herramientas de inteligencia artificial sin coste para ayudarte con todo tipo de tareas

-
La noticia Sam Altman tiene claro que para regular la IA hay que licenciarla. Eso es especialmente bueno para OpenAI fue publicada originalmente en Xataka por Javier Pastor .

Leer más

Decktility es el miniPC basado en Raspberry Pi que recuerda a los tiempos dorados de las PDA de Palm

Decktility es el miniPC basado en Raspberry Pi que recuerda a los tiempos dorados de las PDA de Palm

Puede que no sean especialmente prácticos, pero los miniPCs con pantalla y teclado integrados —popularmente conocidos como cyberdecks— son un formato de dispositivo extremadamente querido por los makers. En los últimos años la aparición de las Raspberry Pi ha facilitado el desarrollo de nuevos y sorprendentes diseños, y ahora llega uno especialmente destacable.

Se trata de Decktility, un dispositivo creado por Ken "ByteWelder" Van Hoeylandt. Este desarrollador y maker lleva años trabajando en este tipo de productos, y su última creación es todo un homenaje tanto a proyectos más recientes como a las míticas PDA de Palm.

Decktility está basado en la Raspberry Pi Compute Module 4, que a su vez cuenta con un SoC Broadcom BCM2711. En el interior también ha utilizado una pequeña placa de Arduino para gestionar la entrega de corriente, mientras que un teclado compacto Bluetooth permite introducir texto.

La carcasa, impresa en una impresora 3D, mide 12,7 x 15,24 cm, mientras que el grosor de 10 mm permite que quepa la generosa batería de 18.650 mAh que permite ofrecer una autonomía de aproximadamente 7 horas.

La construcción aprovecha la llamada Bigtreetech Raspberry Pad 5, una pantalla de cinco pulgadas y resolución de 800 x 400 píxeles que además integra otros elementos. Entre ellos destacan cuatro puertos USB (uno de ellos USB-C), HDMI, Ethernet y ranura micro-SD.

Van Hoeylandt explicaba en Reddit cómo su Decktility está inspirada en otros cyberdecks como Yarh.io o la uConsole de Clockworks, pero también es un homenaje a dos PDAs que tuvo en el pasado: la Sharp Mobilon HC-4500 y la Palm III.

Este usuario está preparando una guía detallada para quienes quieran replicar el proceso, pero mientras aparece es posible consultar el código fuente del proyecto, una lista de componentes, los ficheros STEP y STEL para la carcasa y una guía de impresión y ensamblaje.

En Xataka | Si llevas meses buscando una Raspberry Pi, estás de suerte: está en marcha un plan para acabar con la escasez

-
La noticia Decktility es el miniPC basado en Raspberry Pi que recuerda a los tiempos dorados de las PDA de Palm fue publicada originalmente en Xataka por Javier Pastor .

Leer más

Hasta las portadas de los best-sellers empiezan a estar generadas por AI. Los artistas tienen algo que decir

Hasta las portadas de los best-sellers empiezan a estar generadas por AI. Los artistas tienen algo que decir

Sarah J. Maas es una escritora de novelas de fantasía. Sus sagas 'ACOTAR' , 'Trono de cristal' y 'Ciudad Medialuna' se han convertido en un absoluto éxito de ventas, y varios de los títulos que las componen han llegado a entrar en la lista de best-sellers de The New York Times. Ahora, no obstante, uno de sus libros ha generado bastante polémica. No por el texto en sí, sino por la cubierta de dicho libro.

Cubierta generada por IA. El libro 'Ciudad Medialuna: casa de tierra y sangre' forma parte de su última saga, pero la editorial, Bloomsbury —que se hizo famosa cuando comenzó a publicar las novelas de Harry Potter en 1997— ha utilizado una cubierta generada por inteligencia artificial. Como señalan en The Verge, lo revelaron varios lectores de la edición británica de la novela, que descubrieron que esa imagen de un singular forma parte del repositorio de imágenes generadas por IA de Adobe Stock. En el libro se incluye acreditación a Adobe Stock por esa imagen usada en la contraportada.

Críticas. La imagen de hecho está basada en una creada por el usuario Aperture Vintage y está etiquetada como generada por IA en la plataforma de Adobe, algo que ha provocado las críticas de algunos lectores. Uno de ellos explicaba en Reddit cómo "no han dedicado ni un ápice de atención o esfuerzo a su creación y, de hecho, sólo están estafando a los fans para producir una edición más que la gente pueda comprar. Teniendo en cuenta lo bonitos y detallados que son los libros de tapa dura, es decepcionante lo genéricos y desalmados que son los libros de bolsillo, y lo poco que representan la historia real".

Los artistas, amenazados. Kala Elizabeth, artista freelance, expresaba su preocupación ante lo que pasaba con esta editorial y este libro porque "Bloomsbury es una de las editoriales más importantes. Pueden permitirse contratar a ilustradores reales en lugar de comprar [imágenes de] Adobe Stock, que es de donde este contenido de IA proviene".

No es la primera vez (ni será la última).  En diciembre la editorial Tor hizo uso de una imagen generada por IA para la cubierta del libro 'Fractal Noise', pero ellos trataron de ocultarlo. Eso generó cierta polémica y la compañía acabó disculpando y explicando que no se dieron cuenta de que había sido creada con IA. La autora del libro que ahora ha generado este nuevo debate, Sarah J. Maas, se mostraba en cambio encantada por la portada del libro en su cuenta de Instagram sin mencionar su origen.

Getty y ShutterStock por un lado...  Getty Images demandó a Stable Diffusion por (supuestamente) robarle sus fotos. Shutterstock también planteó limitaciones y comenzó a eliminar imágenes generadas por IA aunque no las prohibieron totalmente. Esta empresa incluso planteó que para reconciliar a los artistas con la IA lo ideal sería, sencillamente, pagarles a todos, algo inadmisible para Getty.

... y Adobe por otro. Mientras, Adobe Stock señala claramente que "acepta contenido creado con herramientas de inteligencia artificial generativa (IA)" siempre que cumpla con sus estándares. "Creemos que las herramientas de IA generativa pueden ayudar a nuestra  comunidad de colaboradores a continuar creando contenido increíble, y  creemos en el etiquetado transparente y claro para los clientes cuando  se trata de este contenido".

Entrenamiento sin imágenes con copyright. No solo eso: cuando Adobe lanzó su motor de IA generativa propio, Adobe Firefly, lo hizo indicando que está entrenado solo con contenido licenciado o libre de derechos de autor. Además permite incluso que los artistas pueden elegir no entrenar a esta IA. La cosa es distinta para Adobe Stock, lo que hace que haya cierta confusión sobre si esa imagen del lobo —por ejemplo— realmente se generó con una IA que fue entrenada con imágenes con copyright.

Imagen | Sarah J. MaasAperture Vintage

En Xataka | OpenAI tiene una gran “deuda” con los creadores de contenido: ahora está considerando pagarles

-
La noticia Hasta las portadas de los best-sellers empiezan a estar generadas por AI. Los artistas tienen algo que decir fue publicada originalmente en Xataka por Javier Pastor .

Leer más

Hay quien dice que en cinco años dejarán de venderse discos duros y los SSD lo conquistarán todo. Parece difícil

Hay quien dice que en cinco años dejarán de venderse discos duros y los SSD lo conquistarán todo. Parece difícil

Shawn Wosemarin es vicepresidente de investigación y desarrollo en Pure Storage, una empresa estadounidense que desde hace años desarrolla soluciones de almacenamiento masivo basadas en unidades SSD. Eso ya es un punto de partida clave para entender su singular visión del mercado del almacenamiento, porque según él, los discos duros tienen los días contados.

"En 2028 se dejarán de vender los discos duros". Este experto parece tener claro que en cinco años las unidades mecánicas tradicionales dejarán de tener sentido. Para él el argumento que lo explica todo es el consumo energético: "todo se reduce al coste de la electricidad".

¿Y el coste por GB, qué? Lo cierto es que hay un segundo factor que también es relevante: el coste por GB está cada vez más parejo, sobre todo cuando hablamos de unidades SSD de capacidad media o baja. Los precios de estas unidades han caído de forma asombrosa en los últimos meses, y se espera que esa tendencia se mantenga durante 2023.

Captura De Pantalla 2023 05 11 A Las 13 17 11

Fuente: Blocks and Files

Tecnología obsoleta. Como indicaba Wosemarin, "la tecnología de los discos duros tiene 67 años de edad". Aunque reconoce lo llamativo de avances como la tecnología HAMR —que pone un láser en la parte superior del cabezal con el fin de calentar los platos—, cree que "estamos en el final de esa era. VAST Data, otra empresa similar a Pure Storage, plantea que los discos duros son lentos en E/S y que el almacenamiento en caché no funciona al nivel que lo hacen las unidades SSD.

De eso nada, dicen otros. Quienes fabrican unidades HDD convencionales no están de acuerdo. Seagate ya aseguraba en 2021 que las unidades SSD no matarían a las unidades HDD. Infinidat —que despliega sistemas masivos de almacenamiento basados en HDDs— ya contestó a VAST en 2021 argumentando que "deben esar bromeando" y destacando que el software que ellos desarrollan permite alcanzar trhoughputs I/O espectaculares. Mientras, los datos de la consultora Gartner estiman que los SSD tendrán una cuota del mercado empresarial del 35% en 2026... así que esa muerte anunciada en 2028 parece improbable.

Centros de datos más eficientes. Para el directivo de Pure Storage es importante considerar que los centros de datos son responsables de aproximadamente el 3% del consumo de energía a nivel mundial —otras fuentes apuntan a un 1%— y un tercio de eso se debe al uso de discos duros. Eliminarlos, asegura, "reduciría el consumo en un 80 o un 90%, y eso unido a que el precio de las NAND sigue bajando hace evidente que los discos duros desaparecerán".

Una visión sesgada. Los comentarios de Rosemary están condicionados por la propia orientación de su empresa, dedicada específicamente al ámbito de los SSDs empresariales. Ese es un problema. El otro está en que el mercado de consumo también cuenta, y aunque es cierto que hoy en día los SSD son protagonistas en nuestros PCs y portátiles, los discos duros siguen siendo un buen apoyo cuando uno necesita mucha —o muchísima— capacidad de almacenamiento, algo que por ahora sigue siendo más económico con los HDD tradicionales.

Imagen: Art Wall - Kittenprint

En Xataka | Único en su especie, de almacenamiento astronómico y más caro que un coche: el disco duro de 53.000 euros

-
La noticia Hay quien dice que en cinco años dejarán de venderse discos duros y los SSD lo conquistarán todo. Parece difícil fue publicada originalmente en Xataka por Javier Pastor .

Leer más

Los mejores libros para introducirse en la inteligencia artificial: cinco expertos nos revelan sus lecturas básicas

Los mejores libros para introducirse en la inteligencia artificial: cinco expertos nos revelan sus lecturas básicas

Andrew Ng, uno de los mayores expertos en inteligencia artificial en todo el mundo, dijo hace años que la inteligencia artificial es la nueva electricidad. No parece que le faltase razón, y en los últimos meses estamos viendo una verdadera explosión en este campo gracias a los modelos de IA generativa.

Desarrollos como ChatGPT o Midjourney han demostrado de forma práctica lo mucho que se puede lograr con esta tecnología, pero para entender mejor todos estos avances no es mala idea empezar desde la base.

Esa es la razón que desde Xataka hayamos contactado con varios expertos en este campo para que nos hablen de algo que puede ser muy útil: les hemos pedido que nos recomienden un libro sobre inteligencia artificial que permita comenzar a explorar este campo y adentrarse en él.

Ramon

Ramón López de Mantaras Badia (LinkedIN) es investigador del CSIC, director del Instituto de Investigación en Inteligencia Artificial y uno de los grandes expertos y pioneros de la IA en España.

Fue el primero de los invitados del podcast de Captcha, y de hecho en aquel episodio hablamos precisamente de por qué es tan difícil definir qué es la inteligencia artificial. Fue una oportunidad estupenda de recorrer con él la historia de los inicios de la IA, cómo se pasó del optimismo de Darmouth de 1956 a la cautela de la reedición del mismo encuentro celebrado en 2006. El "invierno de la IA" parece haber pasado, y estamos sin duda en otra época dorada para la disciplina.

Su recomendación es de hecho una muy apropiada: él escribió el libro "(¿Qué sabemos de?) Inteligencia artificial"  junto a Pedro Meseguer González, un libro que ambos publicaron en 2017 y que es una fantástica forma de introducirse en este ámbito y comprender mejor todos los conceptos que lo rodean.

Captura De Pantalla 2023 05 09 A Las 9 17 03

Inteligencia artificial (QUE SABEMOS DE?)

Para López de Mantaras, "este libro hace un recorrido por la inteligencia artificial analizando los logros pero también las limitaciones encontradas, y analizando el posible futuro del tema. Los autores recuerdan lo que se conoce en su campo como la metáfora de la catedral: construir una IA de propósito general es como construir una catedral. La construcción de la primera catedral requirió de varias generaciones y muchos de los que trabajaron en ellas murieron sin llegar a ver terminada la obra. Cada artesano que trabajaba para la catedral construía ladrillos cada vez más perfectos. Así se ven ahora los investigadores en inteligencia artificial, construyendo los ladrillos (algoritmos en este caso) que conformarán la catedral".

Nuria

Nuria Oliver (@nuriaoliver, web), es desde hace tiempo otra de las voces más relevantes de este ámbito. Es fundadora y directora científica de ELLIS (European Laboratory for Learning and Intelligent Systems), ingeniera en telecomunicaciones, doctora por el prestigioso Media Lab del MIT, IEEE, EurAI & ACM Fellow y una de las mujeres investigadoras en informática más citadas en España.

Oliver participó en Captcha 1x05, el episodio titulado "La IA tiene voz de mujer", y con ella hablamos de cómo la mayoría de las voces con las que nacieron los asistentes de voz adoptaban esas voces femeninas. Como explicaba entonces, aquella elección era lógica tras los estudios que planteaban cómo las voces masculinas eran más aceptadas para dar órdenes, y las femeninas eran más adecuadas para este tipo de ámbitos.

Su recomendación es también "un libro que escribi hace un par de años en colaboración con el ONTSI del Ministerio de Economía y Sociedad Digital. El libro puede comprarse por un precio simbólico en la librería del ministerio, pero también está disponible de manera gratuita en formato digital en ONTSI y en la web de ELLIS".

Ia Natural

Inteligencia artificial, naturalmente / Nuria Oliver

Para Oliver, este "es un libro especial porque comienza narrando, en primera persona, mi trayectoria profesional y mi experiencia con la Inteligencia Artificial también es especial porque esta basado en mi discurso de toma de posesión como  académica de la Real Academia de Ingenieria. Los/as lectores adquirirán un conocimiento histórico de la IA, así como una visión holística sobre las oportunidades y los retos que la IA nos plantea". El libro hace un breve recorrido por la historia de la inteligencia artificial, describiendo a continuación su impacto actual y planteando los retos que presenta desde diferentes perspectivas.

Andres

Andrés Torrubia (@antor) siempre se define como 'Bruce Wayne de día y Batman del machine learning de noche”. Más allá de esto, es ingeniero de telecomunicaciones, emprendedor de proyectos como Fixr, un marketplace de servicios y reformas para el hogar, o HowMuch, un portal cuyo fin es ayudarnos a entender cuestiones financieras complejas de forma sencilla gracias a visualizaciones de datos. Este experto es además el creador de Software 2.0, su podcast de inteligencia artificial, uno de los referentes en español  en este ámbito.

Andrés participó tanto en un episodio especial de Captcha 1x04, "Tócala otra vez, IA". En aquel programa casi nos adelantamos al futuro al hablar de la creatividad en el campo de la inteligencia artificial, de si las máquinas podían ser creativas. Como él mismo explicaba, "la creatividad no es un sprint, es un maratón", y con el tiempo hemos acabado viendo cómo ChatGPT y sobre todo las IAs generativas de imágenes pueden ser consideradas en cierto modo como IAs creativas.

Captura De Pantalla 2023 05 09 A Las 10 00 46

El algoritmo Ético. La Ciencia Del Diseño de algoritmos socialmente responsables (SIN COLECCION)

Su recomendación es el libro 'El algoritmo ético' de Michael Kearns y Aaron Roth. Nos explicaba cómo hay dos grandes preocupaciones que la gente tiene con la IA: que funciona mal... o que funcione muy bien. Problemas como los sesgos de los algoritmos se tratan muy bien en el libro porque "los enfoca desde un punto de vista bastante analítico y además te pone encima de la mesa cómo medirlo, cómo diseñar algoritmos para que se puedan optimizar con criterios". Cuando uno diseña un algoritmo "hay que hacer sacrificios, y el libro me parece un muy buen equilibrio entre los aspectos más prácticos y los más cuantitativos. Sin ser súper técnico, para mí la idea subyacente del libro es que te obliga a analizar los algoritmos, a cuantificarlos y quizás a elegir y a cambiar".

Cristina

Cristina Urdiales (@crisurdiales), ingeniera de Telecomunicación por la UPM, es doctora en el programa de Tecnología Electrónica y de las Comunicaciones por la Universidad de Málaga (1999) y en el de Inteligencia Artificial por la UPC (2010), ambos con mención de calidad. Está especializada en el área de robótica —más concretamente en la robótica asistiva—, pero tiene experiencia en ámbitos como la visión artificial, redes de sensores y realidad aumentada.

Su recomendación es un libro ya veterano en este ámbito y quizás algo distinto al resto. Se trata de 'On Intelligence', de Jeff Hawkins, que fue el creador de la célebre PalmPilot con la que planteó la revolución de las  PDAs (Personal Data Assistant), predecesoras de nuestros actuales smartphone.

Como ella misma explica, "tiene ya bastantes años, pero me pareció interesante la forma de  establecer paralelismos entre el funcionamiento del cerebro y cómo  atacar el mismo desde el punto de vista de la ingeniería. Es más, en su  momento solucioné un problema de coordinación de robots con una versión  simplificada de su propuesta usando Case Based Reasoning y me funcionó  bastante bien. Tiene la ventaja de que es un libro apto para cualquier  tipo de público, si bien no es divulgación simplificada en plan  curiosidades y metáforas simplistas"

Captura De Pantalla 2023 05 09 A Las 10 13 36

On Intelligence: How a New Understanding of the Brain Will Lead to the Creation of Truly Intelligent Machines

Añade además que "este libro se centra en el papel de la memoria en la inteligencia. En concreto, se propone como base de la misma la detección de secuencias de patrones frecuentes, para crear representaciones invariantes parciales del entorno. A partir de estas, se propone una jerarquía para efectuar predicciones a medio-largo plazo, según escalamos de nivel. El autor hace un esfuerzo por establecer paralelismos entre el funcionamiento del cerebro y una posible implementación, si bien mantiene cierta vaguedad en cuanto a los detalles prácticos. En su momento hubo varios intentos de programar y testear un sistema basado en esta teoría como el proyecto Neocortex. Independientemente de su aplicación más práctica, supone una lectura interesante en cuanto a Inteligencia Artificial".

Antonioor

Para la última recomendación nos reservábamos para la opinión de Antonio Ortiz (@antonello), cofundador de Weblogs y Xataka —ahora parte de Webedia— y que se ha volcado de lleno tanto en sus estupendas newsletters —Causas y Azares y Error 500— como en su podcast dedicado a la inteligencia artificial, llamado Monos Estocásticos, que realiza junto a Matías S. Zavia (@matiass). Tanto en ese programa como en sus artículos en esas listas la IA ocupa un papel central.

Antonio es un apasionado del tema y estuvo al frente de todos los episodios del podcast de Xataka Captcha en sus dos temporadas. Su recomendación es el libro "Inteligencia artificial: una introducción filosófica" de Jack Copeland. La elección puede sorprender si tenemos en cuenta que es un libro que podría considerarse "antiguo" —la primera edición es de 1993—, pero que como él nos explica quizás precisamente por eso es una excelente elección como punto de partida.

Captura De Pantalla 2023 05 09 A Las 16 21 31

Inteligencia artificial (Alianza Universidad (Au))

Según él "El "inteligencia artificial" de Copeland es un excelente libro de introducción a la IA. Es exhaustivo contando la historia, explica muy bien los conceptos fundamentales y es una gozada en el nivel de discusión de los temas filosóficos. Se le puede achacar quizás que no está tan al día como otras obras, aunque "lee bien" la emergencia de las redes neuronales. Quizás para complementarlo me atrevería con "The Alignment Problem: Machine Learning and Human Values": éste sólo está en inglés, pero a la vez que discute aspectos éticos, realiza una fenomenal explicación de la técnica y la ciencia detrás de temas como el RHLF (Reinforcement Learning from Human Feedback) o la vectorización del lenguaje en los modelos nuevos".

Imagen: Javier Pastor con Bing Image Creator

En Xataka | La tecnología que se negó a morir: cómo el libro físico ha resistido y salido más fuerte de la revolución digital

-
La noticia Los mejores libros para introducirse en la inteligencia artificial: cinco expertos nos revelan sus lecturas básicas fue publicada originalmente en Xataka por Javier Pastor .

Leer más

Sony Xperia 1 V: un nuevo sensor fotográfico se planta como el as en la manga del nuevo buque insignia de Sony

Sony Xperia 1 V: un nuevo sensor fotográfico se planta como el as en la manga del nuevo buque insignia de Sony

Puede que los móviles de Sony no logren tener la popularidad y éxito de los dispositivos de Apple o Samsung, pero desde luego la multinacional nipona no se rinde. Buena prueba de ello es el lanzamiento del nuevo Sony Xperia 1 V, un buque insignia que viene para reclamar su sitio entre los mejores.

Estamos ante un terminal que da un salto cualitativo importante desde la llegada de su predecesor y que apuesta de forma especial por el apartado fotográfico. Eso, claro, sin olvidar su característico diseño "panorámico" y un hardware interno rompedor.

Ficha técnica del Sony Xperia 1 V


Sony Xperia 1 V

PANTALLA

OLED DE 6,5" 21:9

2.400 x 1.080 (21:9)

4K, HDR, 120 Hz

Gorilla Glass Victus 2

DIMENSIONES Y PESO

165 x 71 x 8,3 mm
187 g

PROCESADOR

Qualcomm Snapdragon 8 Gen 2

RAM

12 GB

ALMACENAMIENTO

256 GB

Ampliables hasta 1 TB (microSD)

CÁMARA FRONTAL

12 MP 1/2,9”

CÁMARAs TRASERAs

Principal: 48 MP, 1/1.35”, 24 mm

Ultra gran angular: 12 MP, 1/2,5”, 16mm

Telefoto: 12 MP, 1/3,5”, 85-125 mm

BATERÍA

5.000 mAh,

Carga rápida de 30 W

Carga inalámbrica

SISTEMA OPERATIVO

Android 13

CONECTIVIDAD

5G

Wi-Fi 6E

Bluetooth 5.3

NFC

GPS

OTROS

Lector de huella

Certificación IP68

Precio

1.399 dólares

Diseño y prestaciones que prometen

El diseño sigue siendo muy característico de Sony, pero hay novedades. En la parte posterior han aplicado un “diseño táctil” con una especie de escalón en la parte posterior. Gracias a eso, Sony dice favorecer el agarre del teléfono, sobre todo durante la grabación de vídeo y toma de fotos.

Captura De Pantalla 2023 05 11 A Las 7 48 02

La protección al agua y al polvo están garantizadas, como demuestra su certificación IP68. En su diseño Sony incluye un botón físico de disparo para la cámara, y además ofrecen una carcasa opcional con una pequeña pestaña desplegable que permite mantener el móvil apoyado sobre cualquier superficie.

El móvil cuenta con un frontal en el que los marcos superior —que esconde la cámara frontal— e inferior son algo más gruesos de lo habitual, pero no exagerados. El módulo de cámaras es muy discreto, sobre todo teniendo en cuenta que sus competidores suelen exagerar los módulos traseros de cámara.

El nuevo Sony Xperia 1 V cuenta con una pantalla OLED de 6,5” con resolución 4K, soporte HDR y tasa de refresco de hasta 120 Hz. Esa pantalla tiene una relación de aspecto 21:9, lo que vuelve a caracterizar al terminal como especialmente alargado.

Dispone de doble altavoz frontal estéreo con un amplificador que aumenta la presión sonora en un 10%. Sony asegura que este sistema de audio externo es único en el Xperia 1 V, y además el fabricante no se ha olvidad de incluir algo hoy en día olvidado para otros competidores: el puerto de 3,5 mm,

El apartado de sonido está apoyado por el soporte de Hi-Res audio, audio en 360º, Dolby Atmos,DSEE y LDAC, pero hay además mejoras para quienes graban podcasts: el Xperia 1 V es capaz de reducir el ruido y la reverberación durante la grabación.

Captura De Pantalla 2023 05 11 A Las 7 48 30

Hay además funciones extra para los que gustan de jugar en el móvil. Durante la partida el usuario podrá tomar capturas con solo apretar el botón de disparo de la cámara.

La batería de 5.000 mAh incluida en el Sony Xperia V aguanta hasta 20 horas de reproducción 4K, según Sony. El fabricante asegura que este componente mantiene la vida útil hasta 3 años con una degradación del 20%, o lo que es lo mismo: al cabo de tres años la batería mantendrá aproximadamente un 80% de su capacidad.

En el interior nos encontramos con el Qualcomm Snapdragon 8 Gen 2. Según Sony, en este móvil se ha conseguido reducir el consumo de la cámara en un 20 % y ha incrementado la disipación térmica en un 60%.

Sony estrena nuevo tipo de sensor

En el nuevo móvil de Sony llega también un nuevo sensor con mayor sensibilidad y menor ruido: se llama Exmor T para smartphones, y es un sensor CMOS con 2 capas. El conjunto de cámaras está formado por el sensor principal de 52 MP, el ultra gran angular de 12 MP y el telefoto de 12 MP.

Captura De Pantalla 2023 05 10 A Las 21 16 15

Tiene además un tamaño 1,7 veces mayor que la generación previa, lo que será crucial para captar más luz. Eso ayudará entre otras cosas a ofrecer mejores tomas en baja luminosidad y reducir el nivel de ruido.

La IA integrada en el proceso hereda las virtudes de la que incluían la tecnología Alfa de sus cámaras, calculando la información de profundidad en tiempo real para ajustar el enfoque, el balance de blancos o la exposición.

A la mejora en el sensor Sony añade procesamiento computacional para combinar diversos disparos en una única imagen procesada, una técnica que los fabricantes llevan tiempo utilizando y que desde luego contribuye a mejorar la calidad y sobre todo el rango dinámico de las tomas.

El Xperia 1 V dispone de un nuevo modo de retrato nocturno que promete un excelente bokeh, además de un gran detalle en la imagen. La grabación de vídeo en formato Cine también está incorporada con la opción S-Cinetone for mobile. Esta tecnología es capaz de realizar el ajuste de tonos en tiempo real para mejorar el nivel de saturación en esas grabaciones.

El sensor Exmor T da acceso a nuevos modos creativos que dan especial relevancia al detalle y a la composición. Uno de los más llamativos es un modo con una interfaz de usuario específica para poder hacer fotos y grabar vídeos en formato vertical, algo importante para quienes graban contenido para redes sociales.

Precio y variantes del Sony Xperia 1 V

El nuevo Sony Xperia 1 V estará disponible próximamente, aunque Sony no ha especificado la fecha. Su precio en Estados Unidos será de 1.399 dólares.


-
La noticia Sony Xperia 1 V: un nuevo sensor fotográfico se planta como el as en la manga del nuevo buque insignia de Sony fue publicada originalmente en Xataka por Javier Pastor .

Leer más

No sabemos cómo hace ChatGPT lo que hace. OpenAI acaba de lanzar una herramienta para descubrirlo

No sabemos cómo hace ChatGPT lo que hace. OpenAI acaba de lanzar una herramienta para descubrirlo

Una de las preocupaciones de los estudiosos en el ámbito de la inteligencia artificial reside en el hecho de que no sabemos cómo piensa ChatGPT o las máquinas. Los algoritmos y sistemas los definen los seres humanos, pero la forma en la que los sistemas de IA llegan a las conclusiones a las que llegan para producir esos resultados sigue siendo un misterio. Eran una caja negra. Al menos, hasta ahora.

¿Qué piensas, máquina? OpenAI acaba de anunciar una herramienta que automáticamente detecta qué partes de un Gran Modelo de Lenguaje (LLM por sus siglas en inglés) son responsables de cada uno de sus comportamientos. El proyecto está por el momento en una fase preliminar, pero el código para evaluar ese comportamiento está ya disponible en GitHub.

Buscando entender a la IA. William Saunders, uno de los responsables del proyecto, explicaba en TechCrunch que "estamos intentando desarrollar formas de anticipar cuáles serán los problemas con un sistema de IA. Queremos ser capaces de saber que podremos confiar en lo que está haciendo el modelo y en la respuesta que produce".

Pruebas con GPT-2. Curiosamente para lograr desvelar el funcionamiento interno de estos sistemas LLM, en OpenAI están usando un modelo de lenguaje. De momento han iniciado las pruebas con GPT-2, el predecesor de GPT-3, cuya versión mejorada acabó siendo la base de ChatGPT.

Analizando las "neuronas" de ChatGPT. Los LLM están formadas por una especie de "neuronas" que observan patrones en el texto para ir generando lo qeu van diciendo. La herramienta de OpenAI trata de descomponer el modelo en piezas individuales: la herramienta primero va ejecutando secuencias de texto en el modelo, y analiza cuándo un "neurón" en particular se activa. Luego se lo enseña a GPT-4, que genera una explicación, y genera una predicción de cómo se comportaría el neurón dada la secuencia introducida. Luego se compara la salida real del modelo original con la generada por GPT-4 y así se estudia si era el comportamiento esperado.

Por qué ChatGPT hace lo que hace. Gracias a la herramienta los investigadores pudieron generar explicaciones para las 307.200 neuronas que conforman GPT-2, y compilaron toda esa información en un conjunto de datos que ya está disponible junto al código del proyecto. Es también posible acceder al llamado "Neuron Viewer" para comprobar cómo funciona la herramienta.

Mucho camino por recorrer. Los investigadores de OpenAI reconocen que hay muchísimo margen de mejora: la herramienta mostró seguridad al explicar cerca de 1.000 de esos neurones, una pequeña fracción del total. "La mayoría de las explicaciones tienen una puntuación bastante baja o no explican gran parte del comportamiento real de la neurona", explica Jeffrey Wu, otro de los responsables del proyecto. "Muchas neuronas, por ejemplo, están activas de una forma en la que es muy difícil saber qué está pasando: se activan con cinco o seis cosas distintas, pero no hay un patrón discernible. A veces hay un patrón discernible, pero GPT-4 es incapaz de encontrarlo". Aún así, es un buen comienzo a la hora de descubrir cómo piensan ChatGPT.

En Xataka | Mega-guía de IA gratis: 45 herramientas de inteligencia artificial sin coste para ayudarte con todo tipo de tareas

-
La noticia No sabemos cómo hace ChatGPT lo que hace. OpenAI acaba de lanzar una herramienta para descubrirlo fue publicada originalmente en Xataka por Javier Pastor .

Leer más

El CEO de una tecnológica está gastando 2.400 dólares al mes para que sus empleados usen ChatGPT Plus. Le va muy bien

El CEO de una tecnológica está gastando 2.400 dólares al mes para que sus empleados usen ChatGPT Plus. Le va muy bien

Samsung anunció hace unos días que prohibía el uso de ChatGPT entre sus empleados.  La razón era simple: no se fiaban de que sus trabajadores no acabasen filtrando datos que no debían al usar este modelo de IA. Lo curioso es que hay empresas que están haciendo justo lo contrario y quieren que sus empleados usen ChatGPT en su día a día.

Qué ha pasado. Akash Nigam es el CEO de Genies, una startup dedicada al diseño y venta de avatares para la web3. Su última decisión para mejorar la productividad de sus empleados es, como indican en Business Insider,  interesante: les ha suscrito a todos ellos a ChatGPT Plus, el servicio de pago de OpenAI que permite aprovechar todas las prestaciones de GPT-4.

2.400 dólares al mes. La empresa cuenta con 120 empleados y cada suscripción tiene un coste mensual de 20 dólares, lo que hace que Nigam esté invirtiendo 2.400 dólares al mes para acceder a este servicio según facturas obtenidas por BI. La idea comenzó a ponerse en marcha en marzo y afectó a todos los departamentos de la empresa.

Más productividad. Nigam cree que ese acceso a ChatGPT permitirá que sus empleados automaticen tareas monótonas y que se consigan mejorar ingresos y beneficios de la empresa. De momento sus impresiones son muy positivas, y el CEO de Genies afirma que ya ha visto cómo la productividad ha mejorado y el trabajo se hace de forma más rápida con la ayuda de ChatGPT.

Reuniones más cortas. La empresa ha comenzado a usar ChatGPT para depurar código, pero el área donde de momento ha causado mayor impacto es en las reuniones de "tormenta de ideas" que se podían prolongar durante "horas y horas" y que ahora son mucho más cortas. Hay empleados que la usan menos, pero otros han integrado el uso de ChatGPT de forma completa en su flujo de trabajo. Como explicaba Nigam, tras darle al modelo la información para el plan de trabajo, ChatGPT es capaz de organizar las tareas entre los equipos.

"Es casi como tener a tu disposición al trabajador operativo más sofisticado, capaz generar ideas y soluciones rápidas a lo que le estás pidiendo, asegurándote que siempre vas por el buen camino".

Lo notan más quienes producen menos. El impacto de ChatGPT en esa empresa parece confirmar las conclusiones del reciente estudio de la Universidad de Stanford y el MIT. En el estudio se realizó una encuesta a más de 5.000 empleados de atención al cliente de una gran empresa.

Parte de ellos tuvieron acceso a una "versión reciente" de ChatGPT —¿GPT-4? No lo dejan claro— y eso permitió sacar conclusiones. Los trabajadores con dos meses de experiencia y menos aptitudes lograron completar el trabajo un 35% más rápido con ayuda de la herramienta, logrando hacerlo tan bien como empleados que llevaban seis meses y no estaban usando ChatGPT. Los que tenían más experienica no ganaron tanto tiempo (un 14%) porque en muchos casos ya conocían los atajos y mejoras de rendimiento que el modelo de IA proponía.

Aumentos para quienes lo usen mucho y bien. El directivo de Genies espera incluir ese nuevo apartado en las evaluaciones de rendimiento de sus empleados el año que viene. Así, los trabajadores que "utilicen la IA de forma eficaz" optarán a un ascenso y a un aumento de sueldo, y mientras los que no lo hagan podrían quedarse rezagados.

En Xataka | ChatGPT creó un fondo de inversión virtual. Ganó más dinero que los diez más populares de Reino Unido

-
La noticia El CEO de una tecnológica está gastando 2.400 dólares al mes para que sus empleados usen ChatGPT Plus. Le va muy bien fue publicada originalmente en Xataka por Javier Pastor .

Leer más

ChatGPT creó un fondo de inversión virtual. Ganó más dinero que los diez más populares de Reino Unido

ChatGPT creó un fondo de inversión virtual. Ganó más dinero que los diez más populares de Reino Unido

¿Te fiarías de una máquina para invertir tu dinero? Esa es la pregunta que se hicieron un grupo de analistas financieros, que quisieron ver si las recomendaciones de ChatGPT podrían ser válidas para este tipo de escenario.

Qué ha pasado. Expertos de la consultora financiera Finder.com plantearon un experimento singular: probar a crear un fondo de inversión virtual con la ayuda de ChatGPT para luego analizar su comportamiento. Este modelo de IA siguió los principios de algunos de los principales fondos del mercado, y tras el análisis recomendó un fondo configurado con 38 acciones de distintas empresas.

Sopresa. Como indican en Financial Times, tras ocho semanas desde su creación, ese fondo virtual había crecido un 4,9%, una cifra espectacular teniendo en cuenta que los 10 fondos más populares del Reino Unido según Interactive Investor habían perdido de media un 0,8%. En esa lista no solo se incluían fondos de entidades británicas, sino también fondos globales de Vanguard, Fidelity o HSBC.

¿ChatGPT para ganar dinero? Jon Ostler, directivo de Finder.com, explicaba que "el público no ha tardado en encontrar formas creativas de hacer que ChatGPT le ayude en ámbitos en los que técnicamente no debería hacerlo. No pasará mucho tiempo hasta que un gran número de consumidores intenten utilizarlo para obtener beneficios económicos".

Hay gente que ya lo está haciendo. Esta consultora planteó además una encuesta entre sus usuarios en el Reino Unido. El 19% de ellos indicaron que considerarían seguir los consejos financieros de ChatGPT, mientras que un 8% confesó que ya habían seguido las recomendaciones de este chatbot. La pregunta, como destacaba Ostler, es "cómo de mala es la idea de usar ChatGPT" para inversiones financieras.

ChatGPT o redes sociales. Ostler explicaba que los grandes fondos llevan años usando gradualmente herramientas de IA, pero que la gente use plataformas como ChatGPT para esto —cuando se sabe que cometen errores, inventan y hasta alucinan— "no parece buena idea". Y sin embargo, añadía, "¿Preferirías que te aconsejara una estrella de TikTok no cualificada o una IA capaz de procesar millones de datos de toda la web y dar consejos personalizados?". Para él la respuesta ideal es ninguna de las dos cosas. Lo recomendable es dedicar tiempo a investigar con fuentes de confianza o contratar a un asesor cualificado.

Una herramienta potencialmente muy útil. Puede que preguntarle a ChatGPT directamente en qué empresas invertir no sea buena idea, pero este modelo de IA conversacional puede desde luego ayudarnos a tomar decisiones. Su capacidad para ayudarnos a analizar datos financieros, resumir informes, sacar conclusiones y plantear recomendaciones puede ayudar a esa toma de decisiones. Como en otros casos —y más en este en el que hay dinero en juego— revisar esas respuestas y decisiones es especialmente importante. Los servicios financieros podrían vivir su particular revolución debido a estos avances.

En Xataka | GPT-4 gratis: cinco maneras de utilizarlo sin pagar ChatGPT Plus

-
La noticia ChatGPT creó un fondo de inversión virtual. Ganó más dinero que los diez más populares de Reino Unido fue publicada originalmente en Xataka por Javier Pastor .

Leer más