Microsoft Copilot 365 costará 30 dólares al mes. Parece mucho, pero también es una señal: la IA no saldrá barata

Microsoft Copilot 365 costará 30 dólares al mes. Parece mucho, pero también es una señal: la IA no saldrá barata

ChatGPT nació siendo gratis. Midjourney, lo mismo. Aprovechar estos espectaculares modelos de IA generativa, como otros que competían con ellos, sigue siendo posible sin que sea necesario pagar un euro. La versión básica de ChatGPT sigue siendo gratuita, como también lo son Google Bard, Bing Chat o, en el caso de las imágenes, Stable Difussion o Bing Image Creator.

Sin embargo poco a poco estamos viendo cómo en realidad todo el ámbito de la inteligencia artificial está haciendo uso de un modelo de negocio muy conocido: el modelo freemium. Se proporciona un producto o servicio básico que cualquiera puede usar gratuitamente, pero luego ese mismo producto o servicio cuesta dinero si uno quiere usar una versión avanzada que expande las funciones del original.

Lo hemos visto desde luego con ChatGPT Plus y con lo que ocurrió con Midjourney, que dijo adiós a las cuentas gratuitas en marzo y dejó claro que si querías usar el mejor generador de imágenes por IA, tocaba pagar.

La avalancha de servicios de IA que nos piden pagar por ellos es asombrosa. Hay multitud de ellos, y las promesas son de lo más variadas. Crean resúmenes de documentos, nos ayudan a programar (aún más y mejor), extraen datos de forma automatizada, generan textos para redes sociales como Facebook, Instagram o Twitter, escriben cuentos para niños, nos preparan para entrevistas de trabajo, crean calendarios personalizados para alcanzar metas, generan fotos o vídeos de producto, o nos tratan de orientar en inversiones financieras, por ejemplo.

Todos esos servicios se basan en hombros de gigantes. Que en este caso es lo mismo que decir que se apoyan (especialmente) en las APIs de OpenAI, empresa que se ha logrado hacer de oro con un modelo de negocio en el cual el acceso a las prestaciones de ChatGPT o de DALL E 2 se puede externalizar e integrar en esa miriada de productos y servicios para adaptarlos a escenarios concretos.

En todos esos casos el discurso es el mismo. Te dejan probar gratis el servicio, si quieres aprovecharlo de verdad toca apoquinar. Los precios varían, pero por poner algunos ejemplos rápidos, Fina, un asesor financiero, cobra 8 dólares al mes. ScribbletoArt, que transforma tus garabatos en arte, cuesta 10 dólares al mes por 100 imágenes. Alphy, que transcribe audios, cuesta 5 dólares al mes. Y ChatNode, que crea chatbots personalizables, cuesta 19 dólares al mes para 2.000 mensajes al mes. En muchos de ellos hay varios planes: si los usas más, pagarás más, lógicamente.

Quizás por eso resulte curiosa la reacción que ha habido al conocerse los precios que tendría la suscripción a Microsoft 365 Copilot. La empresa de Redmond aprovechaba esta semana para anunciar una nueva alianza con Meta tras el lanzamiento de Llama 2, pero además hablaba de ese nuevo y ambicioso servicio y el coste que tendría.

Así, indicaron, Microsoft 365 Copilot tendría un precio de 30 dólares al mes. Es mucho más de lo esperado, afirmaban nuestros compañeros de Genbeta, que recordaban que para quienes se suscriban ese precio representará un aumento de entre el 52% y el 83% en el coste mensual que los clientes empresariales ya pagan por Microsoft 365.

¿Es, efectivamente, mucho más de lo esperado? Eso depende, claro, del partido que se les saque a estas herramientas. La propuesta de Microsoft parece clara a primera vista, pero quizás haya tener en cuenta lo que por ejemplo comentaba Steven Sinofsky, es directivo de Microsoft.

Y es que como él apuntaba en Twitter, esos 30 dólares no pagan solo "la IA", sino que es un coste en el que se incluye el aislamiento de datos, la privacidad, la seguridad y (probablemente, añadía), no estar expuesto a posibles demandas por violación de propiedad intelectual.

En efecto, la promesa de Microsoft 365 Copilot va más allá de ser un "ChatGPT" para Office, porque se centra muy especialmente en evitar los riesgos que impone el uso de ChatGPT en empresas. Como sabemos, este modelo no sabe guardar secretos, y eso ha provocado que varias compañías —Samsung, Apple, o JP Morgan entre ellas— veten o restrinjan su uso entre sus empleados.

Así que lo que se supone que la empresa paga con esos 30 dólares al mes (adicionales) es, además de potencia, tranquilidad. Garantizar que los datos que se van a usar en Microsoft 365 Copilot se mantienen aislados y a salvo es una promesa arriesgada por parte de la empresa de Redmond, pero si la cumple tenemos ante nosotros un servicio que puede, bien aprovechado, ser una pequeña revolución en la empresa.

Y lo puede ser porque como en el caso de GitHub Copilot, aquí estamos ante una herramienta que permitirá a los profesionales ganar (mucho) tiempo. El servicio les generará automáticamente resúmenes de documentos, presentaciones a partir de otros, y será teóricamente una poderosa fuente de inteligencia de negocio que, insistimos, permitirá usar datos internos sin miedo a que puedan "salir fuera".

Si Microsoft logra cumplir esa promesa estará desde luego ante la disrupción más importante de sus soluciones empresariales en años, y eso impone un coste elevado. Y sin embargo, que Microsoft 365 Copilot cueste 30 dólares seguirá pareciendo caro a quienes no le saquen partido, pero bien aprovechado apunta a ser una ayuda espectacular para mejorar la productividad e incluso la calidad del trabajo, dando a los profesionales más tiempo para resolver otras tareas que antes no podían resolver por tener que completar tareas más rutinarias.

En realidad, por tanto, el precio puede no ser ninguna burrada. Lo que sí es es la prueba definitiva de que aprovechar estas herramientas acabará obligándonos a pagar cuando las queramos aprovechar de verdad. Es posible que para un uso ligero o esporádico podamos conformarnos con las versiones básicas de esos servicios, pero una cosa está clara: usar IA de forma intensiva no va a ser "barato".

No al menos si no la aprovechamos de verdad. Si lo hacemos es probable que nos ahorre tanto tiempo y nos permita sacar tanto trabajo adelante que al final no solo nos parezca barata. Nos acabará pareciendo hasta un chollo. Y si no, que se lo digan al trabajador que ha logrado teletrabajar en tres empleos a jornada completa y ganar 315.500 euros anuales gracias a la IA.

Imagen | Xataka con Bing Image Creator

En Xataka | Se suponía que ChatGPT debía mejorar con el paso del tiempo. Está sucediendo exactamente lo contrario 

-
La noticia Microsoft Copilot 365 costará 30 dólares al mes. Parece mucho, pero también es una señal: la IA no saldrá barata fue publicada originalmente en Xataka por Javier Pastor .

Leer más

Se suponía que con el tiempo ChatGPT sería cada vez mejor. Según un estudio, está pasando justo lo contrario

Se suponía que con el tiempo ChatGPT sería cada vez mejor. Según un estudio, está pasando justo lo contrario

"¿Es el número 17077 primo? Razónalo paso a paso". Esa sencilla pregunta debería ser bastante fácil de responder para un modelo de IA como ChatGPT, sobre todo con el tiempo que ha pasado desde su lanzamiento y su evolución. Uno pensaría que este chatbot es cada vez mejor y más preciso, pero no parece que eso esté pasando.

El estudio. El pasado martes unos investigadores de la Universidad de Stanford y de la Universidad de California en Berkeley publicaron un estudio que evaluaba cómo han evolucionado tanto GPT-3.5 (usado en el ChatGPT que se puede usar gratuitamente) como GPT-4 (usado en ChatGPT Plus y en Bing Chat). Las conclusiones son sorprendentes: en general ambos modelos han empeorado.

Las pruebas. Usando la API de estos modelos, los investigadores analizaron el rendimiento de estos modelos en dos versiones distintas, la de marzo de 2023 y la de junio de 2023. Realizaron pruebas consistentes en preguntas de resolución de problemas matemáticos, cuestiones sensibles, generación de código y razonamiento visual.

Chatgpt

17077 es primo, pero no para ChatGPT. Una de las pruebas más llamativas fue la que indicábamos al comezar el artículo. Se le preguntó al chatbot si el número 17077 es primo (lo es) razonando la respuesta, y esa misma prueba se realizó con 500 ejemplos. Los cambios en la precisión fueron sorprendentes. GPT-4, que acierta el 97,6% de las preguntas con su versión de marzo, caía a una precisión del 2,4% en su versión de junio. A GPT-3.5 le pasaba justo lo contrario y pasaba del 7,4% de marzo al 86,8% de junio.

Más (o menos) parlanchines. También notaron que GPT-4 era menos "parlanchín": las respuestas eran más escuetas y el número de caracteres generado pasaba de 821,2 en marzo a 3,8 en junio. GPT-3.5, por contra, escribía respuestas un 40% más largas. En Xataka comprobamos que con el ejemplo expuesto, 17077, GPT-3.5 decía directamente que no era primo, mientras que GPT-4 no era capaz de asegurarlo y generaba un pequeño programa en Python que el usuario debía ejecutar para comprobarlo (pero no daba respuesta). El programa, al ser ejecutado, daba la respuesta correcta.

Más protegidos contra 'jailbreaks'. Los investigadores también quisieron tratar de preguntar cuestiones delicadas para tratar de forzar a las distintas versiones de ChatGPT a que se comportaran de forma incorrecta. Los jailbreak y exploits son ya conocidos, pero al menos en GPT-4 el comportamiento fue más seguro (contestó solo el 5% de las preguntas sensibles en su versión de junio, por el 21% de marzo), aunque apenas explica por qué no contesta bien. GPT-3.5 contestó más en su última versión (del 2% al 8% de junio).

Código menos ejecutable. Este chatbot se usa mucho para generar código, pero su evolución en este apartado también es errática. Según los investigadores, para GPT-4 el código generado directamente ejecutable (y por tanto, que ofrece mejores respuestas) cayó del 52% al 10% en junio, y para GPT-3.5 el porcentaje también cayó del 22 al 2%. GPT-4 escribió respuestas más largas y con más texto que no era código.

¿Se está volviendo peor ChatGPT? El estudio llega en un momento curioso, sobre todo porque varios debates en foros como Hacker News revelan que para muchos usuarios la calidad de ChatGPT se ha degradado. Entre las teorías que se barajan está la de que OpenAI podría estar ofreciendo versiones "ligeras" para reducir los recursos necesarios —como tiempo de GPU— para computar toda esa información.

En OpenAI niegan la mayor. Peter Welinder, uno de sus directivos, indicaba que todo se debe probablemente a nuestra percepción: al usarlo mucho, empezamos a detectar problemas que antes no notábamos. Aún así los responsables de la empresa están investigando esas quejas.

Pruebas discutibles. Otros expertos argumentan que el estudio no es especialmente concluyente debido a las métricas utilizabas. Arvind Narayanan, profesor de informática en Princeton, explicaba que en las pruebas de código "no evalúan la corrección del código (extraño). Se limitan a comprobar si el código es directamente ejecutable. Así que el intento del nuevo modelo de ser más útil contó en su contra".

La opacidad lo complica todo. Lo cierto es que es difícil evaluar la progresión de estos modelos si tenemos en cuenta que OpenAI es especialmente opaca respecto a sus modelos. Como explican en Ars Technica, no hay transparencia sobre cómo son entrenados o los conjuntos de datos que se usan, y su propio funcionamiento interno es un misterio hasta para sus creadores. Aquí la opción sería adoptar un enfoque Open Source como el que por ejemplo Meta ha seguido con Llama y Llama 2, recién lanzado.

Imagen | Xataka con Bing Image Creator

En Xataka | Bard cae en el mismo error que ChatGPT aunque esté conectado a internet: se lo inventa absolutamente todo

-
La noticia Se suponía que con el tiempo ChatGPT sería cada vez mejor. Según un estudio, está pasando justo lo contrario fue publicada originalmente en Xataka por Javier Pastor .

Leer más

Este Nubia Red Magic 8 Pro+ tiene 24 GB de memoria RAM. La pregunta es para qué

Este Nubia Red Magic 8 Pro+ tiene 24 GB de memoria RAM. La pregunta es para qué

Mucho ha llovido desde que en 2011 el Motorola Altrix 4G se convirtiese en el primer smartphone vendido masivamente que presumía de tener 1 GB de RAM. Aquella capacidad de memoria —que también integró el Galaxy SII— era por entonces asombrosa, pero la cosa avanzó rápidamente. De hecho tras esos lanzamientos nos preguntábamos si no era demasiado pronto para los móviles con 2 GB de RAM. En 2015 la cuestión era si los 4 GB de RAM en móviles que ya estaban aquí servían para algo o eran solo marketing.

Ahora deberíamos hacernos esa pregunta ligeramente cambiada: ¿no es demasiado pronto para móviles con 24 GB? Es más. ¿Tiene sentido un móvil con esta cantidad de memoria? Eso es precisamente lo que trata de demostrar el nuevo Nubia Red Magic 8 Pro+, un terminal que en su variante más ambiciosa presume de contar precisamente con esa cantidad de memoria RAM. La pregunta, claro, es para qué podríamos necesitarla.

La orientación del Red Magic 8 Pro+ es clara: gaming. Esa orientación es también el gran argumento para esa decisión de diseño que desde luego sorprende: aunque ya habíamos visto diversos terminales con 12 y hasta 16 GB de RAM, este es el primero que presume de contar con 24 GB de RAM. Es, eso sí, una versión solo disponible en China, y que allí tiene un precio de 

Captura De Pantalla 2023 07 07 A Las 12 35 51

Fuente: Steam Hardware & Software Survey

Esa cantidad de memoria es de hecho superior a la que la mayoría de usuarios tienen en sus PCs y portátiles. Lo normal en estos tiempos es contar con 16 GB de RAM, algo que por ejemplo se ve claramente en la base de datos de Steam: según los datos recolectados por esta plataforma —totalmente orientada a gamers de PC y portátil— uno de cada dos usuarios dispone de esos 16 GB de RAM, y solo uno de cada cinco tiene más de 16 GB.

Pero claro, un PC o portátil con un sistema operativo de PC o portátil se supone que debe estar preparado para hacer más cosas de lo que las hace un móvil. Y sobre todo, a hacer más cosas a la vez: mientras que en los móviles lo normal es que todo se centre en una sola aplicación maximizada en pantalla, en nuestros ordenadores estamos acostumbrados a ejecutar varias tareas o por ejemplo tener varias instancias de un navegador con muchísimas pestañas abiertas en ellas.

Eso hace que sea inevitable plantear esa comparación con el móvil de Nubia. ¿Hay alguna situación en la que esos 24 GB vayan a ser necesarios? Es cierto que hay juegos muy exigentes y que hacen uso de la memoria de forma intensiva para los enormes recursos que se utilizan en esos juegos (texturas, por ejemplo), pero también lo es que los desarrolladores de videojuegos móviles saben en qué márgenes se mueve la industria: no tendría desarrollar un juego que usa tanta memoria que solo unos pocos móviles podrían ejecutarlo con solvencia.

Tampoco es que el sistema operativo creado por Google esté pensado para aprovechar grandes cantidades de RAM. De hecho lo que hace constantemente es tratar de liberar la que puede para seguir funcionando incluso en terminales con poca RAM. Así, cuando pasamos de una aplicación a otra, Android realiza lo que llama la "recolección de basura"; liberando memoria de aplicaciones que ya no están activas. Eso hace a su vez que cuando cambiemos de una aplicación a otra la aplicación se relance como si no hubiera estado abierta antes (aunque a nosotros no nos lo parezca).

Tampoco parece haber otros escenarios en los que esa memoria no resulte excesiva: sin duda será útil si navegamos de forma especialmente intensiva en el móvil y tenemos una gran cantidad de aplicaciones en segundo plano, pero a priori no parece que los 24 GB vayan a poder aprovecharse de forma fácil en escenarios convencionales.

Al menos, no en la actualidad.

Esa es una apreciación importante, porque aunque 24 GB parecen muchos GB hoy en día, puede que no nos parezcan tantos dentro de dos años, cuando este móvil —armado hasta los dientes en todo lo demás— siga dando guerra. Puede que entonces sí comiencen a surgir escenarios de uso que saquen buen provecho de esa capacidad de memoria RAM.

Entre ellos está por ejemplo el mundo de la inteligencia artificial. Poder correr un chatbot del estilo de ChatGPT en local se verá muy beneficiado por esos 24 GB de RAM. No digamos tampoco la capacidad de generar imágenes con modelos como Stable Diffusion: Qualcomm ya presentó recientemente una demostración técnica en la que precisamente habilitaba esa capacidad en un prototipo del que no dio muchos detalles.

Hay otras posibilidades, y entre ellas está desde luego la de plantear móviles que aprovechen mejor ese margen de maniobra para convertirse en verdaderos PCs de escritorio. Desarrollos como Samsung DeX lo permiten, y aunque este fabricante parece haber dejado esta opción un poco en segundo plano, ya se habla de cómo los Pixel 8 podrían volver a impulsar ese "modo escritorio" que convierte nuestros móviles en singulares PCs de sobremesa.

Y luego, por supuesto, está el hecho de que nunca viene mal tener todo el margen de maniobra que podamos permitirnos. Es probable que a corto plazo no vayamos a sacar partido de esos asombrosos 24 GB de RAM del Nubia Red Magic 8 Pro+, pero nunca se sabe qué puede pasar en el futuro.

En Xataka Android | Todo sobre la memoria RAM en móviles: qué es y qué papel juega en el rendimiento de tu smartphone

-
La noticia Este Nubia Red Magic 8 Pro+ tiene 24 GB de memoria RAM. La pregunta es para qué fue publicada originalmente en Xataka por Javier Pastor .

Leer más

Threads se deja ver en su versión web. Y como esperábamos, es prácticamente idéntica a Twitter

Threads se deja ver en su versión web. Y como esperábamos, es prácticamente idéntica a Twitter

Si había un momento ideal para lanzar una alternativa a Twitter, ese era este. Y eso es justo lo que han hecho en Meta, que a través de Instagram han creado una nueva red social llamada Threads de la que se viene hablando desde hace semanas. Se espera que mañana aparezca disponible para iOS, pero hoy ya hemos podido ver su interfaz web y una cosa está clara: si sabes usar Twitter, sabrás usar Threads.

Zuck nos da la bienvenida. El primer mensaje (¿el primer 'thread'?) de esta nueva red social lo ha publicado Mark Zuckerberg, que con su nombre de usuario habitual en otras plataformas de la compañía ('zuck') ha escrito "Hagámoslo. Bienvenidos a Threads".

De momento no es posible crear cuentas. Aunque es posible ver el mensaje y sus respuestas, el sitio web de la plataforma (www.threads.net, el .com está cogido y sus propietarios están aprovechándolo) no da opción a crear nuevas cuentas. Eso sí: en Meta han dado acceso preliminar a algunas personas, algo que se puede comprobar rápidamente al ver que el mensaje de Zuckerberg ha recibido varios "Me gusta" y respuestas.

Igualita a Twitter. La interfaz web de Threads es muy similar a la que nos presenta Twitter. Se impone la claridad, y en la parte superior está el logotipo de la plataforma, que al ser pulsado hace que se cambie de un tema claro a un tema oscuro. Otros usuarios con acceso preliminar han mostrado publicaciones con imágenes o vídeos,  y el funcionamiento es por tanto aparentemente idéntico al que tiene Twitter. 

El fediverso espera. Por debajo, eso sí, Threads se basa en ActivityPub, la misma tecnología que Mastodon. En The Verge indican que la integración con el fediverso no estará disponible inicialmente, pero se espera que añadan dicha característica pronto, algo que probablemente sería un impulso importante para la plataforma de Meta.

¿Estará disponible en Europa? No está del todo claro. Ayer el diario irlandés Independent citaba las palabras de un portavoz de la Comisión de Protección de Datos (DPC) de Irlanda que indicaba que Threads no se desplegaría en la Unión Europea "en este momento". El lanzamiento se limitaría a Estados Unidos y al Reino Unido, que tras el Brexit no está gobernado de forma completa por el RGPD o las leyes de privacidad europeas, indicaban en dicho medio.

La DMA acecha. Según Bloomberg, "Meta está a la espera de más orientaciones sobre la Ley de Mercados Digitales (DMA), las nuevas normas de competencia de la UE que rigen el modo en que las grandes plataformas en línea utilizan su poder de mercado". Esta normativa pretende acabar con ecosistemas cerrados, y entre otras cosas obligará a que los grandes guardianes de los contenidos (Google, Apple, Meta, Twitter y Microsoft) permitan pasar datos de un lugar a otro. Mientras, eso sí, en Instagram anunciaron ayer la actualización de las Condiciones de uso del servicio. Esos nuevos términos están en vigor desde hoy, 5 de julio de 2023.

Twitter, más amenazada que nunca. Mientras, Twitter sigue en una situación caótica y mantiene los extraños límites de uso que Musk anunció este fin de semana. Las decisiones del multimillonario emprendedor han sido desde el comienzo polémicas y erráticas, y eso ha hecho que alternativas como Mastodon o Bluesky estén ganando popularidad aunque aún estén lejos de Twitter. Ninguna de ellas tiene, eso sí, a toda una Meta detrás. Esta podría ser la amenaza más importante para Twitter desde su creación.

Imágen: Anthony Quintano

En Xataka | La nueva red social que considera a Mastodon poco descentralizada y defendida por el fundador de Twitter

-
La noticia Threads se deja ver en su versión web. Y como esperábamos, es prácticamente idéntica a Twitter fue publicada originalmente en Xataka por Javier Pastor .

Leer más

Google tiene claro cómo va a entrenar sus modelos de IA. Cogiendo todo lo que publiquemos en internet

Google tiene claro cómo va a entrenar sus modelos de IA. Cogiendo todo lo que publiquemos en internet

Uno suele saber a lo que atenerse cuando usa servicios de Google. Es el Gran Hermano definitivo, y sabemos que la recolección de datos es una constante al usar cualquiera de sus plataformas. Es un sacrificio que aceptamos implícitamente al usar herramientas como Gmail, YouTube o Google Maps, pero las cosas pueden ir aún más allá. De hecho, lo acaban de hacer.

Nuevos términos de privacidad. Como indican en Gizmodo, Google actualizó hace unos días su política de privacidad. Lo hicieron con un cambio importante que hace mención específica a cómo entrenan sus modelos de inteligencia artificial. En el documento oficial explican lo siguiente:

"Google puede recoger información públicamente disponible online, o a partir de otras fuentes públicas, para ayudar a entrenar modelos de IA de Google y desarrollar productos y funciones como el Traductor de Google, Bard y funciones de IA de Cloud".

Si es contenido público, lo usarán (potencialmente). Es importante destacar que Google habla de información públicamente disponible online. La empresa parece por tanto reservarse el derecho de recopilar y potencialmente aprovechar contenidos de toda la web, y hacerlo precisamente por el hecho de que ese contenido es público.

Cuidado con lo que publicas. Eso hace que una vez más no sea mala idea reflexionar sobre todo lo que publicamos o subimos en internet sin más. A menos que marquemos esos contenidos como privados o protegidos por derechos de autor, Google los podrá usar para cosas como entrenar sus modelos de inteligencia artificial. Lo dicen bien en Gizmodo: lo importante ya no es tanto quién puede ver esa información que publicamos, sino cómo va a acabar usándola (porque podrá acabar haciéndolo).

Transparencia casi nula. Y mientras esto pasa, las empresas que ofrecen modelos de IA generativa siguen sin ofrecer datos claros sobre cómo entrenan sus plataformas. Google es una de las pocas que expone esos "datasets" utilizados en algunos modelos: el llamado Google C4 es un gigantesco conjunto de datos que permiten descubrir que las fuentes más relevantes son Google Patents, Wikipedia y Scribd.

Modelos

Entre las fuentes de datos la Wikipedia parece quedarse pequeña frente a otras fuentes como Reddit o la navegación web en bruto, que recopila información públicamente disponible de internet ("Common Crawl"). Fuente: LifeArchitect

Sin embargo no hay apenas datos sobre Infiniset, el conjunto de datos usados para el modelo de lenguaje LaMDA utilizado en Bard. De PaLM2 no sabemos mucho, y tampoco está demasiado claro cómo entrenó OpenAI el modelo GPT-3 —hay un estudio de sus ingenieros que no aclara demasiado la cuestión— y la opacidad se ha convertido en una máxima últimamente: las empresas desvelan cada vez menos detalles porque la competencia es feroz.

Pero todas usan internet sin piedad. Lo que sí está claro es que los contenidos publicados en internet en todo tipo de plataformas —blogs, redes sociales, foros, etc— acaba siendo potencialmente usada para entrenar esos modelos de datos. Lo que no sabemos en la mayoría de los casos es si eso que nosotros publicamos estará o no, y sin saber las fuentes concretas, tampoco es posible entender hasta qué punto los ChatGPT o Bard del mundo pueden tener ciertos sesgos en un sentido u otro.

Por eso Reddit y Twitter están tomando medidas. Lo que acaba de hacer Google al cambiar su política de privacidad tiene mucho que ver con la decisión de Reddit y Twitter de limitar el acceso a sus APIs: si no se paga, no se podrá acceder a ellas. O lo que es lo mismo: si no se paga, usar las enormes cantidades de contenido publicado en esas redes es mucho más difícil para empresas que quieren entrenar sus modelos de IA con esos datos.

Internautas sin voz ni voto. Y mientras, los internautas que publicamos esos contenidos no parecemos poder hacer nada al respecto. Cuando publicamos algo en internet, sea donde sea, normalmente lo hacemos de forma automática y sin pensar en si ese contenido debería estar sujeto a alguna licencia. Mi blog, por ejemplo, usa una licencia Creative Commons que requiere atribución. Aunque el dataset Google C4 ha recopilado algunos de mis posts para su entrenamiento, a mí jamás se me ha pedido permiso (en realidad no tendrían que hacerlo obligatoriamente) ni se me ha citado o atribuido (que sí deberían hacer según esa licencia).

¿Demandas a la vista? Google, como todas las demás, están aprovechando internet como su particular campo de entrenamiento para trabajar en el campo de la inteligencia artificial, pero eso podría acabar costándole caro. OpenAI y Microsoft están ahora en medio de una demanda por GitHub Copilot y todo el código que esa herramienta ha usado sin pedir permiso a los programadores.

A Stable Diffusion le pasa algo similar con Getty, cansada de que la IA le robe sus fotos. El propio David Holz, fundador de Midjourney, admitía que al entrenar su modelo "No hay realmente una forma de coger cien millones de imágenes y saber de  dónde provienen. Estaría bien que las imágenes tuvieran metadatos  incrustados sobre el propietario del copyright o algo así. Pero eso no  existe; no hay ningún registro".

La AI Act persigue este tipo de problemas. Mientras tanto en la Unión Europea progresa la aprobación definitiva de la AI Act, su primer intento de regular la inteligencia artificial. En esta normativa hay un apartado específico dedicado a la transparencia, y teóricamente se exigirá a las empresas que desarrollan modelos de IA que expliquen de dónde provienen los datos de entrenamiento

Eso es mucho más fácil de hacer que de dedir aparentemente, pero nos enfrentamos a un futuro en el que este tipo de recopilación masiva de datos puede tener problemas adicionales: ya no solo de posible violación de privacidad, sino de su uso en según qué escenarios. En Xataka nos hemos puesto en contacto con los responsables de Google, y actualizaremos la noticia si recibimos más información sobre estos cambios en su política de privacidad.

Imagen | Xataka con Bing Image Creator

En Xataka | OpenAI ha usado millones de textos para entrenar a ChatGPT. El problema es que muchos de ellos tienen copyright

-
La noticia Google tiene claro cómo va a entrenar sus modelos de IA. Cogiendo todo lo que publiquemos en internet fue publicada originalmente en Xataka por Javier Pastor .

Leer más

Chrome tiene fama de agotar la batería de tu móvil. En realidad quien se la traga es una app “invisible” de Google

Chrome tiene fama de agotar la batería de tu móvil. En realidad quien se la traga es una app

Algo le pasa a mi móvil. Estaba al 86% de batería hace un rato y de repente está en el 45%. Está, de hecho, hasta un poco más caliente de lo normal ¿Qué está pasando? Las culpas suelen ir a aplicaciones con fama de ser glotonas de recursos como el navegador Google Chrome, pero lo más probable es que en dispositivos Android la culpa la tenga otra aplicación. Una que podríamos considerar invisible.

Servicios de Google Play. En la inmensa mayoría de dispositivos Android hay una aplicación llamada Servicios de Google Play que es absolutamente imprescindible para poder trabajar con las aplicaciones de Google. Sin ella no tendríamos por ejemplo acceso a la tienda de apps, a Google Maps, a YouTube o a Google Pay.

Invisible. Esta aplicación no está presente por ejemplo en los móviles de Huawei, que no tienen acceso a ella por el veto establecido por EEUU en 2019. Para el resto de móviles Android certificados, la app siempre está ahí, preinstalada y funcionando en segundo plano para dar soporte al resto de aplicaciones que dependen de ella. Su funcionamiento, no obstante, es transparente para los usuarios. Es invisible, y no contamos con el típico icono de la aplicación ni la encontraremos en nuestros escritorios del móvil con el resto de apps "normales" instaladas.

Una app glotona (pero con cierta razón). Los Servicios de Google Play tienen el problema de ser claves para el funcionamiento de muchas otras aplicaciones y herramientas que usamos en el día a día. Normalmente los servicios en segundo plano no suelen ser procesos especialmente voraces en memoria o batería, pero esta app de Google es tan utilizada por el resto del sistema que en ciertos momentos su consumo de batería puede dispararse. Así pues, si uno consulta qué aplicaciones están consumiendo más batería en su móvil Android y ve que los Servicios de Google Play está entre los que más lo hacen, no hay que asustarse: es normal.

Servicios Google Play

Pero es que además está caliente. Si nuestra batería se está agotando rápidamente ya habrá señales de que algo raro puede estar pasando, pero también hay casos en los que nuestro móvil se sobrecalienta. Ahí es posible acudir a algunas posibles soluciones para atajar el problema y volver a un funcionamiento normal del dispositivo. Entre ellas, las siguientes destacadas:

  • Reiniciar el móvil: la vieja broma de IT Crowd sigue siendo una forma sencilla de "desatascar" el problema.
  • Actualización pendiente: en ocasiones ocurre que hay alguna actualización incompleta de esta herramienta que se actualiza también de forma invisible. Para completarla basta con activar manualmente esa actualización desde Google Play.
  • Detener la app: se puede hacer desde Ajustes -> Aplicaciones y luego mostrando las apps de sistema, seleccionando "Servicios de Google Play" para finalmente pulsar sobre "Forzar detención".
  • Borrar datos: si nada de lo anterior funciona, podemos probar a borrar los datos asociados a los Servicios de Google Play. Para ello hay que ir primero a Ajustes -> Aplicaciones. Allí pulsamos en mostrar apps del sistema, pulsamos en Almacenamiento -> Gestionar espacio, y allí pulsamos en la opción "Borrar todos los datos". No hay peligro haciendo esto, no perderemos nada porque todo se sincronizará desde Google. Una recomendación aquí: hacerlo desde una Wi-Fi, ya que este proceso puede consumir bastantes datos móviles.


Ni se te ocurra desinstalarla. Normalmente los fabricantes no ofrecen una opción fácil para desinstalar los Servicios de Google Play debido a que muchas otras apps dependen de ella. Entre las opciones de esta aplicación lo normal es uqe el botón de "Desinstalar" esté en color gris por esa razón. Aunque hay métodos alternativos de lograrlo, no es nada recomendable hacerlo. Eso sí: hay ROMs Android enfocadas a la privacidad —como LineageOS— que por ejemplo no preinstalan ni los Servicios de Google Play ni las aplicaciones de Google (GMail, YouTube, Maps, la tienda Google Play, etc) aunque luego es posible añadir esos componentes con paquetes como el célebre GApps.

Imagen | Freepik

En Xataka | Cómo saber el estado de salud de la batería de tu Android y cómo puede perder capacidad

-
La noticia Chrome tiene fama de agotar la batería de tu móvil. En realidad quien se la traga es una app "invisible" de Google fue publicada originalmente en Xataka por Javier Pastor .

Leer más

Llevamos años soñando con los neumáticos sin aire. Michelín ya los ha puesto a rodar en Francia

Llevamos años soñando con los neumáticos sin aire. Michelín ya los ha puesto a rodar en Francia

Los neumáticos sin aire son una de esas revoluciones que llevan llamando a la puerta de la industria automovilística —y la ciclista— desde hace tiempo. La tecnología de Michelin, tras años de desarrollo, ha comenzado a demostrar sus prestaciones en nuestro país vecino.

Michelin Uptis. Así se llaman los innovadores neumáticos sin aire de este fabricante. El apelativo es un acrónimo de Unique Punctureproof Tire System, y destacan precisamente por no tener que ser inflados y por su estructura de lamas flexibles reforzadas con fibria de vidrio.

Un diseño mejorado. Aunque las versiones preliminares de esta tecnología estaban pensadas para coches y camiones ligeros, la nueva estructura de las ruedas Uptis es capaz de orientarlas a vehículos de pasajeros convencionales. No hay además riesgo de una presión incorrecta, lo que hace que el agarre a la carretera sea óptimo en todo momento.

Ni mantenimiento, ni reinflado. Estas ruedas no necesitan que ajustemos periódicamente la presión de inflado porque, sencillamente, no hay inflado ni reinflado. Esto permite además reducir la cantidad de llantas que acaban en la basura o en los desguaces, y teóricamente también se reduce el coste de reemplazarlas.

Las pruebas piloto prometen. La intención de Michelin en 2019 era la de ofrecer este tipo de tecnología en 2024, inicialmente junto a General Motors. En marzo de 2022 se anunció una fecha de lanzamiento algo más larga, entre 2025 y 2028, y a principios de este año se inició una prueba piloto junto a la empresa de mensajería DHL en las calles y carreteras de Singapur. El éxito de dicho programa ha hecho que en Michelin afirmen que estos neumáticos ya están listos para su llegada al mercado francés, aunque también de forma preliminar.

El servicio de correos las estrenará en Francia. El servicio oficial de correos francés, La Poste, equipará 40 de sus furgonetas de mensajería con estos neumáticos sin aire y a prueba de pinchazos. Como indica el anuncio oficial, esta colaboración se iniciará a finales de 2024 en la región de Hauts-de-France, al norte de Francia. Tres de esos vehículos, eso sí, comenzaron a rodar con esas ruedas el pasado 27 de junio.

Aún no podrás comprarlos. Los consumidores no podrán acceder de momento a esta tecnología, y es evidente que en Michelin quieren estar seguros de que las nuevas pruebas en el país galo resultan ser un éxito antes de comercializar estos neumáticos a escala global.

En Xataka | De metal, sin aire o esféricos: diez prototipos de neumáticos que prometen solucionar los pinchazos en los coches del futuro

-
La noticia Llevamos años soñando con los neumáticos sin aire. Michelín ya los ha puesto a rodar en Francia fue publicada originalmente en Xataka por Javier Pastor .

Leer más

Windows, qué te ha pasado: hace 20 años abrías las aplicaciones en un instante y ahora vas a pedales

Windows, qué te ha pasado: hace 20 años abrías las aplicaciones en un instante y ahora vas a pedales

Julio Merino es un ingeniero software nacido en Barcelona que actualmente vive en Seattle. Hace unos días decidió hacer un experimento. Rescató un viejo PC del año 2000 con un Pentium a 600 MHz, 128 MB de RAM y un disco duro tradicional. Al encenderlo comprobó algo asombroso: las aplicaciones de Windows NT 3.51 (recién instalado) se abrían de forma instantánea.

Este usuario no se conformó con eso y quiso repetir la prueba, pero con un sistema operativo algo más moderno. Instaló Windows 2000 en la misma máquina, y al hacer las mismas pruebas y abrir aplicaciones comprobó cómo todas ellas se abrían en un instante. Los tiempos de respuesta eran casi inexistentes, y la sensación era la de que todo se ejecutaba con una velocidad extraordinaria. Explicó esto —y mucho más— tanto en Twitter como en un largo post en su blog.

Luego hizo la misma prueba con un Suface Go 2 mucho más reciente y basado en un Core i5 a 2,4 GHz, 8 GB de RAM y una unidad SSD. Siguió la misma secuencia de apertura de aplicaciones con una instalación limpia de Windows 11 y comprobó como los tiempos de apertura eran mucho más lentos. ¿Qué estaba pasando?

Uno podría decir que ese Surface Go 2, aun siendo mucho más moderno que aquel PC de 1999-2000, no tenía unas especificaciones realmente altas para ejecutar un sistema operativo exigente como Windows 11. Merino lo tuvo en cuenta y quiso realizar esta prueba, pero hacerlo en un Mac Pro con un procesador de seis núcleos a 3,5 GHz y con 32 GB de RAM. No deja claro si ejecutó Windows con Bootcamp o con virtualización, pero en cualquier caso el vídeo mostrado era llamativo en cuanto a esos tiempos de apertura.

Como él mismo explicaba, incluso con las aplicaciones en caché, renderizarlas parecía llevar mucho trabajo, e iban apareciendo "a cachos". Como él destacaba, "no es por las animaciones o por un hardware mediocre". 

Tampoco tenía que ver con el hecho de trabajar en resolución 4K, y aun desactivando las animaciones se notaba que una máquina y un sistema operativo modernos iban aparentemente más lentos que una máquina y un SO de hace más de 20 años. 

La pregunta, claro, es inevitable. ¿Qué está pasando?

Los PCs y SSOO de hace 20 años no eran mejores (salvo en algunas cosas)

El propio usuario comentaba en un hilo en Hacker News cómo su intención no era transmitir un mensaje del tipo "las máquinas y SSOO de hace 20 años eran mucho mejores" porque como él decía, eso no era cierto. De hecho, explicaba, "apestaban en muchos aspectos".

Las cosas han mejorado en muchísimos apartados, y tenemos ordenadores y software que hacen cosas impensables hace 20 años tanto en el desarrollo y ejecución de aplicaciones como en herramientas profesionales, juego o contenidos de vídeo y audio.

Los avances han sido espectaculares, pero no todo parece ser mejor: las modernas interfaces de usuario se han vuelto algo más lentas (pero también más elegantes, personalizables y espectaculares), e incluso en PCs y portátiles de última generación uno puede notar cómo lanzar una aplicación puede llevar más tiempo del esperado.

Abstracción (y muchas cosas más), culpables

Hay varias razones por las que ocurre algo así, y una de ellas es ciertamente cómo la propia evolución del software y el hardware se ha complicado. Nuestras máquinas y nuestro software hace más cosas, pero para hacerlas bien necesita resolver muchos problemas y lograr que los componentes hardware y software se comuniquen ("se hablen") de forma adecuada.

Que un usuario quiera abrir una ventana del explorador de archivos, aun pareciendo trivial, requiere que el sistema operativo se hable con el hardware para que tanto el subsistema de entrada salida como el subsistema gráfico (entre otros) logren mostrar las carpetas y archivos y lo hagan a través de una ventana "dibujada" o renderizada por el hardware del chip gráfico.

Esa comunicación entre el hardware y el software se realiza con las llamadas capas de abstracción de hardware (HAL, por Hardware Abstraction Layer). Las aplicaciones no acceden directamente al hardware y sus recursos, sino que lo hacen a una capa abstracta proporcionada por esa tecnología. Eso permite que las aplicaciones sean independientes del hardware y no tengan que preocuparse por detalles

Pero es que a las capas de abstracción se le suman otros muchos componentes (y problemas) generados por la estructura de los sistemas operativos modernos. Puede que los procesos no se hayan programado de forma asíncrona, que no haya suficientemente palarelismo, o que los sistemas de paso de mensajes y sincronización (quienes hayan estudiado este ámbito seguramente que recuerdan los mutex) no estén del todo afinados.

Por si fuera poco, en los sistemas operativos modernos hay un montón de servicios y de software que funcionan en segundo plano y que quizás no serían necesarios en muchos escenarios. No ya procesos de sistema, sino procesos de aplicaciones que vamos instalando y que "piden sitio" para ejecutarse desde que arrancamos el PC.

De hecho, hasta Steven Sinofsky, que fue responsable del desarrollo de Windows 7 y también de Windows 8, respondió con un comentario también interesante: los sistemas operativos modernos integran un navegador web, que es algo así como un sistema operativo en sí mismo.

El problema de la ralentización de Windows (y otros sistemas operativos) es de sobra conocido. De hecho este comportamiento confirma la conocida ley de Wirth, que nos dice que "el software se ralentiza más deprisa de lo que se acelera el hardware". Hace unos años los expertos de NTDotDev realizaron un análisis detallado de cómo el rendimiento de Windows 10 había ido empeorando con el paso del tiempo.

Uwp

Con cada versión de Windows 10, el tiempo de apertura de aplicaciones UWP empeoraba en casi todos los casos. Fuente: NTDotDev.

Las sucesivas versiones de Windows 10 —con sus grandes actualizaciones incluidas— llegaban con mejoras interesanes, pero también con problemas añadidos. La degradación del rendimiento en ciertos apartados era una de ellas, y componentes como UWP o el soporte de las aplicaciones Win32 (las "antiguas") perjudicaban la experiencia de usuario general.

Este tipo de análisis también aparecían en casos peculiares. Bruce Dawson, empleado de Google, contaba hace unos meses su particular "pelea" con la grabadora de voz de Windows, que tardaba demasiado en abrirse y que funcionaba casi "a pedales".

Dawson, experto en el perfilado de procesos con herramientas como ETW (Event Tracing for Windows) acabó analizando la traza de ejecución y comprobando cómo varios procesos —y en especial uno clave, el llamado RuntimeBroker— alargaban su ejecución de forma inexplicable. Una desarrolladora llamada Katelyn Gadd le contestaba en Twitter indicando posibles razones y dando una opinión en la que muchos probablemente pensamos: "alguien fue probablemente perezoso".

¿Se han vuelto los programadores perezosos? Es también una vieja pregunta que hace referencia a cómo han cambiado los tiempos en materia de hardware. Antes los desarrolladores se las ingeniaban para crear aplicaciones y juegos prodigiosos con recursos ínfimos. Cuenta la leyenda que en 1981 Bill Gates pronunció aquella famosa frase de que "640K deberían ser suficientes para cualquiera".

Gates negó haber dicho algo así, pero lo cierto es que la sensación para muchos parece ser esa: la de que los programadores "de antes" aprovechaban mejor los recursos. Como ahora tenemos acceso a máquinas exponencialmente más potentes y con más recursos, "no hace falta esforzarse tanto" a la hora de crear programas eficientes porque el hardware ya compensa que el código pueda ser algo "perezoso".

¿Es eso cierto? En ciertos casos, desde luego. Lo hemos visto con el framework Electron, que se ha usado mucho para encapsular aplicaciones web y presentarlas como aplicaciones nativas de Windows. Eso ahorraba mucho tiempo y esfuerzo a las empresas desarrolladoras de software, pero ha quedado demostrado que desarrollar aplicaciones "nativas" hace que la experiencia de usuario y el consumo de recursos mejore de forma notable.

Así pues, puede que haya desarrollos perezosos, pero no lo serán ni mucho menos todos. Como veníamos comentando, en realidad la degradación del rendimiento es culpa de la propia evolución de la informática: nuestros sistemas operativos, nuestro hardware y nuestro software hacen todo lo que hacían antes y muchísimo más, pero para lograrlo es necesario contar con un buen montón de componentes —algunos más pulidos que otros— que antes no teníamos.

Imagen | Julio Merino

En Xataka | Recuperar la velocidad de un ordenador lento: 15 formas de acelerar el PC

-
La noticia Windows, qué te ha pasado: hace 20 años abrías las aplicaciones en un instante y ahora vas a pedales fue publicada originalmente en Xataka por Javier Pastor .

Leer más

Microsoft lleva años ofreciendo Office en la nube bajo suscripción. Ahora quiere hacer lo mismo con Windows

Microsoft lleva años ofreciendo Office en la nube bajo suscripción. Ahora quiere hacer lo mismo con Windows

Hace tiempo que en Microsoft están centrando buena parte de sus desarrollos en la nube. Lo hicieron al ofrecer Office 365 con ese formato y bajo un modelo de suscripción, y ahora están preparando el camino para hacer lo mismo con Windows.

Es al menos lo que se ha desvelado durante el juicio que está enfrentando a la FTC y Microsoft por su intención de comprar Activision. En The Verge han tenido acceso a una presentación interna de Microsoft de junio de 2022 en la que se indica claramente la creación de "Windows 365 para habilitar un sistema operativo Windows completo distribuido desde la nube a cualquier dispositivo".

En realidad la empresa de Redmond ya ofrece algo así para usuarios empresariales, pero esta propuesta deja claro que la intención es la de ofrecer esa misma opción a usuarios finales. "Migrar Windows 11 cada vez más a la nube" está marcado claramente junto a otros objetivos como el de crear "silicio personalizado", esto es, un teórico microprocesador propio para su familia Surface al estilo de lo que Apple ha hecho para sus Mac.

Captura De Pantalla 2023 06 27 A Las 16 38 17

Fuente: The Verge.

Nosotros logramos acceso a Windows 365 en septiembre de 2021. Por entonces la propuesta permitía usar Windows 10 en la nube y conectarnos así a una especie de PC en la nube con el que trabajar desde cualquier dispositivo (iPads incluidos). Nuestras impresiones fueron agridulces, porque aunque el concepto era interesante, no acabábamos de encontrar ventajas frente a usar un PC convencional en local.

Como señalan en The Verge, este tipo de opción está preparándose, y una futura actualización de Windows 11 incluirá el llamado "Windows 365 Boot". Esta característica permitirá que los dispositivos Windows 11 puedan iniciar sesión directamente en una instancia de un PC en la nube en cuanto arranquen. Esto es: una vez se inicien, lo que estaremos manejando no es nuestro sistema operativo instalado en local, sino la instancia en la nube.

Queda por ver si esa propuesta acaba cuajando como lo ha hecho Office 365, desde hace tiempo parte de Microsoft 365. Los casos de uso existen, desde luego, pero será interesante comprobar si al gran público le convence esa idea de no usar su PC como tal, sino como un dispositivo que se conecta a un sistema operativo en la nube.

En Xataka | El mejor uso que le he podido dar a mi antiguo portátil: jugar en la nube

-
La noticia Microsoft lleva años ofreciendo Office en la nube bajo suscripción. Ahora quiere hacer lo mismo con Windows fue publicada originalmente en Xataka por Javier Pastor .

Leer más

Hay misteriosos conectores USB saliendo de paredes en todo el mundo. Son parte de un proyecto singular

Hay misteriosos conectores USB saliendo de paredes en todo el mundo. Son parte de un proyecto singular

Lo hemos visto mil veces en las películas. Un espía se acerca a un buzón, una papelera o el banco de un parque. Se asegura de que nadie mira y palpa esos objetos, normalmente por debajo, para acabar cogiendo algo que estaba oculto en ellos. Es lo que se conoce como buzón muerto ('dead drop'), secreto, ciego o clandestino, y es una técnica que va más allá del cine: se utiliza como forma de pasar objetos o información entre dos personas usando ubicaciones secretas. La técnica es vieja, pero desde hace unos años se está utilizando con una variante muy peculiar. Una que hace que encontremos un conector USB incrustado en una pared.

¿Un pendrive en la pared? En 2010 un artista digital llamado Aram Bartholl inició un proyecto que llamó 'Dead Drops'. Su propuesta mezclaba una parte artística —habló sobre ellos en una conferencia en el MoMa en 2011—, pero sobre todo práctica. La idea, explicaba en el sitio web oficial del proyecto, consistía en ofrecer "una red anónima, sin conexión, de intercambio de archivos entre pares en el espacio público".  

Preparados para conectarse. Quienes participan en el proyecto empotran memorias USB en muros, edificios y esquinas "accesibles a cualquiera desde el espacio público". Para usarlos basta con conectar un ordenador portátil (o equipos con esa conexión disponible) para compartir archivos e información.

Requisitos. Quienes quieran crear uno de estos Dead Drops en su ciudad, deberán comprar un pendrive USB, quitarles su envoltura de plástico y envolver los componentes electrónicos expuestos con cinta. En el dispositivo solo podrá haber inicialmente un fichero readme.txt (leeme.txt) en el que se da información sobre el proyecto y que puede obtenerse de la web oficial.

Captura De Pantalla 2023 06 26 A Las 13 28 56

La popularidad del proyecto es limitada, pero su éxito es notable en Alemania, Francia o el Reino Unido,

Conexión siempre disponible. Una vez preparada la llave USB, basta empotrarla en una pared y un muro haciendo un hueco (si no existía) para luego sellarlo todo con cemento o pasta de secado rápido. Lo ideal es colocar ese conector USB a una altura razonable para que quienes usen el puerto lo puedan hacer cómodamente. En Instructables hay una guía detallada del proceso de creación de un Dead Drop.

Geolocalizando tu Dead Drop. Tras colocarlo todo, es necesario registrar ese nuevo Dead Drop añadiendo tres fotos de su localización, además de incluir información sobre su dirección, las coordenadas, país en el que se encuentra y capacidad de almacenamiento.

Más 2.000 pendrives empotrados. La base de datos, disponible públicamente en el sitio web del proyecto, tiene en estos momentos registradas 2.263 llaves USB con una capacidad total de 70.425 GB (la capacidad media es de algo más de 31 GB).

Especialmente populares en Alemania. Europa y Estados Unidos son las regiones donde más populares son estos Dead Drops. El país germano cuenta con más de 700 de estos pendrives, mientras que en EEUU hay algo más de 600. España apenas cuenta con 56 según el último listado.

Pero cuidado. Estos pendrives pueden servir ciertamente para esos intercambios de información entre personas o entidades, pero también plantean un riesgo: puede que quienes las han colocado hayan instalado algún tipo de malware que infecte nuestro equipo si nos conectamos a ellas. No sería la primera vez que alguien hiciera algo parecido, desde luego.

Imagen | Dead Drops

En Xataka | EEUU cree haber detectado un globo espía chino sobre su territorio: un incidente en plena escalada de tensión

-
La noticia Hay misteriosos conectores USB saliendo de paredes en todo el mundo. Son parte de un proyecto singular fue publicada originalmente en Xataka por Javier Pastor .

Leer más