Resolviendo la gran incógnita de Netflix y las cuentas compartidas: qué pasa cuando te vas de viaje

Resolviendo la gran incógnita de Netflix y las cuentas compartidas: qué pasa cuando te vas de viaje

Muchas cosas han cambiado para los usuarios españoles de Netflix en las últimas semanas. La plataforma ha iniciado ya su plan para eliminar las cuentas compartidas de toda la vida, sobre todo detectándolas a partir de la IP utilizada. Esa IP se combina con otros datos para que Netflix sepa si estamos usando la cuenta fuera de nuestro hogar, pero ¿qué pasa si viajamos?

Empiezan a llegar los avisos. Netflix avisaba hace semanas de que se cumplía el plazo para determinar la llamada "ubicación principal", que suele equivaler al domicilio del propietario de la cuenta. Se esperaba que los avisos de detección de una actividad no autorizada se produjeran a partir de entonces, y aunque estos se hicieron esperar, estos días ya hemos visto cómo esos avisos comienzan a llegar.

Pero es que voy a viajar. Para muchos usuarios, una de las preguntas clave a la hora de usar su servicio a partir de ahora es qué pasa si viajan por trabajo o vacaciones. ¿Pueden hacerlo y seguir usando su cuenta aunque estén fuera de casa? La respuesta es un sí rotundo, y aquí Netflix ha ideado un mecanismo relativamente sencillo de ofrecer esa opción de forma razonable y coherente con su nueva política de cuentas compartidas.

Netflix detecta que estás fuera. Como se ve en la imagen que encabeza este artículo, cuando estamos de viaje y abrimos Netflix desde una Smart TV distinta, lo normal es que aparezca un mensaje que indica que "este televisor no está conectado a la ubicación principal de esta cuenta". La plataforma es capaz de detectar esa actividad al combinar la IP pública desde la que usamos el servicio con otros datos como (principalmente) el identificador de dispositivo. Es en esa misma pantalla en la que precisamente Netflix muestra un botón llamado "Estoy de viaje". Es precisamente el que debemos pulsar si estamos en esa situación.

Netflix2

Códigos temporales. Al pulsar ese botón aparecerá una segunda imagen que precisamente permite obtener "un código para ver Netflix cuando no estés en casa". Si somos propietarios de esa cuenta, podremos elegir entre que Netflix nos envíe un correo electrónico o un mensaje SMS con un código temporal. Tras elegir cualquiera de esas opciones, nos llegará ese código, que tendremos que introducir en la pantalla siguiente para que Netflix verifique que somos los propietarios de la cuenta y que estamos de viaje.

14 días de acceso. A partir de ese momento, podremos disfrutar de hasta 14 días de streaming sin nuevos avisos en esa pantalla en la que hemos introducido el código. Es un margen razonable, y si acaba y seguimos en esa ubicación nos acabará apareciendo otro aviso idéntico y podremos renovar esa opción de que estamos de viaje (por ejemplo, de vacaciones). Netflix no especifica hasta cuándo se puede prorrogar esa opción.

¿Y si estoy fuera temporadas largas? Si la opción de estar de viaje deja de funcionar, siempre podemos acudir al otro botón que nos ofrece Netflix al detectar que estamos fuera de casa. Se trata del llamado "Gestionar ubicación principal", lo que permitirá que volvamos a establecer la ubicación principal para que en lugar de la original ahora sea esta nueva ubicación desde la que estamos conectándonos.

Netflix detecta teles fuera de casa, pero no móviles o PCs. Hay no obstante una circunstancia que permite evitar también esos avisos cuando viajamos, y es la de, simplemente, no abrir Netflix desde una Smart TV. Si estamos fuera, lo más normal es que podamos seguir usando Netflix desde un smartphone, una tableta, un PC o un portátil sin problemas y sin avisos.

Es posible que la plataforma acabe detectando también esos usos al comparar la actividad normal —que usáramos ese dispositivo en la Wi-Fi de casa— con la que realizamos al estar de viaje. Sin embargo en nuestras pruebas hemos comprobado que al menos de momento aunque el mensaje aparece en la Smart TV, no lo hace en el móvil o el portátil si queremos usar Netflix desde esos dispositivos.

En Xataka | Todas las plataformas de streaming contemplan marcarse un Netflix con las cuentas compartidas. Aunque no lo apliquen

-
La noticia Resolviendo la gran incógnita de Netflix y las cuentas compartidas: qué pasa cuando te vas de viaje fue publicada originalmente en Xataka por Javier Pastor .

Leer más

Las empresas que utilizan ChatGPT están descubriendo algo preocupante: no sabe guardar un secreto

Las empresas que utilizan ChatGPT están descubriendo algo preocupante: no sabe guardar un secreto

El mundo está contagiándose de la fiebre ChatGPT. Conversamos con este chatbot para que resuelva nuestras dudas y para que nos ayude a trabajar mejor, pero mientras lo hacemos, le estamos contando un montón de cosas a este motor de inteligencia artificial conversacional. Eso no es problema si uno habla de temas más o menos banales, pero la cosa cambia, y mucho, en empresas.

Top secret. Como indican en Dark Reading, un informe reciente de la consultora de seguridad de datos Cyberhaven reveló que se detectaron y bloquearon peticiones de introducción de datos en el 4,2% de los 1,6 millones de trabajadores de empresas que trbaajan con ellos. Es un porcentaje que parece bajo pero que es realmente preocupante porque en todos los casos el peligro estaba en que esos trabajadores acabaran filtrando datos sensibles.

¿Qué datos sensibles se pueden filtrar? De todo tipo. Desde información confidencial sobre la empresa hasta datos de clientes o código fuente de sus aplicaciones. En uno de los casos, un directivo copió y pegó el documento de la estrategia de 2023 de la empresa en ChatGPT y le pidió que creara una presentación en PowerPoint. En otro, un doctor introdujo el nombre de un paciente y su estado de salud, y le pidió a ChatGPT que escribiera el borrador de una carta a la compañía de seguros del paciente.

Contándole todo a ChatGPT. Para estos expertos, el peligro es real e irá en aumento. "Hubo una gran migración de datos de la nube a la nube, y el próximo gran cambio va a ser la migración de datos a estas aplicaciones generativas", explicaba Howard Ting, CEO de Cyberhaven.

Las empresa empiezan a reaccionar. Algunas compañías han reconocido ya el problema y están comenzando a tomar medidas. JPMorgan ha restringido el uso de ChatGPT, y otras como Amazon, Microsoft —qué ironía— y Wal-Mart han publicado avisos para sus empleados: tened cuidado cómo usáis los servicios de IA generativa.

ChatGPT no sabe guardar secretos. El problema es que si alguien da datos confidenciales  ChatGPT, el motor no sabe que lo son. Los expertos en ciberseguridad avisan de un nuevo tipo de ataques llamados "de extracción de datos de entrenamiento" o de "exfiltración mediante inferencia de aprendizaje automático" que básicamente logran sacarle información confidencial a ChatGPT.

Y esto va a más. La presentación ayer de Microsoft 365 Copilot no hará más que impulsar el uso de estos sistemas con datos empresariales, y aunque en Redmond aseguraron que en esos entornos la privacidad y la protección de los datos confidenciales está garantizada, más y más trabajadores acabarán usando estos y otros sistemas para ayudarles en su trabajo. Eso, lo quieran o no las empresas, puede representar una amenaza potencial. Una que tendrán que tratar de evitar a toda costa.

Imagen: Ryoji Iwata

En Xataka: GPT-4: qué es, cómo funciona, cómo usarlo, qué puedes hacer con este modelo de lenguaje por inteligencia artificial

-
La noticia Las empresas que utilizan ChatGPT están descubriendo algo preocupante: no sabe guardar un secreto fue publicada originalmente en Xataka por Javier Pastor .

Leer más

Netflix quiere acabar con las cuentas compartidas. Y ya ha empezado a enviar avisos

Netflix quiere acabar con las cuentas compartidas. Y ya ha empezado a enviar avisos

El pasado 8 de febrero Netflix anunciaba el comienzo del fin para las cuentas compartidas "de las de siempre" en el servicio en España. La compañía instaba a los usuarios a adaptarse a la nueva situación, pero no aclaraba cómo actuaría exactamente. Ahora ya sabemos algo más.

Comienzan los avisos. Como habíamos adelantado, si Netflix detecta que un usuario está usando una cuenta de forma no autorizada, primero envía un aviso al correo electrónico o al móvil de la persona propietaria de la cuenta. Como se ve en la imagen, a quien está usando esa cuenta fuera de la ubicación principal (tu casa) le aparece un mensaje en el televisor.

Código de acceso temporal. En ese mensaje se indica que para poder seguir usando Netflix durante otros 14 días desde esa nueva ubicación tendrás que introducir el código temporal que se envía por correo o por mensaje. Es el usuario de la cuenta compartida el que debe elegir si prefiere que se le envíe un mensaje de correo electrónico o un SMS.

Solo una advertencia. Como se puede ver en el mensaje del televisor, el lenguaje es positivo y Netflix reconoce que un usuario simplemente puede estar fuera de casa (por un viaje de trabajo, por ejemplo) y quiere seguir disfrutando de su cuenta. Es interesante comprobar cómo ese código temporal permite que no haya problemas para seguir disfrutando Netflix desde esa otra ubicación durante dos semanas, el plazo que parece establecer la compañía para volver a verificar si está pasando algo raro. El mensaje, eso sí, es distinto del que se vio en Chile hace unos meses.

Nada de bloqueos directos. No hay datos en ese mensaje sobre un potencial bloqueo de la cuenta, y todo apunta a que esos avisos solo se producen si esos usos no autorizados se reiteran y se detecta que efectivamente se están infringiendo los términos de uso del servicio.

¿Cómo lo detectan? Netflix ya reveló que usan la combinación de varios datos para realizar esa detección. La actividad de los dispositivos, la ubicación aproximada basada en la dirección IP desde la que nos conectamos (que se nos asigna al conectarnos a una Wi-Fi o red Ethernet) y los propios identificadores de dispositivo son algunas de las claves para esa detección, aunque la compañía no ha detallado el proceso.

Esto no ha hecho más que empezar. Por ahora solo hemos conocido un aviso de este tipo, pero a buen seguro será uno de los muchos que a partir de ahora el servicio irá dando cuando detecte posibles usos no autorizados. Los códigos temporales son una forma adecuada de verificarlo todo, y ese plazo de 14 días es razonable. Queda por ver qué efecto tiene esto en las cifras de negocio de la compañía y en el número de suscriptores en los próximos meses.

En Xataka | Netflix creció todo lo que pudo siendo amigable. Ahora lo hará siendo implacable

-
La noticia Netflix quiere acabar con las cuentas compartidas. Y ya ha empezado a enviar avisos fue publicada originalmente en Xataka por Javier Pastor .

Leer más

GPT-4 es un salto de nivel brutal respecto a ChatGPT: nueve ejemplos para comprobarlo en persona

GPT-4 es un salto de nivel brutal respecto a ChatGPT: nueve ejemplos para comprobarlo en persona

OpenAI anunciaba ayer el lanzamiento de GPT-4, la nueva y esperada versión de su LLM que tras meses de entrenamiento y pruebas ya está disponible para suscriptores del servicio ChatGPT Plus y que también se está usando en el nuevo Bing con ChatGPT.

Tan solo han pasado unas horas desde ese anuncio, pero ya son muchos los que han estado evaluando sus posibilidades, que también fueron mostradas por los propios ingenieros y desarrolladores de OpenAI.

Los primeros ejemplos de su comportamiento son realmente espectaculares y muestran una evolución notable en algunas de las áreas en las que ChatGPT (basado en GPT-3.5) ya destacaba. GPT-4 supone una evolución importante, pero ojo, el motor de IA sigue estando lejos de ser perfecto.

1️⃣ Multimodal: GPT-4 API can accept images as inputs, can analyze captions and the image. Can understand memes and insider jokes. pic.twitter.com/INLCqJ0l9T

— Leo Rezaei (@theLionary) March 14, 2023

Multimodal (más o menos). Algunos expertos ya habían adelantado que una de las novedades más importantes de GPT-4 sería su comportamiento multimodal, es decir, que aceptaría diversos tipos de entrada, no solo texto. Efectivamente hay cambios al respecto, pero son menos espectaculares de lo que se adelantó, ya que no se acepta el vídeo como entrada.

Captura De Pantalla 2023 03 15 A Las 9 31 41

Ni siquiera tienes que copiar texto: basta con sacar una foto de las páginas PDF de un estudio, y GPT-4 te las resume. Fuente: OpenAI.

¿Qué ves aquí, GPT4? Sí se aceptan imágenes como veremos en el siguiente párrafo, pero de momento esta característica está en desarrollo y no es pública. El motor, eso sí, es capaz de identificar esas imágenes y extraer contexto de ellas para que contribuyan a lo que el usuario quiere obtener de GPT-4. Los ejemplos mostrados en OpenAI eran muy llamativos e incluían cosas como que te explicara un meme o que resumiera tres páginas de una captura de un PDF que habían subido al sistema.

Hazme esta web que te he dibujado. En una de las demos que OpenAI mostró, el nuevo GPT-4 fue capaz de algo realmente asombroso. Se le mostró un boceto muy crudo de una página web que el usuario quería crear con HTML y JS. Con un breve titular y un par de bloques, cada uno con un chiste, sin más. Al decirle que la programara, GPT-4 fue capaz de crear en efecto un boceto básico de esa web y de insertar los chistes en las posiciones indicadas.

Captura De Pantalla 2023 03 15 A Las 9 20 45

GPT-4 puede convertirse en un singular asesor fiscal robótico.

La declaración de Hacienda, también. En otro de los ejemplos, se le introdujeron a GPT-4 los datos ficticios de una pareja que necesitaba saber qué deducciones tenían tras una serie de sucesos. El motor se convirtió en un asesor financiero que era capaz de dar con todo lujo de detalles respuestas a esas preguntas, aunque de nuevo para estas cuestiones es recomendable consultar con un profesional humano. Aún así, pueden servir de valiosa orientación.

I dumped a live Ethereum contract into GPT-4.

In an instant, it highlighted a number of security vulnerabilities and pointed out surface areas where the contract could be exploited. It then verified a specific way I could exploit the contract pic.twitter.com/its5puakUW

— Conor (@jconorgrogan) March 14, 2023

Mucho texto de entrada. En el nuevo modelo es posible introducir un texto largo de hasta 25.000 palabras, algo que permite gestionar muchos más datos de una sola vez para procesarlos y que por ejemplo nos los resuma. Hay quien ya ha publicado un contrato Ethereum en GPT-4 a partir de lo cual el motor fue capaz de detectar ciertas vulnerabilidades. Lo alucinante: esas vulnerabilidades detectadas existían de verdad y fueron expuestas en 2018 tras ser hackeado el contrato.

Captura De Pantalla 2023 03 15 A Las 9 34 10

El diálogo entre este profesor "socrático" y un alumno es igualmente llamativo. Fuente: OpenAI.

Tu profesor personalizado. GPT-4 puede actuar como un profesor que te ayuda a aprender y te anima a pensar dando pistas pero no dándote el resultado. Esta capacidad es precisamente la que están comenzando a aprovechar dos grandes plataformas de aprendizaje. Duolingo ha lanzado una nueva suscripción que da acceso a un "profesor de idiomas potenciado por IA", y Khan Academy ha hecho lo propio para "perfilar el futuro del aprendizaje".

Para frikis de la IA

Pinta que Gpt-4 supera bien los esquemas de Winograd pic.twitter.com/Ek9HNbTQBJ

— Antonio Ortiz (@antonello) March 14, 2023

Turing ya no sirve, Winograd (quizás) tampoco. La capacidad de este nuevo motor pone a prueba a los tests que intentan diferenciar a las máquinas de los humanos. El test de Turing ya estaba en jaque, pero ahora incluso esquemas como el de Winograd, que evalúa la capacidad lógica y de razonamiento de este tipo de sistemas, parecen poder ser superados por GPT-4. El propio informe técnico de GPT-4 habla de ello, y aunque una vez más puede haber usos malévolos, el avance es singular.

GPT-4 does drug discovery.

Give it a currently available drug and it can:

- Find compounds with similar properties
- Modify them to make sure they're not patented
- Purchase them from a supplier (even including sending an email with a purchase order) pic.twitter.com/sWB8HApfgP

— Dan Shipper 📧 (@danshipper) March 14, 2023

Descubre nuevas medicinas. El año pasado la IA de DeepMind ya logró averiguar la estructura de todas las proteínas conocidas por la ciencia, y motores como GPT-4 son desde luego capaces de ayudar en este ámbito y en el descubrimiento de nuevos medicamentos. Evidentemente este tipo de ámbitos es especialmente delicados, pero una vez más la herramienta puede ser muy valiosa en este tipo de investigaciones.

Can GPT-4 code an entire game for you? Yes, yes it can.

Here's how I recreated a Snake game that runs in your browser using Chat GPT-4 and @Replit, with ZERO knowledge of Javascript all in less than 20 mins 🧵 pic.twitter.com/jzQzSRIkfz

— Ammaar Reshi (@ammaar) March 14, 2023

Y por supuesto, programa mejor que nunca. Desde que apareció GitHub CoPilot, la capacidad de estos motores de IA generativa para crear código nos ha asombrado. En la demo de OpenAI el desarrollador creó un bot de Discord en apenas unos minutos, y otro usuario mostraba cómo recreó el célebre Snake sin él saber nada de JavaScript, y lo logró en menos de 20 minutos. Otro hizo lo propio con el mítico Pong... en menos de 60 segundos. El resultado, aquí.

Captura De Pantalla 2023 03 15 A Las 9 59 44

Los juegos de palabras son lo suyo. En OpenAI también mostraron la capacidad de GPT-4 para resolver todo tipo de peticiones relativas a juegos de palabras. Por ejemplo, resumir el argumento de "Cenicienta" en una frase en la que cada palabra tiene que empezar con la siguiente letra del alfabeto sin repetir letras. Alguien poco después hizo algo parecido con el Quijote.

Many nuggets of insights into this GPT 4 paper but this is one of the most compelling - across the board GPT performs poorly at AP English - it’s incapable of abstract creativity. Same with complex leetcode which is ultimately an abstraction codified.

Humans aren’t replaceable pic.twitter.com/EamUdLmA0m

[email protected] (@ruchowdh) March 14, 2023

Sigue cometiendo errores. OpenAI ha tratado de pulir el modelo y sus responsables afirman que por ejemplo tiene un 40% de probabilidad de dar respuestas más verídicas que GPT-3.5 a nuestras peticiones, pero eso no significa que no se equivoque o que no pueda "alucinar" como las anteriores versiones.

Como han demostrado quienes han empezado a usarlo, sigue inventando con convicción, y una vez más conviene repasar las respuestas y no fiarnos al completo de lo que nos dice. Algunos usuarios mostraron también cómo su creatividad abstracta en inglés o su capacidad para enfrentarse a entrevistas técnicas tenía aún mucho margen de mejora.

Seis veces más caro. La otra novedad de este modelo es que su uso supone un coste muy superior al de su predecesor: GPT-4 es hasta seis veces más caro que GPT-3.5, aunque su soporte de contexto es mucho mayor también. Hay que destacar que GPT-3 era de hecho entre 10 y 20 veces más caro hace dos años, así que aunque este precio parece elevado ahora, es probable que con el tiempo se reduzca. También aparecerán nuevos modelos mejores y que una vez más serán más caros que sus predecesores, pero es algo esperable.

Imagen: Imagen con el boceto de una web que GPT-4 programó. Fuente: OpenAI

En Xataka | Estas son las "leyes de la robótica" del nuevo Bing con ChatGPT: un usuario las obtiene con un ingenioso 'prompt'

-
La noticia GPT-4 es un salto de nivel brutal respecto a ChatGPT: nueve ejemplos para comprobarlo en persona fue publicada originalmente en Xataka por Javier Pastor .

Leer más

La última filtración del Pixel 7a lo revela casi todo. Tenemos buenas noticias y después más buenas noticias

La última filtración del Pixel 7a lo revela casi todo. Tenemos buenas noticias y después más buenas noticias

El año pasado el Google Pixel 6a ya se convirtió en toda una garantía para los que buscaban la mejor relación entre precio y prestaciones, y en pocas semanas está previsto que conozcamos a su sucesor, el Pixel 7a. Estos días se ha filtrado su aspecto y algunas de sus especificaciones en la web vietnamita Zing News, y todo lo que se ha revelado es prometedor.

Más herzios. Se espera que el Pixel 7a mantenga el formato de su predecesor en cuanto a diagonal de pantalla. Así pues, contaremos previsiblemente con una pantalla de 6,1 pulgadas que, eso sí, soportará una frecuencia de refresco de 90 Hz. El Pixel 6a sólo soportaba 60 Hz de forma nativa —es posible "desbloquear" esa opción—, así que esta es una primera mejora importante.

Un chip de garantías. El móvil estará previsiblemente gobernado por el Tensor G2, el SoC de Google que llegaba con mejoras importantes en procesamiento de tareas de IA. Este chip fabricado con fotolitografía de 4 nm ha demostrado su capacidad en los Pixel 7 y Pixel 7 Pro aunque de nuevo su objetivo, como ocurrió con el Tensor G1, no es ganar benchmarks de rendimiento.

Más memoria. Se espera además que cuente con 8 GB de memoria LPDDR5 —más margen de maniobra en todos los escenarios— frente a los 6 GB del Pixel 6a, mientras que el almacenamiento se mantiene en los 128 GB. Sería fantástico contar con una opción con mayor capacidad, pero de momento esa es la versión que se ha revelado y no sería extraño que Google reservase esa opción para sus modelos más ambiciosos.

Captura De Pantalla 2023 03 14 A Las 8 38 47

Cámaras. En la filtración se habla de que el Pixel 7a contará con dos sensores de 12 MP tanto para la cámara principal como para el ultra gran angular (nada de telefoto). Sin embargo, otros rumores hablan de que habrá novedades para el sensor principal, que podría pasar a ser el Sony IMX787 de 64 MP que por ejemplo apareció en los Nubia Z50. La frontal teóricamente será idéntica a la de los Pixel 7/Pro, con un sensor de 10,8 MP.

Carga inalámbrica. Una de las novedades más llamativas de esta versión es el soporte de carga inalámbrica, una opción que no está disponible en los Pixel 6a. Será una opción bastante limitada, ya que se habla de que solo se podrá ofrecer esta carga inalámbrica a 5 W, pero aún así es una excelente noticia para quienes echaban en falta esa característica.

Cristal por doquier. El diseño del Pixel 7a estará protagonizado por el cristal salvo por los marcos laterales, construidos con metal. Habrá una sola ranura SIM, pero los rumores apuntan a que en Google ofrecerán además soporte eSIM. El diseño copiará el de los actuales Pixel 7 y la característica barra trasera con los sensores como protagonistas.

Disponibilidad y precio. Se espera que el nuevo Pixel 7a sea anunciado en el Google I/O que tendrá lugar el próximo 10 de mayo aunque su disponibilidad podría retrasarse al verano. Ocurrió con el Pixel 6a, que se anunció el pasado 11 de mayo de 2022 pero no estuvo en tiendas hasta el 21 de julio de ese año. En cuanto al precio, se espera que Google mantenga el precio de partida del modelo anterior, que se situó en 449 euros.

Imagen: Zing News

En Xataka | Soy fotógrafo y acabo de comprarme un Google Pixel 6a después de tener un iPhone 13

-
La noticia La última filtración del Pixel 7a lo revela casi todo. Tenemos buenas noticias y después más buenas noticias fue publicada originalmente en Xataka por Javier Pastor .

Leer más

“Hijo, ¿por qué tienes dos calculadoras en tu móvil?”: así funcionan las apps de bóveda para saltar el control parental

Cada vez más niños tienen móvil a edades tempranas, y cada vez más padres se dan cuenta de lo complejo que es tratar de controlar ese uso. Los controles parentales de iOS y Android ayudan, pero hace tiempo que los pequeños logran saltarse a la torera esas limitaciones. ¿Cómo? Veámoslo.

Apliacciones de bóveda. Como indican en elDiario.es, hay un método que se ha vuelto viral entre los más jóvenes a la hora de saltarse los controles parentales. Se trata de usar aplicaciones ocultas, también llamadas aplicaciones de bóveda (vault apps). Llevan años disponibles, pero ahora han vuelto a ponerse de moda. Con ellas es posible esconder fotos, ficheros e incluso otras aplicaciones, y precisamente a través de ellas los niños son capaces de saltarse los controles parentales.

Captura De Pantalla 2023 03 13 A Las 15 57 41

Una simple búsqueda en Google Play muestra cómo hay diversas opciones de aplicaciones que ocultan datos bajo la apariencia de una inocua calculadora.

Las otras calculadoras. Esas aplicaciones de bóveda normalmente adoptan la forma de una aplicación normal, como una simple calculadora. Tienen un icono de calculadora y al ejecutarlas ofrecen esas prestaciones, pero si el usuario marca una secuencia de dígitos específica, la "bóveda" da paso a ese escritorio oculto con otras aplicaciones y ficheros que no están a la vista.

TikTok disfrazado de calculadora. Así, al activar ese modo secreto de operación, el usuario puede acceder a esos otros contenidos que no están a la vista habitualmente, pero además es capaz de utilizar aplicaciones que se escapan del control parental porque para estas herramientas lo que uno está usando es, sencillamente, la calculadora. 

De hecho, el usuario podría estar usando TikTok o un navegador para acceder a contenidos para adultos sin que sus padres se estuvieran enterando. Cualquier aplicación oculta instalada en la bóveda queda disfrazada de actividad en la calculadora, sin más. Hay quienes usan estas aplicaciones en otros escenarios igualmente delicados, por supuesto.

Peligros por doquier. El uso de estas herramientas puede ser adecuado para personas que efectivamente necesiten ocultar ciertos datos en sus dispositivos, pero representan un riesgo para los menores. El motivo es claro: sin los controles parentales y sin esa supervisión que ofrecen a los padres, los niños y jóvenes están mucho más expuestos a los peligros de internet.

Cómo detectar estas app de bóveda. Al ser una puerta a ficheros, fotos, vídeos y otras aplicaciones, una de las formas más fáciles de detectar estas aplicaciones es comprobar cuánto espacio están ocupando en el almacenamiento del móvil: una app de calculadora suele "pesar" menos de un megabyte, y esas aplicaciones de bóveda pueden "pesar" fácilmente decenas o incluso cientos de MB.

Una práctica vieja... Este tipo de aplicaciones existen desde hace años. Ya en 2015 se advertía de los problemas que dichas apps —que se habían vuelto virales entre los adolescentes— podrían plantear a los padres. Apple incluso llegó a eliminar una de ellas, llamada "Calculator%", tras exponerse sus riesgos en una investigación de la policía británica.

... que se vuelve nueva. Ahora estas herramientas se han vuelto a poner de moda gracias a los vídeos que aparecen en redes sociales como TikTok. Ese tipo de publicaciones han logrado que estas apps de bóveda sean conocidas entre niños y adolescentes, que logran así poder ocultar fotos, vídeos, datos y otras aplicaciones a sus padres.

Imagen: Paul Hanaoka

En Xataka | El problema de las contraseñas débiles es de los usuarios, la culpa, de las empresas

-
La noticia "Hijo, ¿por qué tienes dos calculadoras en tu móvil?": así funcionan las apps de bóveda para saltar el control parental fue publicada originalmente en Xataka por Javier Pastor .

Leer más

Cómo sobrevivir a una bomba atómica (y por qué es mejor no salir corriendo tras la explosión)

Cómo sobrevivir a una bomba atómica (y por qué es mejor no salir corriendo tras la explosión)

Hoy en día hay diez países que han probado armas nucleares, y cinco de ellos están considerados como “estados nuclearmente armados”. El miedo a un potencial ataque nuclear con una bomba atómica sigue existiendo, en especial tras los acontecimientos de la Guerra de Ucrania y las recientes decisiones de Rusia. Las consecuencias que un nuevo Hiroshima podrían tener son desde luego devastadoras.

Aún con su enorme potencial destructivo, es posible salvarse de la explosión de una bomba atómica. Si no hemos muerto tras la explosión inicial, lo que hagamos en los primeros minutos y horas puede determinar nuestra supervivencia.


Leer más

El drama de HP y sus impresoras: su última actualización las bloquea si no se utilizan cartuchos oficiales

El drama de HP y sus impresoras: su última actualización las bloquea si no se utilizan cartuchos oficiales

Los fabricantes de impresoras llevan años usando técnicas discutibles para evitar o minimizar que en sus máquinas se usen otros cartuchos y otra tinta que no sean los que venden ellos mismos. Eso ha provocado muchas quejas, críticas y demandas legales en el pasado, pero esa batalla es constante y usar cartuchos de tinta compatibles sigue siendo una odisea. El último capítulo de este culebrón lo protagoniza HP.

Qué ha pasado. Estos días un hilo en Reddit ha sido espectacularmente viral al revelar cómo una actualización del firmware de algunas impresoras de HP ha provocado un mensaje preocupante para quienes usaban cartuchos compatibles. En él se indica que "Se ha detectado un chip que no es de HP" y se bloquea la impresora, que no se podrá utilizar salvo que se utilicen cartuchos nuevos o reutilizados, pero siempre oficiales de HP. La queja también ha aparecido en el foro de soporte de HP.

HP ante la polémica. En marzo de 2016 HP lanzó una actualización para sus impresoras que parecía normal. Seis meses después, el caos: multitud de usuarios que estaban usando cartuchos compatibles en ellas vieron cómo ya no podían hacerlo y solo podían utilizar cartuchos oficiales. 

Cory Doctorow, muy conocido por su labor en la Electronic Frontier Foundation, escribía entonces una carta dirigida al CEO de HP para pedirle que diera marcha atrás en esa medida. La empresa acabó dando marcha atrás, y se llevó una multa de 1,5 millones de dólares en Estados Unidos, mientras que en Europa este caso, llamado 'PrinterGate' también provocó sanciones.

Qué dicen las leyes. En Estados Unidos la Sección 1201 de la Digital Millenium Copyright Act de 1998. Según esa normativa y como explicaba Doctorow en esa carta, en la mayoría de los casos "es ilegal, y potencialmente un delito, eludir las medidas que controlan el acceso a obras protegidas por derechos de autor". Eso es: impedir que otros fabricantes vendan cartuchos compatibles y que los usuarios los puedan usar puede ser considerado delito porque según la DMCA va más allá de la protección de las obras protegidas por derechos de autor.

No solo es HP. Aquí hay que destacar nuevamente que este último episodio es tan solo otro de una larga lista de discutibles medidas que todos los fabricantes de impresoras han intentado activar desde hace dos décadas. Lexmark demandó a un fabricante de cartuchos llamado Static Control en 2002 e inició una era de escándalos en las que Epson —y sus célebres cartuchos medio llenos— o mucho más recientemente Canon —que ataca a vendedores en Amazon— siguen luchando para proteger sus negocios de formas polémicas y, según la EFF, anticompetitivas.

¿Puedo usar cartuchos compatibles o no? La citada DMCA y anteriores sentencias tanto en Estados Unidos como en Europa apoyan a los consumidores y a los fabricantes de cartuchos compatibles. Como explican algunos expertos, los fabricantes a menudo utilizan mensajes de advertencia y recomendaciones para usar cartuchos oficiales en el software de gestión de la impresora pero no prohibiciones explícitas o bloqueos como el denunciado en Reddit. Sin embargo, teóricamente los mensajes son solo eso, y deberían poder ser "ignorados" para poder seguir utilizando esos cartuchos compatibles bajo responsabilidad del usuario.

Alcance de la medida. No está claro de momento a qué modelos de impresora afecta esa actualización y si esta se ha realizado solo en EEUU o a nivel global. El usuario que inició el hilo —que escribía desde el Reino Unido— explicaba que en el servicio técnico le indicaron que se trataba "de una actualización reciente que están distribuyendo a todas sus impresoras", y que no podían eliminar dicha actualización.

Qué dice HP. En Xataka nos hemos puesto en contacto con HP para verificar el problema y conocer más detalles sobre el mismo en caso de existir realmente. De momento no hemos recibido respuesta, pero actualizaremos esta noticia si lo hacemos.

-
La noticia El drama de HP y sus impresoras: su última actualización las bloquea si no se utilizan cartuchos oficiales fue publicada originalmente en Xataka por Javier Pastor .

Leer más

Google lanza PaLM-E, un modelo de IA para que tu robot te alcance las patatas fritas (entre otras muchas cosas)

Google lanza PaLM-E, un modelo de IA para que tu robot te alcance las patatas fritas (entre otras muchas cosas)

Inmersos como estamos en la vorágine de aplicaciones prácticas de la inteligencia artificial, llega lo nuevo de Google. Puede que la empresa siga sin sacar rival para ChatGPT, pero acaba de desvelar un nuevo modelo de lenguaje visual (VLM) al que ha llamado PaLM-E y que está pensado para dar nuevas capacidades a los robots del futuro.

PaLM-E. Este modelo es especialmente sorprendente porque va un paso más allá de lo que logran motores como ChatGPT. No solo comprende nuestra petición, sino que la usa para que un robot ejecute ciertas acciones relacionadas con esa petición.

Tráme las patatas fritas del cajón. En su demostración Google mostró cómo al darle esa orden a un robot en una cocina, PaLM-E fue capaz de generar un plan de acción para que un robot desarrollado por Google Robotics fuera capaz de ejecutar esas acciones por sí mismo.

V de visual. El modelo VLM (Visual-Language Model) se alimenta de 562.000 millones de parámetros e integra tanto la visión como el lenguaje para ese control robótico. Una cámara recolecta datos que el sistema analiza sin que se necesite preprocesar la localización. Eso permite evitar pasos previos y que el control robótico sea mucho más autónomo. El modelo es una iteración de PaLM, del que Google ya nos habló hace un año que se combina con el trabajo previo en el modelo llamado ViT-22B.

Poniéndoselo difícil al robot. Este sistema de IA permite incluso que el robot se adapte y supere obstáculos. En el vídeo se puede ver cómo uno de los investigadores cambiaba la posición de la bolsa de patatas una vez el robot la tenía preparada. Tras unos instantes, el robot reconocía la situación y volvía a cogerla para acabar completando la tarea.

Transferencia positiva. Los investigadores observaron además efectos llamativos de este trabajo, como la llamada "transferencia positiva" en la cual el conocimiento adquirido al realizar una tarea se transfiere en otra. El robot aprende con la experiencia, y la aplica para tareas posteriores como también hacemos los humanos.

Nuevas opciones para la automatización. Este modelo —Microsoft avanza también en este segmento con su "ChatGPT for Robotics"— demuestra cómo los avances que se están produciendo en los últimos meses pueden tener un impacto real (y muy práctico) en futuros robots autónomos que aprenden, se adaptan y logran completar tareas a partir del lenguaje natural.

-
La noticia Google lanza PaLM-E, un modelo de IA para que tu robot te alcance las patatas fritas (entre otras muchas cosas) fue publicada originalmente en Xataka por Javier Pastor .

Leer más

“Hola, soy tu nieto y necesito 3.000 dólares”: ya hay estafas a ancianos con voces generadas por IA

Ruth Card, de 73 años, recibió una llamada de su nieto Brandon. O eso creyó ella, porque la voz que sonaba al otro lado del teléfono era exacta a la de su nieto. "Abuela, estoy en la cárcel, sin cartera, sin teléfono", le contó esa voz, agobiada más o menos con esas palabras. "Necesito dinero para la fianza".

Ruth y su marido se fueron sin pensarlo al banco a sacar 3.000 dólares canadienses y al intentar hacer lo mismo en otra oficina, el director del banco detectó que algo raro pasaba y habló con ellos: otro cliente había pasado por lo mismo y se había dado cuenta de que la voz que sonaba al otro lado no era de quien se suponía que era. Era una voz generada por un sistema de inteligencia artificial. Un deepfake de audio.

Lo contaban en The Washington Post y advertían de una nueva oleada de fraudes en los que las voces generadas por IA sirven para engañar y timar a todo tipo de personas, a menudo los mayores de edad. Simular que sus familiares están en problemas suele funcionar para esas víctimas.

Datos de la FTC revelan que en 2022 este tipo de fraudes en los que alguien suplanta la identidad de otra persona fueron los segundos más frecuentes, con más de 36.000 denuncias de gente que fue engañada (o casi) por otros que simulaban ser amigos o familiares. Las grandes estafas con este tipo de sistema están a la orden del día: a finales de 2021 alguien logró robar 35 millones de dólares a un banco usando esta tecnología.

Con la nueva generación de motores de IA que son capaces de emular cualquier voz humana a través de un pequeño entrenamiento —Microsoft presentaba el potente VALL-E hace apenas unas semanas—, las cosas se han puesto aún peor. En todos los casos el sistema es esencialmente el mismo: un impostor suplanta la identidad de alguien de confianza —un niño, un amante, un amigo— y convence a la víctima de que envíe dinero porque está en un problema importante.

El factor fundamental aquí es que esa suplantación de identidad es mucho más convincente cuando oyes cómo la voz de esa persona te habla de ese problema. Es una voz imitada artificialmente, pero los avances en IA —este tipo de sistemas llevan años desarrollándose— hacen que sea difícil distinguirla, sobre todo cuando quien recibe la llamada lo hace con ese tono de urgencia y preocupación. Y para personas mayores, menos conocedoras de estos avances o de lo que es capaz de hacer esta tecnología, eso se convierte en una amenaza muy real.

Las voces ni siquiera se necesitan tomar de alguien de forma voluntaria: basta un vídeo de YouTube, un podcast o un clip en TikTok, Instagram o Facebook para acabar generando una voz artificial sorprendentemente creíble. A partir de ahí, el ciberdelincuente puede decir lo que quiera con esa voz.

Perseguir a estos estafadores es especialmente difícil. Will Maxson, de la división de marketing de la FTC, explicaba que esos delincuentes pueden usar un teléfono en cualquier parte del mundo y eso complica asuntos como las jurisdicciones sobre cada caso particular.

El consejo de este organismo es claro: si recibes una llamada de alguien querido que te pide dinero con urgencia, trata de poner esa llamada en espera e intenta llamar a esa persona por separado. El número puede parecer suyo, pero los estafadores pueden haberlo suplantado también.

Jamás se debe dar dinero en forma de tarjetas regalo porque son difíciles de monitorizar, y desde luego hay que estar muy atento y no atenter a esas peticiones de dinero que sobre todo se suelen pedir con urgencia.

Imagen: Javier Pastor con DALL-E 2

-
La noticia "Hola, soy tu nieto y necesito 3.000 dólares": ya hay estafas a ancianos con voces generadas por IA fue publicada originalmente en Xataka por Javier Pastor .

Leer más