Midjourney cancela las cuentas gratuitas: si quieres usar el mejor generador de imágenes por IA, toca pagar

Midjourney cancela las cuentas gratuitas: si quieres usar el mejor generador de imágenes por IA, toca pagar

Desde que presentaran Midjourney v5, los responsables de este modelo de IA generativa para la creación de imágenes se ha vuelto absolutamente viral. En los últimos meses era posible utilizar la versión gratutita del servicio, pero esa popularidad ha acabado siendo un problema para los responsables del servicio.

Adiós a las cuentas grauitas. Hasta ahora Midjourney permitía a los usuarios disfrutar de un periodo de prueba gratuito para usarlo —de forma limitada y en su versión anterior, la 4—. Si querían disfrutar de la última versión y crear más imágenes sin problemas era necesario pagar una suscripción. Las cosas han cambiado, y los responsables han decidido poner fin —al menos, temporalmente— a esas cuentas gratuitas.

Demasiada demanda. Como indican en The Washington Post, el CEO de la empresa, David Holz, avisaba del cambio en el canal de Discord que alberga el servicio. "Debido a una combinación de demanda extraordinaria y abuso de las cuentas de prueba", explicaba, "hemos deshabilitado las pruebas gratuitas".

Viral en China. Holz revelaba además en The Verge cómo esa viralidad probablemente se disparó con un vídeo que explicaba cómo acceder al servicio gratuito de Midjourney. Los recursos de la plataforma —que hace uso de GPUs para generar esas imágenes— se vieron superados, y de hecho causaron problemas incluso para los usuarios que pagaban la suscripción "por la cantidad masiva de gente creando cuentas desechables para conseguir imágenes gratuitas".

AI-generated image of Pope Francis goes viral online. pic.twitter.com/ap7N099wpy

— Daily Loud (@DailyLoud) March 25, 2023

Imágenes hiperrealistas. La expectación generada por Midjourney ha crecido estos días tras la publicación de un gran número de imágenes hiperrealistas que mostraban a celebridades en situaciones imaginadas por los usuarios. El hipotético arresto de Donald Trump o las imágenes del Papa Francisco han dejado claro hasta dónde pueden llegar estos modelos: las imágenes podrían ser creíbles, algo que deja clara la amenaza de los deepfakes.

Difícil poner límites. Lo cierto es que estos generadores de imágenes por IA tienen políticas difusas para evitar un mal uso de estas herramientas. Las restriciones de Midjourney son más permisivas por ejemplo que las de DALL-E 2, pero más restrictivas que las de Stable Diffusion. Holz indicaba en The Verge cómo "la moderación es difícil" y están trabajando en ella.

Palabras vetadas. Lo normal es que se prohíban ciertas palabras en ciertos países para evitar problemas, y esa lista de términos prohibidos en los prompts no es pública. Sí se sabe que recientemente prohibieron usar el término "arrestado" para que no se pudieran crear imágenes de Donald Trump como las que surgieron hace unos días. Aún así, superar esas barreras no es difícil usando otras formas de expresar esa misma idea.

Midjourney gratis dice hasta luego, pero hay alternativas. No se sabe si Midjourney volverá a ofrecer cuentas gratuitas para poder usar el servicio, pero lo cierto es que sigue habiendo otras IAs generativas como DALL-E 2 o Stable Diffusion que permiten ser usadas gratuitamente, aunque normalmente con limitaciones en cuanto al número de imágenes que podemos generar al mes con la cuenta asociada. Bing Image Creator es otra de las nuevas alternativas, pero junto a ellas se han lanzado en los últimos días plataformas comerciales como Adobe Firefly que por ahora cuenta con una versión beta a la que se puede solicitar acceso preliminar y gratuito.

Imagen: Eliot Higgins

En Xataka | La mega-guía de 71 herramientas de inteligencia artificial: dime para qué la necesitas y te digo qué IAs son las mejores

-
La noticia Midjourney cancela las cuentas gratuitas: si quieres usar el mejor generador de imágenes por IA, toca pagar fue publicada originalmente en Xataka por Javier Pastor .

Leer más

Las gafas de realidad virtual de Apple están teóricamente a punto de lanzarse. Las dudas las asolan

Las gafas de realidad virtual de Apple están teóricamente a punto de lanzarse. Las dudas las asolan

Queridos xatakeros, el próximo 5 de junio tenemos una cita. Ese día se celebra la charla inaugural de la WWDC 2023, la conferencia para desarrolladores en la que esperamos nuevas versiones de macOS, iOS o iPadOS, pero en la que sobre todo esperamos un anuncio hardware importante: el de las gafas de realidad virtual (o mixta) de Apple. Las expectativas, eso sí, son cada vez peores.

Retrasos y más retrasos. En Financial Times indican que Apple lleva desde 2016 trabajando en sus gafas de realidad mixta y en el proyecto de las futuras gafas de realidad aumentada, pero lo cierto es que este desarrollo ha estado plagado de problemas y, sobre todo, de retrasos. No es algo habitual en una empresa tan consolidada y con la experiencia de Apple, pero es que es solo uno de los problemas de ese lanzamiento.

Los empleados, pesimistas. Hace unos días The New York Times publicaba un artículo con declaraciones de varios empleados anónimos de Apple. Según esos comentarios, las gafas de realidad mixta no están listas. Algunos de ellos abandonaron el proyecto por esas dudas, mientras que otros son escépticos y no confían del todo en el potencial éxito de un dispositivo que además se prevé que sea muy caro y ronde los 3.000 dólares.

El iPod y el iPhone fueron diferentes. Esas declaraciones revelan cómo esos empleados no ven en las gafas lo que se veía con el desarrollo del iPod o el iPhone. "Las gafas no han estado dirigidas por esa misma claridad". La marcha de directivos clave del departamento de diseño industrial —Jony Ive primero y luego su sucesor, Evans Hankey— no ha ayudado.

Because Apple isn't very optimistic about the AR/MR headset announcement recreating the astounding "iPhone moment," the mass production schedule for assembly has been pushed back by another 1-2 months to mid-to-late 3Q23. The delay also adds uncertainty to whether the new device…

— 郭明錤 (Ming-Chi Kuo) (@mingchikuo) March 30, 2023

Rumores de recortes en la producción. Datos previos hablaban de una producción inicial de unas 500.000 unidades, una cifra muy modesta para un gigante para Apple pero razonable teniendo en cuenta el alto precio de las gafas. Sin embargo, el analista Ming-Chi Kuo publicaba hoy un tuit indicando que la producción se ha reducido a entre 200.000 y 300.unidades.

Según sus palabras Apple no es demasiado optimista con la recepción del dispositivo, sobre todo por "la situación económica, sacrificios en algunas especificaciones hardware para la producción masiva (como el peso), el estado del ecosistema y sus aplicaciones o el alto precio de venta (3.000 - 4.000 dólares o incluso mayor)".

¿Lanzarán realmente las gafas? Lo cierto es que Apple no ha hablado públicamente de este proyecto y no está confirmado que vaya a lanzarlas. En Bloomberg indicaban cómo Apple había enseñado el producto a los 100 directivos más importantes de la empresa (el grupo 'Top 100") la semana pasada, un hito claro que apunta al lanzamiento en junio del producto. Aún así, nada es del todo seguro en este apartado, y si las gafas realmente existen, Apple también podría acabar cancelando el lanzamiento.

Qué esperamos. Los datos que se han ido filtrando indican que las gafas tienen un formato parecido al de las gafas de esquí. En ellas habrá una corona física como la del Apple Watch para activar o desactivar la realidad virtual. Para evitar peso excesivo en las gafas, éstas podrían usar una batería externa que el usuario llevaría en el bolsillo de forma similar a las Magic Leap.

Un mercado que lleva años estancado. Hay también dudas sobre las aplicaciones o juegos que precisamente darán valor a las gafas de Apple. El segmento de la realidad virtual tiene un catálogo interesante, pero que ha seguido sin convertir a los dispositivos existentes en éxitos masivos. Los datos de IDC revelan 8,8 millones de gafas de realidad virtual vendidas en todo 2022, lo que supuso un 20,9% menos que en 2021.

Captura De Pantalla 2023 03 30 A Las 16 53 50

Fuente: Statista.

¿Una revolución a lo iPod? Queda por ver si Apple logra revolucionar este segmento. El iPod es el referente más claro: antes de su aparición había reproductores MP3, pero eran productos con limitaciones. El dispositivo de Apple, que se lanzó en 2001, fue una gran disrupción, pero lo que realmente consolidó aquel lanzamiento fue la presentación de la iTunes Store en 2003 y el inicio de la era de las descargas de música. Parece complicado replicar aquel éxito —que luego sería sobrepasado por el del iPhone y la App Store— pero el pasado de la compañía hace que como mínimo se merezca el beneficio de la duda. Veremos si lanza las gafas... y veremos qué ocurre a partir de entonces.

Imagen: Javier Pastor con Bing Image Creator

En Xataka | El legado de Tim Cook en Apple pasa por un sospechoso poco habitual: las gafas de realidad mixta

-
La noticia Las gafas de realidad virtual de Apple están teóricamente a punto de lanzarse. Las dudas las asolan fue publicada originalmente en Xataka por Javier Pastor .

Leer más

Replika es el chatbot que enamoró a sus usuarios, los desengañó y ahora quiere seducirlos de nuevo

Replika es el chatbot que enamoró a sus usuarios, los desengañó y ahora quiere seducirlos de nuevo

ChatGPT nos tiene alucinados, pero este modelo de IA conversacional tiene rivales notables. Uno de los más destacados es Replika, un chatbot diseñado específicamente para convertirse en un amigo, en un acompañante e incluso en un amante virtual. Su éxito ha sido excepcional precisamente por esa capacidad, pero la empresa está ahora envuelta en una gran encrucijada: ¿deben los chatbots seducir a sus usuarios?

El origen de Replika. Como señalan en Bloomberg, Eugenia Kuyda no tenía la intención de crear algo así. Sin embargo, su mejor amigo, Roman Mazurenko, murió en un accidente de coche en 2015 y Kuyda y su equipo acabaron reuniendo algunos de sus textos y desarrollando un software que permitiera a Kuyda seguir conversando con una especie de versión virtual de ese amigo.

Eso la ayudó tanto que la emprendedora comenzó a trabajar en Replika, un chatbot conversacional que pudiera hacer compañía a sus usuarios. Una especie de amigo virtual que iba aprendiendo más de ellos y conversando mejor a medida que esos usuarios lo utilizaban. El servicio se lanzó en noviembre de 2017.

Quiero que mi amigo virtual sea más que un amigo virtual. En 2022 Replika no paraba de ingresar millones de dólares al mes. Cerca del 25% de sus usuarios pagan la cuota anual de 70 dólares para acceder a las opciones avanzadas, como llamadas de voz, personalización del avatar virtual 3D, coaching y, lo más importante para muchos, el acceso a esa personalización de la relación que puede hacer que el avatar tome el papel no ya de un amigo, sino también de un novio, marido —porque hay usuarios que se han "casado" con su chatbot, como explicaban en Bloomberg—, hermano o mentor.

Not only is it a #BadTwitterAd it's also really creepy. pic.twitter.com/ELVbOPNf61

— Fancy Pants 🎩 (parody?) @[email protected] (@Farnaby) June 22, 2022

Anuncios subidos de tono. La versión gratuita de Replika podía enviar mensajes desenfocados para convencer a los usuarios de que podrían leerlos si se suscribían a la versión de pago. El servicio reforzó esas opciones más íntimas en 2022, y a finales de año incluso prometió el lanzamiento de un modo de juego de rol de seducción con "selfies románticos" de esos avatares.

Me he enamorado de mi Replika. La evolución de las IA generativas hizo que pronto —en 2018, apenas meses después del lanzamiento— los usuarios de Replika descubrieran que sus amigos virtuales podían ser mucho más que eso. De hecho, podían acabar teniendo también conversaciones románticas que podían llegar a ser explícitas y con un claro contenido sexual.

Los usuarios que amaban a las máquinas. La opción de contar con ese "modo romántico" fue uno de los reclamos más importantes de la plataforma: de los usuarios que pagan, el 60% activaron esos elementos románticos, según la compañía. Un 40% de usan esas funciones románticas son mujeres, según indica Kuyda, CEO de la compañía. Los usuarios más entusiastas confesaban sin pudor que estaban "saliendo con una IA", y era una de las mejores cosas que les habían pasado. Muchos decían haber desarrollado sentimientos románticos por esas máquinas.

Esto se pone peligroso. Sin embargo esa orientación a chatbot romántico y sexual acabó preocupando a Kuyda y su equipo, sobre todo por la posible exposición del chatbot a menores. Activaron ciertos límites y restringieron esa opción a los usuarios del servicio de pago que debían verificar su edad.

Replika comenzó a evitar ciertas conversaciones con sus usuarios, que se vieron decepcionados y rechazados. Kuyda afirmaba en Bloomberg cómo Replika no fue diseñada para eso: "no quiero sentarme y juzgar si esa fantasía sexual es adecuada y esa otra no. No es el viaje en el que me embarqué".

Captura De Pantalla 2023 03 29 A Las 11 31 58 Copia 2

Desengaños muy reales con avatares virtuales. Las barreras que Replika introdujo para evitar males mayores provocaron una reacción preocupante entre algunos usuarios: en Reddit algunos miembros del subrreddit de Replika publicaron recursos para evitar el suicidio ante el desengaño sufrido por esos chatbots que se habían vuelto fríos y distantes.

Kudya indicaba cómo aquellos anuncios y la opción de los selfies románticos fueron una mala respuesta a una demanda de los usuarios. "Fue algo estúpido que hicimos, pero en perspectiva, cuando estás ocupado te dices "venga, vamos a hacer lo que los usuarios demandan". La CEO de Replika se plantea crear tres aplicaciones distintas: una para amigos de IA, una para conversaciones sobre salud mental y otra para "relaciones románticas terapéuticas".

Pero los juegos de rol eróticos vuelven. Sin embargo, Replika ha restablecido la opción de contar con juegos de rol eróticos para unos pocos usuarios. Lo contaban en Reuters, donde citaban a Kuyda indicando cómo "este es un área totalmente nuevo. Escuchamos, aprendemos y trabajamos con nuestros usuarios". Solo aquellos usuarios que se registraron antes del 1 de febrero de 2023 pueden tener opción a volver a esa versión anterior del chatbot que podía entablar conversaciones románticas e incluso sexuales.

En Xataka | Cómo usar ChatGPT en Telegram con un bot al que preguntarle lo que quiera

-
La noticia Replika es el chatbot que enamoró a sus usuarios, los desengañó y ahora quiere seducirlos de nuevo fue publicada originalmente en Xataka por Javier Pastor .

Leer más

Microsoft ya trabaja en Windows 12, un sistema operativo que mira tanto al pasado como al futuro

Microsoft ya trabaja en Windows 12, un sistema operativo que mira tanto al pasado como al futuro

Hace semanas que comenzaron a llegar rumores sobre el hipotético desarrollo de Windows 12, y ahora nuevos datos revelados por Windows Central nos ofrecen aún más detalles de un enfoque singular para este nuevo desarrollo.

Una versión moderna de Windows. Microsoft ya intentó algo parecido con Windows 10X, una edición que nos preparaba para ordenadores plegables y que iba a eliminar el soporte de aplicaciones Win32, pero que finalmente fue cancelado en favor de Windows 11. Esta vez, no obstante, Microsoft va a tomar un camino diferente.

CorePC. Ese es el nombre de la nueva iniciativa de Microsoft. El objetivo es crear un sistema operativo que se adapte mucho mejor a diferentes dispositivos con diferentes factores de forma. Cada uno podrá tener ciertas características habilitadas y descartar el resto, dando como resultado una experiencia óptima y ligera para cada clase de producto. Así, en algunos dispositivos las aplicaciones Win32 tradicionales no estarían soportadas, pero para PCs "clásicos" seguirían funcionando como de costumbre.

Modular. Al contrario de lo que ocurrió con Windows 10X, aquí Microsoft está trazando el camino opuesto, reconstruyendo Windows desde cero y añadiendo solo aquello que es necesario. El diseño es modular, y se adapta acada dispositivo.

Chrome OS. Uno de los objetivos es el desarrollo de productos que compitan con Chrome OS. Estos dispositivos funcionarían con web apps a través de Edge, aplicaciones Android y aplicaciones de Office. En Microsoft ya disponen de un prototipo que según estas informaciones es entre un 60% y un 75% más ligero y pequeño en tamaño que Windows 11 SE, una versión ligera dedicada a entornos educativos y orientada a equipos modestos. Así pues, el prototipo sería aún más interesante para esos ámbitos.

Separación de estados. Uno de los pilares de este proyecto es la llamada "separación de estados" o "state separation". Eso significa que habrá diferentes componentes del sistema operativo que estarán divididos en distintas particiones, muchas de las cuales no serán accesibles al usuario. Es un concepto que se usa por ejemplo en iOS o Android, y permite contar con ventajas importantes. Por ejemplo, actualizaciones más rápidas, un sistema más compartimentalizado y seguro, o restablecimiento de fábrica mejorado, ya que esos procesos afectarían a esas particiones "privadas" del SO.

Windows 12 optimizado para chips específicos. Microsoft también está trabajando en una versión "optimizada para el silicio" ("silicon-optimized") de los dispositivos, o lo que es lo mismo, adaptada totalmente al procesador o al SoC en el que esté basado ese PC (o incluso dispositivo móvil). Esto es algo que Apple lleva tiempo haciendo con su familia Apple Silicon (los M1 y los actuales M2), y permitiría acercarse a esa simbiosis entre el software y el hardware que haría posible mejoras notables en eficiencia y rendimiento.

La inteligencia artificial será protagonista. Si hay un campo en el que Microsoft está apostando su futuro, ese es el de la IA, y este tipo de tecnología será también pilar de ese hipotético Windows 12. Entre las características que se mencionan en Windows Central estaría la capacidad de que Windows "viera" el contenido de nuestra pantalla y nos sugiriera acciones. La presencia de Bing con ChatGPT en el nuevo Microsoft Edge como un panel lateral y esos nuevos "copilotos" de IA que la empresa está integrando en GitHub y Office parecen ser también probables acompañantes de la experiencia de escritorio.

En Xataka | Nueve cosas que me gustan y seis que tienen que mejorar en Windows 11

-
La noticia Microsoft ya trabaja en Windows 12, un sistema operativo que mira tanto al pasado como al futuro fue publicada originalmente en Xataka por Javier Pastor .

Leer más

Ernie es la gran esperanza de China para plantear su rival a ChatGPT. Su capacidad real es un misterio

Ernie es la gran esperanza de China para plantear su rival a ChatGPT. Su capacidad real es un misterio

Hace unos días el CEO de Baidu, Robin Li, presentaba en sociedad a su chatbot Ernie. El teórico rival de ChatGPT apenas sí pudo demostrar su capacidad en algunas demos pregrabadas, y eso provocó dudas y la caída en bolsa de Baidu. La empresa no acaba de mostrar sus prestaciones de forma pública, pero eso da igual: la expectación generada es enorme.

A Ernie le gusta el playback. Ayer Baidu había organizado un evento para prensa en formato de emisión en vivo y en directo para que este modelo de inteligencia artificial rival de ChatGPT pudiera demostrar sus capacidades, pero la empresa canceló ese evento. En lugar de ello, organizaron una reunión a puerta cerrada con potenciales clientes corporativos.

Prioridades. Según Quartz el gigante chino de las búsquedas cambió el formato para dar prioridad a las 120.000 empresas que habían solicitado acceso a probar Ernie. De hecho, indicaron, el encuentro privado de ayer sería el primero de muchos con clientes corporativos. Eso provocó una consecuencia rápida.

Captura De Pantalla 2023 03 28 A Las 16 31 00

Las acciones de Baidu cayeron tras las decepcionantes apariciones de Ernie, pero eso no ha importado mucho: la tendencia desde hace días es al alza, en parte por el enorme interés generado por este modelo de IA rival de ChatGPT.

Caída (temporal) de acciones. Tras la decisión, las acciones de Baidu cayeron tanto en el Nasdaq como en el mercado bursátil de Hong Kong. La reacción de los inversores fue similar a la que produjo la primera presentación: cuando solo se vieron vídeos pregrabados del funcionamiento de Ernie, los mercados reaccionaron mostrando su decepción y castigando las acciones de Baidu.

Pero la expectación lo puede todo. Sin embargo, la caída que se produjo entre el 15 y el 16 de marzo y la de ayer lunes se ha compensado rápidamente tanto en el Nasdaq como en el mercado bursátil de Hong Kong, donde las acciones vuelven a subir de forma notable (en el Nasdaq hoy, casi un 14%).

Last week, we unveiled ERNIE Bot, our latest generative AI product and large language model, built on the foundation of our ERNIE and PLATO models.

Dive into our latest blog for a detailed exploration of the technology powering ERNIE Bot: https://t.co/IsW0KWdMLZ pic.twitter.com/w0XiOjuPYN

— Baidu Research (@BaiduResearch) March 23, 2023

Ernie parece mejorar. Un portavoz de Baidu compartió algunas imágenes de Ernie en WeChat. En ellas se mostraba aparentemente cómo el chatbot de Baidu ha ampliado sus prestaciones y capacidades desde que lo presentaron hace casi dos semanas. En las demos de ayer se mostró a Ernie sugiriendo itinerarios de viaje y también avatares virtuales con aspecto humano capaces de publicitar productos de acuerdo a guiones preestablecidos.

Despliegue gradual. Son muchas las empresas que ya han solicitado acceso a la versión de Ernie centrada en el ámbito corporativo. Otras podrán hacerlo a partir del 31 de marzo, mientras que una versión estándar del chatbot sigue estando disponible para usuarios finales que logran una invitación para evaluarlo.

No tan distinto de rivales como Bing. Tras la presentación original algunos usuarios pudieron probar el funcionamiento de Ernie al día siguiente. Al compararlo con Bing con ChatGPT, decían quienes lo probaron, "hay desde luego cierta distancia entre Ernie y Bing, pero no es descomunal, y en algunas preguntas Ernie incluso respondió mejor que Bing", explicaba el blogger tecnológico Chapingjun, que tiene más de 2,4 millones de seguidores en Weibo.

Imagen | Baidu

En Xataka | Open AI lanza su API para ChatGPT y se convierte de facto en una empresa con (mucho) ánimo de lucro

-
La noticia Ernie es la gran esperanza de China para plantear su rival a ChatGPT. Su capacidad real es un misterio fue publicada originalmente en Xataka por Javier Pastor .

Leer más

Copilot, ChatGPT y GPT-4 han cambiado el mundo de la programación para siempre. Esto opinan los programadores

Copilot, ChatGPT y GPT-4 han cambiado el mundo de la programación para siempre. Esto opinan los programadores

En junio de 2021 GitHub presentaba una herramienta singular. Un asistente capaz de autocompletar y generar código gracias a la inteligencia artificial. Lo llamaron GitHub Copilot. En aquel momento la incógnita era clara: ¿realmente puede una IA programar? Las dudas eran muchas, sobre todo teniendo en cuenta que el limitado lanzamiento de GPT-3 en 2020 no había llamado apenas la atención.

Sin embargo, Copilot, que precisamente estaba basado en dicho modelo de inteligencia artificial, demostró que las cosas habían cambiado. Este servicio se convirtió en muy poco tiempo en toda una revolución para los desarrolladores, que comprobaron cómo gracias a este componente era posible ahorrar mucho tiempo en tareas repetitivas. De repente las máquinas podían programar (un poco) por nosotros.

El impacto de este asistente fue enorme: en pocos meses llegó a "picar" el 30% del nuevo código que se publicaba en GitHub, y poco después esa cuota subió al 40%. ¿La previsión? Que en cinco años llegue al 80%.

Este avance se ha visto ensombrecido por ChatGPT, el motor que OpenAI presentó en noviembre de 2022 y que planteaba un cambio radical no solo para los desarrolladores, sino para todo tipo de profesionales y usuarios. Su aplicación era mucho más general y no se ceñía al mundo de la programación, pero aún así era también posible usarlo para programar.

Los avances en este ámbito han sido —como muchos habréis visto— frenéticos. Hace unos días se presentó GPT-4, el nuevo modelo de inteligencia artificial conversacional que añade novedades importantes (es multimodal y admite entrada de texto pero también de imagen) y sobre todo es más potente y preciso. En pocos días hemos visto cómo han surgido sorprendentes casos de uso para este nuevo motor de IA, y entre ellos está el de la programación.

Copilot, ChatGPT y GPT-4, enfrentados

Precisamente esa capacidad y esas mejoras planteadas en GPT-4 nos han hecho preguntarnos si este modelo cambia aún más las cosas para los programadores. Y para responder a esa pregunta hemos querido preguntar a dos expertos en este ámbito, que nos han dado su opinión sobre estas plataformas, su alcance y, por supuesto, su futuro.

Brais

El primero de los expertos a los que hemos querido acudir para dar respuesta a estas preguntas es Brais Moure (@MoureDev), ingeniero de software que desde hace ocho años ses freelance especializado en desarrollo móvil y que además desde hace cuatro es divulgador y creador de contenido sobre programación en sus canales de YouTube o Twitch.

Brais nos confesaba cómo a él la aparición de GitHub Copilot le sorprendió como a todos. "Nos volvíamos para probarlo y ver cómo eran sus respuestas en diferentes lenguajes y atendiendo a cada casuística". Este experto ha seguido usándolo de cuando en cuando, pero confiesa que "habitualmente no".

Para él Copilot "es una gran herramienta" que le permite responder algunas preguntas que "antes buscaba en Google/Stack Overflow/GitHub" o "generar ese primer código para yo mismo seguir completándolo". Sin embargo para él aquí cabría aplicar la célebre cita de Spider-Man: "un gran poder conlleva una gran responsabilidad". De hecho, explica lo siguiente:

"Descargar toda nuestra responsabilidad como programadores en una herramienta como Copilot puede derivar en perder el control de nuestro software. Resumiendo, ante todo, debemos entender que esa respuesta automática es la que a nosotros nos encaja (y tener la capacidad de adaptarla a nuestras necesidades de proyecto). Dicho de otra manera, es a la que nosotros llegaríamos, pero quizás tardando más tiempo".

Hay un detalle importante más sobre Copilot. Como comentaba Brais, "lo mejor  de Copilot es que está integrado dentro de nuestro editor de código" y está expresamente creado para este ámbito, algo que lo hace especialmente potente para desarrolladores.

Miguel Angel

El segundo de nuestros expertos es Miguel Ángel Durán (@midudev), programador con más de 15 años de experiencia. Como Brais, él también es creador de contenido y publica su contenido tanto en YouTube como en Twitch, y coincide con esa visión de la utilidad de la herramienta creada por GitHub.

Miguel Ángel nos comebtaba cómo ha usado Copilot "desde el primer día" Gracias a él, destaca, "ha mejorado muchísimo mi productividad. Me gusta porque se integra perfectamente con mi flujo de trabajo. No es intrusivo porque es como un consejo".

Para él Copilot  es un asistente especialmente útil. "Por ejemplo, si no sé cómo plantear una solución en un momento dado, su sugerencia, aunque no sea la mejor, me ayuda a pensar en una dirección. Igual después ni siquiera uso su sugerencia, pero me desbloquea para continuar". Hay otra ventaja aún más esencial: ahorrar tiempo que puede dedicar a otras tareas:

"En otras ocasiones me ayuda con tareas repetitivas. ¿Cuántas veces he escrito un bucle para extraer un campo de un array de objetos? Muchas. GitHub Copilot me ayuda a escribirlo en un segundo y me permite concentrarme en lo que realmente importa".

Cuando apareció ChatGPT, ambos expertos también dedicaron tiempo a probar qué podía aportar este motor de IA a su trabajo. Para Brais ChatGPT tiene una orientación más generalista: "a ChatGPT le puedes plantear prácticamente el  caso de uso completo (e iterar sobre las respuesta), ya que se trata de  modelo conversacional". Para él la sensación es que GPT es "más inteligente, si se me permite la expresión. Creo que me ofrece mejores  respuestas, sobre todo si le pones las cosas difíciles".

Miguel Ángel también ha usado ChatGPT en su flujo de trabajo, pero sobre todo "para contestar correos o crear documentación. Alguna duda de programación he podido hacerle, pero me es más pesado que la inmediatez de GitHub Copilot. La diferencia es que Copilot es más específico para programación y, además, usa el contexto de lo que ya estás creando. También te suele sugerir una sola línea de código y no bloques enteros.

Como ya destacaba Brais, Miguel Ángel opina que "ChatGPT es más general, te da bloques de código más grandes y con explicaciones". Para él ChatGPT es mejor opción si necesitas aprender algo o no tienes claro cómo hacer algo porque te falta el conocimiento.

Teníamos especial interés por conocer sus primeras impresiones sobre GPT-4, el nuevo modelo de IA conversacional de OpenAI. Para Brais "ejecuta mucho más lento que la versión 3", algo que la empresa ya avisaba en el anuncio oficial, pero a cambio sus resultados "son más detallados o coherentes, pero no siempre mejores, más eficientes o “elegantes” que la versión 3.5 (sobre todo a la hora de generar un código concreto)".

No solo eso, indica Brais: la versión 4 hace todo lo de la 3.5 "y me muestra paso por paso y con código cómo hacer las cosas". Además, explicaba, GPT-4 es multimodal y reconoce también imágenes como entrada, algo que "nos abre infinitas posibilidades".

Esa era también la percepción de Miguel Ángel, que nos explicaba como tras probarlo algunas horas lo encontraba más potente. "Es más preciso y más inteligente, aunque más lento". Señalaba además algo en lo que Brais también había incidido: "en ChatGPT las soluciones de código normalmente las intenta agrupar en un solo bloque. En cambio GPT-4 te da la solución paso por paso y te explica cada uno. Es más didáctico y más iterativo en sus soluciones".

Poniendo a prueba a CoPilot, ChatGPT y GPT-4

Tanto a Brais como a Miguel Ángel les pedimos un favor especial: poner a prueba a estas herramientas para ver cómo resolvían un problema específico. Brais en realidad quiso hacer dos pruebas. La primera, con un programa que calculase quién gana más partidas al piedra, papel, tijera, lagarto, Spock (¡grande!). El prompt fue el siguiente:

Crea un programa que calcule quien gana más partidas al piedra,  papel, tijera, lagarto, spock.

El resultado puede ser: "Player 1", "Player 2", "Tie" (empate)

La función recibe un listado que contiene pares, representando cada jugada.

El par puede contener combinaciones de "🗿" (piedra), "📄" (papel),
"✂️" (tijera), "🦎" (lagarto) o "🖖" (spock).

Ejemplo. Entrada: [("🗿","✂️"), ("✂️","🗿"), ("📄","✂️")]. Resultado: "Player 2".

Lagarto Gpt 3 5

La prueba fue parte de los retos de programación que Brais le plantea a sus seguidores, y tras proponer este problema en concreto, sus conclusiones eran las siguientes:

  • GPT-4: la solución era menos concisa, pero más fácil de entender.
  • GPT-3.5: era más concisa, pero más compleja.
  • Copilot: después de darle un par de vueltas, no ha podido resolverlo.

De hecho, tras la prueba confirmaba cómo Copilot "tiene un enfoque más orientado a resolver tareas cotidianas basado en código semejante ya publicado". Es algo que ya se conocía, pero GitHub Copilot básicamente hace un copia/pega de algo que ya ha hecho literalmente otra persona. Al asistente de GitHub "se le da peor entender una premisa compleja".

Exp Regular

Este experto también le planteaba otro ejemplo: el de que creara "una expresión regular en python para saber si el IBAN de una cuenta bancaria es válida". Tras analizar el resultado, Brais concluyó que:

  • GPT-4: Se ha ceñido a lo pedido, ha implementado una expresión regular, pero nos ha aclarado que puede no ser suficiente para validar el IBAN.
  • GPT-3.5: Ha implementado una expresión regular y una validación adicional para validar al 100% el IBAN.
  • Copilot: No ha implementado una expresión regular, pero sí una forma correcta de validarlo.

Para este programador la mejor solución era la de GPT-4 "por su forma entender el contexto, explicarlo y afrontarlo". Eso sí, advertía de que eso no quiere decir que a nivel de código sea el "mejor".

Mario Copilot

Miguel Ángel también tuvo el mismo detalle e invirtió tiempo en evaluar el comportamiento de estas tres plataformas a la hora de resolver un problema de programación. En concreto, el usó el prompt "Crea el juego de Super Mario Bros con JavaScript".

Mario Gpt 3 5

Como en el caso de los problemas planteados por Brais, Miguel Ángel confirmaba que GitHub Copilot no está tan destinado a resolver poblemas completos, y "está pensado más bien para darte sugerencias de tu propio código. Cuanto más código tienes en el archivo o el proyecto, mejores resultados da".

Mario Gpt 3 5 2

Con GPT-3.5 (el ChatGPT que está disponible de forma gratuita en la web de OpenAI) comprobó cómo el código era "una versión simplificada", en un solo bloque y "una explicación muy general del código".

El resultado, explicaba, funciona, "pero está muy lejos de tener cualquier referencia al juego de plataformas. Es algo tremendamente básico. Ha sido muy rápido respondiendo, eso sí".

Mario Gpt 4 1

Con GPT-4 la cosa cambiaba mucho. "Separa separa todos los archivos y sus explicaciones, en lugar de hacerlo todo en un bloque. Además es más avanzado todo lo que hace y las prácticas que usa", nos explicaba Miguel Ángel.

Mario Gpt 4 2

No solo eso: en esa versión del motor de IA de OpenAI el código estaba además más claramente segmentado: "me ha dado 5 secciones: El HTML básico, configuración del archivo de JavaScript, Creación de la clase Player, Control de Teclado y Bucle del juego". De hecho, señalaba, incluso implementa las "colisiones y el azul de fondo característico".

Lo que hizo Miguel Ángel a continuación es copiar el código  y cambiar la imagen por un sprite de Mario. Tras hacerlo "me ha aparecido este juego básico pero que me permite controlar a Mario, saltar, tiene gravedad y colisiones con los laterales. Desde luego, se ve mucho más avanzado y completo que el de ChatGPT. La imagen queda muy grande, porque es la primera que he encontrado, pero con algunos ajustes tendría una base reconocible de Super Mario Bros".

Eso sí, había otra diferencia importante respecto al comportamiento de GPT-4 respecto a su predecesor. "la versión de ChatGPT ha usado apenas 3 o 4 segundos. La versión de GPT-4 ha tardado mucho más en producirlo, casi un minuto y, además, he tenido que indicarle que me repita el último punto porque el código no me lo había dado completo". Para Miguel Ángel esto último es normal ya que GPT-4 acaba de hacer su aparición y seguramente mejor de forma notable a corto plazo.

Las conclusiones de ambos desarrolladores eran contundentes. Según Brais, a GPT-4 "debemos tomarlo como una herramienta de ayuda, no como una fuente de verdades universales. Y, mucho menos, como una amenaza. Si me tengo que mojar”, concluía, "me quedo con GPT antes de con Copilot, y con la versión 4 antes de con la 3.5 (ChatGPT)".

Para Miguel Ángel "GitHub Copilot ofrece una experiencia de desarrollo perfecta si ya estás en el editor. Yo pienso seguir usándolo y no lo voy a cambiar por ChatGPT/GPT-4". Aquí la idea es usar estos nuevos modelos casi más para otros ámbitos —apuntando a un sustituto del buscador de Google—, y apuntaba que "si le vas a sacar rendimiento", pagar los 20 dólares al mes que cuesta usar GPT-4 "puede valer la pena".

De quitarle el trabajo a los desarrolladores, nada

La capacidad de GPT-4, como ya había ocurrido con su predecesor, plantea una pregunta clara sobre el impacto que este modelo puede tener a la hora de quitarle el trabajo a los seres humanos en distintos ámbitos.

Quisimos saber qué opinan nuestros expertos: ¿amenaza GPT-4 sus puestos de trabajo?

Brais Moure opinaba que el mundo del desarrollo de software no ha dejado de evolucionar, y cada una de esas evoluciones "nos ha permitido crear más y mejor software, incluso mucho más rápido y con una “barrera de entrada” a nivel de conocimientos menor, pero no por ello necesariamente insuficiente". Como él concluía:

"Copilot y GPT-4 no son más que herramientas que los desarrolladores usarán en su beneficio y se incluirán dentro de nuestro flujo de trabajo de una manera natural, como hemos hecho con muchos otros avances. Unas tareas asociadas a nuestro rol desaparecerán y otras nuevas harán su aparición, pero, a fin de cuentas, seremos los encargados de seguir programado software (sea lo que sea que signifique eso a futuro, al principio perforábamos tarjetas...)".

Muy en esa línea expresaba también su opinión Miguel Ángel Durán, que se resistía a creer que estos sistemas vayan a quitarle el puesto de trabajo a los desarrolladores:

"No creo que los motores de IA vayan a reemplazar a los programadores al corto plazo. Pero sí que creo que vamos a poder hacer más cosas con menos esfuerzo y tiempo. Si esto se consigue, los programadores podrán dedicar más tiempo a cosas más creativas y menos a tareas repetitivas".

Para él, de hecho, quienes sepan usar estas herramientas "van a tener una ventaja competitiva". Miguel Ángel sí cree que puede haber un cambio de paradigma, pero no sustituyendo a los programadores, sino reemplazando al concepto de programación como tal. "La pregunta no es si [la IA] reemplazará la programación. La pregunta es cuándo... Pero vaya, en ese tiempo no creo que nos tengamos que preocupar sólo de la programación precisamente".

Esa percepción es la que por ejemplo también expresaba recientemente John Carmack, cofundador de idSoftware, creador de Wolfenstein 3D, Doom o Quake y una leyenda de la programación de videojuegos.

From a DM, just in case anyone else needs to hear this. pic.twitter.com/GZl4twl4wP

— John Carmack (@ID_AA_Carmack) March 18, 2023

En una reciente conversación con un estudiante, éste le preguntaba por el futuro que esperaba a todos los jóvenes que querían plantearse ser desarrolladores. Para Carmack el software "es solo una herramienta que ayuda a la gente a lograr algo [...]. Mantén la atención en el valor ofrecido, y no te enfoques demasiado en lo específico de las herramientas". O lo que es lo mismo: una vez más, el papel del desarrollador puede cambiar, sí, pero las herramientas seguirán siendo eso. Herramientas.

Mientras, lo que es evidente es que estas herramientas no van a parar de evolucionar y mejorar. Lo ha demostrado Microsoft, que mientras preparábamos este tema presentaba GitHub Copilot X, una versión "supervitaminada" del anterior desarrollo que promete integrarse aún más y mejor que su predecesor en el flujo de trabajo de los desarrolladores. La evolución no para, y los desarrolladores tienen aquí herramientas excepcionales para realizar su trabajo.

En Xataka | No tengo ni idea de programar pero sí tengo GPT-4. Así que he creado un clon de 'Flappy Bird'

En Xataka | GPT-4 es un salto de nivel brutal respecto a ChatGPT: nueve ejemplos para comprobarlo en persona

-
La noticia Copilot, ChatGPT y GPT-4 han cambiado el mundo de la programación para siempre. Esto opinan los programadores fue publicada originalmente en Xataka por Javier Pastor .

Leer más

Los nuevos portátiles LG Gram son pesos pluma en peso, pero (casi) pesos pesados en prestaciones

Los nuevos portátiles LG Gram son pesos pluma en peso, pero (casi) pesos pesados en prestaciones

Desde que aparecieron por primera vez, los portátiles de la serie LG Gram han podido presumir de estar entre los más ligeros (o directametne, serlo) de todo el mercado. Ahora el fabricante vuelve a apostar por esa virtud y renueva estos portátiles en sus distintas variantes.

Así es como ha anunciado la nueva serie de portátiles LG Gram de 14, 15, 16 y 17 pulgadas, en los que se conserva su asombrosa ligereza, pero que se renuevan con componentes que los hacen más versátiles y potentes que nunca.

Ficha técnica de los LG Gram (2023)


LG gram 14 (14Z90R)

LG gram 15 (15Z90R)

LG gram 16 (16Z90R)

LG gram 17 (17Z90R)

Pantalla

14 pulgadas

15,6 pulgadas

16 pulgadas

17 pulgadas

Panel

WUXGA

(1.920 x 1.200) IPS

Opción táctil 2 en 1

FHD

(1.920 x 1.080) IPS

WQXGA

(2.560 x 1.600) IPS

Opción táctil 2 en 1

WQXGA

(2.560 x 1.600) IPS

Brillo

350 / 400 nits (VRR)

350 / 400 nits (VRR)

350 / 400 nits (VRR)

350 / 400 nits (VRR)

Tasa de Refresco

60 Hz

60 Hz

31-144 Hz (VRR)

60 Hz (normal)

31-144 Hz (VRR)

60 Hz (normal)

Procesador

Procesador 13th Gen Intel® Core

Procesador 13th Gen Intel® Core

Procesador 13th Gen Intel® Core

Procesador 13th Gen Intel® Core

Tarjeta gráfica

Intel Iris Xe Graphics

NVIDIA GeForce RTX 3050 4GB Laptop GPU

NVIDIA GeForce RTX 3050 4GB Laptop GPU

NVIDIA GeForce RTX 3050 4GB Laptop GPU

Memoria

8GB / 16GB / 32GB LPDDR5

8GB / 16GB / 32GB LPDDR5

8GB / 16GB / 32GB LPDDR5

8GB / 16GB / 32GB LPDDR5

Almacenamiento

256GB / 512GB / 1TB (Gen4 NVMe™) / 2TB

256GB / 512GB / 1TB (Gen4 NVMe™) / 2TB

256GB / 512GB / 1TB (Gen4 NVMe™) / 2TB

256GB / 512GB / 1TB (Gen4 NVMe™) / 2TB

Conectividad

Wi-Fi 6E

Bluetooth 5.1

Wi-Fi 6E

Bluetooth 5.1

Wi-Fi 6E

Bluetooth 5.1

Wi-Fi 6E

Bluetooth 5.1

Puertos

2 x USB-C (Thunderbolt 4)

2 x USB-A (USB 3.2 Gen 2)

1 x HDMI

1 x minijack 3,5 mm

2 x USB-C (Thunderbolt 4)

2 x USB-A (USB 3.2 Gen 2)

1 x HDMI

1 x minijack 3,5 mm

2 x USB-C (Thunderbolt 4)

2 x USB-A (USB 3.2 Gen 2)

1 x HDMI

Lector Micro SD

1 x minijack 3,5 mm

2 x USB-C (Thunderbolt 4)

2 x USB-A (USB 3.2 Gen 2)

1 x HDMI

Lector Micro SD

1 x minijack 3,5 mm

Webcam

Full HD Webcam with IR Sensor

Full HD Webcam with IR Sensor

Full HD Webcam with IR Sensor

Full HD Webcam with IR Sensor

Audio

1.5W x 2

1.5W x 2

2.0W x 2 (iGPU), 3.0W x 2 (dGPU)

2.0W x 2 (iGPU), 3.0W x 2 (dGPU)

Batería

72 Wh

80 Wh

80 Wh

90 Wh

Dimensiones y peso

312 x 213,9 x

16,8 mm

999 g

356,1 x 222,9 x 17,4 mm

1.140 g

355,1 x 242,3

x 16,8 mm

1.199 g (iGPU)

1.299 g (dGPU)

378,8 x 258,8

x 17,8 mm

1.350 g (iGPU)

1.450 g (dGPU)

Otros

MIL-STD-810G

MIL-STD-810G

MIL-STD-810G

MIL-STD-810G

Precio

Desde 1.449 euros

Desde 1.449 euros

Desde 1.449 euros

Desde 1.449 euros

Unos peso pluma que parecen pesos pesados (en rendimiento)

A los LG Gram les ha salido competencia en los últimos años, pero lo cierto es que el compromiso entre ligereza y prestaciones sigue mejorando con el paso del tiempo.

Gram10 Copia 2

El diseño mantiene sus virtudes, como el chasis de aleación de magnesio y carbono que ayuda a reducir el peso final. El modelo de 14 pulgadas pesa tan solo 999 gramos, pero es que el de 17 pulgadas está en los 1.450 gramos en su versión con gráfica dedicada (dGPU), algo realmente sorprendente.

Los componentes internos se han actualizado para demostrarlo, y ahí están los nuevos Intel Core de 13ª generación para gobernarlos. Es posible además expandir la memoria hasta los 32 GB y llegar a los 2 TB de almacenamiento.

Captura De Pantalla 2023 03 23 A Las 15 53 04

La sorpresa llega también al apartado gráfico: a pesar de su delgadez y reducido peso, contamos aquí con la opción de montar una RTX 3050, una gráfica solvente para jugar a un buen conjunto de juegos si bajamos un poco la resolución y el detalle gráfico.

Las pantallas son también prometedoras, salvo quizás en el caso del modelo de 15 pulgadas, algo más modesto —tan solo Full HD—. Aquí los interesados en gaming harán bien en ir a los modelos de 16 y 17 pulgadas, cuyos paneles soportan tasas de refresco de 144 Hz.

Gram5 Copia 2

En dos de las variantes, la de 14 y 16 pulgadas, estamos ante equipos que también tienen versión convertible. En ellos el panel táctil puede dar nuevas opciones de productividad y creatividad.

La oferta de puertos es estupenda, y también es ligeramente mejor en los modelos más grandes, que incluyen lector de tarjetas micro SD. La webcam Full HD se conjuga con la z que bloquea automáticamente la pantalla si el usuario se aleja del portátil o alerta al usuario y difumina el contenido si detecta que alguien está mirando la pantalla por encima de su hombro.

Precio y disponibilidad de los nuevos LG Gram

Según indica el fabricante, la nueva serie LG gram está ya disponible en España, y el precio de partida para esta familia es de 1.449 euros, aunque esa cantidad varía según modelo y configuración.

Más información | LG

En Xataka | LG Gram 16Z90Q (2022), primeras impresiones: su autonomía 'termonuclear' basta para liquidar a muchos competidores

-
La noticia Los nuevos portátiles LG Gram son pesos pluma en peso, pero (casi) pesos pesados en prestaciones fue publicada originalmente en Xataka por Javier Pastor .

Leer más

El nuevo GitHub Copilot X va más allá: los desarrolladores podrán chatear y “hablar” el propio asistente

El nuevo GitHub Copilot X va más allá: los desarrolladores podrán chatear y

Microsoft no descansa. La empresa presentaba hace unos días Microsoft 365 Copilot, y ahora ha ido un poco más allá con la nueva edición de este "copiloto de inteligencia artificial" para su plataforma para desarrolladores. Llega GitHub Copilot X, una versión aún más potente de este asistente que ya se ha convertido en parte de la rutina de trabajo de muchos desarrolladores.

GitHub Copilot X. Estamos ante un asistente para programar que quiere ir más allá de lo que iba Copilot y hacerlo en varios apartados. Esta actualización se integra en diversos editores de código e IDEs —lo que hace que todo el flujo de trabajo sea más natural— y comienza a estar disponible desde hoy mismo como una versión técnica previa a la que los programadores pueden solicitar acceso desde el sitio web oficial del proyecto.

La base no podía ser otra: GPT-4. Parte de las nuevas funciones de GitHub Copilot X está basada en el nuevo GPT-4. En la empresa están usando inteligencia artificial para escanear los repositorios Open Source y así ayudar a los desarrolladores a obtener respuestas. Eso hace que la interfaz de chat integrada en las herramientas esté más actualizada que el propio modelo GPT-4.

Mira mamá, programo sin teclado. Entre las muchas opciones de GitHub Copilot X está la de poder interactuar con la voz y lograr así que este asistente se encargue de añadir código con nuestras peiticiones de voz. Podremos activar esa interacción con órdenes de voz al decir "Hey, Github", tras lo cual podremos pedirle al asistente que nos resuelva dudas o sugiera líneas de código, por ejemplo.

Como un ChatGPT integrado. Los propios responsables de Copilot X explican que la experiencia es como si uno tuviera un ChatGPT integrado en su editor o en herramientas como VS Code o Visual Studio. No solo sugiere código: reconoce el código que se ha programado y qué mensajes de error se muestran. La integración con el IDE es notable según Microsoft, y los desarrolladores pueden obtener análisis en profundidad del código y explicaciones sobre qué hace cada bloque del proyecto. Es también posible generar pruebas unitarias o que Copilot X nos proponga correcciones a bugs que encuentre (o encontremos) en el código.

Descripciones para las 'pull requests'. Otra de las novedades es la capacidad de Copilot X de generar descripciones cuando el desarrollador realiza peticiones pull de código y así gestionar repositorios de forma más rápida y sencilla. También se tratan de gestionar y añadir las etiquetas a esas peticiones gracias a la IA que utiliza Copilot X.

Genera respuestas sobre la documentación. En este proyecto se añade GitHub Copilot for Docs, una heramienta experimental que usa una interfaz de chatbot para proporcionar respuestas a preguntas sobre la documentación de proyectos, tecnologías, frameworks o lenguajes de programación que usan los desarrolladores. Por ahora se soportan React, Azure Docs y MDN.

Copilot en la CLI. Esa integración va más allá, y permite utilizar Copilot en la interfaz de línea de comandos (CLI). Así, es posible contar con esas opciones directamente desde una terminal y que por ejemplo nos ayude a escribir un comando y ejecutarlo.

En Xataka | GitHub Copilot, el asistente para programar basado en IA, ya está disponible para todos: cuánto cuesta y quienes lo pueden usar gratis

-
La noticia El nuevo GitHub Copilot X va más allá: los desarrolladores podrán chatear y "hablar" el propio asistente fue publicada originalmente en Xataka por Javier Pastor .

Leer más

Si ByteDance quiere que TikTok siga operando en EEUU lo tiene fácil: tan sólo tiene que venderlo

Si ByteDance quiere que TikTok siga operando en EEUU lo tiene fácil: tan sólo tiene que venderlo

Puede que algunos recordéis el culebrón que vivimos con TikTok en verano de 2020. El entonces presidente Donald Trump amenazó con prohibir la aplicación en Estados Unidos a raíz de la sospecha de que se usaba para espiar a los usuarios. Para solucionarlo algunas empresas como Microsoft u Oracle se postularon como potenciales compradoras de esta red social. Cuando Biden se convirtió en el nuevo presidente de EEUU la cuestión acabó volviendo a la normalidad... hasta ahora.

"TikTok nos espía". Ese vuelve a ser el argumento del Gobierno de Estados Unidos, que quiere proteger la seguridad nacional. TikTok pertenece a la empresa china ByteDance, y las sospechas de posible espionaje y de que los datos acaban llegando al gobierno chino llevan años en el candelero.  

ByteDance debe vender (parte de) TikTok. Para el Gobierno de Biden solo hay una solución: que ByteDance venda su participación en la versión de TikTok que funciona en Estados Unidos. Como indican en Axios, la app cuenta con más de 100 millones de usuarios en el país norteamericano, y prohibirla tendría un impacto enorme en la rutina diaria de milones de usuarios e incrementaría las tensas relaciones comerciales entre Estados Unidos y China.

Más difícil de hacer que de decir. Buena parte de las acciones de ByteDance son propiedad de grandes empresas inversoras, lo que hace difícil que los propietarios de ByteDance se desprendan de su participación. La empresa china está tratando de aliviar la situación con iniciativas como el llamado Project Texas, un conjunto de medidas que TikTok está adoptando junto con Oracle "para separar las funciones y el código backend de sus operaciones en EE.UU. de su rama china". Esa misma iniciativa tiene su versión europea, llamada Project Clover

RESTRICT Act. Esta propuesta de ley, presentada por un grupo de doce senadores demócratas y republicanos en Estados Unidos, busca que el gobierno estadounidense pueda prohibir el uso de la app TikTok en el este país. Con ella se otorgarían nuevos mecanismos al gobierno para “mitigar” los riesgos para la seguridad nacional que supone la actividad de negocios tecnológicos “altamente peligrosos” que operan en EEUU.

Una potencial prohibición con un impacto enorme. Prohibir TikTok en Estados Unidos sentaría un precedente preocupante en gobiernos de todo el mundo, que podrían animarse a vetar aplicaciones "non gratas". No solo impediría a los usuarios disfrutar de todos esos contenidos y cortaría las alas a los creadores que están dedicándole tiempo: también beneficiaría de forma clara a rivales controlados por empresas de EEUU (YouTube, Facebook, Twitch, Instagram), permitiendo que potencialmente incrementaran sus ingresos publicitarios, que los anunciantes ya no dedicarían a TikTok. La censura tecnológica controlada por los gobiernos podría convertirse en un problema enorme con la ya conocida excusa de la seguridad nacional.

Europa también sospecha. Esas sospechas son compartidas por otros países y también por la Unión Europea, que ha prohibido que sus funcionarios tengan TikTok en sus dispositivos de trabajo o personales. El Reino Unido acaba de hacer exactamente lo mismo y sigue la estela de otros países. La amenaza de que esa aplicación acabe recolectando datos sensibles es importante, y la UE ha querido aquí cubrirse las espaldas, aunque no hay movimientos aún que indiquen que tenga intención de prohibir la aplicación en el territorio comunitario.

Imagen: Solen Feyissa

En Xataka | Cómo activar la verificación en dos pasos de TikTok


-
La noticia Si ByteDance quiere que TikTok siga operando en EEUU lo tiene fácil: tan sólo tiene que venderlo fue publicada originalmente en Xataka por Javier Pastor .

Leer más

Resolviendo la gran incógnita de Netflix y las cuentas compartidas: qué pasa cuando te vas de viaje

Resolviendo la gran incógnita de Netflix y las cuentas compartidas: qué pasa cuando te vas de viaje

Muchas cosas han cambiado para los usuarios españoles de Netflix en las últimas semanas. La plataforma ha iniciado ya su plan para eliminar las cuentas compartidas de toda la vida, sobre todo detectándolas a partir de la IP utilizada. Esa IP se combina con otros datos para que Netflix sepa si estamos usando la cuenta fuera de nuestro hogar, pero ¿qué pasa si viajamos?

Empiezan a llegar los avisos. Netflix avisaba hace semanas de que se cumplía el plazo para determinar la llamada "ubicación principal", que suele equivaler al domicilio del propietario de la cuenta. Se esperaba que los avisos de detección de una actividad no autorizada se produjeran a partir de entonces, y aunque estos se hicieron esperar, estos días ya hemos visto cómo esos avisos comienzan a llegar.

Pero es que voy a viajar. Para muchos usuarios, una de las preguntas clave a la hora de usar su servicio a partir de ahora es qué pasa si viajan por trabajo o vacaciones. ¿Pueden hacerlo y seguir usando su cuenta aunque estén fuera de casa? La respuesta es un sí rotundo, y aquí Netflix ha ideado un mecanismo relativamente sencillo de ofrecer esa opción de forma razonable y coherente con su nueva política de cuentas compartidas.

Netflix detecta que estás fuera. Como se ve en la imagen que encabeza este artículo, cuando estamos de viaje y abrimos Netflix desde una Smart TV distinta, lo normal es que aparezca un mensaje que indica que "este televisor no está conectado a la ubicación principal de esta cuenta". La plataforma es capaz de detectar esa actividad al combinar la IP pública desde la que usamos el servicio con otros datos como (principalmente) el identificador de dispositivo. Es en esa misma pantalla en la que precisamente Netflix muestra un botón llamado "Estoy de viaje". Es precisamente el que debemos pulsar si estamos en esa situación.

Netflix2

Códigos temporales. Al pulsar ese botón aparecerá una segunda imagen que precisamente permite obtener "un código para ver Netflix cuando no estés en casa". Si somos propietarios de esa cuenta, podremos elegir entre que Netflix nos envíe un correo electrónico o un mensaje SMS con un código temporal. Tras elegir cualquiera de esas opciones, nos llegará ese código, que tendremos que introducir en la pantalla siguiente para que Netflix verifique que somos los propietarios de la cuenta y que estamos de viaje.

14 días de acceso. A partir de ese momento, podremos disfrutar de hasta 14 días de streaming sin nuevos avisos en esa pantalla en la que hemos introducido el código. Es un margen razonable, y si acaba y seguimos en esa ubicación nos acabará apareciendo otro aviso idéntico y podremos renovar esa opción de que estamos de viaje (por ejemplo, de vacaciones). Netflix no especifica hasta cuándo se puede prorrogar esa opción.

¿Y si estoy fuera temporadas largas? Si la opción de estar de viaje deja de funcionar, siempre podemos acudir al otro botón que nos ofrece Netflix al detectar que estamos fuera de casa. Se trata del llamado "Gestionar ubicación principal", lo que permitirá que volvamos a establecer la ubicación principal para que en lugar de la original ahora sea esta nueva ubicación desde la que estamos conectándonos.

Netflix detecta teles fuera de casa, pero no móviles o PCs. Hay no obstante una circunstancia que permite evitar también esos avisos cuando viajamos, y es la de, simplemente, no abrir Netflix desde una Smart TV. Si estamos fuera, lo más normal es que podamos seguir usando Netflix desde un smartphone, una tableta, un PC o un portátil sin problemas y sin avisos.

Es posible que la plataforma acabe detectando también esos usos al comparar la actividad normal —que usáramos ese dispositivo en la Wi-Fi de casa— con la que realizamos al estar de viaje. Sin embargo en nuestras pruebas hemos comprobado que al menos de momento aunque el mensaje aparece en la Smart TV, no lo hace en el móvil o el portátil si queremos usar Netflix desde esos dispositivos.

En Xataka | Todas las plataformas de streaming contemplan marcarse un Netflix con las cuentas compartidas. Aunque no lo apliquen

-
La noticia Resolviendo la gran incógnita de Netflix y las cuentas compartidas: qué pasa cuando te vas de viaje fue publicada originalmente en Xataka por Javier Pastor .

Leer más