Apple dejará de vender los Apple Watch Series 9 y los Ultra 2 en EEUU esta semana: la culpa la tienen las patentes

Apple dejará de vender los Apple Watch Series 9 y los  Ultra 2 en EEUU esta semana: la culpa la tienen las patentes

La Navidad es la época más importante para las ventas de muchas empresas tecnológicas, y Apple no es una excepción. Ahora la firma de Cupertino ha indicado en comentarios a 9toMac algo sorprendente: dejará de vender sus nuevos Apple Watch Series 9 y sus Apple Watch Ultra 2 en Estados Unidos esta semana.

Estamos ante una insólita decisión que viene motivada por una reciente disputa legal. La International Trade Commission (ITC) de Estados Unidos indicó a finales de octubre que Apple había infringido una patente de la empresa Massimo, y eso podría poner en peligro la importación de sus relojes en EEUU, como así ha pasado ahora.

La patente está asociada a la tecnología del sensor que se encarga de medir el oxígeno en sangre en los nuevos modelos de gama alta del Apple Watch. Como consecuencia de esta batalla legal, los ciudadanos de EEUU que quieran comprar un Watch Series 9 o un Watch Ultra 2 no podrán encontrarlo disponible en Apple desde el próximo 21 de diciembre a las 15:00 ET en la tienda online de la empresa. La disponibilidad física también cesará, aunque lo hará después del próximo 24 de diciembre.

El presidente Biden podría vetar la sentencia y salvar a Apple

La ITC emitió su sentencia en octubre y confirmó la resolución que un juez ya había dictaminado en enero. Todo ello ha hecho que el caso acabe llegando al mismo presidente de los Estados Unidos, que tiene 60 días para revisarlo.

Durante el proceso de revisión presidencial Joe Biden podría vetar la sentencia, aunque de momento eso no ha ocurrido y el plazo máximo para que se dé esa orden es el próximo 25 de diciembre. Apple por tanto ha anunciado este movimiento con la idea de cumplir la decisión de la ITC de forma preventiva.

Los responsables de Apple han explicado también en 9to5Mac que esta prohibición solo afecta a los dos modelos citados del Apple Watch porque son los que ofrecen las funciones de monitorización de oxígeno en sangre. El Apple Watch SE, por ejemplo, no cuenta con él y seguirá a la venta.

Curiosamente la medida solo afecta a Apple: otros vendedores como Amazon podrán por el momento seguir vendiendo esos modelos. Dado que la sentencia bloquea la importación de esos dos relojes en los Estados Unidos tras el 25 de diciembre, eso podría significar que Apple tampoco podría venderle esos dispositivos a otros comercios. Eso haría que no fuera posible encontrar Apple Watch Series 9 ni Ultra 2 en ningún comercio en todo Estados Unidos.

Como indican en 9to5Mac, Massimo es una empresa de tecnología médica que lleva años envuelta en batallas legales con Apple. Según ella, la firma liderada por Tim Cook ha infringido varias patentes de Massimo, y de hecho tenía dos casos en marcha. Uno con la Corte del Distrito en el Distrito Central de California, que data de 2020 y que deberá repetir su juicio por decisión no unánime, y otro en la ITC, de junio de 2021.

Sería extraño que el presidente Biden moviera ficha, pero el presidente Obama ya vetó en 2013 una prohibición a las ventas del iPhone cuando estas estuvieron amenazadas en la disputa legal que Apple mantenía con Samsung. La dimensión del Apple Watch es muy inferior a la de los iPhone, lo que hace aún más improbable que volvamos a ver esa medida.

Apple cree no obstante que esta prohibición afectará de forma notable a su negocio: esa división generó 13.480 millones de dólares de ingresos en el primer trimestre de 2023, por ejemplo. La empresa también ha enfatizado cómo estos relojes permiten a sus usuarios detectar potenciales problemas de salud.

No se sabe durante cuánto tiempo podría prolongarse ese veto, y aunque Apple apelará la decisión una vez termine el periodo de revisión presidencial, el próximo 26 de diciembre, eso no desactivará el veto a ventas e importación de forma inmediata.

En Xataka | WatchOS 10 causó estragos en la batería de algunos Apple Watch. La solución se está desplegando

-
La noticia Apple dejará de vender los Apple Watch Series 9 y los Ultra 2 en EEUU esta semana: la culpa la tienen las patentes fue publicada originalmente en Xataka por Javier Pastor .

Leer más

TikTok ha logrado que sus usuarios se gasten 10.000 millones de dólares en la app. Es algo insólito para un no-videojuego

TikTok ha logrado que sus usuarios se gasten 10.000 millones de dólares en la app. Es algo insólito para un no-videojuego

TikTok ha logrado algo que parecía imposible: subirse a la chepa de la mismísima Facebook. El éxito de esta red social, que ha contagiado a todo y todos con los vídeos cortos, es asombroso, y ahora una nueva métrica lo demuestra. Una con la que sus directivos deben estar frotándose las manos.

Los usuarios se han gastado ya 10.000 millones de dólares en TikTok. La aplicación alcanzó los 1.000 millones de usuarios activos mensuales (MAU) en septiembre de 2021, y ahora ha logrado un nuevo hito al convertirse en la primera aplicación -es importante recalcarlo: aplicación- móvil que logra generar 10.000 millones de dólares de ingresos en gasto directo de sus consumidores. Lo ha hecho tanto en la App Store como en Google Play según un informe de data.ai.

T1

Es una app, no un juego móvil. La primera sorpresa realmente notable de este hito es que TikTok es una app móvil: quienes habían logrado hasta ahora alcanzar esos ingresos de sus usuarios habían sido, cómo no, juegos móviles. En concreto, megaéxitos virales como 'Honor of Kings', 'Monster Strike', 'Candy Crush Saga' y, por supuesto, 'Clash of Clans'.

T2

Pero TikTok crece más y mejor que los juegos. A TikTok le costó recorrer el principio de ese camino: tardó nada menos que 79 meses en alcanzar los 1.000 millones de ingresos de usuarios, mientras que ninguno de sus competidores tardó más de 20 meses. A partir de ahí, eso sí, su crecimiento ha sido extraordinario: tardó 22 meses en pasar de los 1.000 a los 5.000 millones, y ha tardado tan solo 15 meses más en lograr alcanzar esos 10.000 millones de dólares. El más rápido de sus competidores,, 'Honor of Kings', tardó más del doble en dar ese último salto.

Que el ritmo no pare. En el informe se destaca cómo TikTok ha logrado añadir 3.800 millones de dólares de ingresos por gastos de usuarios en 2023 (estimación, ya que el año no ha acabado), lo que supone un 15% más que los 3.300 de 2022. Los datos son además hasta conservadores: no se incluyen las tiendas independientes de apps de Android en China, que tienen mucho peso allí y que por tanto probablemente hacen que los ingresos hayan sido incluso mayores. Tampoco se incluyen en ese informe los ingresos generados vía publicidad o e-commerce.

El nuevo oro digital son las "coins" de TikTok, ¿En qué se gastan los usuarios su dinero en TikTok? Pues ni más ni menos que en las llamadas "coins", la moneda virtual de la plataforma que permite entre otras cosas ofrecérselas a los creadores como una donación, una propina o un regalo. Son recompensas para los creadores, y luego ellos las pueden transformar en dinero real aunque eso sí: TikTok se queda con el 50% de esos ingresos.

Los países que más gastan. Los usuarios de Estados Unidos y China son los que más gastan: cada uno representa un 30% del total (60% combinado). Muy lejos están otros mercados como Arabia Saudi, Alemania, Reino Unido y Japón, que en suma representan el 13% de los ingresos totales.

Y 2024 pinta a ser aún mejor. Los analistas de data.ai son especialmente optimistas con el crecimiento de los ingresos de TikTok: esperan que en 2024 alcancen o se acerquen mucho al siguiente hito, los 15.000 millones de dólares, lo que supondría unos ingresos anuales en este ámbito de 5.000 millones de dólares. "Los usuarios se están gastando 11 millones de dólares al día en darles propias a sus creadores de contenido favoritos", explican.

Atados a TikTok. A ello contribuirá otro dato importante: se espera que en 2024 el uso de esta red social se dispare aún más. "A finales de 2024, los usuarios de TikTok pasarán 40 horas semanales trabajando en la aplicación, un 22% más que en 2023". destacan en el informe. El fenómeno parece imparable, al menos a corto plazo.

Imagen | Xataka con Visual Electric

En Xataka | El "poverty porn" ha llegado a TikTok. La última moda: grabar a indigentes sufriendo sobredosis en la calle

-
La noticia TikTok ha logrado que sus usuarios se gasten 10.000 millones de dólares en la app. Es algo insólito para un no-videojuego fue publicada originalmente en Xataka por Javier Pastor .

Leer más

Microsoft ya tiene rival para Gemini Nano. Se llama Phi-2 y puede funcionar en móviles (más o menos)

Microsoft ya tiene rival para Gemini Nano. Se llama Phi-2 y puede funcionar en móviles (más o menos)

Hace unos días Google daba el pistoletazo de salida a la era de la IA de bolsillo con Gemini Nano, su modelo de IA generativa de texto capaz de funcionar directamente desde el móvil y sin conexión a la nube. Ahora Microsoft acaba de sorprender a todos con el lanzamiento de su particular rival, un Small Language Model (SLM) llamado Phi-2 que también se puede usar en móviles.

Phi-2. En Microsoft Research indicaban que este nuevo modelo de texto a texto es "suficientemente pequeño para ser ejecutado en un portátil o en un dispositivo móvil". Satya Nadella ya nos habló de él en el reciente evento Ignite 2023, y es la evolución de Phi-1, que tan solo contaba con 1.3B de parámetros.

Un ChatGPT en formato compacto. Estamos ante un modelo con 2.700 millones de parámetros (2.7B), una cifra que claramente lo orienta precisamente a ser utilizada en dispositivos más modestos. En Google Gemini Nano tiene dos versiones con 1.800 (1.8B) y 3.250 millones (3.25B) de parámetros, por ejemplo.

Pequeñito pero matón. Lo es, al menos según sus responsables. ¿La razón? Es capaz de igualar e incluso superar las prestaciones y precisión de modelos teóricamente más capaces como Llama 2-7B o Mistral-7B. En las pruebas que han ejecutado anivel interno el rendimiento es excelente a pesar de tener casi una tercera parte de los parámetros de esos modelos.

También supera a Gemini Nano. El nuevo modelo de Microsoft es también capaz de superar el rendimiento de Gemini Nano 3.25B, el modelo "móvil" más ambicioso de Google, y según los investigadores de la empresa es también capaz de ofrecer menos "toxicidad" y mostrarse más subjetivo en las respuestas que las que por ejemplo ofrece Llama 2.

Las comparaciones son odiosas. En la presentación del modelo Microsoft nos recordó que la espectacular demostración de Gemini Ultra no había sido tan espectacular. Había hecho algo de trampa. En uno de los apartados Google mostró cómo Gemini Ultra era capaz de ayudar a un estudiante con problemas de física, y en Microsoft usaron los mismos prompts con Phi-2 y se vio que era también de resolver esas dudas incluso siendo un modelo mucho más pequeño.

Solo para investigar. A pesar de esa capacidad, Phi-2 no llegará a nuestros móviles, al menos por el momento. El modelo se licencia únicamente "con propósitos de investigación", y no se podrá desplegar comercialmente. Sí que se habla de la posibilidad de usarlo "con propósitos no comerciales y que no generen ingresos", pero su aplicación práctica es algo menos directa. Se puede acceder aél, eso sí, a través del catálogo de la nueva plataforma Azure AI Studio.

En Xataka | ChatGPT se está volviendo vago y OpenAI lo sabe. Pero si le ofreces una propina (o le dices que no tienes dedos) lo hará mejor

-
La noticia Microsoft ya tiene rival para Gemini Nano. Se llama Phi-2 y puede funcionar en móviles (más o menos) fue publicada originalmente en Xataka por Javier Pastor .

Leer más

Tesla ha creado el Cybertruck para niños: es eléctrico, cuesta 1.500 dólares y está totalmente agotado

Tesla ha creado el Cybertruck para niños: es eléctrico, cuesta 1.500 dólares y está totalmente agotado

Hace unos días Tesla comenzaba por fin a entregar las primeras unidades de su esperado Cybertruck. El estrambótico vehículo que quiere revolucionar el segmento de las pickups ha generado una expectación sin igual, pero resulta que este modelo no ha llegado solo.

Resulta que además del modelo convencional, que en su versión básica parte de los 61.000 dólares, Tesla ha ofrecido un "Cybertruck para niños", un coche eléctrico para pequeños de entre 6 y 12 años (soporta una carga máxima de 68 kg), según la compañía, y que alcanza una velocidad máxima de 16 km/h.

El coche cuenta con una batería de 22 V, un motor de 500 W (350 W nominales), y un interruptor que permite poner límites a la velocidad máxima para los más pequeños, de forma que el Cybertruck para niños no pase de los 8 km/h. Su autonomía es de 12 millas, unos 19,3 kilómetros.

Su diseño imita las líneas del Cybertruck estándar, aunque la parte trasera cambia y ese espacio simplemente se usa para los dos únicos asientos (ajustables) con los que cuenta el vehículo. Las ruedas neumáticas también imitan el diseño de las llantas desmontables de los Cybertruck, y cuenta ocn frenos electrónicos.

Hay un pequeño espacio detrás de los asientos que puede servir como maletero, y además del volante, que imita al del Cybertruck, cuenta con luces delanteras y traseras gracias a un sistema de iluminación LED.

El Cybertruck para niños tiene un precio de 1.500 dólares, pero su lanzamiento ha sido absolutamente arrollador, porque al poco de ponerse a la venta en la tienda de Tesla —solo en EEUU— la empresa actualizó la página para poner el cartel de "agotado" ("Out of stock").

Cyberquad

Tesla de hecho ya hizo un primer experimento en este terreno cuando hace dos años lanzó su Cyberquad, que con un diseño que seguía las líneas del Cybertruck (aún no lanzado por entonces, pero sí presentado), permitía a los niños contar con un quad especialmente llamativo.

El vehículo acabó siendo retirado meses después por no cumplir la normativa de seguridad, pero Tesla ha vuelto a ponerlo a la venta recientemente con una versión mejorada. Su precio es de hecho superior al del Cybertruck para niños, ya que el Cyberquad cuesta 1.900 dólares.

Imagen | Tesla

En Xataka | El Tesla Cybertruck es el sinónimo del coche antieuropeo: por todo esto será muy raro verlo en Europa

-
La noticia Tesla ha creado el Cybertruck para niños: es eléctrico, cuesta 1.500 dólares y está totalmente agotado fue publicada originalmente en Xataka por Javier Pastor .

Leer más

Francia tiene su propia OpenAI: se llama Mistral AI y ya está valorada en 2.000 millones de dólares

Francia tiene su propia OpenAI: se llama Mistral AI y ya está valorada en 2.000 millones de dólares

Hace siete meses investigadores de Meta y Google DeepMind se lanzaban a la aventura y creaban una nueva startup. Lo sorprendente no es eso, sino que decidieron hacerlo desde París, donde crearon su empresa de inteligencia artificial, llamada Mistral AI. Desde entonces su crecimiento es espectacular, y lo acaba de demostrar una nueva ronda de financiación.

Más dinero para crecer. Como indican en The New York Times, Mistral AI ha "levantado" 385 millones de euros en una ronda de financiación en la que están incluidas NVIDIA o Salesforce, pero también empresas de capital riesgo de Silicon Valley como Andreessen Horowitz y Lightspeed Venture Partners. Esta última ya había participado en la ronda anterior.

Mistral ya vale 2.000 millones de dólares. Esta nueva ronda hace que la valoración de Mistral AI haya crecido ya hasta los 2.000 millones de dólares, una cifra insólita para una startup europea que como decimos nació hace apenas siete meses y que ahora mismo cuenta con una plantilla de 22 personas. En verano ya prometía: la ronda de inversión inicial de 105 millones de euros hizo que su valoración apenas haber sido creada fuera de 240 millones de euros.

Modelo Open Source. La filosofía de Mistral AI se asemeja a la de Meta, que liberó su modelo Llama 2 con licencia Open Source. La plataforma de la startup parisina también es Open Source, y tiene como objetivo ser la base del desarrollo de chatbots, motores de búsqueda y otras plataformas de IA. La idea es competir con los modelos privativos que desarrollan tanto OpenAI (ChatGPT) y Google (Bard).

La gran esperanza europea. Para Bruno Le Maire, ministro de economía francés, Mistral le ofrece a su país una oportunidad de rivalizar con los gigantes tecnológicos estadounidenses. El viejo contienen se ha quedado atrás en el terreno de la innovación tecnológica, y desde hace años se dedica esencialmente a regular, como ha quedado demostrado con la reciente preaprobación de la AI Act.

¿Qué ha logrado Mistral hasta ahora? La startup tiene como punta de lanza su LLM Mistral 7B, con licencia Apache 2.0 y que ha ganado popularidad por su eficiencia. 7B es un modelo relativamente pequeño: Gemini Nano, que se ofrecerá en móviles, tiene un tamaño de 3.25B) y capacidad.

Mistral

Los modelos de Mistral prometen, al menos según las pruebas internas de la startup francesa.

Recién salidos del horno. Hoy mismo Mistral AI ha anunciado el lanzamiento de tres modelos en fase beta que están disponibles para ser usados —es posible solicitar acceso a la lsita de espera—. Así, tenemos en primer lugar Mistral-tiny, con 7B de parámetros, el más eficiente. En segundo, Mistral-small (8x7B, mezcla de modelos expertos con "pesos abiertos"), comparable según sus responsables a Llama 2 70B (mucho más "pesado") y a GPT-3.5. Y en tercero, a Mistral-medium (no especifican cuántos parámetros tiene), que supera en diversas pruebas a GPT-3.5.

Una apuesta prometedora. Como lleva sucediendo con Llama 2, Mistral puede convertirse en un componente importante para todo tipo de desarrollos Open Source en aplicaciones de inteligencia artificial. La expectación generada es notable, como demuestran quienes ya están intentando hacer uso de estos modelos antes incluso de que el acceso público sea estable. Aún así, es pronto para saber si el notable crecimiento de su valoración económica acaba estando justificado.

Imagen | Mistral AI

En Xataka | Soy fotógrafo profesional y he probado el relleno generativo de Photoshop. Así creo que va a cambiar nuestro futuro.

-
La noticia Francia tiene su propia OpenAI: se llama Mistral AI y ya está valorada en 2.000 millones de dólares fue publicada originalmente en Xataka por Javier Pastor .

Leer más

Generar apenas nueve imágenes por IA sale caro. Tanto como recargar por completo tu móvil

Generar apenas nueve imágenes por IA sale caro. Tanto como recargar por completo tu móvil

La revolución de la IA no está saliendo barata. A los ingentes recursos de computación que necesitan los modelos de IA generativa se les une una realidad incómoda: esos procesos de entrenamiento y el propio uso de dichos modelos provoca emisiones de CO2 importantes. Ya sabíamos que ChatGPT y Bard contaminaban, pero es que los Midjourney y DALL-E 2 del mundo contaminan aún más.

El estudio. Una investigación llevada a cabo por investigadores de la Universidad de Carnegie Mellon y la startup HuggingFace revela que usar los modelos de IA generativa requiere ingentes cantidades de energía. En el estudiohttps://arxiv.org/abs/2311.16863 revelaron el uso de una herramienta llamada Code Carbon para comparar las emisiones de CO2 en los 16 modelos más populares usados en el HuggingFace Hub, una plataforma abierta que permite probar y usar esos modelos fácilmente.

Captura De Pantalla 2023 12 05 A Las 16 10 19

La generación de imágenes genera muchas más emisiones que otros procesos actualmente contemplados por modelos de IA e IA generativa.

ChatGPT consume, pero DALL-E consume mucho más. En las conclusiones quedó claro que los modelos de IA generativa de texto —chatbots similares a ChatGPT— consumían mucha energía, pero la cosa era especialmente preocupante en el caso de los modelos dedicados a la generación de imágenes.

Comparando consumos. En las pruebas realizadas la generación de 1.000 inferencias suponía consumos que iban entre los 0,06 y los 2,9 kWh, siendo el consumo medio de 1,35 kWh. Los investigadores luego destacaban cómo de media un smartphone consume 0,012 kWh de energía para cargarse. ¿Qué significa eso?

Cargar el móvil da para nueve imágenes. Con esas cifras, el estudio concluía que generar nueve imágenes con estos modelos de IA consume lo mismo que cargar el móvil completamente. Ese dato pone en perspectiva el problema, porque lo normal en estos procesos de uso de IA generativa de imágenes es generar a menudo unas cuantas imágenes hasta que damos con la que buscamos.

Y hay modelos terriblemente ineficientes. Aunque la media era esa, hay modelos especialmente glotones de energía, y según el estudio el peor de todos ellos consume 11,49 kWh por 1.000 inferencias, lo que hace que básicamente cada imagen costara energéticamente lo mismo que recargar una vez el móvil.

¿Y las emisiones? De nuevo el problema de fondo es también el de las emisiones de CO2, que son notables: de media cada imagen producida genera entre 0,1 y 0,5 gramos de dióxido de carbono. En los modelos más contaminantes del estudio la cifra fue escandalosa, y cada imagen provocaba unas emisiones de 2 gramos de CO2.

No es exhaustivo, pero da pistas. Los propios responsables del estudio destacaban que los debates sobre consumo energético y emisiones se centran en la fase de entrenamiento, pero deberían tener (muy) en cuenta la fase de uso posterior. Esperan que estos datos sirvan —aun reconociendo que no son exhaustivos— para poner en marcha medidas, buenas prácticas y regulación que ayuden a mitigar el problema.

Imagen | Lasse Jensen

En Xataka | "Make it more": la última moda en ChatGPT es pedirle imágenes cada vez más exageradas y surrealistas

-
La noticia Generar apenas nueve imágenes por IA sale caro. Tanto como recargar por completo tu móvil fue publicada originalmente en Xataka por Javier Pastor .

Leer más

Estos siete portátiles no usaban baterías recargables como los de ahora. Les bastaba con usar pilas AA

Estos siete portátiles no usaban baterías recargables como los de ahora. Les bastaba con usar pilas AA

Lograr que nuestros portátiles aguanten largas jornadas de trabajo (o de ocio) ha sido siempre uno de los retos de los fabricantes, pero hubo un tiempo en que algunos de esos fabricantes lanzaron una idea singular: la de no utilizar baterías recargables convencionales, sino pilas AA de toda la vida.

¿En serio? ¿Un portátil alimentado por pilas AA? No parece una idea demasiado buena dada la limitada capacidad de las pilas, pero en ciertas máquinas modestas y con características muy específicas aquello sí acabó teniendo sentido. En Lunduke han mostrado algunos ejemplos destacables, y aunque se trata de máquinas limitadas y ya obsoletas, cada propuesta es de lo más curiosa.

Atari ST Book

La primera es el Atari ST Book, un portátil sorprendente lanzado en 1991 y que contaba con un Motorola 68000, hasta 4 MB de RAM, hasta 120 MB de disco duro y lo más importante en este caso: una pantalla LCD monocroma de matriz pasiva de 10,4 pulgadas y con una resolución de 640x400 píxeles. Estaba basado en el sistema operativo Atari TOS 2.06.

Atari2

El equipo hacía uso de un compartimento en el que era posible utilizar una batería recargable, pero que también funcionaba con siete pilas AA. A pesar de ello sus modestas prestaciones permitían que la autonomía fuese relativamente larga. La posición del trackpad en el teclado es otra de sus notas llamativas.

TRS-80 Model 100 (1983)

Más antiguo aún es este equipo que parece más una calculadora científica. Sus prestaciones son también especialmente modestas, ya que contaba con tan solo 24 KB de memoria y una pantalla LCD de 240x64.

Trs

Aún así su formato era sorprendente porque contaba con un teclado de tamaño completo que se usaba para programar en BASIC. Hacía uso de cuatro pilas AA, y con ellas era capaz de aguantar 20 horas.

HP OmniBook 300 (1994)

La familia de portátiles Omnibook de HP fue una de las más codiciadas del mercado, y en ella hubo miembros singulares como este OmniBook 300 de 1994 que estaba basado en un Intel 386 y que contaba con un singular ratón de quita y pon que se "extraía" de un compartimento en el lateral del equipo.

Captura De Pantalla 2023 12 05 A Las 9 54 02

Este portátil contaba con una pantalla VGA de 9 pulgadas, y debido a sus limitaciones tenía tanto Excel como Word preinstalados en la ROM para que pudieran funcionar de forma razonable. Hacía uso de cuatro pilas AA que ofrecían una autonomía de hasta 9 horas según el dispositivo de almacenamiento interno elegido en la configuración.

HP 200LX (1994)

Aunque este producto entraría más en la categoría de PDA que en la de portátil, estamos ante un dispositivo híbrido —probablemente el primero de su clase— que contaba con un teclado de pequeño formato e incluso de un teclado numérico, además de una pantalla CGA de 640x200 píxeles.

HP 200LX

Este dispositivo estaba basado en MS-DOS 5.0, contaba con una CPU Intel 80186 y estaba alimentado por dos pilas AA. Gracias al reducido consumo de este equipo, la autonomía era de unas increíbles 40 horas.

IBM Workpad Z50 (1999)

En mayo de 1999 IBM lanzó un portátil sorprendente que entra en este repaso de refilón. Se trataba de un equipo basado en un procesador MIPS 4100 a 131 MHz, 16 MB de RAM, una pantalla de 640x480 píxeles, un módem de 33,6 Kbps integrado y un sistema operativo singular: Windows CE 2.11.

Work

El portátil contaba con una batería recargable convencional, pero es que además tenía un sistema de alimentación auxiliar: un compartimento de dos pilas AAA permitía alargar ligeramente la vida útil del equipo y evitar así pérdidas de datos si la batería principal se agotaba.

Alphasmart Dana (2002)

Más curioso aún es este equipo probablemente desconocido para muchos y que no estaba basado en un sistema operativo "de escritorio", sino que estaba gobernado, atención, por PalmOS 4.1.2. Contaba con una pantalla panorámica de 560x160 píxeles de resolución y 16 MB de memoria.

Alpha

Pero es que además del teclado contaba con puertos USB, lector SD e incluso en un modelo revisado, con Wi-Fi. Estaba alimentado con tres pilas AA que permitían disponer de una autonomía de 40 horas (o la mitad con la retroiluminación activada).

Gecko EduBook (2009)

Casi recién salido del horno, sobre todo teniendo en cuenta el resto de equipos de los que hemos hablado, estaba este Gecko EduBook, un "netbook" que se vendía con Windows XP —pero también podía correr Linux— y que contaba con una pantalla de 8,9 pulgadas y 1.024 x 600 píxeles.

Captura De Pantalla 2023 12 05 A Las 10 11 46

Estaba basado con un curioso procesador Xcore86 a 1 GHz que tan solo consumía 1,2 W y era compatible con la arquitectura x86. El netbook estaba alimentado por ocho pilas AA recargables que, eso sí, ofrecían una autonomía de unas 4 horas, algo limitada pero razonable teniendo en cuenta que aquí estábamos ante un portátil "casi normal".

Imagen | Felix Winkelnkemper

En Xataka | Quiero usar mi portátil siempre conectado a la corriente: consejos y buenas prácticas para conservar la batería

-
La noticia Estos siete portátiles no usaban baterías recargables como los de ahora. Les bastaba con usar pilas AA fue publicada originalmente en Xataka por Javier Pastor .

Leer más

Las redes sociales nos dejaron trabajar gratis para ellas. Ahora nos quieren cobrar por hacerlo

Las redes sociales nos dejaron trabajar gratis para ellas. Ahora nos quieren cobrar por hacerlo

Internet es maravillosa, pero lo es cada vez menos. La caótica y anárquica red de redes que revolucionó nuestro mundo y cambió nuestra forma de entenderlo (y disfrutarlo) se ha convertido en una gigantesca gallina de los huevos de oro. Una que ha acabado siendo controlada por unos pocos gigantes.

Y entre todos ellos, hay un selecto grupo de plataformas que dominan cada vez más nuestra relación no ya con internet, sino con aquellos con los que nos relacionamos y a las que admiramos. Las redes sociales, que nos maravillaron y conquistaron a (¿casi?) todos, se han convertido en un terrible virus. Uno que está provocando que internet sea cada vez menos maravillosa.

Esta es una historia en muchos actos, pero hemos querido resumirla (un poco) en un prólogo y tres de ellos. Vamos allá.

Prólogo

En 1908 Theodore Vail, por entonces presidente de AT&T, se dio cuenta de algo que a priori, la verdad, no parecía demasiado sorprendente: cuantos más clientes tenían, más le costaba a sus rivales competir con ellos.

Theodore Vail 1

Theodore Vail. Fuente: AT&T

Aquel año reflejó aquel pensamiento en su informe anual a los inversores, y en las páginas 21 y 22 de aquel documento llegó a una conclusión clara: "Un teléfono —sin conexión al otro lado de la línea— no es siquiera un juguete o un instrumento científico. Es una de las cosas más inútiles del mundo. Su valor depende de la conexión con otro teléfono. Y se incrementa con el número de conexiones [...]. Nadie necesita dos conexiones telefónicas si puede comunicarse con todas las personas que desee a través de una sola".

Para él el valor de AT&T no estaba en la tecnología, sino en la red que esa tecnología había permitido crear. Daba igual que alguien creara un teléfono mejor, porque nadie lo querría si no podían usarlo para llamar a su familia y amigos.

Aunque no lo llamó así, Theodore Vail fue el primero en hablar del efecto red.

Avancemos. Robert Metcalfe, coinventor de la tecnología Ethernet, validó el concepto en 1980 con la ley que lleva su nombre. Según dicha ley, el valor de una red de telecomunicaciones es proporcional al cuadrado del número de usuarios conectados al sistema (n²). Años más tarde, en 2001, un ingeniero llamado David Reed fue incluso más lejos y descubrió que Metcalfe había subestimado el valor de una red: dentro de una gran red se formaban pequeñas redes que multiplicaban ese valor. De repente el valor era exponencial (n²), y de ahí surgió la Ley de Reed.

El efecto de red aparecía frecuentemente en sistemas de retroalimentación positiva: los usuarios obtenían más y más valor de un producto a medida que más usuarios se unían a esa red. Aunque parezca una obviedad, la observación no se había formalizado hasta entonces. La teoría siguió desarrollándose sin que mucha gente prestara demasiada atención, pero un siglo después de que Vail plasmara aquella reflexión, la idea explotó.

Acto I. Facebook

El 4 de febrero de 2004 un desconocido joven llamado Mark Zuckerberg lanzaba junto a Eduardo Saverin —el cofundador olvidado— su proyecto web, una red social a la que llamaron "The Facebook". Inicialmente aquella plataforma apenas dejaba hacer nada: uno tenía que visitar el perfil de otra persona para ver lo que publicaba, y por defecto los perfiles eran privados. Aquello tenía su gracia, pero el verdadero bombazo llegaría algo después.

Cristian

Cuando Facebook se llamaba Thefacebook, en 2006. Fuente: Christiaan Colen

Lo hizo el 5 de septiembre de 2006, cuando Facebook (ya sin el "The") anunció su nueva característica, a la que llamó "News Feed" ("Hilo de noticias"). Aquella característica difundía las actividades más importantes de los usuarios a todos los miembros de sus redes. Casi todo lo que hacías era automáticamente notificado y difundido para que los demás usuarios lo vieran. La opción, que ahora vemos lógica —imaginad teniendo que visitar usuario por usuario a ver qué ha publicado— causó una absoluta debacle aquel mismo día, y los usuarios la calificaron de espeluznante.

Como indicaron entonces en Wired, lo fácil para Zuckerberg habría sido echar marcha atrás, pero se negó a ello. Aquel News Feed era la clave de su grafo social. A los tres días publicó una carta abierta a sus usuarios: si queréis, dijo, podéis desactivar la opción. La controversia desapareció tan rápido como había aparecido, y ¿sabéis qué? Prácticamente nadie desactivó el News Feed, y el crecimiento de usuarios siguió aumentando.

Cuando TheFacebook se lanzó, solo los miembros de la Universidad de Harvard en la que estudiaban podían acceder, pero poco a poco el acceso se amplió. Primero, a otras universidades y más tarde, el 8 de marzo de 2008, se abría la caja de Pandora: Facebook se abría a todo el mundo. Al menos, a todo el que tuviera una dirección de correo electrónico.

Para entonces Facebook ya era un absoluto fenómeno de masas —y un ejemplo de libro del efecto de red—. A finales de 2007 El País calificaba a esta red social como "el fenómeno 'internetero' de 2007". Por entonces había superado los 50 millones de usuarios, pero un año después ya tenía 100 millones y aquella apertura no hizo más que disparar el crecimiento. ¿Qué hacían todos esos usuarios allí?

Trabajar para Facebook.

No lo parecía y ellos (nosotros) no lo sabían, claro. Para ellos esta red social era una maravillosa plataforma en la que mantener contacto con sus conocidos, recuperarlo con familiares o antiguos amigos y, poco a poco, compartir más sobre sus vidas e intereses. Facebook, mientras tanto, iba haciéndose más y más fuerte. Más y más grande, tanto en usuarios, como en contenido. Contenido que todos esos usuarios habían generado para ellos, pero también para ella.

Acto II. Twitter

Era 2004. Evan Williams acababa de venderle Blogger a Google y buscaba un nuevo proyecto. Lo encontró en Odeo, una plataforma de podcasting que cofundó con un ingeniero llamado Noah Glass. Aquello parecía tomar forma, y la herramienta se lanzó en julio de 2005 con la ayuda de un becario cuyo nombre quizás os suene: Kevin Systrom, que años más tarde sería cofundador de Instagram.

Captura De Pantalla 2023 10 30 A Las 17 22 56

Los principios de Twitter, también en 2006. Fuente: Emily Chang.

Pero Odeo no acababa de cuajar, y la culpa la tuvo iTunes, que poco después integraría su propia plataforma de podcasting. Para entonces Williams y sus compañeros se dieron cuenta de que aunque habían creado Odeo, apenas la usaban. Eso era mal síntoma.

¿Qué hicieron? Como contaban en un reportaje de 2011 en Business Insider, se pusieron a pensar en nuevas ideas de negocio. Crearon pequeños grupos para hacer brainstorming, y de uno de ellos salió una propuesta prometedora. Jack Dorsey quería crear un servicio en el que la gente pudiera publicar su "estado" y lo que estaban haciendo en ese momento. Noah Glass bautizó —dicen— aquella idea con un nombre sin vocales.

Twttr.

Al principio Evan Williams no parecía muy convencido con la idea, pero dejó que Glass trabajara en ella junto a otro ingeniero —exempleado de Google— llamado Biz Stone.

Quienes hablan de aquellos orígenes afirman que ninguno de aquellos que trabajaban en Twttr estaba tan entusiasmado con la idea como Glass. Otros como Florian Weber contribuyeron también a su creación, pero lo cierto es que los cofundadores a los que realmente siempre se menciona es a Dorsey, Stone y Williams. Un 21 de marzo de 2006 Dorsey publicaría el primer mensaje en Twitter, y a partir de ahí todo iría muy rápido.

Status2

Twitter ni siquiera se quería llamar Twttr: al principio la idea era una red social llamada Stat.us en la que compartir tu estado. Sin más. Así fue el primer boceto que Jack Dorsey creó con esa idea.

Williams acabaría recomprando Odeo a sus inversores y cambiando el nombre de la empresa a Obvious Corp. Y de paso, despidió a Glass, que básicamente desapareció del mapa. Otro cofundador relegado al olvido, qué casualidad.

Twitter comenzó a crecer de forma imparable, sobre todo tras aquella aparición fulgurante en la conferencia South by Southwest Interactive (SXSWi) de 2007 en la que en cada charla los usuarios podían ver sus mensajes de Twitter publicados en dos pantallas de plasma de 60 pulgadas. Al final la gente acabó más atenta a eso que a las propias charlas, y el fenómeno Twitter se comenzó a disparar progresivamente.

Al principio, de forma más recatada. Luego, poco a poco, a lo loco. Llegaban los hashtags y, sobre todo, la introducción de Twitter como medio de comunicación con identidad propia. La era del periodismo ciudadano —con aquella foto de del vuelo que amerizó en el río Hudson y acabó convirtiéndose en película— y de Twitter como altavoz social —lo demostró por ejemplo en las polémicas elecciones iranís de 2009— parecía haber llegado especialmente con los eventos de la Primavera Árabe de 2011 o con fenómenos como el del #MeToo. Todo eso cambiaría tras la sísmica aparición de Musk en escena: para él —y cierta élite en Silicon Valley— el periodismo es, sencillamente, peligroso.

Lo fuera o no, daba igual. Como había sucedido con Facebook, durante todos esos años, con sus luces y sus sombras, Twitter se había convertido en otra plataforma en la que los usuarios no habían parado de compartir todo tipo de cosas. Primero, en tan solo 140 caracteres. Luego, con los 280 como límite. Por último (si pagabas) con 4.000. Todas esas reflexiones y todos esos contenidos nos habían, en mayor o menor medida, informado y entretenido, y todos formaban parte de la misma realidad de la que nos daríamos cuenta más tarde.

También habíamos estado trabajando para Twitter sin saberlo.

Acto III. Bienvenidos al feudalismo digital

Lo que Facebook y Twitter normalizaron venía en realidad de antes. Los más maduritos del lugar probablemente recordéis —y sigáis accediendo a— aquellas protoredes sociales llamadas Slashdot —lanzada en 1997 y excelsa superviviente, ahí es nada— y Digg —que nació en 2004—. Aunque la cosa no era tan clara en Slashdot, Digg nos maravilló con la maximización digital del concepto de compartir es vivir. Uno veía algo interesante en internet, lo compartía y otros usuarios votaban si también les gustaba.

Feudalismo1

En la Edad Media el feudalismo era el sistema político predominante en Europa Occidental. La desigualdad entre gobernantes y vasallos o siervos era excepcional. Fuente: Wikimedia Commons

Aquello era adictivo y viral, y el efecto red de Vail y sus sucesores pronto hizo de las suyas. Los internautas se contagiaron de aquel fenómeno y Digg creció como la espuma: si un medio lograba portada en Digg, su tráfico se disparaba. La plataforma tuvo el acierto de entender que si alguien lograba actuar como intermediario molón, los usuarios acudirían para trabajar gratis.

Porque eso es lo que hacían los usuarios. Sí, se beneficiaban de esa plataforma de descubrimiento, sin duda, pero votar, comentar o enviar nuevos contenidos que pensaban que eran interesantes se convirtió en algo que a esos usuarios no les dio ni un duro, pero que hizo que los creadores de Digg se hicieran ricos. En su día la empresa estuvo valorada en 164 millones de dólares, pero quienes la fundaron la destrozaron y en 2012 acabó vendiéndose a Betaworks por 500.000 dólares para luego.

¿Sabéis qué plataforma se inspiró en Digg? No solo la española Menéame —que ha mentenido su esencia original a pesar de sufrir sus propias crisis—, sino, cómo no, Reddit, que adoptaría una filosofía similar —votos, ranking algorítmico de contenido, comunidad— pero con diferencias importantes en cuanto al control que se ejercía sobre el contenido: Reddit fue desde sus inicios mucho más anárquico, y aunque eso también generó diversas polémicas, el principio fue el mismo que en Digg: compartir y descubrir era maravilloso, pero Reddit ponía la plataforma —que ciertamente costaba dinero y recursos— y los usuarios, el trabajo.

Los ejemplos a partir de ahí se multiplican, pero de repente surgieron otras redes y sobre todo un fenómeno que ni Facebook ni Twitter llegaron a explotar .

El de los influencers.

Primero fue YouTube, claro. La plataforma de vídeo se convirtió en la semilla de la primera gran generación de creadores. Como contaban en Business Insider, "lo que empezó como un refugio un puñado de frikis incromprendidos, se ha convertido en una ola de dinero y fama". En diciembre de 2007 se lanzaba el YouTube Partner Program, una iniciativa absolutamente revolucionaria que por primera vez permitía a los creadores monetizar su contenido y lograr que aquello que los usuarios hacían por afición se convirtiese en su profesión. No mucha gente puede vivir exclusivamente de YouTube: los expertos hablan de que uno comienza a poder hacerlo cuando pasa del millón de suscriptores, y se estima que hay unos 30.000 canales que igualan o superan esa cifra. ¿Qué hacen el resto de los usuarios entonces?

Exacto. Trabajar para YouTube.

Es cierto que algunos logran ciertos ingresos, pero como en otras muchas redes sociales —e industrias—, hay un pequeñísimo porcentaje de verdaderas celebridades, tras las cuales hay millones de aspirantes a esa cima. Llegar siquiera a ganarse la vida con YouTube es (muy) complicado, pero llegar a las cotas de los MrBeast (207 millones de suscriptores) o nuestro elRubiusOMG (40,3 millones) es prácticamente imposible.

Feudalism

En el feudalismo digital la estratificación es equivalente a la de los sistemas feudales de la Edad Media. Fuente: Zach Scott

Para la audiencia de YouTube —como en el resto de los casos— probablemente el reparto es justo: ellos obtienen entretenimiento, y la empresa gana dinero con la publicidad. De nuevo tenemos a un intermediario que "solo" —no es poco, insistimos— está ahí para que la plataforma funcione, porque el contenido y la interacción que lo alimenta todo —vídeos, comentarios, votos— la ponen los usuarios. Usuarios aparentemente felices con el hecho de que ese contenido esté salpicado con (cada vez más y más restrictivos) anuncios que a ellos quizás también deberían beneficiarles.

Pero no lo hacen. YouTube no te paga por subir vídeos a no ser que formes parte de su Partner Program, que en 2021 contaba con dos millones de miembros o lo que es lo mismo, dos millones de creadores que ganan algo de dinero con sus contenidos. En 2021 los responsables del servicio afirmaron haber pagado más de 30.000 millones de dólares entre 2018 y 2021 a sus 2 millones de creadores gracias a la publicidad, así que en esos tres años un creador habría ganado de media 15.000 dólares gracias a YouTube. El problema es que esa media es muy engañosa, porque como decimos solo unos 30.000 pasan del millón de suscriptores y pueden presumir de ganarse la vida (algunos muy bien) con esta plataforma.

Para la inmensa mayoría  es probable que esos ingresos sean residuales, algo sorprendente teniendo en cuenta dos datos recientes. Uno, que YouTube tiene 2.700 millones de usuarios activos (los que al menos accedieron al servicio una vez al mes) en 2023. Y dos, que solo en 2022 el servicio generó 29.200 millones de dólares de ingresos. Hay que reconocer que la infraestructura de YouTube es gigantesca —más incluso que el de otras plataformas, el vídeo es muy exigente—, pero también otra obvia: el negocio marcha.

Sea como fuere, esas mismas mecánicas de YouTube acabaron conquistando a la nueva hornada de redes sociales, que nacieron con ese mismo enfoque desde su comienzo. Así hemos visto cómo Instagram conquistó el mundo de la fotografía, Twitch el de las emisiones de vídeo en directo o TikTok el de los vídeos cortos. Y en todas ellas, el fenómeno influencer se ha apoderado de estas plataformas, creando pequeñas élites que sirven de referente no solo a los usuarios que se limitan a consumir, sino a aquellos creadores que tratan de seguir esos pasos.

Luego llegarían otras como Substack para el mundo de las newsletters y OnlyFans para el contenido para adultos, y en todas ellas el esquema era el mismo: contenidos a raudales para unas plataformas que nos ponían a todos a trabajar. Bien para crear contenido —y en algunos casos (con suerte), monetizarlo—, bien para consumirlo y retroalimentar sus algoritmos.

Y mejor no hablamos de algoritmos, porque todas las plataformas —Twitter, la última— han acabado haciendo lo mismo: no solo no nos dejan seguir a quien queremos seguir con todo lo que publican, sino que por medio nos meten (recomiendan) un montón de contenido que no habíamos pedido. Que puede que en algunos casos ese contenido pueda ser útil, pero si lo muestran es 1) ganan más dinero con ello y 2) porque las redes controlan lo que vemos. Y si no lo hacen, se despide a un ingeniero y listo.

Con sus luces y sus sombras, todas esas plataformas —con Facebook y Twitter a la cabeza— se han convertido en dueñas y señoras de una internet en la que se ha impuesto el feudalismo digital. El concepto viene de lejos, pero un ilustre de esta casa, Antonio Ortiz, escribía hace unos meses una columna en Retina titulada 'Feudalismo digital. La cruzada de los creadores contra la tiranía de las plataformas'. En ella reflexionaba sobre esa realidad en la que había un fuerte contraste entre dos realidades.

La primera, la de que hay un "fascinante universo de creadores y negocios" alrededor de todas estas plataformas. Él citaba específicamente a TikTok, porque allí los creadores hacen algo asombroso: reutilizar el contenido para adaptarlo y aprovecharlo en otros escenarios: hay aplicaciones de doblaje o creadores chinos que resumen las películas a estadounidenses para que no tengan que pasarse dos horas y media en una butaca. Es un fenómeno sorprendente y que ciertamente deja claro que todas esas plataformas son enormes generadoras de trabajo no ya directo para las plataformas, sino indirecto, como reflejan esos ejemplos. Que luego esos creadores rentabilicen o no ese trabajo es harina de otro costal.

La segunda, más preocupante, es la de que, como decía Antonio Ortiz, los usuarios que ven tus tiktoks no son tuyos, porque es TikTok la que decide en cualquier momento cómo funciona su plataforma. Un creador se puede encontrar con una pesadilla si la plataforma cambia el algoritmo y sus ingresos se hunden —pasa—, pero la cosa puede ser peor: pueden borrar vídeos o cerrarte el canal de la noche a la mañana sin que puedas hacer nada por evitarlo.

Si por lo que sea se decide que tu contenido ya no es bueno, o válido, o menos interesante para quienes mandan —los caminos de [ponga aquí la red social que desee] son inescrutables—, te convertirás en un paria sin poder hacer prácticamente nada y todo tu esfuerzo podría quedarse invalidado.

Social Media

Los ingresos por publicidad en redes sociales han crecido como la espuma en la última década. La gráfica se centra en EEUU, pero es extrapolable al mercado global. Vía: MarketingCharts

Para muchos artistas y fotógrafos eso ocurrió por ejemplo con Instagram. Como señalaron en The New York Times, la red que había sido hogar y refugio de imágenes de todo tipo comenzó a dejarlas atrás para convertirse en una copia de TikTok: los vídeos se convirtieron en protagonistas y los Reels debutaron precisamente para intentar que Instagram mantuviera su relevancia. Adam Mosseri, máximo responsable de la plataforma, lo dejó claro: "ya no somos tan solo una aplicación de compartición de fotos cuadradas". Querían ser TikTok, y aunque quisieron dar marcha atrás, por el camino dejaron parcialmente huérfana a esa comunidad cuyo efecto red se había cimentado precisamente en la magia de las imágenes estáticas.

Epílogo. Trabajas para ellos y encima tienes que pagar

Esos nuevos señores feudales primero nos pusieron a todos a trabajar sin que nos diéramos cuenta. Luego, como los ingresos publicitarios comenzaron a ser importantes, comenzaron a compartir con los creadores parte de los ingresos para animarles a crear sin parar. Incluso el nuevo X de Musk ha comenzado hacerlo, pero de forma poco transparente —recuerda, comparten ingresos publicitarios, pero solo de quienes te ven y están suscritos a X— y, al parecer, favoreciendo una vez más a los creadores que más importan.

Pero ahí no acababa todo. Hay una nueva e inquietante etapa.

Esa etapa no es otra que la de las redes sociales que han comenzado a cobrarnos por poder usarlas como lo habíamos hecho toda la vida. La única diferencia destacable, la de poder usarlas sin publicidad (o con una fracción de la que aparecía antes).

Esclavos

Fuente: Hussain Badshah

Facebook acaba de anunciar su plan de suscripción en Europa, donde la regulación les ha obligado a activar esa modalidad. Twitter  X ha decidido contar no con uno, sino con tres planes distintos para suscriptores —el básico, con toda la publicidad de antes, también es de pago— y no está claro que no vaya a cobrarnos a todos los usuarios.

Las suscripciones no son la única medida para generar ingresos adicionales. Tanto X como Reddit decidieron en los últimos meses capar el acceso a sus APIs, que hasta entonces había sido gratuito, y comenzar a cobrar cantidades importantes de dinero por esa opción. La medida ha sido un enorme jarro de agua fría para los desarrolladores y otros analistas y expertos —e incluso para gigantes como Google—, y se escuda en un argumento: están usando sus datos para entrenar modelos de inteligencia artificial.

Aquí hay una tremenda y enorme ironía —o injusticia, según se mire—, y es la de que todos esos datos a los que ahora Facebook, Twitter o Reddit no dan acceso si no pagan no los crearon ellos.

Los crearon los usuarios.

Es asombroso, porque quienes han acabado dando todo el valor a esas redes sociales son esos usuarios, que durante años las han llenado de contenidos y han alimentado sus algoritmos para pulir su funcionamiento. Y ahora no solo no comparten sus gigantescos ingresos con casi nadie, sino que además quieren que los usuarios paguen por poder disfrutar lo que antes era gratis.

Mensaje para Elon Musk, de X, y Steve Huffman, de Reddit: ¿queréis cobrar a los OpenAI y Google de turno por entrenar sus IA... con el contenido que nosotros hemos generado durante años? Maravilloso.

Por no hablar de todos los programadores y artistas que compartieron su trabajo con el mundo sin pedir nada a cambio, y que ahora (lógicamente) protestan —o demandan— porque Microsoft (con GitHub Copilot) y OpenAI (con DALL-E) entre otros usan todo ese trabajo para sus herramientas de pago. Unas herramientas por las que cobran y de las que se benefician ellos, no los creadores (¡que además tienen que pagar para usarlas con todas sus prestaciones!).

Primero creaste el contenido para ellos, y ahora ellos te cobran por poder acceder a ese mismo contenido.

Es algo terrible, y hay quien ya le ha dado nombre a esa transformación que estamos viendo en las grandes redes sociales. Cory Doctorow, un conocido escritor y bloguero, lo llamó 'Enshittification' ('Mierdificación'), y lo definió así:

"Así es como mueren las plataformas: primero, son buenas para sus  usuarios; luego, abusan de sus usuarios para mejorar las cosas para sus  clientes empresariales; finalmente, abusan de esos clientes  empresariales para recuperar todo el valor para sí mismas. Entonces, mueren.

Yo llamo a esto enshittificación, y es una  consecuencia aparentemente inevitable que surge de la combinación de la  facilidad de cambiar la forma en que una plataforma asigna valor,  combinada con la naturaleza de un "mercado de dos lados", donde una  plataforma se sitúa entre compradores y vendedores, manteniendo a cada  uno como rehén del otro, rastrillando una parte cada vez mayor del valor  que pasa entre ellos".".

De momento las plataformas de las que hemos hablado no han muerto y ciertamente parece difícil que lo hagan a corto plazo. A pesar de ello, parecen haber completado dos de las fases de las que habla Doctorow, y ese difícil equilibrio sigue provocando movimientos que vienen y van, como el de #deletefacebook.

Y aún así, lo que estamos viviendo es asombroso y terrible. La pregunta es si el futuro de internet pasa por aceptar esta nueva realidad (tú creas, tú consumes, pero además tú pagas) o el paradigma cambia y los usuarios acabamos "rebelándonos", quizás abrazando alternativas descentralizadas con las que recuperamos el control como plantea con Mastodon. Eso parece difícil, y mientras no lo haga, probablemente sigamos atrapados (y despreocupados a pesar de las constantes alarmas) y prisioneros de ese efecto red que Theodore Vail perfiló hace más de un siglo.

Imagen | Xataka con Runway

En Xataka | Cuando las redes sociales ya no son sociales: el auge del candado en Twitter y de los grupos de WhatsApp

-
La noticia Las redes sociales nos dejaron trabajar gratis para ellas. Ahora nos quieren cobrar por hacerlo fue publicada originalmente en Xataka por Javier Pastor .

Leer más

Así era el “carrito USB de la muerte” que freía equipos con BSOD cuando Microsoft trabajaba en Windows 98

Así era el

Hoy en día el soporte de dispositivos USB es algo trivial, pero a finales de los 90 tanto el estándar como la compatibilidad de esos dispositivos era un verdadero caos. En Microsoft iniciaron a dar soporte a dicha estándar en Windows 98, pero aquello no fue precisamente un camino de rosas.

Para lograrlo Microsoft ingenió una prueba terrorífica. Lo contaba Raymond Chen, veterano de la empresa, en una entrevista en el canal de YouTube de uno de sus excompañeros, Dave Plummer. Allí le relataba la historia del "carrito USB de la muerte".

Aquel carrito era como un carrito de correo de oficina, pero estaba lleno de dispositivos USB que debían funcionar correctamente. Tenía varios ratones, teclados, discos, e impresoras.

Todos estaban conectados en cadena a través de diversos concentradores en tres niveles. Por entonces el límite máximo del estándar era de 127 dispositivos, pero el equipo de Microsoft trabajó inicialmente con 64 dispositivos USB encadenados, así que en Microsoft decidieron crear ese carrito con exactamente 64 cosas conectadas vía USB, y además todos esos dispositivos unificaban su conexión en un único conector USB que se podía conectar a cualquier ordenador.

La cosa no terminaba ahí: curiosamente para ayudar a manejar ese carrito y moverlo uno de los dispositivos USB conectados era un volante para videojuegos con conexión USB que estaba justo en la parte trasera para que pudieras "conducir" el carrito USB de la muerte.

Lo que se hacía entonces, explicaba Chen, era conducir el carro hasta el despacho de alguno de los desarrolladores del equipo que trabaja en dar soporte al estándar USB y se le preguntaba si tenía alguna máquina de pruebas. Cuando el desarrollador contestaba que sí, le preguntaban si podían conectar algo a ella para probarla.

La prueba era precisamente la de utilizar ese conector USB único en el que acababa todo el carrito USB de la muerte en la máquina de pruebas. Lo que ocurría entonces es que toda la infraestructura USB del sistema operativo se volvía loca al ver esos 64 dispositivos USB conectados con ese tipo de estructura.

A partir de ahí quien llevaba el carrito podía ir probando por ejemplo si un teclado de los que había conectados o un ratón funcionaban. Pero en realidad solían hacer una prueba más brutal: esperar a ver cómo el sistema "Plug & Play" comenzaba a enumerar los dispositivos y a cargar sus controladores para, de repente, desconectar ese único conector. Entonces se comprobaba si el sistema podía recuperarse reconociendo que se habían desconectado decenas de dispositivos USB mientras los estaba instalando.

El nombre del carrito era bien merecido: el resultado habitual al hacer esa prueba era el célebre pantallazo azul de la muerte de Windows. El código que daba soporte al estándar USB estaba recién salido del horno y había todo tipo de conflictos potenciales en él que aparecían ante pruebas brutales como esta.

Lo que se hacía con eso era conectar ese carrito al laboratorio en el que estaban todas las máquinas de prueba. Se conectaba el carrito, se esperaban por ejemplo cinco segundos, se desconectaba y aparecía el BSOD con cierto mensaje. Luego pasabas a otra máquina, pero esta vez esperabas siete segundos tras conectar el carrito y desconectarlo: aparecía la BSOD con otro error.

Eso permitía a los desarrolladores depurar esos errores detectando cuál había sido la causa y corrigiendo esa parte del código. De esa forma el sistema no se quedaría colgado por esa causa la siguiente vez, aunque podría hacerlo por otra que luego se corregiría, y así hasta depurar todos los fallos.

El escáner que lo inspiró todo

La inspiración, contaba Chen, vino de un evento desastroso que se hizo tristemente célebre en la historia de Microsoft: la BSOD que se produjo durante una presentación de una versión preliminar del sistema operativo Windows 98.

El 20 de abril de 1998 Bill Gates tuvo que mantener el tipo como nunca. Estaba en la feria COMDEX, en plena presentación de Windows 98 junto a Chris Capossela, uno de los responsables del desarrollo de este sistema operativo. Capossela estaba mostrando lo bien que teóricamente funcionaba el sistema "Plug & Play", pero al conectar un escáner, el sistema se colgó y mostró un pantallzo azul de la muerte (BSOD).

Caposella solo pudo pronunciar un "Whoa". El púglico empezó a reirse y a aplaudir. Bill Gates, trajeado, se rió como si aquello no fuera para tanto. "Por esto debe ser por lo que todavía no estamos vendiendo Windows 98", explicó Bill. Su subordinado, visiblemente nervioso, sonrió y contestó "desde luego".

Ahora sabemos más de la historia. Uno de los miembros de aquel equipo hacía un comentario revelador en ese vídeo igualmente llamativo de hace unos días del que hablábamos anteriormente. PatrickM, que trabajó en el desarrollo del soporte para USB, FireWire y Bluetooth y estuvo en Microsoft 18 años contó qué había sucedido. 

"El Comdex BSOD fue causado por un escáner "hot dog" que no habíamos probado en el laboratorio. Habíamos verificado otro escáner en esa versión del sistema operativo, pero no se lo llevaron, sino que fueron a Fry's y compraron uno de la estantería. El escáner disparó la excepción de "sobrecorriente" ya que se reportó como "alimentado por bus" pero intentó solicitar más de los 500mA que un dispositivo "alimentado por bus" podía solicitar. Ese escáner volvió y se montó en un casco de infantería de la Segunda Guerra Mundial que BradCarp llevó a las salas de Windows WAR durante el resto del ciclo del producto".

Aquel desastre acabó ayudando a crear ese "entorno de pruebas" del carrito USB de la muerte, y sin duda aquello ayudó a mejorar el soporte y compatibilidad de un estándar que eso sí, siguió dando problemas durante muchos años con aquel sistema Plug & Play (en este contexto, algo así como "Conectar y usar") que acabó siendo objeto de múltiples bromas y rebautizado como Plug & Pray ("Conectar y rezar").

Imagen | Donald Zawalczyk

En Xataka | La historia del verdadero pantallazo azul de la muerte de Windows y su evolución 



-
La noticia Así era el "carrito USB de la muerte" que freía equipos con BSOD cuando Microsoft trabajaba en Windows 98 fue publicada originalmente en Xataka por Javier Pastor .

Leer más

El iPhone saca fotos que mezclan realidades. Es un fallo de su sistema de fotografía computacional

El iPhone saca fotos que mezclan realidades. Es un fallo de su sistema de fotografía computacional

En el ámbito de la fotografía móvil cada vez es más evidente que los sensores son importantes, pero lo es aún más el postprocesado y sobre todo el buen uso de la fotografía computacional. Esta disciplina es la que ha revolucionado este campo y ha permitido ofrecer resultados alucinantes desde las cámaras de nuestros móviles, pero también da algunos sustos.

Una novia, tres realidades. Lo acaba de comprobar Tessa Coates, una actriz y comediante británica, que en una sesión de fotos probándose un vestido de novia se dio cuenta de algo: en los espejos ella aparecía en otra pose distinta a la que realmente tenía en el momento de hacerse la foto. De repente se mostraban tres realidades en la misma foto, y la pregunta, ¿por qué?

A este iPhone le pasa algo. La foto no era una foto animada ni tampoco una ráfaga: era una foto normal tomada en un iPhone. Como señalan en PetaPixel, la actriz, asustada, confesó en su cuenta de Instagram que tuvo "un ataque de pánico en plena calle". Para tratar de saber qué pasaba, Coates se fue a una Apple Store cercana.

Esto no es una cámara. Un técnico de la tienda le explicó al atenderla y escuchar qué le había pasado que el iPhone "no es una cámara, sino una computadora. Toma una serie de imágenes consecutivas muy rápidas aunque no sea una ráfaga como tal". En efecto, la fotografía computacional se encarga de que cuando pulsamos el botón para sacar una foto en realidad se hagan varias, que luego se combinan para lograr los mejores ajustes de tono, contraste, color, detalle o fondo.

El iPhone se hizo un lío. Es probable que cuando a Coates le hicieron la foto moviera los brazos rápidamente, pero el sistema de fotografía computacional del iPhone cometió el error de pensar que esas posiciones en los espejos correspondían a la misma posición de la persona que estaba delante de ellos. Los integró en la composición final porque eran las capturas con mejor calidad, pero en esa foto final se ve claramente que el resultado es casi distópico.

Una foto entre un millón. Lo cierto es que es difícil que este tipo de situaciones se produzcan al hacer fotos con el iPhone o con cualquier otro móvil, y de hecho el técnico destacó cómo esa imagen era "una entre un millón".

En Xataka | Los Pixel 8 sacarán mejores fotos que nunca. El problema es que (algunas) serán mentira

-
La noticia El iPhone saca fotos que mezclan realidades. Es un fallo de su sistema de fotografía computacional fue publicada originalmente en Xataka por Javier Pastor .

Leer más