Así es cómo ha impactado la IA en el sector médico, análisis del BYD Seal U DM-i y mucho más en Crossover 1×18

Tenemos nuevo episodio de Crossover, el 1x18, y esta vez lo presenta en solitario Jaume Lahoz, que no tiene ningún problema en coger las riendas él solo. De hecho veréis como no solo presenta, sino que también tiene sección propia.

El tema central de este episodio es una entrevista con un invitado top: Esther Gómez, conocida en redes como @mienfermerafavorita. Esta divulgadora y profesora universitaria nos habla del presente y futuro de la IA aplicada a la salud.

Eso nos da la oportunidad de hablar de algunos avances prometedores en esta materia, como es el caso de AlphaFold o InmunoScore. Pero además charlamos largo y tendido sobre ética, privacidad y el papel de los profesionales sanitarios en la era digital.

Pero no nos quedamos ahí, y en este episodio de Crossover también comentamos la actualidad tecnológica más destacada de los últimos días y tenemos una sección especialmente dedicada a las gamers: ¿cuáles son los candidatos a GOTY en 2025? Hay mucho y bueno (y muy bueno) a lo que engancharse.

La última sección hace que Jaume sea aún más protagonista que nunca: nos presenta un análisis de su experiencia con uno de los SUV más populares del momento, el BYD Seal U DM-i que también pudimos analizar en Xataka. ¡Esperamos que disfrutéis del episodio!

En YouTube | Crossover

-
La noticia Así es cómo ha impactado la IA en el sector médico, análisis del BYD Seal U DM-i y mucho más en Crossover 1x18 fue publicada originalmente en Xataka por Javier Pastor .

Leer más

Hay un nuevo unicornio en Europa: se llama n8n, es alemán y ha convertido las automatizaciones de flujos de trabajo en algo sexy

Hay un nuevo unicornio en Europa: se llama n8n, es alemán y ha convertido las automatizaciones de flujos de trabajo en algo sexy

Durante muchos años Jan Oberhauser trabajó para empresas de efectos especiales (VFX) en la industria del cine y la televisión. En aquellos trabajos se dio cuenta de que automatizar ciertas tareas permitía simplificar su trabajo y el de sus colegas de forma notable, y fue entonces cuando decidió darle un giro completo a su carrera: creó una startup de automatización a la que llamó n8n y la ha acabado convirtiendo en el último y prometedor unicornio europeo. Ahí es nada.

Así nació n8n. La empresa fundada por Oberhauser nació en 2019 en Berlín, Alemania. Su objetivo: crear una plataforma de automatización de flujos de trabajo que destacaba por ser Open Source —ellos prefieren usar el término "fair code", "código justo"– . Además se podía y se puede usar en modo tanto autohospedado (cualquiera se lo puede montar en su PC/servidor) como directamente a través de sus sistemas "llave en mano" con el tradicional esquema SaaS y sus planes de suscripción. El código está disponible en GitHub.

Qué hace esta plataforma. Básicamente, automatizarlo todo. Para ello hace uso de integraciones de todo tipo en aplicaciones y servicios web de terceros, pero también herramientas desarrolladas internamente y, desde hace un tiempo, modelos de IA que se han convertido en uno de los ingredientes estrella de esas automatizaciones. Las posibilidades son prácticamente ilimitadas, pero por poner algunos ejemplos, n8n permite:

  • Que al recibir un correo en Gmail se filtren los remitentes, se guarden los adjuntos en Google Drive y se te notifique en Slack
  • Que si ocurre cualquier evento en una app o servicio se te envíe una alerta en Slack, WhatsApp o Discord
  • Descargar archivos de sde un servidor FTP, convertirlos a otro formato, procesarlos y luego distribuirlos por canales de mensajería

Un IFTTT a lo grande. En esencia n8n es algo así como un IFTTT supervitaminazo: es posible encadenar todo tipo de tareas para que "si pasa esto, hagas esto otro". Aquí no obstante el objetivo es captar no ya a usuarios finales —en Reddit hay una comunidad muy nutrida y entusiasta de ellos— sino a los usuarios empresariales, para los que plantea una alternativa clara a plataformas de automatización muy populares como Zapier o Make (en ambos casos, nada de solución autohospedada). Algo que parece aburrido y engorroso se convierte aparentemente en algo divertido, casi sexy —como demuestran algunos videotutoriales de YouTube—, con n8n.

N8n no ha parado de crecer. En 2020, pocos meses después de crearse, ya captaba una pequeña ronda de inversión de 1,5 millones de dólares. Un año después levantaban 12 millones de dólares más en una nueva ronda, y desde entonces no han parado de crecer, pero su verdadera explosión se ha aprovechado del auge de la IA generativa.

Un unicornio alemán. Hace cuatro meses y tras una nueva ronda de financiación de 55 millones de euros, n8n tenía una valoración notable de 350 millones de dólares. Pero como indican en Bloomberg, esa valoración se podría disparar ahora hasta los 2.300 millones de dólares gracias a una reciente ronda adicional en la que la firma de capital riesgo Accel liderará con una importante participación aún no definida.N8n se convierte así en miembro de ese prestigioso grupo de startups de IA europeas que ya son unicornios, como ocurre con la francesa Mistral o la española Freepik.

Agentes de IA como ingrediente clave. La empresa ya supera los 40 millones de dólares de ingresos recurrentes (suscripciones), y se ha beneficiado del citado auge de la IA y el fenómeno de los agentes de IA, con la diferencia de que aquí esos agentes son en realidad una pieza más de esos flujos de automatización. Cuando defines uno de esos flujos pueden "llamar" a cualquier modelo de IA para que realice cualquier tarea, y a partir de ella, que la salida acabe siendo la entrada de una nueva etapa del flujo de trabajo. La potencia del sistema, que ya era notable, se multiplica ahora con la ayuda de esa opción.

En Xataka | "AI fluency" será el nuevo "ofimática nivel usuario" en las ofertas de empleo. El problema: tendrás que aprender por tu cuenta

-
La noticia Hay un nuevo unicornio en Europa: se llama n8n, es alemán y ha convertido las automatizaciones de flujos de trabajo en algo sexy fue publicada originalmente en Xataka por Javier Pastor .

Leer más

La IA ha sido hasta el momento un simpático accesorio: con GPT-5, OpenAI quiere colocarla en el centro de todas las cosas

La IA ha sido hasta el momento un simpático accesorio: con GPT-5, OpenAI quiere colocarla en el centro de todas las cosas

Microsoft y Apple definieron el segmento del PC y lo convirtieron en una commodity. El ordenador se convirtió en algo estándar, común y fácilmente intercambiable, sin demasiada diferenciación. Quienes acabaron ganando esa batalla, no obstante, fueron Microsoft e Intel, que se llevaron buena parte de los beneficios.

Luego llegaría el móvil. Está claro que quienes han ganado este segmento han sido Apple (con iOS) y Google (con Android), pero cuidado, porque quienes lo definieron fueron dos empresas. La primera, la citada Apple, que además triunfó con el paradigma de la App Store y ha acabado llevándose cerca de la mitad de los ingresos. La segunda, una empresa en la que quizás no muchos hubiérais pensado: Amazon.

El gigante del comercio electrónico acabaría impulsando la nube con sus Amazon Web Services, y también acabó convirtiendo esa nube en otra commodity. Y como ocurrió con Microsoft y el PC o con Apple y el móvil, Amazon acabó acaparando buena parte de los beneficios de la nube. Una nube a la que accedemos constamente (por ejemplo, a través del iPhone), pero a la que ni siquiera prestamos demasiada atención: está ahí y funciona, como antes el PC y ahora el móvil. Como explicaba el analista Ben Thompson en Stratechery, son todo commodities.

Pues bien, hay quien espera que la IA se acabe convirtiendo en otra commodity. Que este segmento por el que ahora compiten multitud de empresas acabe convirtiéndose en (quizás) un duopolio como el que crearon Microsoft e Intel en el PC o Apple y Google en el móvil. Los modelos fundacionales son el nuevo PC/móvil, y aunque hay candidatos fuertes para acabar ganando esa carrera, todo está aún por definir.

La IA como commodity

Y ahí es donde entra en juego GPT-5, que quiere ser algo así como la App Store de Apple o el AWS de Amazon: esa plataforma que la convierta en la empresa que defina la carrera de la IA y consiga ganarla. Y que con el tiempo también influya en esa conversión de la IA en una commodity.

Con este lanzamiento OpenAI se juega mucho. Sam Altman lleva años viviendo de dos cosas. Por un lado, del éxito de ChatGPT, un producto destacable, pero de momento no revolucionario. Por el otro, sobre todo, del hype. De promesas y de momentos wow como el que nos brindaron con GPT-4o o con las imágenes estilo Studio Ghibli.

Porque insistimos, ChatGPT es un buen producto que ha demostrado ser útil como asistente en todo tipo de tareas, pero sobre todo en la programación. Ha desatado una fiebre insólita por la IA generativa y los centros de datos, y ha hecho que multitud de empresas confíen su futuro —o más bien lo apuesten— a esta tecnología. Pero revoluciones, de momento, pocas.

Las comparaciones con fenómenos como el del PC, internet o el móvil son inevitables. Y en todos ellos el discurso y la evolución fueron similares. Hubo dudas y escepticismo al principio, apuestas exageradas después —hola, burbuja puntocom— y, en efecto, revolución. Y se espera que con la IA pase algo así, aunque de hecho los más devotos de esta tecnología afirman que esto irá aún más allá. Otros, mucho más escépticos, creen que esto es una burbuja que acabará explotando... aunque de ella pueda acabar derivando la verdadera revolución, como pasó con internet.

Tanto si hay burbuja y explota como si no, GPT-5 es para OpenAI un modelo clave para su futuro. Y la paradoja de este modelo es que la empresa necesita el salto más grande de la historia de la IA justo cuando más imposible parece. Está por ver lo bueno que es realmente el modelo, pero la empresa no puede sufrir otro fiasco como el de GPT-4.5 o su reputación saldrá muy dañada.

¿Conseguirá OpenAI con GPT-5 y la IA lo que ya consiguieron Microsoft, Apple o Amazon en sus respectivos segmentos? Esa es la gran pregunta. Y tendremos que esperar un poco para responderla.

En Xataka | Hay demasiados modelos de IA. Eso plantea una verdadera sentencia de muerte para Anthropic y Claude

-
La noticia La IA ha sido hasta el momento un simpático accesorio: con GPT-5, OpenAI quiere colocarla en el centro de todas las cosas fue publicada originalmente en Xataka por Javier Pastor .

Leer más

He probado los nuevos modelos de OpenAI. Ha sido una pequeña odisea con premio: tengo un ChatGPT en local

He probado los nuevos modelos de OpenAI. Ha sido una pequeña odisea con premio: tengo un ChatGPT en local

Poder usar ChatGPT en la nube es fantástico. Está siempre ahí, disponible, recordando nuestros chats anteriores y respondiendo de forma rápida y eficiente. Pero depender de ese servicio también tiene desventajas (coste, privacidad), y ahí es donde entra una posibilidad fantástica: ejecutar los modelos de IA en local. Por ejemplo, montarnos un ChatGPT local.

Es lo que hemos podido comprobar en Xataka al probar los nuevos modelos abiertos de OpenAI. En nuestro caso hemos querido probar el modelo gpt-oss-20b, que teóricamente se puede usar sin demasiados problemas en máquinas con 16 GB de memoria.

Eso es al menos de lo que presumía ayer Sam Altman, que tras el lanzamiento afirmaba que el modelo superior (120B) puede ejecutarse en un portátil de alta gama, mientras que el más pequeño se puede ejecutar en un móvil.

Nuestra experiencia, que ha ido a trompicones, confirma esas palabras.

Primeras pruebas: fracaso

Tras probar el modelo durante un par de horas me pareció que esa afirmación era exagerada. Mis pruebas fueron sencillas: tengo un Mac mini M4 con 16 GB de memoria unificada, y llevo probando modelos de IA abiertos desde hace meses mediante Ollama, una aplicación que hace especialmente sencillo poder descargarlos y ejecutarlos en local.

En este caso el proceso para poder probar ese nuevo modelo "pequeño" de OpenAI fue sencillo:

  1. Instalar Ollama en mi Mac (ya lo tenía instalado)
  2. Abrir una terminal en macOS
  3. Descargar y ejecutar el modelo de OpenAI con un simple comando: "ollama run gpt-oss:20b"

Al hacerlo, la herramienta comienza a descargar el modelo, que pesa unos 13 GB, y a continuación lo ejecuta. Lanzarlo para poder usarlo ya tarda un poco: es necesario mover esos 13 GB del modelo y pasarlos del disco a la memoria unificada del Mac. Tras uno o dos minutos, aparece el indicador de que ya puedes escribir y chatear con gpt-oss-20b.

Ahí es cuando comencé a probar a preguntarle algunas cosas, como esa prueba ya tradicional de contar erres. Así, comencé pidiéndole al modelo que me respondiera a la pregunta "¿Cuántas "r" hay en la frase "el perro de San Roque no tiene rabo porque Ramón Ramírez se lo ha cortado?".

Ahí gpt-oss-20b comenzó a "pensar" y fue mostrando su cadena de pensamiento (chain of thought) en un color gris más apagado. Al hacerlo uno descubre que, en efecto, este modelo contestaba a la perfección a la pregunta, e iba separando por palabras y luego desglosando cada palabra para averiguar cuántas erres había en cada una. Las sumaba al final, y obtenía el resultado correcto.

¿El problema? Que iba lento. Muy lento.

No solo eso: en la primera ejecución de este modelo tenía abiertas dos instancias de Firefox con unas 15 pestañas cada una, además de una sesión de Slack en macOS. Eso fue un problema, porque gpt-oss-20b necesita como mínimo 13 GB de RAM, y tanto Firefox como Slack y los propios servicios en segundo plano de macOS ya consumen bastante.

Eso hizo que al tratar de usarlo, el sistema colapsara. De repente mi Mac mini M4 con 16 GB de memoria unificada se quedó totalmente colgado, sin responder a ninguna pulsación del teclado o movimiento del ratón. Estaba muerto, así que tuve que reiniciarlo a las duras. En el siguiente reinicio simplemente abrí la terminal para ejecutar Ollama, y en ese caso sí pude usar el modelo gpt-oss-20b, aunque como digo, de forma limitada por la lentitud de las respuestas.

Eso hizo que tampoco pudiera pasar muchas más pruebas. Traté de iniciar una conversación sin importancia, pero ahí cometí un error: este modelo es un modelo de razonamiento, y por tanto trata de responder siempre mejor de lo que lo haría un modelo que no razona, pero eso implica que tarda aún más en responder y consume más recursos. Y en un equipo como este, que ya va justo de inicio, eso es un problema.

Al final, éxito total

Tras comentar la experiencia en X unos mensajes en X me animaron a volver a probar, pero esta vez con LM Studio, que ofrece directamente una interfaz gráfica mucho más en línea con la que ofrece ChatGPT en el navegador.

Captura De Pantalla 2025 08 06 A Las 13 23 33

De los 16 GB de memoria unificada de mi Mac mini M4, LM Studio indica que 10,67 están dedicados a memoria gráfica en estos momentos. Ese dato fue clave para poder usar el modelo abierto de OpenAI sin problemas.

Tras instalarlo y volver a descargar el modelo me dispuse a probarlo, pero al intentarlo me daba un error diciendo que no tenía suficientes recursos para poder iniciar el modelo. El problema: la memoria gráfica asignada, que era insuficiente.

Al navegar por la configuración de la aplicación comprobé que la memoria gráfica unificada se había repartido de una manera especial, asignando en esta sesión 10,67 GB a la memoria gráfica.

Captura De Pantalla 2025 08 06 A Las 13 28 27

La clave está en "aligerar" la ejecución del modelo. Para ello es posible reducir el nivel de "GPU Offload" —cuántas capas del modelo se cargan en la GPU—. Cuantas más carguemos más rápido, va, pero también más memoria gráfica consume. Situar ese límite en 10, por ejemplo, era buena opción.

Hay otras opciones como desactivar "Offload KV Cache to GPU Memory" (cachea resultados intermedios) o reducir el "Evaluation Batch Size", cuántos token se procesan en paralelo, que podemos bajar de 512 a 256 o incluso 128.

Una vez establecidos esos parámetros, conseguí que el modelo se cargara por fin en memoria (tarda unos segundos) y poder usarlo. Y ahí la cosa cambió, porque me encontré con un ChatGPT más que decente que respondía bastante rápido a las preguntas y que era, en esencia, muy usable.

Captura De Pantalla 2025 08 06 A Las 13 16 18

Así, le pregunté por el problema de las erres (contestó a la perfección) y luego también la pedí que me hiciera una tabla con los cinco países que más campeonatos y subcampeonatos del mundo de fútbol han ganado.

Esta prueba es relativamente sencilla —los datos correctos están en Wikipedia— pero las IAs se equivocan una y otra vez y esta no era la excepción. Se inventó algunos años para algunos países y cambió el número de subcampeonatos incluso cuando le pedí que volviera a revisar la información.

Captura De Pantalla 2025 08 06 A Las 13 16 33

Luego quise probar algo distinto: que generara un pequeño código en Python para crear una gráfica a partir de unos datos de partida. Me indicó que tenía que instalar una librería (matplotlib), y luego me generó el código para el gráfico.

Hay que destacar que esta versión de "ChatGPT local" no genera imágenes, pero sí puede crear código que genere gráficas, por ejemplo, y es lo que hice. Tras ejecutar ese código en la terminal, sorpresa. Como veréis algo más adelante, el resultado, aunque algo crudo, es sorpendente (y correcto).

Lo cierto es que el rendimiento del modelo de IA local me ha sorprendido muy gratamente. Es cierto que puede cometer errores, pero como prometen los ingenieros de OpenAI el rendimiento es muy similar al del modelo o3-mini que sigue siendo una gran opción incluso a la hora de usarlo en la nube.

Las respuestas suelen ser realmente decentes en precisión, y los fallos que pueda tener y que hemos visto —las pruebas se han limitado a unas horas— están en línea con otros modelos de última generación que teóricamente son incluso más avanzados y exigentes en recursos. Así pues, sorpresa más que agradable en estas primeras impresiones.

La memoria lo es todo

El problema inicial con nuestras pruebas revela una realidad: la afirmación de OpenAI y de Sam Altman tiene letra pequeña. En el anuncio se habla de dos variantes de sus modelos abiertos de IA. La primera, con 120.000 millones de parámetros (120B) y la segunda con 20.000 millones (20B). Ambos se pueden descargar y usar de forma gratuita, pero como señalábamos, hay ciertos requisitos hardware para hacerlo.

Memoria

La memoria unificada de los chips de Apple se ha convertido en su gran ventaja a la hora de ejecutar modelos de IA locales. Fuente: Apple.

Así, para poder ejecutar estos modelos en nuestros equipos necesitaremos sobre todo cierta cantidad de memoria:

  • gpt-oss-120B: al menos 80 GB de memoria
  • gpt-oss-20B: al menos 16 GB de memoria

Y aquí el detalle crítico es que esos 80 GB o 16 GB de memoria deberían ser, cuidado con esto, de memoria gráfica. O lo que es lo mismo: para poderlos usar con soltura necesitaremos al menos esa cantidad de memoria en nuestra GPU dedicada o integrada.

Mientras que los PC usan memoria RAM por un lado y memoria gráfica (en la GPU, mucho más rápida) por otro, los Mac de Apple hacen uso de memoria unificada. Es decir, "combinan" ambos tipos y los "unifican" pudiendo usar esa memoria indistintamente como memoria principal o como memoria gráfica.

Esa memoria unificada tiene un rendimiento que está a caballo entre la memoria RAM convencional usada en PCs con Windows y la que está presente en las tarjetas gráficas de última generación.

Captura De Pantalla 2025 08 06 A Las 13 08 03

Ancho de banda de distintos tipos de sistemas de memoria. El gráfico ha sido generado a través de un pequeño código en Python generado por gpt-oss-20b.

Para hacernos una idea, el ancho de banda de algunos chips de Apple (con sistemas de memoria unificada similares, pero más y más potentes según el chip) y memorias RAM y gráficas convencionales es aproximadamente el siguiente:

  • Apple Mac mini M4: 120 GB/s (1)
  • Apple Mac mini M4 Pro: 273 GB/s (1)
  • Apple MacBook Pro M4 Max: 410 GB/s (2)
  • Apple Mac Studio M3 Ultra: 819 GB/s (3)
  • NVIDIA RTX 4070: 504,2 GB/s (4)
  • NVIDIA RTX 5090: 1.790 GB/s (5)
  • PC con memoria RAM DDR5-4800: 51,6 GB/s (6)

Como puede verse, en un PC actual la memoria RAM es mucho más lenta que en los chips de Apple más avanzados. El Mac mini M4 que he usado en las pruebas no es especialmente destacable, pero el ancho de banda de su memoria es el doble que la de módulos DDR5-4800. Aquí, por cierto, es donde como mencionábamos anteriormente hemos usado nuestro "ChatGPT local" para generar una gráfica a partir de un pequeño código en Python. El resultado, sin ser especialmente vistoso, es funcional y correcto.

Al final la idea tras la gráfica es precisamente la de reflejar lo más importante a la hora de ejecutar modelos de IA en local. La GPU y la NPU desde luego ayudan mucho, pero la clave está en 1) cuánta memoria gráfica tenemos y 2) qué ancho de banda tiene esa memoria gráfica. Y en ambos casos, cuanto más, mucho mejor, sobre todo si queremos correr modelos pesados en local, algo que puede salir muy, muy caro.

El modelo gpt-oss-120b, por ejemplo, requeriría tener al menos 80 GB de memoria gráfica, y no hay muchos equipos que puedan presumir de algo así: aquí el esquema de memoria unificada de Apple es una opción por ahora ganadora, porque la alternativa es usar una o varias gráficas dedicadas de alta gama para utilizar modelos locales con soltura bajo Windows o Linux.

Pruebas

DIversos benchmarks revelan que estos modelos abiertos están al nivel de o3-mini y no muy lejos de o4-mini en algunas pruebas. Fuente: OpenAI.

Dicho lo cual, será interesante ver hacia dónde se acaban moviendo estos modelos. La afirmación de que el modelo más pequeño (gpt-oss-20b) se puede usar en móviles es algo arriesgada, pero no descabellada: con una configuración adecuada de la capa de ejecución (Ollama, LM Studio, o la app móvil correspondiente), parece perfectamente factible que podamos contar con un ChatGPT local en nuestro móvil.

Uno que permita que todos nuestros datos no salgan de ahí (privacidad por bandera) y que además nos permite ahorrar en costes. El futuro de la IA local se abre paso ahora más que nunca, y solo esperamos que esto se convierta en tendencia para otras empresas que desarrollan modelos abiertos. Este de OpenAI es sin duda un gran y prometedor paso para ese teórico futuro en el que tengamos modelos de IA ejecutándose de forma masiva en nuestros PCs, en nuestros móviles... o en nuestras gafas.

En Xataka | Meta tiene una excelente razón para lanzar una variante gigantesca de Llama 4: la capacidad de especialización

-
La noticia He probado los nuevos modelos de OpenAI. Ha sido una pequeña odisea con premio: tengo un ChatGPT en local fue publicada originalmente en Xataka por Javier Pastor .

Leer más

Algo se está gestando en Corea del Sur: los altavoces con los que “bombardeaba” a Corea del Norte han desaparecido

Algo se está gestando en Corea del Sur: los altavoces con los que "bombardeaba" a Corea del Norte han desaparecido

Corea del Sur quiere relajar las tensiones con sus vecinos de Corea del Norte. Lo demuestra la simbólica decisión de desmantelar los altavoces gigantes que había instalado hace unos meses y que servían para un propósito insólito: "bombardear" a Corea del Norte con K-pop a todo volumen. ¿Servirá ese gesto de algo?

El conflicto coreano. La división de Corea que EEUU y Rusia definieron tras la Segunda Guerra Mundial provocó el inicio del conflicto coreano, que sigue vigente desde 1948, cuando ambos países crearon gobiernos separados. Esa división acabó provocando la Guerra de Corea (1950-1953) en la que ambos países salieron perdiendo y que desató una división definitiva entre Corea del Norte y Corea del Sur. Desde entonces, sobre todo, tensión. Mucha tensión.

Represalias constantes. La relación entre ambos países comenzó a volverse más problemática cuando el verano pasado Corea del Sur recibió una lluvia de globos cargados de basura. Este país no se quedó quieto, y respondió enviando drones propagandísticos que a su vez generaron dos represalias muy distintas.

Del ruido al K-pop. Primero, Corea del Norte calificó a su vecina como un "estado hostil" en su constitución. Y segundo, "bombardeando" a Corea del Sur con ruidos insoportables durante 24 horas en las zonas fronterizas. Aunque este tipo de medidas parecen insólitas, en realidad son una especie de ataque psicológico que se lleva usando desde la citada Guerra de Corea. Sea como fuere, Corea del Sur respondió de nuevo con una variante creativa: instaló altavoces gigantes en su frontera con Corea del Norte y comenzó a poner canciones de K-pop a todo volumen.

Bandera blanca. Pero en junio, en un giro repentino de los acontecimientos, Corea del Sur decidió apagar los altavoces de propaganda que transmitían tanto esas canciones como noticias y mensajes ideológicos. La decisión fue tomada por el nuevo presidente surcoreano, Lee Jae-myung, que desde su toma de posesión del cargo ha mostrado un perfil mucho más apaciguador que su predecesor, un batallador Yoon Suk Yeol que no tenía problema en que la tensión subiera de nivel en el conflicto coreano.

Corea del Norte se suma al gesto. En su primer discurso público Lee dejó claro que pretendía iniciar un diálogo con su archienemigo, Corea del Norte, para llevar la paz a la península coreana. Apagar los altavoces fue además un gesto que —sorprendentemente— tuvo respuesta inmediata: Corea del Norte también dejó de emitir ruidos estridentes en los altavoces fronterizos que había puesto en marcha meses atrás. Los activistas de ambos países, eso sí, mantuvieron la tensión. Mientras que los del sur enviaron globos cargados de panfletos críticos hacia Pyongyang, desde el norte replicaron con globos llenos de colillas y basura. El presidente Lee ya ha pedido que dejen de avivar la tensión con esos envíos de propaganda.

Desmontando los altavoces. Tras esa "tregua sonora", Corea del Sur ha dado un nuevo paso, y se han comenzado a desmontar los altavoces gigantes que fueron instalados para emitir música K-pop a todo volumen. Lee Kyung-ho, portavoz del ministerio de defensa surcoreano, explicó que esa era una "medida práctica que puede ayudar a suavizar las tensiones intercoreanas sin afectar la postura preparatoria militar".

Corea del Norte sigue en sus trece. A pesar de este gesto, en Pyongyang no parecen tener intención de acercar posiciones. Kim Yo Jong, hermana del líder coreano, indicó la semana pasada que "la confianza ciega" de Seúl en su alianza con EEUU hacían que para Corea del Norte la nueva administración no fuera diferente de la de su predecesor. Corea del Norte parece estar especialmente preocupada por afianzar su relación con Rusia, con la que está colaborando en la Guerra de Ucrania, y no tiene prisa por suavizar las relaciones con Corea del Sur.

Y Corea del Sur, por su acaso, avisa. Aunque la medida es un claro símbolo de la intención de Lee de relajar la tensión, el presidente surcoreano destacó que "el ejército mantiene un constante alto nivel de preparación". O lo que es lo mismo: rezan para lo mejor, pero están preparados para lo peor.

Restaurar la confianza. El ministro de unificación de Corea del Sur, Chung Dong-young, explicó que no se habían movimientos similares al otro lado de la frontera, pero para ellos este era "el paso adecuado". Además, añadió, "En última instancia, la cuestión clave entre las dos Coreas en este momento es restaurar la confianza, que se ha perdido por completo. Considero que esto es un paso hacia la reconstrucción de esa confianza.

Imagen | Firstpost

En Xataka | Rusia se está empezando a quedar sin las armas que heredó de la URSS. Así que está tirando de las de Corea del Norte

-
La noticia Algo se está gestando en Corea del Sur: los altavoces con los que "bombardeaba" a Corea del Norte han desaparecido fue publicada originalmente en Xataka por Javier Pastor .

Leer más

El mundo de la tecnología ya no es de “las Siete Magníficas”. Ahora ese cetro lo tiene “la trinidad de la IA”

El mundo de la tecnología ya no es de "las Siete Magníficas". Ahora ese cetro lo tiene "la trinidad de la IA”

El mundo del cine tiene cierta fijación con el número siete. Lo demuestra la mítica 'Los siete samuráis' (1954, Akira Kurosawa) que luego sería adaptada al género western con 'Los siete magníficos' (1960, John Sturges). La idea acabó trasladándose al mundo empresarial y desde hace unos años se habla de "las siete magníficas" en alusión a las siete empresas tecnológicas más importantes del mundo. Pues bien: ese número ya no es tan relevante. Parece que tendremos que cambiarlo por un tres.

El club de los cuatro billones. La semana pasada Microsoft se convertía en la segunda empresa del mundo en lograr una capitalización bursátil de cuatro billones de dólares. Apenas dos semanas antes se le había adelantado NVIDIA. Ambas se han subido al carro de la IA y se han beneficiado ampliamente de ello, pero hay una tercera gran protagonista que aún está lejos de ese hito pero que va como un cohete.

Captura De Pantalla 2025 08 04 A Las 14 13 14

Las 10 empresas con mayor capitalización bursátil a día de hoy. Meta está lejos de los cuatro billones, pero su crecimiento reciente es espectacular. Fuente: Companiesmarketcap.com

Meta. Los recientes resultados financieros presentados por Meta sirvieron para que la compañía redoblara su apuesta por este segmetno. Sus responsables hablaron de un capex mucho mayor del esperado que subirá hasta los 66.000-72.000 millones de dólares. Eso, sumado a todos los movimientos que están haciendo para fichar talento y crear un nuevo equipo de Superinteligencia han provocado un optimismo notable entre los inversores. Las acciones de Meta subieron más de un 10% tras estos anuncios, aunque en los últimos días su valor —como el de sus competidoras— se ha reducido sensiblemente.

Hemos pasado de "las siete magníficas"... Durante los últimos años esa lista con las empresas más importantes del mundo (por capitalización bursátil) estaba dominado por las grandes tecnológicas. Entre los primeros 10-15 puestos siempre estaban esas "siete magníficas", a saber: Alphabet, Amazon, Apple, Meta, Microsoft, NVIDIA y Tesla. Todas ellas siguen siendo muy relevantes, pero el auge de la IA ha cambiado el panorama.

... a "la trinidad de la IA". Dec Mullarkey, directivo en la firma de capital riesgo SLC Management, hablaba de cómo "las siete magníficas se han comprimido [y se han convertido] en la trinidad de la IA". La expectación que no paran de generar estas empresas sigue siendo extraordinaria, y eso ha hecho que las inversiones y el interés por estas compañías esté absolutamente disparado.

¿Sobrevaloradas? El ratio P/E (también conocido como PER, Price to Earnings Ratio) es una métrica que evalúa si una acción es cara o barata en relación con los beneficios de la empresa. Un P/E alto significa que los inversores esperan un alto crecimiento de beneficios, y uno bajo puede indicar que la acción está infravalorada. Según esta métrica, Tesla está muy, muy sobrevalorada, mientras que Google está relativamente infravalorada respecto a sus competidoras. Las empresas de "la trinidad de la IA" están algo sobrevaloradas.

Ratiop E

Gráfico: Xataka. Datos: CompanyMarketCap.com

El misterioso caso de Google. Resulta extraño que en esa "trinidad de la IA" esté Meta pero no Google, que al menos en la práctica está mucho más fuerte: su familia de modelos Gemini es más capaz que los que tiene Meta, por ejemplo, pero de momento los inversores no parecen del todo convencidos de su capacidad para liderar ese segmento. La situación de Amazon y Apple es muy distinta: ambas han realizado sus respectivas apuestas, pero siguen estando muy relegadas en esa carrera de la IA.

Imagen | ChatGPT

En Xataka | Todos contra NVIDIA: las empresas chinas más fuertes en chips e IA han creado una alianza histórica

-
La noticia El mundo de la tecnología ya no es de "las Siete Magníficas". Ahora ese cetro lo tiene "la trinidad de la IA” fue publicada originalmente en Xataka por Javier Pastor .

Leer más

Hasta hace poco los CEOs presumían de lo mucho que contrataban. Ahora cuanto más despiden, más orgullosos se sienten

Hasta hace poco los CEOs presumían de lo mucho que contrataban. Ahora cuanto más despiden, más orgullosos se sienten

Qué tiempos aquellos en las que las empresas tecnológicas contrataban como si no hubiera un mañana. La guerra de talento afectaba incluso a países como España, donde Amazon se peleaba con Meta por lograr miles de profesionales. Los CEO de todas esas empresas celebraban el fenómeno y sacaban pecho explicando que la pandemia había cambiado las reglas del juego. Estaban orgullosos de contratar, pero ahora están orgullosísimos justo de lo contrario.

Sacando pecho. Charlie Scharf, CEO de Wells Fargo, tiene un dudoso récord: el de haber logrado reducir su plantilla durante 20 trimestres seguidos. Este directivo ha calificado la reducción de trabajadores en esta entidad bancaria "como nuestra aliada". En los últimos cinco años la reducción total asciende a un 23%, señalan en The Wall Street Journal.

Y hay más casos. Otras empresas celebran también esas reducciones de plantilla, indican en WSJ. Loomis, una empresa financiera sueca, indicaba que ha logrado crecer a pesar de los despidos recientes, y Union Pacific, la empresa de ferrocarriles, destacaba que a pesar de despedir al 3% de su plantilla ha conseguido un trimestre récord. El CEO de Verizon, Hans Vestberg, indicó en una reciente conferencia con inversores que en materia de plantilla "estamos siendo muy, muy buenos, y está bajando constantemente". O lo que es lo mismo: está contentísimo de despedir a gente porque como destacó "somos muy eficientes a la hora de gestionar nuestros recursos". Lip-Bu Tan, CEO de Intel, anunció que despedirían al 15% de la plantilla, y su argumento fue el de que necesitaban convertirse en una empresa "más rápida, ágil y vibrante".

Si despides es porque eres un gran CEO. Esa parece ser la percepción actual de la industria tecnológica, porque mientras que no hace mucho despedir a gente parecía ser un síntoma de problemas y de una retirada estratégica, ahora está visto como una apuesta por la eficiencia y por el prometedor papel de la inteligencia artificial.

Elon Musk enseñó el camino. Los CEOs no solían presumir de despedir a gente, pero la cosa cambió cuando compró Twitter. Su primera y polémica decisión fue despedir a aproximadamente el 75% de la plantilla. La medida hizo saltar las alarmas y muchos se preguntaron si la plataforma lograría subsistir tras esa debacle laboral. Lo ha hecho, y Musk, maximalista de la eficiencia, siempre ha sacado pecho al hablar de esa medida.

El argumento de la eficiencia. Es como si de repente la industria se hubiera dado cuenta de que podía hacer recortes castigando a aquellos empleados con menor productividad o buscando la máxima eficiencia en la plantilla. Cada vez se habla más del rendimiento por empleado, y ahí NVIDIA es una de las grandes destacadas —claramente beneficiada por el auge de la IA—. Ahora se defiende el argumento entre los jefes de que nadie es irreemplazable.

Premio por recortar plantilla. Zack Mukewa, de la firma Sloane & Co., explicaba en WSJ cómo "ser honesto con los costes y la plantilla no solo se permite, sino que se premia" por parte de los inversores. El argumento para los despidos en el pasado era la búsqueda de la rentabilidad económica pura, pero ahora la excusa es la búsqueda del cambio y la renovación, de la adaptación para ese complejo futuro que se nos presenta.

Contrataciones a la baja. No solo hay despidos masivos: hay empresas que además han congelado temporalmente las contrataciones o las han ralentizado durante largos periodos. Es el caso de Bank of America: su CEO, Brian Moynihan, explicó a los inversores que durante su mandato la reducción de plantilla ha sido notable. Desde que fue nombrado CEO en 2010, la plantilla ha pasado de unas 300.000 personas a unas 212.000, y como destacó "tenemos que seguir trabajando para reducir [esa cifra]".

En Xataka | Microsoft ha descubierto que forrarse y despedir a miles de empleados es compatible. El problema es que no está sola

-
La noticia Hasta hace poco los CEOs presumían de lo mucho que contrataban. Ahora cuanto más despiden, más orgullosos se sienten fue publicada originalmente en Xataka por Javier Pastor .

Leer más

La mala noticia es que la UE sale perdiendo en el pacto arancelario con EEUU. La buena es que España sale relativamente airosa

La mala noticia es que la UE sale perdiendo en el pacto arancelario con EEUU. La buena es que España sale relativamente airosa

La Unión Europea ha aceptado un arancel del 15% sobre sus exportaciones a Estados Unidos. Aunque aún faltan detalles sobre el acuerdo —como los que afectan al sector de la automoción, farma y semiconductores—, esto aclara de forma importante las bases sobre las que se asentará el comercio entre ambas regiones. Entre las perguntas obvias, hay una inevitable para nosotros: cómo afectará esto al sector tecnológico en Europa y, particularmente, en España.

El acuerdo. Ursula von der Leyen, presidenta de la Comisión Europea, explicaba en su comunicado cómo el comercio entre EEUU y la UE tiene un valor de 1,7 trillones de dólares anuales y aglutina a 800 millones de personas. Los datos clave del acuerdo son importantes.

Arancel unificado del 15%. La amenaza que pesaba sobre Bruselas era de unos aranceles del 30%. El incremento es considerable respecto a la situación previa a la guerra comercial iniciada por Donald Trump. El acuerdo se parece mucho al alcanzado entre EEUU y Japón hace unos días. Washington ya aplicó a la UE los (falsos) "aranceles recíprocos con un 10% adicional al 4,8% general que ya gravaba los productos europeos que entraban en EEUU antes de esta escalada. Aun así el arancel es mucho más alto que en el pasado: según la Organización Mundial del Comercio, antes de que Trump llegara a la presidencia el arancel medio que EEUU aplicaba a bienes extranjeros era del 2,2% mientras que el de la UE era de un 2,7%.

Más y más cesiones de la UE. No habrá una imposición similar para productos estadounidenses que compre Europa. Además:

  • Europa deberá comprar energía (sobre todo, gas natural licuado, LNG por sus siglas en inglés) a EEUU por valor de unos 640.000 millones de euros a lo largo de tres años. Von der Leyen, eso sí, ha presentado la cifra como una forma de desvincularse más del crudo y gas ruso.
  • Habrá también compromiso de inversión europea en el sector armamentístico de EEUU, pero no hay cifras. Trump indicó que la UE invertirá 600.000 millones de dólares adicionales a las inversiones actuales, pero no aclaró si en esa cantidad se incluyen esas citadas inversiones en equipamiento militar.

Reequilibrio comercial. El déficit comercial de bienes de EEUU con la UE fue de 235.600 millones de dólares en 2024 según datos de la Oficina del Censo de EEUU: Europa "salía ganando" hasta ahora, pero esa situación se "reequilibrará" a raíz del acuerdo, como destacó Von der Leyen. Hay que tener en cuenta que ese déficit de EEUU ya se equilibraba con el intercambio de servicios digitales, en el que EEUU tiene una ventaja competitiva que supuso algo más de 100.000 millones de euros con datos de 2023.

Automoción. La industria de la automoción ha estado especialmente presente en las negociaciones. Según la presidenta de la Comisión Europea, "no deberiamos olvidar de dónde venimos, hoy los coches pagan 27,5% y hemos logrado bajarlo al 15%. Es lo mejor que podíamos lograr". Gigantes de la automoción alemanes como Volkswagen, Mercedes y BMW fueron por ejemplo muy impactados por esos aranceles del 27,5%. España no fabrica coches que se exporten a Estados Unidos, lo que hace que el impacto en este caso sea nulo.

Malas noticias para la siderurgia. En el acuerdo, eso sí, también hay excepciones negativas. Así, se mantienen los aranceles al acero y aluminio al 50%, algo que daña a uno de los sectores importantes de la industria española y desde luego a la europea. La UE ya respondió a esos aranceles donde más dolía: en la soja. Sin embargo, queda por ver también si hay nuevos detalles que impacten en esa situación concreta en el futuro. Von der Leyen señaló no obstante en el comunicado de la CE que en esas materias "La UE y los Estados Unidos se enfrentan al reto externo común del exceso de capacidad mundial. Trabajaremos juntos para garantizar una competencia mundial leal. Y para reducir las barreras entre nosotros, se reducirán los aranceles. Además, se establecerá un sistema de cuotas", pero no se dieron datos concretos al respecto.

España, poco afectada. Como señaló el gobernador del Banco de España, José Luis Escrivá, España es un país poco afectado por el arancel porque nuestras exportaciones a Estados Unidos son del 4,7%, una de las cifras más bajas de Europa. El impacto según él será "moderado", aunque puede que futuras clásulas afecten negativamente a esa situación. Aunque en el ámbito tecnológico las exportaciones españolas sean reducidas, hay sectores como la maquinaria eléctrica o los componentes de automoción que verán reducida su competitividad.

Semiconductores. A falta de detalles, los aranceles del 15% se aplicarán igualmente a productos del sector farmacéutico y el de los semiconductores, pero según el comunicado de la Comisión Europea, el arancel "no se aplicará en la industria de la aviación, algunos chups, materias primas críticas y algunos productos agrícolas". No hay datos específicos sobre el alcance de esas exclusiones de los araceles, y parece claro que este acuerdo tiene aún flecos notables que podrían causar un impacto sensible en todo tipo de sectores y empresas.

Gigafactorías de IA. La Unión Europea anunció en febrero el proyecto Invest AI para crear "gigafactorías" de IA con decenas de miles de chips de IA. Esos proyectos han formado parte del acuerdo comercial, porque en el comunicado de la Comisión Europea se especifica que "los chips de IA de EEUU ayudarán a potenciar nuestras gigafactorías de IA y ayudarán a EEUU a mantener su ventaja tecnológica". El acuerdo parece que entre otras cosas podrá estimular la creación de esos centros de datos en Europa y España.

Tu móvil y tu portátil (probablemente) subirán de precio. Pero el impacto más evidente —y prácticamente inevitable— será el de la subida de precios. Aunque Donald Trump estableció exenciones para equipos electrónicos como móviles y ordenadores en abril, también aseguró que revisarían esta materia. En el acuerdo con la UE se habla de exenciones a los aranceles para semiconductores como los que ya se anunciaron en ese momento, pero no hay datos específicos que aclaren si este tipo de productos estarán o no libres de aranceles. Aquí no solo están afectados los consumidores, sino desde luego las empresas: los costes operativos del equipamiento informático también subirán, y eso reducirá los márgenes de estas compañías.

Fin a (casi toda) la incertidumbre. El acuerdo, como señalaba la mandataria europea, "crea más predicibilidad para nuestros negocios". La incertidumbre sobre qué podía pasar con los aranceles era una losa para empresas europeas y estadounidenses, que ahora podrán planificar sus esfuerzos e inversiones de forma mucho más clara.

Imagen | World Economic Forum

En Xataka | España actúa donde Europa duda: la estrategia que está dando frutos en China

-
La noticia La mala noticia es que la UE sale perdiendo en el pacto arancelario con EEUU. La buena es que España sale relativamente airosa fue publicada originalmente en Xataka por Javier Pastor .

Leer más

Tenemos nuestra capacidad de atención tan rota que ha surgido una industria boyante: teclados “sin distracciones”

Tenemos nuestra capacidad de atención tan rota que ha surgido una industria boyante: teclados "sin distracciones"

En 2024 se publicaron en España más de 90.000 libros. Se estima que en Estados Unidos la cifra fue mucho mayor y llegó a los tres millones, incluyendo libros autopublicados. Esos números dejan algo muy claro: el mundo se ha llenado de escritores.

Quienes escriben lo hacen además de muchas formas. La máquina de escribir tradicional prácticamente ha desaparecido para ceder paso al ordenador, y la versatilidad de este producto tecnológico ha hecho que la experiencia sea más personal que nunca.

El folio en blanco, pero en la pantalla

Así, mientras que unos escriben en el ordenador de sobremesa, otros lo hacen en el portátil, pero en esa experiencia importan mucho los detalles, como el tipo de teclado utilizado —con los populares teclados mecánicos, por ejemplo— o, desde luego, la aplicación que cada uno usa para escribir.

Iawriter2

El célebre caso de George R.R. Martin con el mítico y viejísimo WordStar es casi anecdótico, porque en la actualidad hay multitud de rivales mucho más modernos. Microsoft Word es la opción obvia, pero los rivales han apretado de forma notable en este sector. Así, han aparecido una enorme cantidad de aplicaciones y servicios pensados para escritores como Scrivener, Ulysses, iAWriter, Manuskript, o Ghostwriter.

En muchos casos uno de los focos de esas aplicaciones no era solo ayudar al escritor en ámbitos como la estructura de la novela o la organización de los personajes y la trama. También suelen contar con un modo sin distracciones, que suele manifestarse con la versión digital del folio en blanco: la interfaz totalmente vacía, sin barras de herramientas o menús. Solo un cursor parpadeando y esperando por nosotros.

Bienvenidos a los teclados sin distracciones

A esas aplicaciones software les acompañan además algunos dispositivos hardware específicamente orientados a escritores. Son una versión moderna de las máquinas de escribir tradicionales: productos pensados totalmente para hacer una cosa y solo una: escribir.

Teclados

Freewrite Traveler.

Estos "teclados sin distracciones" suelen integrar pequeñas pantallas en las que se va mostrando el texto que estamos escribiendo, pero no hay nada más que podamos hacer con ellos. Tienen conectividad a internet, pero solo con el objetivo de poder sincronizar esos textos con la nube para guardarlos. Nada de navegadores web, nada de redes sociales, nada de (se supone) distracciones. Todos ellos tratan de crear una "burbuja de concentración" para que quien escriba se centre exclusivamente en ello.

El claro referente en este segmento es Freewrite, de la empresa Astrohaus, que fabrica varios modelos de teclados sin distracciones con esa propuesta. En ellos contamos normalmente con:

  • Conectividad a internet
  • Memoria flash pequeña pero suficiente para almacenar varios manuscritos
  • Batería interna
  • Pantalla: normalmente de tinta electrónica, pero también LCD

Esa pantalla de tinta electrónica de varios modelos hace más cómodo poder tener largas sesiones de escritura y contribuye a que la autonomía de la batería sea duradera. La alternativa más destacable a las máquinas de FreeWrite es Pomera, de la empresa japonesa King Jim, que ha lanzado algunos de su smodelos en plataformas de financiación colectiva como IndieGogo.

Captura De Pantalla 2025 05 27 A Las 16 53 08

Pomera DM250US

Se trata, eso sí, de dispositivos con un precio elevado para lo específicos que son. Aquí es probable que los limitados lotes de producción encarezcan estos productos, pero aun así su relación precio/prestaciones no es destacable. El Freewrite Traveler, por ejemplo, tiene un precio de 603,95 euros en la tienda oficial de Freewrite. El reciente rival de Pomera —con pantalla LCD— tiene un precio oficial de 449 dólares, casi 400 euros.

En Xataka hemos contactado con tres usuarios de estos dispositivos: dos de ellos de habla inglesa, y un joven español. Todos ellos han comprado y usado al menos uno de estos tipos de teclados sin distracciones o alguna alternativa similar, y han tenido la amabilidad de compartir con nosotros la experiencia.

Buscando sustituto digital al cuaderno y al boli

Ilia Epifanov, escritor y editor, ha publicado más de 30 trabajos, entre los que se encuentran historias cortas, libros e incluso cómics. Cuando se decidió a comprar uno de estos dispositivos, nos cuenta, "estaba buscando una máquina compacta y que me permitiera escribir sin distracciones". Descubrió los dispositivos de Freewrite, "pero el precio me pareció elevado, y además buscaba algo más portátil.

Acabó decidiéndose por el Nokia E7, un smartphone lanzado en 2011 que disponía de un teclado físico desplegable bajo la carcasa. "Es pequeño, bien hecho y provoca nostalgia", comentaba, "aunque desde luego tiene sus limitaciones". Admite que no se lo recomendaría a la mayoría de la gente, sobre todo porque el teclado no es adecuado para usarlo durante largos periodos de tiempo.

Pero para este usuario una de las claves de este viejo dispositivo es que es viejo y la mayoría de sus aplicaciones son hoy en día inútiles. Eso hace que lo enfoque únicamente como un teclado sin distracciones, porque como él dice "me encanta su simplicidad: despliegas el teclado y simplemente escribes".

Carl Dikington —pseudónimo que usa en Reddit nuestro segundo invitado— es un trabajador autónomo que se dedica a escribir tanto profesionalmente como por afición. Él también comenzó a buscar alternativas para escribir sin distracciones, y empezó por la más barata y menos tecnológica: un cuaderno y un boli.

Pronto se dio cuenta de aquello no le parecía práctico, y tras buscar dispositivos de este tipo se decantó por el Freewrite Traveler, que eligió por su portabilidad pero que "si soy honesto, elegí frente a otros por razones estéticas. Simplemente me gustaba su aspecto, y pensé que si iba a pasar buena parte del día mirándolo, quería que me gustase su diseño". Este tipo de productos "no hacen magia", confesaba.

"Sigues necesitando forzarte a sentarte y escribir, y esa siempre será una tarea compleja. Y ese es el verdadero problema. Dejamos que los ordenadores nos distraigan porque queremos evitar la dificultad de escribir. Eliminar esas distracciones no elimina el deseo de ser distraídos, y el mundo tiene un montón de fuentes de distracción adicionales a las que podemos someternos".

Es una reflexión importante, y revela la realidad de unos dispositivos que desde luego evitan las distracciones propias de un ordenador portátil, pero no pueden luchar contra otros muchos estímulos a nuestro alrededor, el primero de los cuales es el móvil.

Aún así, confiesa, para él es "placentero" escribir en la Freewrite Traveler, tanto a nivel visual como táctil. El producto, destacaba, era práctico: "podía llevarlo conmigo a todas partes, crear un borrador inicial, y luego transferir fácilmente el texto a mi ordenador para editarlo". Sin embargo su máquina se estropeó menos de un año después de comprarla, algo que al parecer es común entre los usuarios de este modelo, sobre todo debido a los problemas que surgen con sus teclas.

Eso ha hecho que Dikington afirme que no recomendaría este producto específico a nadie. Aunque este tipo de dispositivos son llamativos, "se los recomendaría solo a gente que tuviera expectativas realistas porque no va a solucionar tus problemas como escritor mágicamente". Pero eso sí, también admite que te libra de los "desagradables y perjudiciales de escribir en un ordenador":

"El resplandor de la pantalla, las innumerables distracciones, la facilidad con la que puedes enfrascarte en una interminable autoedición, y las ramificaciones psicológicas de estar en el mismo dispositivo en el que envías correos electrónicos, haces tus impuestos, lees las noticias, discutes con extraños, juegas, ves Netflix, y Dios sabe qué más... Siempre y cuando también guardes tu teléfono, estos dispositivos eliminan todo eso, ni más ni menos".

No hay solución perfecta

Eduardo Robsy (@EduRobsy), economista y escritor, es pertinaz. Lleva tiempo buscando alternativas al PC o portátil para escribir, y ha probado de todo. Empezó tratando de acostumbrarse a usar un smartphone y un teclado externo Bluetooth.

El problema, confiesa, es que el móvil representa "una tentación constante" aunque sea en el mejor de los casos, para documentarse o verificar alguna documentación. También experimentó con un dispositivo Android con pantalla de tinta electrónica, un buen teclado mecánico compacto y la aplicación iA Writer, pero aquello tampoco acabó de convencerlo. En ambos los sacrificios eran demasiado importantes.

Alphasmart Neo

Alphasmart Neo2

Acabó buscando algún dispositivo especializado y encontró de segunda mano un Alphasmart Neo, con una pequeña pantalla LCD no retroiluminada y que ni siquiera funciona con batería recargable, sino con pilas. Su bajo consumo hace que incluso con esa opción la autonomía sea enorme, de unas 700 horas.

El producto, lanzado hace unos 15 años, tiene limitaciones importantes, y por ejemplo su pequeña memoria no es capaz de almacenar más de 200 páginas de texto. No era posible configurar el teclado en castellano, pero no acabó de convencerle. La cosa, eso sí, mejoraba.

Pomera2

Pomera DM-100

Su siguiente paso fue comprar un King Jim Pomera DM-100 —descatalogado por el fabricante—, que tenía pantalla retroiluminada, era compacta y cómoda pero que nuevamente imponía limitaciones, sobre todo por ser un producto inicialmente pensado para el mercado japonés. El teclado tampoco era configurable, aunque el propio Robsy se programó una pequeña utilidad web para convertir textos y cambiar por ejemplo las apariciones de ":a" por "á". Seguía sin compensar usar estos productos, que te libraban de las distracciones pero te condenaban a sufrir otros problemas.

Su última adquisición ha sido la Freewrite Alpha, una de las máquinas más conocidas en este ámbito, algo más asequible que la Traveler. El teclado, confiesa "es bastante ruidoso" e incluso poniendo arandelas de silicona bajo las teclas "la barra espaciadora sigue siendo atronadora". Pero es configurable, lo que permite usar todos los caracteres de un teclado español convencional.

Freew

Freewrite Alpha

Tiene otras pegas, como que carece de teclas de función, ni funciones de selección, copiado y pegado, y eso hace que según Robsy "solo sirva para lo que pretendía Freewrite: teclear mucho y rápido, sin distracciones, para conseguir así un primer borrador de trabajo, en sucio, que editar después desde un ordenador completo".

Con la Freewrite Alpha se encontró con una herramienta destacable, pero no perfecta. Como explicaba, "sigue siendo una buena herramienta para hacer aquello para lo que fue diseñada: escribir sin echar la vista atrás para sacar, cuanto antes, un primer borrador de cualquier texto".

Tras todo este viaje, para él la conclusión que se puede aplicar a todos estos dispositivos es clara: "ninguno de ellos es perfecto. Todos ellos sobresalen en algún aspecto y muestran deficiencias en otros". De hecho, explica,

"La herramienta sin distracciones no funciona porque, por buena que sea,  por bien diseñada que esté, es nuestro cerebro el que resulta permeable a  la distracción. Lo importante, al fin y al cabo, es escribir. Todo lo  demás no son más que excusas para no hacerlo, para no dedicarle el  tiempo y la energía que requiere".

Imagen | Freewrite

En Xataka | En Oslo hay una biblioteca donde se están escribiendo libros con una condición: que no se lean hasta dentro de 90 años

-
La noticia Tenemos nuestra capacidad de atención tan rota que ha surgido una industria boyante: teclados "sin distracciones" fue publicada originalmente en Xataka por Javier Pastor .

Leer más

Xiaomi intentará repetir en 2027 lo que le funcionó con los móviles: que los europeos olviden que necesitan coches caros

Xiaomi intentará repetir en 2027 lo que le funcionó con los móviles: que los europeos olviden que necesitan coches caros

Antes muchísimos queríamos un Xiaomi SU7. Ahora también queremos el nuevo Xiaomi YU7: la empresa vendió 200.000 unidades en tres minutos en China y batieron el destacable récord de su primer modelo. Pero atentos, porque ese éxito arrollador ahora puede acabar replicándose en el resto del mundo. Ya pasó con sus móviles, y en Xiaomi parecen preparados para replicar la misma estrategia con la que cosecharon el éxito en ese mercado.

En 2027, expansión.Lei Jun, CEO de Xiaomi, indicaba este miércoles que espera comenzar a vender sus vehículos eléctricos fuera de China. Por ahora se conforma con su mercado, donde está consiguiendo poner de rodillas a Tesla. En su primer año vendiendo coches eléctricos Xiaomi ha perdido 800 millones de dólares, pero es que eso es una excelente noticia para su futuro.

Los fabricantes tradicionales tiemblan. La expansión internacional de Xiaomi es una buenísima noticia para ellos, pero potencialmente terrible para los fabricantes europeos. La razón es que los vehículos eléctricos de Xiaomi compiten en prestaciones con los mejores de fabricantes europeos, pero lo hacen con un precio muy inferior. Tenemos un ejemplo claro en Porsche, que ha caído un 30% en ventas en el último año, sobre todo por la irrupción del Xiaomi SU7.

De cholloteléfonos a chollocoches. La estrategia de Xiaomi es calcada a la que ya le permitió destrozar a la competencia en la industria móvil. Sus smartphones, sobre todo al principio, eran cholloteléfonos que ofrecían especificaciones de gama alta a precios de gama de entrada-media. Se espera que ocurra lo mismo cuando exporte sus coches, que tienen prestaciones de coches de gama alta de fabricantes europeos, pero que cuestan sensiblemente menos. Es una batalla que los fabricantes de móviles tradicionales —los de Apple, Samsung o LG de la época— ya lidiaron y, en su mayoría, perdieron.

El ejemplo del YU7. La última creación de Xiaomi, el YU7, sigue la estela de su antecesor: autonomía de unos 540 km, batería que carga el 80% en 12 minutos —el Tesla Model Y o el Porsche Macan tardan más de 20) y aceleración de 0 a 100 en 3,3 segundos (en el Xiaomi YU7 Max, el más potente) y potencia de hasta 681 CV (630 CV en el Macan, 514 CV en el Model Y).

Volkswagen ya sabe lo que puede pasar. Volkswagen tenía una posición acomodada en China, liderando las ventas a distancia de sus rivales. Sin embargo en los últimos meses esas ventas se han desplomado, aunque en ese caso ha sido más por el empuje arrollador de BYD, que no pintaba nada en 2020 y que a partir de 2021 experimentó un ascenso vertiginoso en el mercado chino. El éxito de BYD en España es también una realidad, y lo es porque sigue la misma táctica que Xiaomi: "coches chollo" que tienen unas prestaciones sorprendentes para su precio, al menos si las comparamos con las de modelos de fabricantes tradicionales.

Y los aranceles de momento no parecen impactar. La Unión Europea lleva desde octubre de 2024 aplicando los aranceles al coche eléctrico chino, y varían según la marca entre un 8 y un 35% aproximadamente. China tiene un caballo de Troya con sus coches de combustión en híbridos, pero ni siquiera parece hacerle falta, porque aun con esos aranceles la relación precio/prestaciones de los coches eléctricos chinos siguen siendo destacables. Al menos, de momento.

El ecosistema es la clave. Como sucede con Apple, Xiaomi no solo quiere venderte un coche, sino que venden un ecosistema completo. Sus vehículos eléctricos forman parte de ese ecosistema en el que se integran el móvil, la domótica de casa y tus electrodomésticos de Xiaomi. Toda una integración que ningún otro fabricante ha conseguido, pero que Xiaomi tiene ya bien perfilada.

Recordemos qué pasó con los móviles. Xiaomi primero se centró en China para luego iniciar una expansión internacional que muchos usuarios estaban esperando. Triunfó con sus cholloteléfonos durante unos años, pero acabó virando de forma notable: desde hace años compite como una más en el mercado de gama alta —que se lo digan al Xiaomi 15 Ultra— y creó dos submarcas (Redmi y POCO) para que fueran ellas las que ofrecieran móviles más modestos y asequibles. Queda por ver cómo acaba siendo su estrategia con sus coches eléctricos.

Imagen | Xiaomi

En Xataka | BYD se las prometía muy felices con su nueva planta de México. Acaba de cancelar todos sus planes

-
La noticia Xiaomi intentará repetir en 2027 lo que le funcionó con los móviles: que los europeos olviden que necesitan coches caros fue publicada originalmente en Xataka por Javier Pastor .

Leer más