Xiaomi 15 Ultra a fondo en vídeo: lo mejor de un móvil con una cámara espectacular y las partes que aún necesitan pulirse

No es solo otro teléfono de gama alta. El Xiaomi 15 Ultra llega con una intención clara: posicionarse como un referente en fotografía móvil. Solo hay que ver su módulo de cámaras, el sensor de una pulgada y su configuración técnica para entender que aquí se está jugando en serio. Y, cuando un móvil promete, solemos someterlo a pruebas exigentes, como este nuevo 24/7 en el canal de YouTube de Xataka.

“Han pasado 5 días desde que estoy utilizando este teléfono y no he parado de hacer fotos y vídeos con él. Y… Wow. Los resultados en automático me están alucinando.” Esa es la primera impresión de nuestro compañero Mario Arroyo, que ha incorporado el terminal en su día a día. Pero, ¿sigue deslumbrando después de tantos días? ¿Qué queda del efecto ‘wow’ tras varias semanas? Eso es lo que intentaremos poner sobre la mesa.

Mario Xiaomi 15 Ultra

Uno de los puntos más potentes del vídeo es cómo la cámara rinde más allá de las especificaciones. Porque sí, tiene datos impresionantes: un sensor principal de 50 MP, un ultra gran angular también de 50 MP, un teleobjetivo de 50 MP y un super-telefoto de 200 MP con zoom óptico. Todo ello respaldado por generosas distancias focales, en uno de los sistemas más versátiles que hemos visto. Pero lo importante es cómo rinde en la vida real.

El protagonista del 24/7 se detiene en aspectos clave que marcan la diferencia: el enfoque automático, por ejemplo, lo describe como “muy rápido encuadrando”, y habla de lo bien que capta a los sujetos sin necesidad de activar modos extra. También destaca el desenfoque natural que se consigue gracias a la profundidad de campo: “Casi no hace falta el modo retrato teniendo tan buenos resultados en automático”.

Como verás a continuación, este análisis va más allá de la cámara. También se aborda el diseño: el acabado convence, la combinación de colores con la estética Leica tiene su encanto, pero también hay al menos un un problema difícil de ignorar y surgen varios reproches, especialmente en el apartado de software. “HyperOS, a pesar de su nivel de personalización, incluye bloatware y ciertas decisiones discutibles”, relata Mario.

Y claro, llega el dilema: ¿vale la pena invertir en este móvil si lo que buscas es la mejor cámara? ¿Dónde está el límite entre lo que ofrece y lo que cuesta? ¿Es este Xiaomi 15 Ultra el nuevo referente fotográfico de 2025… o una pieza para un público muy específico? Recordemos que son muchos los dispositivos que aspiran a ocupar este trono.

Si la cámara es lo que más valoras, si eres de los que hace fotos todos los días y te gusta sacarle el máximo partido a cada disparo, este 24/7 puede darte justo lo que necesitas. Dale al play para sumergirte en nuestra más reciente publicación en el canal de YouTube de Xataka.

Imágenes | Xataka

En Xataka | Justo cuando las baterías estaban rompiendo todos los récords llegaron los móviles ultra-finos. China tiene una lección para ellos

-
La noticia Xiaomi 15 Ultra a fondo en vídeo: lo mejor de un móvil con una cámara espectacular y las partes que aún necesitan pulirse fue publicada originalmente en Xataka por Javier Marquez .

Leer más

AI Mode, Project Beam, Veo 3, las gafas Project Aura, Jules y todo lo presentado en un Google I/O 2025 cargado de ambición

AI Mode, Project Beam, Veo 3, las gafas Project Aura, Jules y todo lo presentado en un Google I/O 2025 cargado de ambición

Google ha sacado la artillería pesada en la guerra por liderar el desarrollo —y el negocio— de la inteligencia artificial. El gigante estadounidense lo ha hecho en su conferencia anual de desarrolladores, que más que esto ha sido una demostración de fuerza, un escaparate donde ha presentado algunos de sus avances más innovadores.

A continuación, repasamos todas las novedades que Google ha presentado este martes 20 de mayo. En cada una de ellas encontrarás enlaces que te permitirán ampliar la información. 

Gemini Ultra, Veo 3 e Imagen 4: una suscripción para los que lo quieren todo

Veo3

  • Gemini Ultra es la nueva suscripción de inteligencia artificial más completa de Google. Cuesta 249,99 dólares al mes y, por ahora, solo está disponible en Estados Unidos.
  • Incluye acceso a herramientas como el generador de vídeo Veo 3, la app de edición Flow y el modo Deep Think de Gemini 2.5 Pro, que aún no ha sido lanzado oficialmente.
  • Los suscriptores obtienen también mejoras en NotebookLM y Whisk, almacenamiento de hasta 30 TB en la nube, YouTube Premium y acceso al chatbot Gemini directamente desde Chrome.
  • Algunas de las funciones más avanzadas están impulsadas por la tecnología de Project Mariner, que dota a los agentes de capacidades “agénticas”.

Deep Think: una IA que se toma su tiempo para responder mejor

  • Deep Think es un nuevo modo de razonamiento del modelo Gemini 2.5 Pro que permite a la IA considerar varias posibles respuestas antes de decidirse por una.
  • Busca mejorar la precisión en tareas complejas y benchmarks avanzados.
    Actualmente solo está disponible para un grupo reducido de testers a través de la API de Gemini.
  • Google afirma que está realizando evaluaciones de seguridad antes de lanzarlo públicamente.

AI Mode y Search Live: así quiere Google rediseñar la búsqueda

aimode

  • AI Mode es una nueva función experimental para la Búsqueda de Google que permite realizar preguntas complejas, con múltiples elementos, desde una interfaz basada en IA.
  • Se lanza esta semana en Estados Unidos y es capaz de manejar datos deportivos, financieros y ofrecer opciones como “probarse ropa” de forma virtual.
  • A lo largo del verano llegará Search Live, una función que permitirá hacer preguntas en función de lo que detecte la cámara del móvil en tiempo real.

Gemini en Chrome y detección de contenidos sintéticos

  • Gemini se integra en Chrome como asistente de navegación para ayudar a entender el contenido de páginas web y ejecutar tareas.
  • Gmail incorpora respuestas inteligentes personalizadas y una nueva función para limpiar la bandeja de entrada.
  • Google ha lanzado SynthID Detector, un sistema de verificación que utiliza marcas de agua invisibles para identificar contenidos generados por IA.

Beam: videollamadas 3D con traducción simultánea

  • Beam, antes conocido como Project Starline, convierte las videollamadas en conversaciones casi presenciales gracias a una matriz de seis cámaras y una pantalla de campo de luz.
  • Ofrece seguimiento de cabeza al milímetro y vídeo a 60 fotogramas por segundo.
  • Incluye traducción en tiempo real en Google Meet, preservando la voz, el tono y las expresiones del hablante original.

Jules: el agente de Google para programar sin tocar el teclado

Jules

  • Jules es el nuevo agente de programación asistida de Google, diseñado para competir con plataformas como Cursor, Windsurf o Codex.
  • Es capaz de generar tests, actualizar dependencias, redactar changelogs en audio y corregir bugs mientras el usuario sigue trabajando en otras cosas.
  • Funciona sin plugins ni instalaciones adicionales y está disponible en beta pública para usuarios de Estados Unidos.

Android también presente en el evento

Material3

  • Android estrena nuevas herramientas para encontrar teléfonos y objetos perdidos, y también un nuevo lenguaje de diseño llamado Material 3 Expressive.
  • Google mostró en directo sus nuevas gafas, desarrolladas con Xreal y basadas en Android XR.
  • La demo incluyó interacción con Gemini por voz, traducción simultánea y superposición de información en tiempo real.
  • El proyecto se llama Project Aura y busca llevar Android al mundo XR con un enfoque práctico y sin adornos.

Imágenes | Google

En Xataka | Las gafas inteligentes no tienen por qué ser un armatoste. Google lo tiene más claro que nunca

-
La noticia AI Mode, Project Beam, Veo 3, las gafas Project Aura, Jules y todo lo presentado en un Google I/O 2025 cargado de ambición fue publicada originalmente en Xataka por Javier Marquez .

Leer más

AI Mode, Project Beam, Veo 3, las gafas Project Aura, Jules y todo lo presentado en un Google I/O 2025 cargado de ambición

AI Mode, Project Beam, Veo 3, las gafas Project Aura, Jules y todo lo presentado en un Google I/O 2025 cargado de ambición

Google ha sacado la artillería pesada en la guerra por liderar el desarrollo —y el negocio— de la inteligencia artificial. El gigante estadounidense lo ha hecho en su conferencia anual de desarrolladores, que más que esto ha sido una demostración de fuerza, un escaparate donde ha presentado algunos de sus avances más innovadores.

A continuación, repasamos todas las novedades que Google ha presentado este martes 20 de mayo. En cada una de ellas encontrarás enlaces que te permitirán ampliar la información. 

Gemini Ultra, Veo 3 e Imagen 4: una suscripción para los que lo quieren todo

Veo3

  • Gemini Ultra es la nueva suscripción de inteligencia artificial más completa de Google. Cuesta 249,99 dólares al mes y, por ahora, solo está disponible en Estados Unidos.
  • Incluye acceso a herramientas como el generador de vídeo Veo 3, la app de edición Flow y el modo Deep Think de Gemini 2.5 Pro, que aún no ha sido lanzado oficialmente.
  • Los suscriptores obtienen también mejoras en NotebookLM y Whisk, almacenamiento de hasta 30 TB en la nube, YouTube Premium y acceso al chatbot Gemini directamente desde Chrome.
  • Algunas de las funciones más avanzadas están impulsadas por la tecnología de Project Mariner, que dota a los agentes de capacidades “agénticas”.

Deep Think: una IA que se toma su tiempo para responder mejor

  • Deep Think es un nuevo modo de razonamiento del modelo Gemini 2.5 Pro que permite a la IA considerar varias posibles respuestas antes de decidirse por una.
  • Busca mejorar la precisión en tareas complejas y benchmarks avanzados.
    Actualmente solo está disponible para un grupo reducido de testers a través de la API de Gemini.
  • Google afirma que está realizando evaluaciones de seguridad antes de lanzarlo públicamente.

AI Mode y Search Live: así quiere Google rediseñar la búsqueda

aimode

  • AI Mode es una nueva función experimental para la Búsqueda de Google que permite realizar preguntas complejas, con múltiples elementos, desde una interfaz basada en IA.
  • Se lanza esta semana en Estados Unidos y es capaz de manejar datos deportivos, financieros y ofrecer opciones como “probarse ropa” de forma virtual.
  • A lo largo del verano llegará Search Live, una función que permitirá hacer preguntas en función de lo que detecte la cámara del móvil en tiempo real.

Gemini en Chrome y detección de contenidos sintéticos

  • Gemini se integra en Chrome como asistente de navegación para ayudar a entender el contenido de páginas web y ejecutar tareas.
  • Gmail incorpora respuestas inteligentes personalizadas y una nueva función para limpiar la bandeja de entrada.
  • Google ha lanzado SynthID Detector, un sistema de verificación que utiliza marcas de agua invisibles para identificar contenidos generados por IA.

Beam: videollamadas 3D con traducción simultánea

  • Beam, antes conocido como Project Starline, convierte las videollamadas en conversaciones casi presenciales gracias a una matriz de seis cámaras y una pantalla de campo de luz.
  • Ofrece seguimiento de cabeza al milímetro y vídeo a 60 fotogramas por segundo.
  • Incluye traducción en tiempo real en Google Meet, preservando la voz, el tono y las expresiones del hablante original.

Jules: el agente de Google para programar sin tocar el teclado

Jules

  • Jules es el nuevo agente de programación asistida de Google, diseñado para competir con plataformas como Cursor, Windsurf o Codex.
  • Es capaz de generar tests, actualizar dependencias, redactar changelogs en audio y corregir bugs mientras el usuario sigue trabajando en otras cosas.
  • Funciona sin plugins ni instalaciones adicionales y está disponible en beta pública para usuarios de Estados Unidos.

Android también presente en el evento

Material3

  • Android estrena nuevas herramientas para encontrar teléfonos y objetos perdidos, y también un nuevo lenguaje de diseño llamado Material 3 Expressive.
  • Google mostró en directo sus nuevas gafas, desarrolladas con Xreal y basadas en Android XR.
  • La demo incluyó interacción con Gemini por voz, traducción simultánea y superposición de información en tiempo real.
  • El proyecto se llama Project Aura y busca llevar Android al mundo XR con un enfoque práctico y sin adornos.

Imágenes | Google

En Xataka | Las gafas inteligentes no tienen por qué ser un armatoste. Google lo tiene más claro que nunca

-
La noticia AI Mode, Project Beam, Veo 3, las gafas Project Aura, Jules y todo lo presentado en un Google I/O 2025 cargado de ambición fue publicada originalmente en Xataka por Javier Marquez .

Leer más

Google enseñó por primera vez sus nuevas gafas con una demo real: un imprevisto en directo y una apuesta que apunta lejos

Google enseñó por primera vez sus nuevas gafas con una demo real: un imprevisto en directo y una apuesta que apunta lejos

La historia de Google con las gafas no ha terminado. Todo lo contrario. Tras años de silencio, la compañía ha vuelto a ponerlas sobre el escenario. Y lo ha hecho con un proyecto que recupera un nombre familiar: Project Aura. No es la primera vez que lo escuchamos. Lleva sonando desde los tiempos de las Google Glass, que acabaron en un rincón oscuro de la historia tecnológica. Pero esta vez, el enfoque es muy distinto.

Durante el Google I/O 2025, donde también vimos propuestas como AI Mode o Beam, la compañía mostró en directo el estado de desarrollo de sus nuevas gafas de realidad mixta. Una propuesta que nace en colaboración con Xreal y que, según los responsables del proyecto, quiere llevar la experiencia Android al universo XR con naturalidad, contexto y respuestas en tiempo real.

Una demo en directo, sin trucos ni retoques. Todo empezó cuando Shahram Izadi, responsable del área de dispositivos, lanzó una pregunta al público registrada en un vídeo publicado en YouTube: “¿Quién se apunta a ver una demostración anticipada de las gafas Android XR?” La respuesta llegó desde bambalinas. Nishtha Bhatia, parte del equipo, apareció en escena de forma remota y comenzó a mostrar el funcionamiento real de las gafas.

Lo primero que vimos fue una interfaz superpuesta en tiempo real sobre el entorno. A través de la cámara integrada, las gafas mostraban lo que tenía delante mientras Bhatia recibía mensajes, reproducía música, consultaba direcciones o interactuaba con Gemini, el asistente conversacional, todo mediante comandos de voz. Sin sacar el móvil. Sin pulsar nada.

Gafas Google 1

En uno de los momentos más llamativos, la demo mostró cómo podía preguntar qué banda era la autora de un cuadro que estaba observando. Gemini respondió, aunque con algún que otro retardo atribuible a problemas de conexión. También pidió que se reprodujera una canción de la banda en YouTube Music, lo que ocurrió sin intervención manual. Todo quedó registrado en la imagen compartida en tiempo real.

Traducción en vivo y un pequeño fallo sobre el escenario. La prueba final consistió en una conversación entre Izadi y Bhatia en distintos idiomas. Ella habló en hindi, él en farsi. Las gafas, mediante Gemini, ofrecían una traducción simultánea con interpretación de voz. El sistema funcionó correctamente durante unos segundos, pero los responsables decidieron interrumpir la demo cuando detectaron un fallo.

Gafas Google 2

A pesar del traspiés, el mensaje quedó claro: Google quiere volver a jugar en el terreno de las gafas conectadas, esta vez con una base más madura, apoyada en su ecosistema de servicios, en Gemini y en colaboraciones con actores clave del mundo XR. La diferencia, al menos por ahora, está en el enfoque: experiencias prácticas, en tiempo real, sin adornos ni promesas a largo plazo.

Imágenes | Google

En Xataka | Google ya tiene una IA agéntica capaz de programar por ti: se llama Jules y busca plantarle cara a OpenAI

-
La noticia Google enseñó por primera vez sus nuevas gafas con una demo real: un imprevisto en directo y una apuesta que apunta lejos fue publicada originalmente en Xataka por Javier Marquez .

Leer más

Google acaba de anunciar lo más cercano a las llamadas holográficas de la ciencia ficción: Project Beam

Google acaba de anunciar lo más cercano a las llamadas holográficas de la ciencia ficción: Project Beam

Las videollamadas han sido útiles durante años. Una solución que funciona, aunque con limitaciones evidentes. Ver y oír a la otra persona está bien, pero la sensación de cercanía real sigue quedando lejos. Google lleva tiempo intentando resolver ese problema, y ahora ha decidido dar un paso más decidido para conseguirlo.

Ese paso se llama Beam. Es el nuevo nombre de una tecnología que ya conocíamos como Project Starline, una propuesta experimental que buscaba recrear la experiencia de una conversación presencial en tres dimensiones, y que tuvimos la oportunidad de probar el año pasado. Ahora, esa idea evoluciona en forma de plataforma. Beam nace como un sistema de comunicaciones diseñado para integrarse en entornos reales, apoyado en la infraestructura de Google Cloud y potenciado con modelos avanzados de inteligencia artificial.

Una conversación con volumen, no solo con imagen. La clave de Google Beam está en su modelo de vídeo volumétrico. Un sistema basado en IA que transforma una señal de vídeo 2D en una representación tridimensional realista, visible desde cualquier ángulo. Al combinarse con una pantalla de tipo light field, se logra una sensación de profundidad que permite mantener el contacto visual, interpretar expresiones y generar una comunicación más natural. Según Google, esto ayuda a generar confianza y entendimiento como si la conversación fuese presencial.

Captura De Pantalla 2025 05 20 A Las 19 09 56

El objetivo declarado por la compañía es crear conexiones más significativas entre personas, estén donde estén. Para lograrlo, Beam se apoya en dos pilares fundamentales: la fiabilidad y escalabilidad de Google Cloud, y su experiencia acumulada en inteligencia artificial (IA). Todo pensado para integrarse sin fricciones en los flujos de trabajo existentes.

Traducción en tiempo real sin renunciar a la naturalidad. Beam no solo se centra en la imagen. También quiere facilitar el entendimiento. Una de las funciones más llamativas es la traducción de voz en tiempo real, ya disponible hoy en Google Meet. Permite mantener una conversación fluida entre personas que hablan diferentes idiomas, conservando el tono, la cadencia y las expresiones de cada interlocutor. El resultado es una conversación más natural, donde la tecnología se percibe menos y la conexión entre personas, más.

Para Google, esta funcionalidad es solo el principio. Su visión a largo plazo es clara: lograr que cualquier persona, en cualquier parte del mundo, pueda verse y entenderse con total claridad.

Captura De Pantalla 2025 05 20 A Las 19 09 38

Beam llega al trabajo. De momento, Beam apunta al entorno profesional. Google ha anunciado un acuerdo con HP para lanzar los primeros dispositivos compatibles, que llegarán a clientes seleccionados este mismo año. Cabe señalar que no funciona con cualquier configuración. Estos dispositivos tendrán varias cámaras para capturar al sujeto desde diferentes ángulos.

Además, la compañía está colaborando con empresas como Zoom, Diversified y AVI-SPL para integrar esta tecnología en distintos entornos corporativos. Grandes organizaciones ya han mostrado interés, entre ellas Deloitte, Salesforce, Citadel, NEC, Hackensack Meridian Health, Duolingo y Recruit. Desde Deloitte, por ejemplo, destacan que Beam no es solo un avance tecnológico, sino una forma de repensar cómo nos conectamos en la era digital.

Una promesa clara. Estar ahí sin estar. Esta es la idea central de Beam. No se trata solo de una mejora técnica, sino de una evolución en la forma de comunicarnos. Beam quiere que hablar con alguien a distancia no se sienta como una videollamada, sino como una conversación cara a cara.

Imágenes | Goolge

En Xataka | Google ha puesto precio al futuro de la IA: 250 dólares al mes

-
La noticia Google acaba de anunciar lo más cercano a las llamadas holográficas de la ciencia ficción: Project Beam fue publicada originalmente en Xataka por Javier Marquez .

Leer más

El buscador de Google ya no busca: ahora compra por ti y paga la cuenta sin que toques un botón

El buscador de Google ya no busca: ahora compra por ti y paga la cuenta sin que toques un botón

Google está rediseñando su buscador para convertirlo en algo más ambicioso que una simple herramienta de consulta. En lugar de limitarse a mostrar resultados, ahora quiere resolver tareas completas de principio a fin. Buscar, comparar, decidir, rellenar formularios e incluso pagar. Todo sin que tengas que hacer nada más que formular un par de peticiones. El cambio viene de la mano de AI Mode, una función que, según la propia Google, representa “la experiencia de búsqueda con IA más potente” hasta la fecha.

Hasta ahora, Google Search funcionaba como una interfaz clásica: introducías una consulta y el buscador te ofrecía enlaces relevantes (y AI Overviews en determinados casos). Con AI Mode, el proceso se vuelve mucho más proactivo. Por ejemplo, si escribes algo como “Encuentra dos entradas asequibles para este sábado en el partido de los Reds en la grada baja”, el sistema pone en marcha una técnica conocida como query fan-out, lanza múltiples subconsultas simultáneas y analiza los resultados en tiempo real. ¿El objetivo? Presentarte una lista de opciones ajustadas exactamente a lo que has pedido.

El buscador de Google está cambiando (y mucho)

Según la compañía estadounidense, este nuevo enfoque responde a la demanda de usuarios avanzados que quieren una experiencia mucho más completa y personalizada. AI Mode puede, además, modificar los criterios de búsqueda sobre la marcha, por ejemplo, cambiar el precio máximo o pedir asientos más centrado.

Una vez elegido el producto o servicio deseado, AI Mode también puede encargarse de los trámites finales: rellenar formularios, completar los datos necesarios y realizar el pago a través de Google Pay.  En Estados Unidos, esta capacidad empezará por entradas para eventos, reservas en restaurantes y citas locales, y se está desplegando en colaboración con plataformas como Ticketmaster, StubHub, Resy o Vagaro.

Compra Google

Cabe señalar que, aunque el despliegue ha comenzado, el acceso completo está disponible por ahora únicamente para usuarios del país norteamericano, y buena parte de las funciones sigue en fase experimental a través de Google Labs. Fuera de Labs, Google indica que estas herramientas se ofrecerán inicialmente a un “porcentaje limitado” de usuarios.

Compra Por Mi

Más allá de las compras, AI Mode incorpora herramientas avanzadas como Deep Search, que permite realizar investigaciones más exhaustivas generando cientos de consultas, cruzando información dispar y elaborando informes citados de nivel experto en cuestión de minutos. También integra Search Live, una función que permite interactuar en tiempo real con el buscador usando la cámara del móvil para resolver dudas visuales al instante, y se ha ampliado la capacidad de crear gráficos interactivos personalizados a partir de conjuntos de datos complejos, inicialmente en áreas como deporte o finanzas.

En paralelo, Google continúa expandiendo AI Overviews, el sistema de resúmenes generados por IA que apareció por primera vez en la conferencia I/O de 2024. Actualmente está disponible en más de 200 países y en más de 40 idiomas, con soporte para nuevas lenguas como el árabe, el chino o el malayo.

El futuro de Search, al menos según la visión de Google, está cada vez menos ligado al concepto clásico de “teclea y busca” y más cerca de un asistente que entiende lo que quieres, actúa por ti y te entrega resultados listos para tomar decisiones. Todo, sin perder de vista que el control, según prometen, seguirá estando siempre en manos del usuario.

Imágenes | Google | charlesdeluvio

En Xataka | Tras convertirse en el gran rival de OpenAI, Anthropic tiene un mensaje para sus futuros empleados: "no usen asistentes de IA"

-
La noticia El buscador de Google ya no busca: ahora compra por ti y paga la cuenta sin que toques un botón fue publicada originalmente en Xataka por Javier Marquez .

Leer más

China acaba de dar otro paso en la conquista tecnológica y espacial: una red de computación orbital diseñada para IA

China acaba de dar otro paso en la conquista tecnológica y espacial: una red de computación orbital diseñada para IA

Apenas unos minutos después del mediodía del 14 de mayo, un cohete Long March 2D despegó desde el Centro de Lanzamiento de Jiuquan con un objetivo ambicioso: poner en órbita los primeros 12 satélites de la constelación espacial de computación “Three-Body”. Es el comienzo oficial de la que China presenta como la primera red de supercomputación distribuida en el espacio, un movimiento que marca un antes y un después en la carrera por trasladar la inteligencia artificial más allá de los centros de datos tradicionales.

Un salto de escala: de los centros de datos al espacio. La constelación, liderada por Zhejiang Lab y desarrollada en colaboración con la empresa Guoxing Yuhang (ADA Space), forma parte del llamado “Plan de Cómputo Estelar”. Esta primera misión, denominada 021, ha colocado en una misma órbita 12 satélites inteligentes con nombres que homenajean a ciudades chinas como Neijiang, Haikou o Taizhou.

Cada uno de ellos está equipado con un sistema de cálculo inteligente y conectividad láser de hasta 100 Gb/s para formar una red orbital interconectada. Según la información oficial publicada por el Gobierno chino y recogida por medios como Xinhua, estos primeros satélites suman una capacidad de 5 POPS (peta-operaciones por segundo) y disponen en conjunto de 30 TB de almacenamiento a bordo.

¿Qué son los POPS? HKEXnews explica que 1 POPS equivale a un cuatrillón (10^15) de operaciones por segundo. La meta de China es desplegar una constelación que, de acuerdo a la información que maneja SpaceNews, podría alcanzar los 2.800 satélites, con una capacidad total de 1.000 POPS.

Ada Space2

Un laboratorio en órbita. Cada satélite lleva a bordo un ordenador espacial desarrollado por el propio Zhejiang Lab, con una capacidad de hasta 744 TOPS (tera-operaciones por segundo) por unidad. Además, están acompañados por un modelo de IA de 8.000 millones de parámetros, especialmente diseñado para operar directamente en órbita. Esto permite realizar tareas de procesamiento de datos en tiempo real sin necesidad de enviar toda la información a estaciones terrestres.

Ada Space44

Casos de uso: desde desastres naturales hasta ciencia astronómica. Los satélites están diseñados para ofrecer servicios muy concretos: detección de rayos gamma, generación de gemelos digitales en 3D de regiones enteras, observación remota con procesamiento a bordo y monitorización de fenómenos naturales. Uno de ellos incluso incluye un polarímetro de rayos X desarrollado por la Academia China de Ciencias y la Universidad de Guangxi, pensado para detectar explosiones gamma y activar en segundos observaciones coordinadas con otras misiones. Además, según la propia Ada Space, los datos recopilados también servirán para aplicaciones civiles como emergencias, videojuegos inmersivos y turismo inteligente.

Una nube orbital bajo control soberano. Detrás del despliegue hay una ambición geoestratégica: construir una infraestructura de computación espacial bajo control chino que combine la cobertura global con eficiencia energética y baja latencia. A diferencia de los centros de datos terrestres, los satélites pueden usar energía solar de forma continua y no requieren sistemas de refrigeración activos.

Lo que viene: más potencia, más satélites. Ada Space ya ha confirmado que está trabajando en una segunda generación de satélites con aún más potencia. El objetivo es claro: validar la arquitectura de computación distribuida en órbita, escalarla y convertirla en el núcleo de una nube espacial capaz de operar modelos de IA a gran escala sin depender de la infraestructura terrestre.

Imágenes | Ada Space

En Xataka | Sabíamos que las esferas espaciales estaban en algún punto del universo. Tenemos una nueva teoría sobre su origen

-
La noticia China acaba de dar otro paso en la conquista tecnológica y espacial: una red de computación orbital diseñada para IA fue publicada originalmente en Xataka por Javier Marquez .

Leer más

12 millones de personas entregaron su ADN a 23andMe. La empresa quebró y sus datos están a punto de cambiar de manos

12 millones de personas entregaron su ADN a 23andMe. La empresa quebró y sus datos están a punto de cambiar de manos

Durante años, escupir en un tubo fue el primer paso de una promesa irresistible: descubrir tus raíces, conocer tus predisposiciones genéticas, incluso encontrar familiares perdidos por el mundo. Todo sin moverte de casa. La empresa detrás de ese fenómeno se llamaba 23andMe, y logró algo insólito: convertir la genética en un producto de consumo masivo.

Esa historia acaba de dar un giro. Regeneron Pharmaceuticals ha llegado a un acuerdo para adquirir los principales activos de 23andMe por 256 millones de dólares, según el comunicado oficial publicado por la farmacéutica. Se trata de una transacción que aún debe ser aprobada por el tribunal de bancarrota y por los reguladores estadounidenses. En juego está una plataforma que ha gestionado el ADN de millones de personas en todo el mundo.

Un final anunciado. La caída de 23andMe no ha sido repentina. En los últimos años, la compañía pasó de estar valorada en más de 6.000 millones de dólares a luchar por su propia supervivencia. Su apuesta por un modelo más ambicioso —basado en desarrollar medicamentos, ofrecer consultas médicas por suscripción y ampliar servicios de salud digital— no cuajó. Según detalla The Wall Street Journal, la empresa quemó más de mil millones de dólares y terminó ofreciendo parte de sus activos en condiciones límite.

El acuerdo de venta no abarca todo el negocio. Regeneron se quedaría con lo esencial: el servicio de genómica directa al consumidor, su biobanco de muestras genéticas y las divisiones de investigación y salud total. Queda fuera la filial de telemedicina Lemonaid Health, adquirida en su día por 400 millones de dólares, cuyo cierre se realizará de forma ordenada fuera de esta operación.

Privacidad: el verdadero campo de batalla. La operación ha vuelto a colocar la privacidad en el centro del debate. Regeneron ha prometido respetar las políticas actuales de uso de datos y se ha comprometido a someterse a un escrutinio independiente, tal como establece el marco judicial del proceso. Aun así, persisten las dudas sobre cómo se gestionará una de las mayores bases de datos genéticos del mundo.

El recelo no es nuevo. En 2023, 23andMe fue víctima de una filtración masiva de datos que afectó a 6,9 millones de personas. Según reveló TechCrunch, los atacantes accedieron a los perfiles de quienes habían activado la función de “familiares genéticos”, obteniendo nombres, ubicaciones y porcentajes de ADN compartido entre parientes. La compañía atribuyó el incidente a la reutilización de contraseñas por parte de los usuarios, pero el daño ya estaba hecho.

23andme

Anne Wojcicki, la cara de una era. La historia de 23andMe no se puede contar sin mencionar a Anne Wojcicki. Cofundadora, cara visible, visionaria de la salud personalizada y, al mismo tiempo, responsable de decisiones empresariales que desembocaron en el colapso. Su plan era convertir la empresa en un proveedor integral de servicios médicos, pero esto no prosperó.

Intentó recuperar el control, pero su poder se desvaneció con el inicio del proceso judicial. Según WSJ, sus acciones con voto preferente fueron anuladas y sus ofertas rechazadas por el consejo de administración.

Wojcicki lo apostó todo al ADN como activo estratégico. Y durante un tiempo pareció tener razón. La compañía que ayudó a fundar transformó el modo en que millones de personas se relacionaban con su salud. También mostró hasta qué punto una base de datos genética puede convertirse en un campo minado de riesgos legales, éticos y tecnológicos.

Una nueva etapa, las mismas preguntas. Regeneron aspira a quedarse con una plataforma potente, una marca aún reconocida y un volumen inmenso de información genética. En su comunicado oficial, afirma que su intención es mantener el servicio para los usuarios actuales y seguir desarrollando nuevas vías para la medicina personalizada.

Imágenes | 23andMe

En Xataka | Hemos visitado el lugar donde se depositan literalmente las esperanzas demográficas de España: el banco de semen de Granada

-
La noticia 12 millones de personas entregaron su ADN a 23andMe. La empresa quebró y sus datos están a punto de cambiar de manos fue publicada originalmente en Xataka por Javier Marquez .

Leer más

Donde antes había humanos, ahora hay datos. Huawei y Huaneng han desplegado 100 camiones sin conductor en una mina en China

Donde antes había humanos, ahora hay datos. Huawei y Huaneng han desplegado 100 camiones sin conductor en una mina en China

Una fila de camiones cargados hasta arriba cruza la mina sin que nadie sujete el volante. Se mueven solos, con precisión, como si estuvieran coreografiados. Y no hablamos de un prototipo ni de pruebas en laboratorio: esto ya está ocurriendo en la mina de Yimin, al noreste de China. Según SCMP, el grupo estatal Huaneng ha desplegado la mayor flota individual de camiones eléctricos sin conductor operada con tecnología de Huawei en una única operación minera.

Detrás de este despliegue está la tecnología de Huawei, junto con avances de Xuzhou Construction Machinery Group y la Universidad de Ciencia y Tecnología de Pekín. En total, son 100 vehículos de gran tonelaje, conocidos como Huaneng Ruichi, mueven toneladas de carbón sin intervención humana, incluso en condiciones climáticas adversas. Según Li Shuxue, presidente de Huaneng Mengdong, se trata del mayor despliegue coordinado de este tipo de vehículos.

La conectividad y la nube, dos elementos clave

Todo funciona gracias a una combinación de tecnologías avanzadas: conectividad 5G-Advanced, inteligencia artificial (IA), mapeo de alta precisión, computación en la nube e intercambio inteligente de baterías. Zhang Pingan, CEO de Huawei Cloud, explicó que el 5G-A, también conocido como 5.5G, permite operar con una latencia extremadamente baja y velocidad muy altas. En un entorno industrial como este, esa capacidad de respuesta es clave.

Pero esto no ha hecho más que empezar. Huaneng prevé ampliar la flota hasta los 300 camiones autónomos en esta misma mina durante los próximos tres años. Y el impulso va más allá de Yimin. La Asociación Nacional del Carbón de China ha proyectado un "crecimiento explosivo" de camiones mineros no tripulados en 2026. La previsión es que la cifra se duplique en 2026. La automatización ya se deja notar: la misma asociación estima que los costes operativos se han reducido en torno a un 8 % en las minas que han incorporado estos sistemas.

Los avances que estamos viendo en la minería china forman parte de una estrategia más amplia para modernizar sectores tradicionales del gigante asiático con tecnología avanzada. Y lo que hoy se despliega dentro de sus fronteras empieza a perfilarse también como una oportunidad en otros mercados.

Camiones Mineros Autonomos China 2

Ahora bien, hay otro despliegue que conviene tener en cuenta. En la mina de Zaha Naoer, también en Mongolia Interior, se han puesto en funcionamiento 135 camiones autónomos de rango extendido que operan de forma diaria. El proyecto, impulsado por China Power Investment, cuenta con otros proveedores tecnológicos y una arquitectura diferente. Como recoge Sina Finance, la operación arrancó como piloto en 2024 y ya acumula más de 770.000 kilómetros recorridos, con más de cinco millones de metros cúbicos de material extraído.

Camiones Zaha Naoer

Aunque la cifra total de vehículos es superior, no se trata de un despliegue homogéneo. A diferencia del caso de Huawei, en Zaha Naoer los camiones utilizan sistemas diversos, algunos con autonomía extendida, y no responden a una única plataforma tecnológica. Esto permite a Huaneng presentar el proyecto de Yimin como el mayor despliegue individual, integrado y eléctrico que se ha realizado hasta ahora.

La infraestructura que lo hace posible incluye redes mixtas de 4G y 5G

La infraestructura que sostiene la flota de Zaha Naoer está respaldada en redes mixtas de 4G y 5G, centros de control en la nube y sistemas de coordinación entre vehículos. Si uno de los camiones detecta una anomalía, el sistema transmite los datos en tiempo real para que los técnicos puedan intervenir de forma remota sin interrumpir la operación.

Más allá del despliegue tecnológico, la automatización también está reconfigurando la organización del trabajo en las minas. En Zaha Naoer, por ejemplo, el uso de camiones autónomos ha reducido considerablemente la necesidad de personal en cabina: 325 conductores menos y un ahorro mensual estimado en 4.000.000 de yuanes. Al mismo tiempo, se ha reforzado la seguridad operativa, con menos exposición directa a entornos de riesgo y mayor control sobre cada fase del proceso.

Imágenes | Huaneng Group

En Xataka | EEUU lleva décadas soñando con su primer tren de alta velocidad: el proyecto de California está siendo una auténtica pesadilla

-
La noticia Donde antes había humanos, ahora hay datos. Huawei y Huaneng han desplegado 100 camiones sin conductor en una mina en China fue publicada originalmente en Xataka por Javier Marquez .

Leer más

Donde antes había humanos, ahora hay datos. Huawei y Huaneng han desplegado 100 camiones sin conductor en una mina en China

Donde antes había humanos, ahora hay datos. Huawei y Huaneng han desplegado 100 camiones sin conductor en una mina en China

Una fila de camiones cargados hasta arriba cruza la mina sin que nadie sujete el volante. Se mueven solos, con precisión, como si estuvieran coreografiados. Y no hablamos de un prototipo ni de pruebas en laboratorio: esto ya está ocurriendo en la mina de Yimin, al noreste de China. Según SCMP, el grupo estatal Huaneng ha desplegado la mayor flota individual de camiones eléctricos sin conductor operada con tecnología de Huawei en una única operación minera.

Detrás de este despliegue está la tecnología de Huawei, junto con avances de Xuzhou Construction Machinery Group y la Universidad de Ciencia y Tecnología de Pekín. En total, son 100 vehículos de gran tonelaje, conocidos como Huaneng Ruichi, mueven toneladas de carbón sin intervención humana, incluso en condiciones climáticas adversas. Según Li Shuxue, presidente de Huaneng Mengdong, se trata del mayor despliegue coordinado de este tipo de vehículos.

La conectividad y la nube, dos elementos clave

Todo funciona gracias a una combinación de tecnologías avanzadas: conectividad 5G-Advanced, inteligencia artificial (IA), mapeo de alta precisión, computación en la nube e intercambio inteligente de baterías. Zhang Pingan, CEO de Huawei Cloud, explicó que el 5G-A, también conocido como 5.5G, permite operar con una latencia extremadamente baja y velocidad muy altas. En un entorno industrial como este, esa capacidad de respuesta es clave.

Pero esto no ha hecho más que empezar. Huaneng prevé ampliar la flota hasta los 300 camiones autónomos en esta misma mina durante los próximos tres años. Y el impulso va más allá de Yimin. La Asociación Nacional del Carbón de China ha proyectado un "crecimiento explosivo" de camiones mineros no tripulados en 2026. La previsión es que la cifra se duplique en 2026. La automatización ya se deja notar: la misma asociación estima que los costes operativos se han reducido en torno a un 8 % en las minas que han incorporado estos sistemas.

Los avances que estamos viendo en la minería china forman parte de una estrategia más amplia para modernizar sectores tradicionales del gigante asiático con tecnología avanzada. Y lo que hoy se despliega dentro de sus fronteras empieza a perfilarse también como una oportunidad en otros mercados.

Camiones Mineros Autonomos China 2

Ahora bien, hay otro despliegue que conviene tener en cuenta. En la mina de Zaha Naoer, también en Mongolia Interior, se han puesto en funcionamiento 135 camiones autónomos de rango extendido que operan de forma diaria. El proyecto, impulsado por China Power Investment, cuenta con otros proveedores tecnológicos y una arquitectura diferente. Como recoge Sina Finance, la operación arrancó como piloto en 2024 y ya acumula más de 770.000 kilómetros recorridos, con más de cinco millones de metros cúbicos de material extraído.

Camiones Zaha Naoer

Aunque la cifra total de vehículos es superior, no se trata de un despliegue homogéneo. A diferencia del caso de Huawei, en Zaha Naoer los camiones utilizan sistemas diversos, algunos con autonomía extendida, y no responden a una única plataforma tecnológica. Esto permite a Huaneng presentar el proyecto de Yimin como el mayor despliegue individual, integrado y eléctrico que se ha realizado hasta ahora.

La infraestructura que lo hace posible incluye redes mixtas de 4G y 5G

La infraestructura que sostiene la flota de Zaha Naoer está respaldada en redes mixtas de 4G y 5G, centros de control en la nube y sistemas de coordinación entre vehículos. Si uno de los camiones detecta una anomalía, el sistema transmite los datos en tiempo real para que los técnicos puedan intervenir de forma remota sin interrumpir la operación.

Más allá del despliegue tecnológico, la automatización también está reconfigurando la organización del trabajo en las minas. En Zaha Naoer, por ejemplo, el uso de camiones autónomos ha reducido considerablemente la necesidad de personal en cabina: 325 conductores menos y un ahorro mensual estimado en 4.000.000 de yuanes. Al mismo tiempo, se ha reforzado la seguridad operativa, con menos exposición directa a entornos de riesgo y mayor control sobre cada fase del proceso.

Imágenes | Huaneng Group

En Xataka | EEUU lleva décadas soñando con su primer tren de alta velocidad: el proyecto de California está siendo una auténtica pesadilla

-
La noticia Donde antes había humanos, ahora hay datos. Huawei y Huaneng han desplegado 100 camiones sin conductor en una mina en China fue publicada originalmente en Xataka por Javier Marquez .

Leer más