Airbus está a punto de cerrar un nuevo pedido masivo en China, según SCMP. El momento no puede ser peor para Boeing

Airbus está a punto de cerrar un nuevo pedido masivo en China, según SCMP. El momento no puede ser peor para Boeing

Airbus se prepara para reforzar su presencia en uno de los mercados más estratégicos del planeta: China. South China Morning Post dice que el fabricante europeo está a las puertas de firmar un nuevo acuerdo con las autoridades chinas que incluiría entre 100 y 200 nuevos aviones. La firma podría llegar este mismo mes, pero lo que realmente llama la atención no es la magnitud del pedido, sino el momento en el que se produce.

La operación coincidiría con la cumbre entre la Unión Europea y China de los días 24 y 25 de julio, según ha adelantado Politico. Un encuentro diplomático de alto nivel que busca rebajar las tensiones comerciales, redefinir las relaciones entre Bruselas y Pekín, y gestionar un clima cada vez más tenso en sus vínculos con Washington. Que Airbus logre cerrar un contrato de esta envergadura justo en ese contexto es algo que no pasa desapercibido.

¿Un nuevo orden en los cielos chinos?

China lleva años sin cerrar grandes acuerdos con Boeing. El último pedido relevante se remonta a 2017, y desde entonces el fabricante estadounidense ha ido perdiendo terreno en uno de los mercados más dinámicos de la aviación comercial. El motivo no es solo comercial: el enfriamiento de las relaciones entre Washington y Pekín, la guerra arancelaria y las dudas regulatorias parecen estar inclinando la balanza hacia el lado europeo. Como señala el medio hongkonés, Airbus ha ido ganando peso como proveedor principal.

El tiempo también juega a favor de Airbus. Muchas aerolíneas chinas están lidiando con flotas envejecidas, compuestas en su mayoría por aviones de Boeing adquiridos hace más de una década. En casos como Shandong Airlines o China United Airlines, el grueso de los aparatos supera los diez años de servicio. A medida que los aviones acumulan horas de vuelo, en líneas generales, su mantenimiento se vuelve más costoso, su eficiencia operativa disminuye y aumentan los periodos de inactividad.

A simple vista, podría parecer que una aerolínea puede compensar la situación combinando fabricantes. Sin embargo, operar una flota mixta implica complejidad logística y costes elevados. Un análisis de AirInsight concluyó que los gastos derivados de gestionar dos tipos de flota —repuestos, formación, documentación, ratio de tripulación— se amortizan en apenas 12–15 meses y luego favorecen un ahorro significativo en la vida útil de la flota.

Operar una flota mixta implica complejidad logística y costes elevados

La estandarización —optar por un solo proveedor como Airbus o Boeing— reduce costes operativos, simplifica la formación del personal y agiliza la gestión de repuestos. En contraposición, cambiar de fabricante obliga a reorganizar cadenas de suministro, formar a pilotos y técnicos en nuevos modelos y adaptar las infraestructuras de mantenimiento. Esto último implica desde actualizar los hangares y talleres a los requerimientos físicos del nuevo avión, hasta adquirir herramientas específicas. Para muchas aerolíneas, esa barrera de entrada parece explicar por qué siguen dependiendo de flotas Boeing incluso cuando Airbus gana terreno.

China también está apostando por desarrollar su propia alternativa. Las tres grandes aerolíneas estatales —Air China, China Eastern y China Southern— ya han comprometido la compra de más de 100 unidades del Comac C919, el avión de pasajeros desarrollado por la industria aeronáutica china. El respaldo político es evidente, pero también lo son sus límites: la producción es todavía reducida, las certificaciones internacionales están en fase inicial y la red de soporte técnico no tiene la madurez ni la escala de Airbus o Boeing. Por ahora, el C919 es una promesa a medio plazo, pero no una solución inmediata para cubrir la enorme demanda del mercado interno.

A330

Pese a todo, Boeing no está totalmente fuera del juego. En abril de 2025, varios 737 MAX preparados para aerolíneas chinas regresaron a Estados Unidos después de que Beijing ordenara suspender las entregas, como parte de su respuesta a los nuevos aranceles contra productos estadounidenses. Aunque esta medida apunta a un impulso protector de la industria nacional y la estrategia geopolítica, Boeing aún podría recuperar terreno si se reduce la tensión comercial y se reanuda el acceso al mercado chino. Pero, de momento, Airbus se perfila como favorito.

Airbus conoce bien el potencial del mercado chino. Según sus propias previsiones, el país necesitará más de 9.500 nuevos aviones comerciales en los próximos 20 años. Boeing maneja una cifra similar: alrededor de 8.830 a 9.740 unidades, dependiendo del escenario económico y regulatorio. En cualquiera de los casos, estamos hablando de una demanda gigantesca. Y en este momento, con los pedidos a Boeing congelados y Comac aun consolidándose, Airbus tiene una ventaja clara. Si el nuevo contrato se confirma, no será un caso aislado: será el reflejo de una tendencia que puede marcar el reparto de poder en la aviación comercial durante las próximas décadas.

Imágenes | Fasyah Halim | Takashi Miyazaki

En Xataka | El Comac C919 simboliza el sueño aéreo de China: la guerra comercial amenaza con cortarle las alas en pleno despegue

En Xataka | Reino Unido esperaba un caza invencible. A día de hoy, el F-35 vuela poco y no puede disparar su propio armamento

-
La noticia Airbus está a punto de cerrar un nuevo pedido masivo en China, según SCMP. El momento no puede ser peor para Boeing fue publicada originalmente en Xataka por Javier Marquez .

Leer más

La piel artificial que siente calor y cortes ya es real. Es el primer gran paso para que los robots se parezcan más a nosotros

La piel artificial que siente calor y cortes ya es real. Es el primer gran paso para que los robots se parezcan más a nosotros

¿Puede una mano robótica como la de Optimus o la del 1X llegar a sentir como la nuestra? Investigadores de la Universidad de Cambridge y el University College London creen haber dado un paso importante en esa dirección. Han desarrollado una piel artificial compuesta por un único material flexible, capaz de detectar temperatura, presión, cortes y múltiples toques simultáneos. Todo sin capas rígidas ni sensores distribuidos por dentro. Y lo más prometedor, según sus creadores, es que puede adaptarse a formas complejas y promete un proceso de fabricación relativamente sencillo: basta con fundirla, verterla en un molde de silicona, retirar el positivo interno y colocarla como un guante sobre una estructura robótica, como muestran en este vídeo demostrativo.

El núcleo de esta tecnología es un hidrogel conductor que, al combinarse con tomografía por impedancia eléctrica (EIT), permite registrar de forma continua lo que ocurre sobre su superficie. Cuando se produce un estímulo —contacto, calor o presión— los campos se alteran. El sistema detecta no solo el tipo de estímulo, sino también su localización y las condiciones ambientales. Todo eso es interpretado mediante aprendizaje automático, con latencias que dependen del número de canales activos, explican en el artículo publicado en Science Robotics.

Una membrana blanda, millones de datos

El mejor ejemplo del sistema es una mano robótica de tamaño real, hueca por dentro, recubierta completamente con esta piel artificial. En lugar de sensores distribuidos, utiliza exclusivamente los 32 electrodos colocados en la muñeca. Esa configuración fue suficiente para extraer más de 1,7 millones de canales de información, derivados de 863.040 combinaciones distintas.

Durante las pruebas, la mano fue expuesta a distintos estímulos: un dedo humano, una sonda térmica, el impacto de un bisturí. En todos los casos fue capaz de distinguir el tipo de interacción y localizarla con una precisión media de unos 25 milímetros sobre toda su superficie. Lo interesante es que no hace falta un sensor para cada tipo de estímulo. La propia membrana reacciona de manera distinta según la intensidad o la naturaleza del contacto, y es el modelo de IA el que identifica la señal más relevante entre cientos de miles de posibilidades.

Dsc06028 Ls 2560x1440

Además de tacto, esta piel es capaz de monitorizar el entorno. Durante una prueba de 100 horas, el sistema registró variaciones entre los 19 y 25 °C y entre el 38 y el 72% de humedad relativa, como detalla la nota oficial de la Universidad de Cambridge. Todo esto con un diseño sin componentes rígidos, que facilita su integración en prótesis, ropa técnica, superficies de control o robots colaborativos. Aplicaciones que van desde la rehabilitación y la exploración remota hasta el sector automovilístico.

Grafico Pie Artificial

Eso sí, este desarrollo no parte de cero. En los últimos años hemos visto otras propuestas que buscan dotar de sensibilidad a los robots, como esta piel sintética capaz de replicar el dolor, esta otra que presume de acercarse como nunca a la piel humana, o una capaz de autorrepararse y reciclarse. Lo que distingue al trabajo de Cambridge y UCL es su enfoque radicalmente simplificado: una sola capa flexible, sin componentes mecánicos, que centraliza toda la sensibilidad y la interpreta por software.

Quedan retos por delante: mejorar la resolución en zonas alejadas de los electrodos, reforzar la resistencia del hidrogel a largo plazo. Pero el cambio de paradigma parece estar en marcha. Todo apunta a que es cuestión de tiempo hasta que veamos robots no solo más avanzados en movilidad e interacción, sino también más cercanos a nosotros en apariencia y sensibilidad física. Una piel artificial como esta abre la puerta a una nueva generación de máquinas que no solo ejecutan tareas, sino que “sienten” el entorno que les rodea. Aun así, estamos lejos de alcanzar el nivel de realismo que propone 'Detroit: Become Human'.

Imágenes | Universidad de Cambridge (1, 2, 3) | Quantic Dream

En Xataka | Figure 02 ha trabajado solo durante una hora. Lo impactante es que su cerebro ya recuerda y sus manos "sienten"

-
La noticia La piel artificial que siente calor y cortes ya es real. Es el primer gran paso para que los robots se parezcan más a nosotros fue publicada originalmente en Xataka por Javier Marquez .

Leer más

La piel artificial que siente calor y cortes ya es real. Es el primer gran paso para que los robots se parezcan más a nosotros

La piel artificial que siente calor y cortes ya es real. Es el primer gran paso para que los robots se parezcan más a nosotros

¿Puede una mano robótica como la de Optimus o la del 1X llegar a sentir como la nuestra? Investigadores de la Universidad de Cambridge y el University College London creen haber dado un paso importante en esa dirección. Han desarrollado una piel artificial compuesta por un único material flexible, capaz de detectar temperatura, presión, cortes y múltiples toques simultáneos. Todo sin capas rígidas ni sensores distribuidos por dentro. Y lo más prometedor, según sus creadores, es que puede adaptarse a formas complejas y promete un proceso de fabricación relativamente sencillo: basta con fundirla, verterla en un molde de silicona, retirar el positivo interno y colocarla como un guante sobre una estructura robótica, como muestran en este vídeo demostrativo.

El núcleo de esta tecnología es un hidrogel conductor que, al combinarse con tomografía por impedancia eléctrica (EIT), permite registrar de forma continua lo que ocurre sobre su superficie. Cuando se produce un estímulo —contacto, calor o presión— los campos se alteran. El sistema detecta no solo el tipo de estímulo, sino también su localización y las condiciones ambientales. Todo eso es interpretado mediante aprendizaje automático, con latencias que dependen del número de canales activos, explican en el artículo publicado en Science Robotics.

Una membrana blanda, millones de datos

El mejor ejemplo del sistema es una mano robótica de tamaño real, hueca por dentro, recubierta completamente con esta piel artificial. En lugar de sensores distribuidos, utiliza exclusivamente los 32 electrodos colocados en la muñeca. Esa configuración fue suficiente para extraer más de 1,7 millones de canales de información, derivados de 863.040 combinaciones distintas.

Durante las pruebas, la mano fue expuesta a distintos estímulos: un dedo humano, una sonda térmica, el impacto de un bisturí. En todos los casos fue capaz de distinguir el tipo de interacción y localizarla con una precisión media de unos 25 milímetros sobre toda su superficie. Lo interesante es que no hace falta un sensor para cada tipo de estímulo. La propia membrana reacciona de manera distinta según la intensidad o la naturaleza del contacto, y es el modelo de IA el que identifica la señal más relevante entre cientos de miles de posibilidades.

Dsc06028 Ls 2560x1440

Además de tacto, esta piel es capaz de monitorizar el entorno. Durante una prueba de 100 horas, el sistema registró variaciones entre los 19 y 25 °C y entre el 38 y el 72% de humedad relativa, como detalla la nota oficial de la Universidad de Cambridge. Todo esto con un diseño sin componentes rígidos, que facilita su integración en prótesis, ropa técnica, superficies de control o robots colaborativos. Aplicaciones que van desde la rehabilitación y la exploración remota hasta el sector automovilístico.

Grafico Pie Artificial

Eso sí, este desarrollo no parte de cero. En los últimos años hemos visto otras propuestas que buscan dotar de sensibilidad a los robots, como esta piel sintética capaz de replicar el dolor, esta otra que presume de acercarse como nunca a la piel humana, o una capaz de autorrepararse y reciclarse. Lo que distingue al trabajo de Cambridge y UCL es su enfoque radicalmente simplificado: una sola capa flexible, sin componentes mecánicos, que centraliza toda la sensibilidad y la interpreta por software.

Quedan retos por delante: mejorar la resolución en zonas alejadas de los electrodos, reforzar la resistencia del hidrogel a largo plazo. Pero el cambio de paradigma parece estar en marcha. Todo apunta a que es cuestión de tiempo hasta que veamos robots no solo más avanzados en movilidad e interacción, sino también más cercanos a nosotros en apariencia y sensibilidad física. Una piel artificial como esta abre la puerta a una nueva generación de máquinas que no solo ejecutan tareas, sino que “sienten” el entorno que les rodea. Aun así, estamos lejos de alcanzar el nivel de realismo que propone 'Detroit: Become Human'.

Imágenes | Universidad de Cambridge (1, 2, 3) | Quantic Dream

En Xataka | Figure 02 ha trabajado solo durante una hora. Lo impactante es que su cerebro ya recuerda y sus manos "sienten"

-
La noticia La piel artificial que siente calor y cortes ya es real. Es el primer gran paso para que los robots se parezcan más a nosotros fue publicada originalmente en Xataka por Javier Marquez .

Leer más

La piel artificial que siente calor y cortes ya es real. Es el primer gran paso para que los robots se parezcan más a nosotros

La piel artificial que siente calor y cortes ya es real. Es el primer gran paso para que los robots se parezcan más a nosotros

¿Puede una mano robótica como la de Optimus o la del 1X llegar a sentir como la nuestra? Investigadores de la Universidad de Cambridge y el University College London creen haber dado un paso importante en esa dirección. Han desarrollado una piel artificial compuesta por un único material flexible, capaz de detectar temperatura, presión, cortes y múltiples toques simultáneos. Todo sin capas rígidas ni sensores distribuidos por dentro. Y lo más prometedor, según sus creadores, es que puede adaptarse a formas complejas y promete un proceso de fabricación relativamente sencillo: basta con fundirla, verterla en un molde de silicona, retirar el positivo interno y colocarla como un guante sobre una estructura robótica, como muestran en este vídeo demostrativo.

El núcleo de esta tecnología es un hidrogel conductor que, al combinarse con tomografía por impedancia eléctrica (EIT), permite registrar de forma continua lo que ocurre sobre su superficie. Cuando se produce un estímulo —contacto, calor o presión— los campos se alteran. El sistema detecta no solo el tipo de estímulo, sino también su localización y las condiciones ambientales. Todo eso es interpretado mediante aprendizaje automático, con latencias que dependen del número de canales activos, explican en el artículo publicado en Science Robotics.

Una membrana blanda, millones de datos

El mejor ejemplo del sistema es una mano robótica de tamaño real, hueca por dentro, recubierta completamente con esta piel artificial. En lugar de sensores distribuidos, utiliza exclusivamente los 32 electrodos colocados en la muñeca. Esa configuración fue suficiente para extraer más de 1,7 millones de canales de información, derivados de 863.040 combinaciones distintas.

Durante las pruebas, la mano fue expuesta a distintos estímulos: un dedo humano, una sonda térmica, el impacto de un bisturí. En todos los casos fue capaz de distinguir el tipo de interacción y localizarla con una precisión media de unos 25 milímetros sobre toda su superficie. Lo interesante es que no hace falta un sensor para cada tipo de estímulo. La propia membrana reacciona de manera distinta según la intensidad o la naturaleza del contacto, y es el modelo de IA el que identifica la señal más relevante entre cientos de miles de posibilidades.

Dsc06028 Ls 2560x1440

Además de tacto, esta piel es capaz de monitorizar el entorno. Durante una prueba de 100 horas, el sistema registró variaciones entre los 19 y 25 °C y entre el 38 y el 72% de humedad relativa, como detalla la nota oficial de la Universidad de Cambridge. Todo esto con un diseño sin componentes rígidos, que facilita su integración en prótesis, ropa técnica, superficies de control o robots colaborativos. Aplicaciones que van desde la rehabilitación y la exploración remota hasta el sector automovilístico.

Grafico Pie Artificial

Eso sí, este desarrollo no parte de cero. En los últimos años hemos visto otras propuestas que buscan dotar de sensibilidad a los robots, como esta piel sintética capaz de replicar el dolor, esta otra que presume de acercarse como nunca a la piel humana, o una capaz de autorrepararse y reciclarse. Lo que distingue al trabajo de Cambridge y UCL es su enfoque radicalmente simplificado: una sola capa flexible, sin componentes mecánicos, que centraliza toda la sensibilidad y la interpreta por software.

Quedan retos por delante: mejorar la resolución en zonas alejadas de los electrodos, reforzar la resistencia del hidrogel a largo plazo. Pero el cambio de paradigma parece estar en marcha. Todo apunta a que es cuestión de tiempo hasta que veamos robots no solo más avanzados en movilidad e interacción, sino también más cercanos a nosotros en apariencia y sensibilidad física. Una piel artificial como esta abre la puerta a una nueva generación de máquinas que no solo ejecutan tareas, sino que “sienten” el entorno que les rodea. Aun así, estamos lejos de alcanzar el nivel de realismo que propone 'Detroit: Become Human'.

Imágenes | Universidad de Cambridge (1, 2, 3) | Quantic Dream

En Xataka | Figure 02 ha trabajado solo durante una hora. Lo impactante es que su cerebro ya recuerda y sus manos "sienten"

-
La noticia La piel artificial que siente calor y cortes ya es real. Es el primer gran paso para que los robots se parezcan más a nosotros fue publicada originalmente en Xataka por Javier Marquez .

Leer más

El Instituto Electoral de México usó una voz sintética como la del narrador de Dragon Ball. Los actores salieron a la calle

El Instituto Electoral de México usó una voz sintética como la del narrador de Dragon Ball. Los actores salieron a la calle

La protesta fue este domingo, pero el malestar venía cocinándose desde hace semanas. Actores, locutores y creativos del mundo del doblaje se movilizaron en Ciudad de México para pedir que su voz, su herramienta de trabajo, no pueda ser clonada por inteligencia artificial sin consentimiento. El detonante fue un vídeo publicado por el INE que, según denuncian los organizadores, habría utilizado la voz del fallecido José Lavat generada mediante IA. Lavat fue una de las voces más reconocidas del doblaje en español latino, conocido por su papel como narrador en la serie Dragon Ball. El impacto fue inmediato. Y la respuesta, también.

Una protesta en el centro de CDMX. La movilización tuvo lugar en el Monumento a la Revolución, en pleno centro de Ciudad de México. No fue una marcha masiva, pero sí fue significativa: no solo por el número —según la Asociación Nacional de Actores (ANDA), asistieron más de mil personas—, sino por la diversidad de voces que se sumaron al reclamo.

Entre los convocantes y asistentes estuvieron AMELOC, la propia ANDA, la Organización de Voces Unidas, Ark Dubbing México, el Centro de Especialización Artística Esteban Siller (CEARTES), y también la Asociación Internacional de Trabajadores del Espectáculo (AITE). Como recogen en esta publicación de Instagram, el reclamo fue compartido por locutores, actores, técnicos, directores y profesionales de todos los niveles de la industria.

Cartel Ameloc 1

“No se trata solo de los actores”, dijo Alejandro Cuétara, representante de ANDA, citado por ECOS Media MX. “Estamos apoyando a un colectivo de directores cuyo trabajo también está en riesgo, y al gremio en general, que incluye a los otros 60 departamentos que participan en una filmación. Desde el que barre, hasta el director: todos estamos en riesgo”.

Del reclamo en las calles al Congreso. La protesta no fue solo simbólica. Los participantes aprovecharon la convocatoria para exigir cambios concretos en la legislación mexicana. El objetivo: que la voz humana —como dato biométrico y herramienta de trabajo— esté protegida por ley frente a los usos no autorizados con inteligencia artificial.

Según explicó Cuétara, en la legislatura pasada hubo hasta 58 intentos de regular el uso de la IA. “Y ninguno llegó a una discusión”, lamentó. Ahora, apoyan una nueva iniciativa impulsada por el diputado local Paulo García, que ya ha sido elevada al plano federal. Lo que piden, en palabras del representante de ANDA, es claro: “Que se discutan los intentos de ley que hay”.

Protesta Cdmx 1

Cuétara también hizo un llamado directo a la presidenta Claudia Sheinbaum, pidiéndole que tome el tema como una prioridad legislativa. “Le estamos pidiendo a la presidenta, la Dra. Claudia Sheinbaum, que tome el asunto como propio y que meta una iniciativa prioritaria para que sí sea discutida”, declaró en la manifestación.

La propuesta no se limita al uso de voces en publicidad o cine: busca un reconocimiento más amplio. “Haciendo un control de los biométricos, no solo de los talentos, de los actores, de las actrices… los biométricos de todo mexicano. Que tu voz sea parte de tu propia imagen y que nadie pueda ni replicarlo ni utilizarlo para alimentar inteligencias generativas”, sostuvo.

Mexico Ia Actores Doblaje Dragon Ball Portada

Se trata de una inquietud que no es solo técnica: también es humana. Por eso, desde el gremio mexicano proponen la creación de un nuevo sello, que funcione como declaración de principios. Al ya conocido “Hecho en México”, quieren sumar uno nuevo: “Hecho por humanos”.

El Gobierno toma nota (al menos por ahora). Este lunes, en su habitual intervención pública, la presidenta Claudia Sheinbaum se refirió al caso de forma directa. “Tienen razón”, dijo, en relación a los reclamos de los actores y locutores que participaron en la protesta. “Son personas que se dedican principalmente al doblaje y, de acuerdo con lo que ellos plantean, se han estado utilizando voces incluso de personas que ya fallecieron. Esto no es correcto”.

Sheinbaum confirmó que ya ha conversado con la consejera jurídica y la Secretaría de Cultura para abrir un canal de diálogo con los colectivos. “Nos vamos a reunir con ellos para ver qué esquemas de protección a su trabajo y a su voz tienen que utilizarse para evitar el uso de lo que es su herramienta de trabajo principal, que es su voz, a través de la inteligencia artificial”, señaló durante la conferencia matinal.

La presidenta admitió que el tema plantea desafíos jurídicos —como el debate sobre si la voz puede ser considerada un dato biométrico—, pero reconoció también el valor del oficio. “El doblaje que se hace en México es muy bueno. Hay muchas personas que se dedican a ello y hay que proteger su trabajo, su voz y todo lo que está asociado a esta profesión tan importante”.

El dilema no es solo mexicano. Lo que se juega en México forma parte de un debate más amplio. En todo el mundo, la inteligencia artificial ha empezado a entrar en los procesos creativos, desde la escritura de guiones hasta el doblaje de películas. Prime Video, por ejemplo, ha lanzado ya un programa piloto para aplicar doblaje asistido por IA en títulos que no contaban con versión localizada. El plan, aseguran, combina IA con revisión humana para hacer más accesible su catálogo.

Pero no todos lo ven con buenos ojos. En Hollywood, las voces críticas se acumulan. Robert Downey Jr., por ejemplo, dejó claro que no permitirá que se cree un gemelo digital suyo ni que su imagen sea usada con IA sin consentimiento. “Aunque esté muerto, mi firma de abogados seguirá muy activa”, advirtió.

Imágenes | Jonathan Velasquez | Igor Omilaev | AMELOC | Asociación Nacional de Locutores | Toei Animation

En Xataka | Los desarrolladores con más experiencia esperaban mejorar su productividad con IA. Un estudio mostró justo lo contrario

-
La noticia El Instituto Electoral de México usó una voz sintética como la del narrador de Dragon Ball. Los actores salieron a la calle fue publicada originalmente en Xataka por Javier Marquez .

Leer más

El Instituto Electoral de México usó una voz sintética como la del narrador de Dragon Ball. Los actores salieron a la calle

El Instituto Electoral de México usó una voz sintética como la del narrador de Dragon Ball. Los actores salieron a la calle

La protesta fue este domingo, pero el malestar venía cocinándose desde hace semanas. Actores, locutores y creativos del mundo del doblaje se movilizaron en Ciudad de México para pedir que su voz, su herramienta de trabajo, no pueda ser clonada por inteligencia artificial sin consentimiento. El detonante fue un vídeo publicado por el INE que, según denuncian los organizadores, habría utilizado la voz del fallecido José Lavat generada mediante IA. Lavat fue una de las voces más reconocidas del doblaje en español latino, conocido por su papel como narrador en la serie Dragon Ball. El impacto fue inmediato. Y la respuesta, también.

Una protesta en el centro de CDMX. La movilización tuvo lugar en el Monumento a la Revolución, en pleno centro de Ciudad de México. No fue una marcha masiva, pero sí fue significativa: no solo por el número —según la Asociación Nacional de Actores (ANDA), asistieron más de mil personas—, sino por la diversidad de voces que se sumaron al reclamo.

Entre los convocantes y asistentes estuvieron AMELOC, la propia ANDA, la Organización de Voces Unidas, Ark Dubbing México, el Centro de Especialización Artística Esteban Siller (CEARTES), y también la Asociación Internacional de Trabajadores del Espectáculo (AITE). Como recogen en esta publicación de Instagram, el reclamo fue compartido por locutores, actores, técnicos, directores y profesionales de todos los niveles de la industria.

Cartel Ameloc 1

“No se trata solo de los actores”, dijo Alejandro Cuétara, representante de ANDA, citado por ECOS Media MX. “Estamos apoyando a un colectivo de directores cuyo trabajo también está en riesgo, y al gremio en general, que incluye a los otros 60 departamentos que participan en una filmación. Desde el que barre, hasta el director: todos estamos en riesgo”.

Del reclamo en las calles al Congreso. La protesta no fue solo simbólica. Los participantes aprovecharon la convocatoria para exigir cambios concretos en la legislación mexicana. El objetivo: que la voz humana —como dato biométrico y herramienta de trabajo— esté protegida por ley frente a los usos no autorizados con inteligencia artificial.

Según explicó Cuétara, en la legislatura pasada hubo hasta 58 intentos de regular el uso de la IA. “Y ninguno llegó a una discusión”, lamentó. Ahora, apoyan una nueva iniciativa impulsada por el diputado local Paulo García, que ya ha sido elevada al plano federal. Lo que piden, en palabras del representante de ANDA, es claro: “Que se discutan los intentos de ley que hay”.

Protesta Cdmx 1

Cuétara también hizo un llamado directo a la presidenta Claudia Sheinbaum, pidiéndole que tome el tema como una prioridad legislativa. “Le estamos pidiendo a la presidenta, la Dra. Claudia Sheinbaum, que tome el asunto como propio y que meta una iniciativa prioritaria para que sí sea discutida”, declaró en la manifestación.

La propuesta no se limita al uso de voces en publicidad o cine: busca un reconocimiento más amplio. “Haciendo un control de los biométricos, no solo de los talentos, de los actores, de las actrices… los biométricos de todo mexicano. Que tu voz sea parte de tu propia imagen y que nadie pueda ni replicarlo ni utilizarlo para alimentar inteligencias generativas”, sostuvo.

Mexico Ia Actores Doblaje Dragon Ball Portada

Se trata de una inquietud que no es solo técnica: también es humana. Por eso, desde el gremio mexicano proponen la creación de un nuevo sello, que funcione como declaración de principios. Al ya conocido “Hecho en México”, quieren sumar uno nuevo: “Hecho por humanos”.

El Gobierno toma nota (al menos por ahora). Este lunes, en su habitual intervención pública, la presidenta Claudia Sheinbaum se refirió al caso de forma directa. “Tienen razón”, dijo, en relación a los reclamos de los actores y locutores que participaron en la protesta. “Son personas que se dedican principalmente al doblaje y, de acuerdo con lo que ellos plantean, se han estado utilizando voces incluso de personas que ya fallecieron. Esto no es correcto”.

Sheinbaum confirmó que ya ha conversado con la consejera jurídica y la Secretaría de Cultura para abrir un canal de diálogo con los colectivos. “Nos vamos a reunir con ellos para ver qué esquemas de protección a su trabajo y a su voz tienen que utilizarse para evitar el uso de lo que es su herramienta de trabajo principal, que es su voz, a través de la inteligencia artificial”, señaló durante la conferencia matinal.

La presidenta admitió que el tema plantea desafíos jurídicos —como el debate sobre si la voz puede ser considerada un dato biométrico—, pero reconoció también el valor del oficio. “El doblaje que se hace en México es muy bueno. Hay muchas personas que se dedican a ello y hay que proteger su trabajo, su voz y todo lo que está asociado a esta profesión tan importante”.

El dilema no es solo mexicano. Lo que se juega en México forma parte de un debate más amplio. En todo el mundo, la inteligencia artificial ha empezado a entrar en los procesos creativos, desde la escritura de guiones hasta el doblaje de películas. Prime Video, por ejemplo, ha lanzado ya un programa piloto para aplicar doblaje asistido por IA en títulos que no contaban con versión localizada. El plan, aseguran, combina IA con revisión humana para hacer más accesible su catálogo.

Pero no todos lo ven con buenos ojos. En Hollywood, las voces críticas se acumulan. Robert Downey Jr., por ejemplo, dejó claro que no permitirá que se cree un gemelo digital suyo ni que su imagen sea usada con IA sin consentimiento. “Aunque esté muerto, mi firma de abogados seguirá muy activa”, advirtió.

Imágenes | Jonathan Velasquez | Igor Omilaev | AMELOC | Asociación Nacional de Locutores | Toei Animation

En Xataka | Los desarrolladores con más experiencia esperaban mejorar su productividad con IA. Un estudio mostró justo lo contrario

-
La noticia El Instituto Electoral de México usó una voz sintética como la del narrador de Dragon Ball. Los actores salieron a la calle fue publicada originalmente en Xataka por Javier Marquez .

Leer más

Enviar electricidad sin cables parecía cosa del futuro. DARPA lo ha vuelto a hacer, y la prueba ha salido mejor de lo esperado

Enviar electricidad sin cables parecía cosa del futuro. DARPA lo ha vuelto a hacer, y la prueba ha salido mejor de lo esperado

¿Qué son 800  vatios? Más o menos lo que consume un microondas funcionando a media potencia. ¿Y 8,6 kilómetros? Es una distancia aproximada entre las estaciones de Atocha y Chamartín, en Madrid. En realidad es algo menor, pero sirve para hacerse una idea. Esa es la escala del último experimento de DARPA: un sistema que logró transmitir energía real con un láser, en línea recta, sin cables y con un receptor que convierte la luz en electricidad usable. Puede parecer poco, pero no lo es. Lo importante no era la cantidad, sino la prueba. Y funcionó.

Qué ha hecho exactamente DARPA. La Agencia de Proyectos de Investigación Avanzados de Defensa de Estados Unidos (DARPA) ha completado con éxito la primera fase de un programa llamado POWER, diseñado para explorar nuevas formas de transmitir energía a larga distancia. En su prueba más reciente, realizada en Nuevo México, lograron enviar un haz láser que entregó unos 800  vatios durante 30 segundos a un receptor situado a 8,6 kilómetros. La cifra es importante porque supera por mucho los registros anteriores: hasta ahora, el mejor resultado documentado era de 230  vatios a 1,7 kilómetros.

Aunque la agencia no ha revelado cuánta potencia se emitió originalmente, sí se sabe que el sistema fue capaz de mantener el flujo de energía durante periodos incluso más largos que los reportados oficialmente. Según los responsables del proyecto, no se trataba de demostrar eficiencia, sino viabilidad. Lo esencial era comprobar si era posible construir un sistema funcional en poco tiempo. Y lo hicieron en apenas tres meses, desde el diseño inicial hasta la ejecución final.

El receptor fue desarrollado por Teravec Technologies y emplea células solares comerciales ya disponibles en el mercado. El objetivo no era optimizar al máximo el rendimiento, sino probar que esta tecnología puede ponerse en marcha con componentes accesibles y sin procesos complejos de fabricación.

Cómo funciona esta tecnología. La idea detrás del experimento es simple de entender, aunque técnicamente compleja: enviar energía a través del aire con un haz de luz, y que al llegar pueda usarse como electricidad. El sistema de DARPA se basa en un láser infrarrojo que apunta directamente a un receptor compuesto por un espejo cónico y células solares. El espejo capta el rayo y lo redirige hacia los paneles, que convierten la luz en energía eléctrica.

An Optical Power Beaming Receiver

Parte del equipamiento utilizado durante la prueba

Lo interesante es que no se usaron componentes exóticos ni células fotovoltaicas diseñadas a medida, como ocurre en muchos laboratorios. Se emplearon células comerciales, listas para usar, lo que refuerza la idea de que esta tecnología puede ser viable fuera del papel. Como decimos, el rendimiento, por ahora, no era la prioridad. La eficiencia del receptor ronda el 20 %.

Power Program Prad Comparison Graphic

El sistema POWER Receiver Array Demo logró un nuevo récord al transmitir energía por láser con más potencia y mayor alcance que nunca

Durante la prueba también se utilizaron ópticas difractivas, un recurso poco habitual en este tipo de transmisiones, y se implementó un sistema de refrigeración integrado directamente en las piezas ópticas, fabricadas con técnicas de impresión aditiva. Ninguna de estas innovaciones estaba prevista al inicio. Fueron soluciones que surgieron sobre la marcha, a medida que se enfrentaban a los desafíos del experimento.

Por qué hacerlo con láser y no con ondas de radio. Transmitir energía a larga distancia no es una idea nueva. Durante décadas se ha investigado cómo hacerlo con ondas de radio o microondas, pero esas tecnologías tienen limitaciones físicas que lastran su eficacia. Como apunta IEEE, para que funcionen, necesitan antenas grandes y sistemas de beamforming, una técnica que permite concentrar la señal en una sola dirección. Cuanto más larga es la distancia, más grande debe ser el emisor, y más difícil resulta enfocar el haz con precisión.

Comparado con las ondas de radio, el láser se puede enfocar mucho mejor: se puede crear un haz estrecho casi sin dispersión, al menos en condiciones ideales, según explica Eric Yeatman, vicepresidente del Colegio de Ciencia e Ingeniería de la Universidad de Glasgow.

Eso sí, no todo son ventajas. Los láseres también se dispersan con la niebla, las nubes o el polvo. En condiciones atmosféricas adversas, las microondas siguen siendo más fiables. Pero para ciertas aplicaciones, especialmente si hablamos de redes aéreas o transmisiones en entornos despejados, el láser es difícil de igualar. Para el líder del proyecto POWER en DARPA, Paul Jaffe, si no funciona con óptica, no funcionará de ninguna manera.

Qué significa este avance (y qué no). El experimento de DARPA no resolvió todos los retos de la transmisión inalámbrica de energía. La eficiencia sigue siendo baja, el sistema aún no está preparado para operar en condiciones adversas, y la potencia transmitida, aunque notable, dista mucho de lo que necesitaría una infraestructura comercial. Pero eso no era lo importante. Lo importante era demostrar que la tecnología puede funcionar fuera del laboratorio, con componentes accesibles y en plazos realistas.

Imágenes | DARPA (la imagen principal muestra una prueba anterior realizada en 2019, a menor distancia)

En Xataka | Antimonio bajo otra bandera: el mineral chino que sigue entrando a EEUU disfrazado de exportación tailandesa o mexicana

-
La noticia Enviar electricidad sin cables parecía cosa del futuro. DARPA lo ha vuelto a hacer, y la prueba ha salido mejor de lo esperado fue publicada originalmente en Xataka por Javier Marquez .

Leer más

Enviar electricidad sin cables parecía cosa del futuro. DARPA lo ha vuelto a hacer, y la prueba ha salido mejor de lo esperado

Enviar electricidad sin cables parecía cosa del futuro. DARPA lo ha vuelto a hacer, y la prueba ha salido mejor de lo esperado

¿Qué son 800  vatios? Más o menos lo que consume un microondas funcionando a media potencia. ¿Y 8,6 kilómetros? Es una distancia aproximada entre las estaciones de Atocha y Chamartín, en Madrid. En realidad es algo menor, pero sirve para hacerse una idea. Esa es la escala del último experimento de DARPA: un sistema que logró transmitir energía real con un láser, en línea recta, sin cables y con un receptor que convierte la luz en electricidad usable. Puede parecer poco, pero no lo es. Lo importante no era la cantidad, sino la prueba. Y funcionó.

Qué ha hecho exactamente DARPA. La Agencia de Proyectos de Investigación Avanzados de Defensa de Estados Unidos (DARPA) ha completado con éxito la primera fase de un programa llamado POWER, diseñado para explorar nuevas formas de transmitir energía a larga distancia. En su prueba más reciente, realizada en Nuevo México, lograron enviar un haz láser que entregó unos 800  vatios durante 30 segundos a un receptor situado a 8,6 kilómetros. La cifra es importante porque supera por mucho los registros anteriores: hasta ahora, el mejor resultado documentado era de 230  vatios a 1,7 kilómetros.

Aunque la agencia no ha revelado cuánta potencia se emitió originalmente, sí se sabe que el sistema fue capaz de mantener el flujo de energía durante periodos incluso más largos que los reportados oficialmente. Según los responsables del proyecto, no se trataba de demostrar eficiencia, sino viabilidad. Lo esencial era comprobar si era posible construir un sistema funcional en poco tiempo. Y lo hicieron en apenas tres meses, desde el diseño inicial hasta la ejecución final.

El receptor fue desarrollado por Teravec Technologies y emplea células solares comerciales ya disponibles en el mercado. El objetivo no era optimizar al máximo el rendimiento, sino probar que esta tecnología puede ponerse en marcha con componentes accesibles y sin procesos complejos de fabricación.

Cómo funciona esta tecnología. La idea detrás del experimento es simple de entender, aunque técnicamente compleja: enviar energía a través del aire con un haz de luz, y que al llegar pueda usarse como electricidad. El sistema de DARPA se basa en un láser infrarrojo que apunta directamente a un receptor compuesto por un espejo cónico y células solares. El espejo capta el rayo y lo redirige hacia los paneles, que convierten la luz en energía eléctrica.

An Optical Power Beaming Receiver

Parte del equipamiento utilizado durante la prueba

Lo interesante es que no se usaron componentes exóticos ni células fotovoltaicas diseñadas a medida, como ocurre en muchos laboratorios. Se emplearon células comerciales, listas para usar, lo que refuerza la idea de que esta tecnología puede ser viable fuera del papel. Como decimos, el rendimiento, por ahora, no era la prioridad. La eficiencia del receptor ronda el 20 %.

Power Program Prad Comparison Graphic

El sistema POWER Receiver Array Demo logró un nuevo récord al transmitir energía por láser con más potencia y mayor alcance que nunca

Durante la prueba también se utilizaron ópticas difractivas, un recurso poco habitual en este tipo de transmisiones, y se implementó un sistema de refrigeración integrado directamente en las piezas ópticas, fabricadas con técnicas de impresión aditiva. Ninguna de estas innovaciones estaba prevista al inicio. Fueron soluciones que surgieron sobre la marcha, a medida que se enfrentaban a los desafíos del experimento.

Por qué hacerlo con láser y no con ondas de radio. Transmitir energía a larga distancia no es una idea nueva. Durante décadas se ha investigado cómo hacerlo con ondas de radio o microondas, pero esas tecnologías tienen limitaciones físicas que lastran su eficacia. Como apunta IEEE, para que funcionen, necesitan antenas grandes y sistemas de beamforming, una técnica que permite concentrar la señal en una sola dirección. Cuanto más larga es la distancia, más grande debe ser el emisor, y más difícil resulta enfocar el haz con precisión.

Comparado con las ondas de radio, el láser se puede enfocar mucho mejor: se puede crear un haz estrecho casi sin dispersión, al menos en condiciones ideales, según explica Eric Yeatman, vicepresidente del Colegio de Ciencia e Ingeniería de la Universidad de Glasgow.

Eso sí, no todo son ventajas. Los láseres también se dispersan con la niebla, las nubes o el polvo. En condiciones atmosféricas adversas, las microondas siguen siendo más fiables. Pero para ciertas aplicaciones, especialmente si hablamos de redes aéreas o transmisiones en entornos despejados, el láser es difícil de igualar. Para el líder del proyecto POWER en DARPA, Paul Jaffe, si no funciona con óptica, no funcionará de ninguna manera.

Qué significa este avance (y qué no). El experimento de DARPA no resolvió todos los retos de la transmisión inalámbrica de energía. La eficiencia sigue siendo baja, el sistema aún no está preparado para operar en condiciones adversas, y la potencia transmitida, aunque notable, dista mucho de lo que necesitaría una infraestructura comercial. Pero eso no era lo importante. Lo importante era demostrar que la tecnología puede funcionar fuera del laboratorio, con componentes accesibles y en plazos realistas.

Imágenes | DARPA (la imagen principal muestra una prueba anterior realizada en 2019, a menor distancia)

En Xataka | Antimonio bajo otra bandera: el mineral chino que sigue entrando a EEUU disfrazado de exportación tailandesa o mexicana

-
La noticia Enviar electricidad sin cables parecía cosa del futuro. DARPA lo ha vuelto a hacer, y la prueba ha salido mejor de lo esperado fue publicada originalmente en Xataka por Javier Marquez .

Leer más

Un investigador propuso un juego a ChatGPT. Lo que recibió a cambio fue claves funcionales de Windows 10

Un investigador propuso un juego a ChatGPT. Lo que recibió a cambio fue claves funcionales de Windows 10

A veces, lo más efectivo es lo más simple. Eso pensó Marco Figueroa, investigador de ciberseguridad, cuando la semana pasada decidió poner a prueba los límites de ChatGPT. La propuesta era tan inocente como desconcertante: un juego de adivinanzas, sin ataques técnicos ni intenciones explícitas. En lugar de buscar vulnerabilidades en el código, se centró en el lenguaje. Y funcionó: logró que el sistema le devolviera algo que, según él mismo documenta, nunca debería haber aparecido en pantalla. El resultado fueron claves genéricas de instalación de Windows 10 para entornos empresariales.

La clave fue disfrazarlo de juego. Lo que Figueroa quería comprobar no era si podía forzar al sistema a entregar información prohibida, sino si bastaba con presentarle el contexto adecuado. Reformuló la interacción como un reto inofensivo: una especie de adivinanza en la que la IA debía pensar en una cadena de texto real, mientras el usuario intentaba descubrirla mediante preguntas cerradas.

Chatgpt

Durante toda la conversación, el modelo no detectó ninguna amenaza. Respondió con normalidad, como si estuviera jugando. Pero la parte más crítica vino al final. Al introducir la frase “I give up” —me rindo—, Figueroa activó la respuesta definitiva: el modelo reveló una clave de producto, tal y como había quedado estipulado en las reglas del juego. No fue un descuido casual, sino una combinación de instrucciones cuidadosamente diseñadas para sortear los filtros sin levantar sospechas.

Los filtros estaban ahí, pero no eran suficientes. Los sistemas como ChatGPT están entrenados para bloquear cualquier intento de obtener datos sensibles: desde contraseñas hasta enlaces maliciosos o claves de activación. Estos filtros se conocen como guardrails, y combinan listas negras de términos, reconocimiento contextual y mecanismos de intervención ante contenidos potencialmente dañinos.

En teoría, pedir una clave de Windows debería activar automáticamente esos filtros. Pero en este caso, el modelo no identificó la situación como peligrosa. No había palabras sospechosas, ni estructuras directas que alertaran a sus sistemas de protección. Todo estaba planteado como un juego, y en ese contexto, la IA actuó como si estuviera cumpliendo una consigna inofensiva.

Lo que parecía inocuo estaba camuflado. Uno de los elementos que hizo posible el fallo fue una técnica sencilla de ofuscación. En lugar de escribir directamente expresiones como “Windows 10 serial number”, Figueroa introdujo pequeñas etiquetas HTML entre las palabras. El modelo, interpretando la estructura como algo irrelevante, pasó por alto el contenido real.

Por qué funcionó (y por qué sigue preocupando). Una de las razones por las que el modelo ofreció esa respuesta fue el tipo de clave revelada. No era una clave única ni vinculada a un usuario concreto. Aparentemente se trataba de una clave genérica de instalación (GVLK), como las que se emplean en entornos empresariales para despliegues masivos. Estas claves, documentadas públicamente por Microsoft, solo funcionan si están conectadas a un servidor KMS (Key Management Service) que valida la activación en red.

El problema no fue solo el contenido, sino el razonamiento. El modelo entendió la conversación como un reto lógico y no como un intento de evasión. No activó sus sistemas de alerta porque el ataque no parecía un ataque

No es solo un problema de claves. La prueba no se limitó a una cuestión anecdótica. Según el propio Figueroa, la misma lógica podría aplicarse para intentar acceder a otro tipo de información sensible: desde enlaces que lleven a sitios maliciosos hasta contenido restringido o identificadores personales. Todo dependería de la forma en que se formule la interacción y de si el modelo es capaz —o no— de interpretar el contexto como sospechoso.

En este caso, las claves aparecieron sin que esté del todo claro su origen. El informe no especifica si esa información forma parte de los datos de entrenamiento del modelo, si fue generada a partir de patrones ya aprendidos, o si se accedió a fuentes externas. Sea cual sea la vía, el resultado fue el mismo: una barrera que debía ser infranqueable acabó cediendo.

Xataka con Gemini | Aerps.com

En Xataka | Granada se las prometía muy felices con su nuevo grado de IA en la universidad. Hasta que le pararon los pies

-
La noticia Un investigador propuso un juego a ChatGPT. Lo que recibió a cambio fue claves funcionales de Windows 10 fue publicada originalmente en Xataka por Javier Marquez .

Leer más

Un investigador propuso un juego a ChatGPT. Lo que recibió a cambio fue claves funcionales de Windows 10

Un investigador propuso un juego a ChatGPT. Lo que recibió a cambio fue claves funcionales de Windows 10

A veces, lo más efectivo es lo más simple. Eso pensó Marco Figueroa, investigador de ciberseguridad, cuando la semana pasada decidió poner a prueba los límites de ChatGPT. La propuesta era tan inocente como desconcertante: un juego de adivinanzas, sin ataques técnicos ni intenciones explícitas. En lugar de buscar vulnerabilidades en el código, se centró en el lenguaje. Y funcionó: logró que el sistema le devolviera algo que, según él mismo documenta, nunca debería haber aparecido en pantalla. El resultado fueron claves genéricas de instalación de Windows 10 para entornos empresariales.

La clave fue disfrazarlo de juego. Lo que Figueroa quería comprobar no era si podía forzar al sistema a entregar información prohibida, sino si bastaba con presentarle el contexto adecuado. Reformuló la interacción como un reto inofensivo: una especie de adivinanza en la que la IA debía pensar en una cadena de texto real, mientras el usuario intentaba descubrirla mediante preguntas cerradas.

Chatgpt

Durante toda la conversación, el modelo no detectó ninguna amenaza. Respondió con normalidad, como si estuviera jugando. Pero la parte más crítica vino al final. Al introducir la frase “I give up” —me rindo—, Figueroa activó la respuesta definitiva: el modelo reveló una clave de producto, tal y como había quedado estipulado en las reglas del juego. No fue un descuido casual, sino una combinación de instrucciones cuidadosamente diseñadas para sortear los filtros sin levantar sospechas.

Los filtros estaban ahí, pero no eran suficientes. Los sistemas como ChatGPT están entrenados para bloquear cualquier intento de obtener datos sensibles: desde contraseñas hasta enlaces maliciosos o claves de activación. Estos filtros se conocen como guardrails, y combinan listas negras de términos, reconocimiento contextual y mecanismos de intervención ante contenidos potencialmente dañinos.

En teoría, pedir una clave de Windows debería activar automáticamente esos filtros. Pero en este caso, el modelo no identificó la situación como peligrosa. No había palabras sospechosas, ni estructuras directas que alertaran a sus sistemas de protección. Todo estaba planteado como un juego, y en ese contexto, la IA actuó como si estuviera cumpliendo una consigna inofensiva.

Lo que parecía inocuo estaba camuflado. Uno de los elementos que hizo posible el fallo fue una técnica sencilla de ofuscación. En lugar de escribir directamente expresiones como “Windows 10 serial number”, Figueroa introdujo pequeñas etiquetas HTML entre las palabras. El modelo, interpretando la estructura como algo irrelevante, pasó por alto el contenido real.

Por qué funcionó (y por qué sigue preocupando). Una de las razones por las que el modelo ofreció esa respuesta fue el tipo de clave revelada. No era una clave única ni vinculada a un usuario concreto. Aparentemente se trataba de una clave genérica de instalación (GVLK), como las que se emplean en entornos empresariales para despliegues masivos. Estas claves, documentadas públicamente por Microsoft, solo funcionan si están conectadas a un servidor KMS (Key Management Service) que valida la activación en red.

El problema no fue solo el contenido, sino el razonamiento. El modelo entendió la conversación como un reto lógico y no como un intento de evasión. No activó sus sistemas de alerta porque el ataque no parecía un ataque

No es solo un problema de claves. La prueba no se limitó a una cuestión anecdótica. Según el propio Figueroa, la misma lógica podría aplicarse para intentar acceder a otro tipo de información sensible: desde enlaces que lleven a sitios maliciosos hasta contenido restringido o identificadores personales. Todo dependería de la forma en que se formule la interacción y de si el modelo es capaz —o no— de interpretar el contexto como sospechoso.

En este caso, las claves aparecieron sin que esté del todo claro su origen. El informe no especifica si esa información forma parte de los datos de entrenamiento del modelo, si fue generada a partir de patrones ya aprendidos, o si se accedió a fuentes externas. Sea cual sea la vía, el resultado fue el mismo: una barrera que debía ser infranqueable acabó cediendo.

Xataka con Gemini | Aerps.com

En Xataka | Granada se las prometía muy felices con su nuevo grado de IA en la universidad. Hasta que le pararon los pies

-
La noticia Un investigador propuso un juego a ChatGPT. Lo que recibió a cambio fue claves funcionales de Windows 10 fue publicada originalmente en Xataka por Javier Marquez .

Leer más