La UE tiene una idea para resolver uno de los grandes problemas de la IA: marcar su contenido generado
Hace unos días dieron la vuelta al mundo unas imágenes de la presunta detención de Donald Trump por la policía. Lo cierto es que todas ellas habían sido creadas usando Midjourney, una IA generativa de imágenes. Este fin de semana pasó algo similar con una foto del papa Francisco vestido con un abrigo de plumas de Balenciaga, que también resultó ser un deep fake. Emmanuel Macron también ha sido víctima de casos similares.
Uno de los problemas que traen consigo las IA generadoras de imágenes y de texto es que es prácticamente imposible distinguir si un contenido ha sido generado por una aplicación o por un humano. Y eso es algo que la Comisión Europea se ha propuesto abordar.
Una advertencia de “Made by AI”. Para que no haya confusión posible, la UE quiere establecer, de manera obligatoria, que casi todo el contenido generado por IA esté advertido por una etiqueta. “En todo lo que sea generado por inteligencias artificiales, ya sean textos o imágenes, habrá una obligación de notificar que ha sido creado por una inteligencia artificial”, decía el comisario de Mercado Interior, Thierry Breton.
“Se debería informar a las personas de que están tratando con un chatbot y no con un ser humano. La transparencia también es importante con respecto al riesgo de sesgo e información falsa”, explicaba Breton, que espera que el Parlamento vote este mes la nueva propuesta de regulación que pone límites a la tecnología incipiente.
¿Cómo funciona? Concretamente, estas aplicaciones deberán notificar a los usuarios que están usando e interactuando con un sistema de IA, salvo que sea algo muy evidente, y también si están usando sistemas de reconocimiento emocional o categorización biométrica. También, todos los deep fakes que imitan la voz o apariencia de una persona deberán llevar una etiqueta o marca de agua advirtiendo lo que son. Pero ojo, porque esto sólo se aplicaría para distintas categorías de riesgo que vamos a explicar ahora.
Clasificar en categorías según los riesgos. El nuevo reglamento europeo propone establecer cuatro tipos de “riesgos” para determinar las regulaciones que afectan a cada IA, según informa este artículo de EL PAÍS. En la categoría “inaceptable” se sitúan las aplicaciones que permiten, como en China, el denominado social scoring, el sistema de puntuación social que determina la credibilidad o reputación de una persona de acuerdo con sus datos online. En la de “alto riesgo” estarían las tecnologías que deberán estar sujetas a determinados requisitos legales, como las que evalúan a solicitantes de empleo por su CV o aplicaciones médicas.
En la tercera categoría estarán las “IA con obligaciones específicas de transparencia”, que engloba bots como ChatGPT. Por último, la categoría de riesgo “mínimo o inexistente” contiene las IA que serán permitidas sin restricción alguna.
Europa se pone dura. Cuando Bruselas presentó su primer reglamento en abril de 2021 aún no había llegado toda la ola reciente de herramientas de IA generativa que tenemos hoy, como ChatGPT o GPT-4. Es por eso que la UE quiere ponerse las pilas cuanto antes y abordar todos los riesgos en torno a estas tecnologías. Según fuentes parlamentarias, tiene en su agenda la presentación del plan y su votación en el pleno en la última semana de abril.
“Como lo muestra ChatGPT, las soluciones de IA pueden ofrecer grandes oportunidades para las empresas y los ciudadanos, pero también pueden plantear riesgos. Es por eso que necesitamos un marco regulatorio sólido para garantizar una IA fiable basada en datos de calidad”, señalaba Breton.
Preocupación en el sector. La legislación que viene ha recibido críticas, como era de esperar, por parte de las empresas involucradas, que dien que una normativa más dura podría acabar con la carrera de innovación y progreso llevada a cabo estos días. Pero sobre todo les preocupa que sus herramientas se clasifiquen en la categoría de IA de “alto riesgo”, lo que conduciría a requisitos más estrictos y costes más altos. Una encuesta reciente sugería que el 51% de los desarroladores espera una desaceleración de sus actividades como resultado de la nueva Ley de IA de la UE. Tendremos que esperar un poco más para ver su efecto real.
Imágenes: Fotografías generadas por la aplicación de IA MidJourney
En Xataka | “Nos equivocamos”: la IA de OpenAI era demasiado abierta, así que en GPT-4 impera el secretismo absoluto
–
La noticia
La UE tiene una idea para resolver uno de los grandes problemas de la IA: marcar su contenido generado
fue publicada originalmente en
Xataka
por
Albert Sanchis
.