Un periódico decidió utilizar una IA para escribir sus artículos económicos. El resultado fue catastrófico
Igual que un terremoto de magnitud nueve. O un elefante contoneando las caderas en una cacharrería. La inteligencia artificial (IA) y sus múltiples ramificaciones ha calado en la política, el arte, el mundo empresarial, el espectáculo e incluso la filosofía hasta reblandecer cimientos que hace tiempo se daban por robustos. El periodismo, por supuesto, no es una excepción. Que un algoritmo ajeno al cansancio, vacaciones y huelgas pueda componer crónicas dignas —quizás sobrias en cuanto a estilo, pero pulcras— abre un horizonte jugoso para las empresas editoras.
No se trata ya del manejo de plantillas básicas o herramientas que ayudan en la edición, sino de recurrir a la IA para preparar piezas. En noviembre CNET, una web estadounidense de información tecnológica, fundada en los 90 y con 1,7 millones de seguidores en Twitter, decidió “experimentar” con la IA. Y lo de experimentar es una expresión empleada a toro pasada por sus responsables: recurrió a un algoritmo que no ha llegado a identificar para preparar textos económicos.
El resultado de semejante “experimento” —en palabras de Paul Farhi, un veterano reportero financiero del diario The Washington Post— ha sido un auténtico “desastre periodístico”.
El debate de fondo
No es que el uso de la IA no haya pasado inadvertido entre la competencia o los propios lectores de CNET. Es que ha dejado algún que otro sonoro patinazo que no han tardado en señalar otros medios de alcance en el circuito anglosajón —como The Washington Post, Gizmodo, Engadget o BuzzFeed News, todos en la estela de Futurism—, ha obligado a la editora de CNET a salir a dar explicaciones y sobre todo ha colado al medio en el epicentro de un debate espinoso. Del caso se ha hecho eco incluso la Society of Professional Journalists, colectivo estadounidense de más de 100 años.
Las preguntas que el caso deja botando sobre varias. ¿Ha llegado a ser la IA lo suficientemente fiable como para confiarle una tarea tan sensible como la información? Y aun en el caso de que ya lo sea o llegue a serlo, mañana, en un mes o dentro de tres años, ¿debería asumir esa tarea? ¿Y cómo afecta a los periodistas? ¿Qué rol adoptan? ¿Los libera del trabajo mecánico o les obliga a asumir el papel extra de revisores? ¿Deben identificarse como tal los artículos en los que participa una IA?
A principios de la semana pasada Futurism se hizo eco de una observación que ya circulaba en redes: CNET había empezado supuestamente a utilizar IA para elaborar artículos financieros, textos con un tono explicativo, muy básico, como “¿Qué es Zelle y cómo funciona”. Las piezas se colgaban con la firma “CNET Money Staff”, una identificación genérica que solo se aclaraba si se pinchaba en ella. Era entonces cuando se desplegaba la explicación completa: “Este artículo se generó utilizando tecnología de automatización”. A modo de garantía de los contenidos, la web daba otro dato clave: “Un editor de nuestro equipo editorial lo editó [el contenido] y verificó minuciosamente”.
The Futurism aseguraba que se habían publicado algo más de 70 piezas de esa naturaleza —no muchas si se tiene en cuenta el ritmo con el que genera contenidos CNET— pensadas para optimizar el tráfico de búsquedas. La polémica no saltó únicamente por el uso de la IA en las crónicas o si este quedaba lo suficientemente claro a los lectores. Lo que echó más leña al fuego, como recogió de nuevo The Futurism, es que al menos parte de esos contenidos presentaban “fallos tontos”.
A modo de ejemplo, citaba uno de los artículos, en el que se asegura que lo largo de un año la ganancia generada por 10.000 dólares con un tipo de interés anual del 3% es 10.300, en vez de 300 dólares. El error es básico —su cálculo identifica el dinero depositado inicialmente como ganancia—, pero no es el único. Otra de las erratas emborrona una explicación sobre los préstamos.
Las críticas sobre el empleo de la IA alcanzaron el recorrido suficiente como para que la propia editora de CNET, Connie Guglielmo, decidiera publicar un artículo poco después, el 16 de enero, aclarando qué estaba ocurriendo. Al menos en parte. “CNET está experimentando con un asistente de IA. Este es el por qué”, titulaba. En su publicación Guglielmo explica que en noviembre el equipo de CNET Money decidió probar una IA —no identifica cuál— para comprobar cómo funcionaba en explicación básicas sobre temas financieros. En total dieron forma a unos 75 artículos así.
"The news sparked outrage. Critics pointed out that the experiment felt like an attempt to eliminate work for entry-level writers, and that the accuracy of current-generation AI text generators is notoriously poor." https://t.co/63T9pBwMTV
— Society of Professional Journalists (@spj_tweets) January 18, 2023
“El objetivo es ver si la tecnología puede ayudar a nuestra plantilla de reporteros y editores con su labor para cubrir temas desde una perspectiva de 360º”, comenta Guglielmo, que maneja el término “asistencia de IA” de forma deliberada. Según explica, “si bien el motor de IA compiló el borrador de la historia o recopiló parte de la información”, cada artículo es “revisado, verificado y editado por un editor con experiencia”. La pregunta, —y así lo deja caer a TWSP el profesor de ingeniería Hany Farid— es si “la voz aparentemente autoritaria de la IA llevó a los editores a bajar la guardia”.
Tras los reportajes que cuestionaban la transparencia con la que empleaban la IA, la web decidió además cambiar la firma “CNET Money Staff” por “CNET Money” y presentar de forma más visible la explicación sobre el origen del artículo. No fue su único movimiento durante la polémica. Después de que Futurism señalase los errores de contenido, el medio fue más allá y se comprometió a revisar “de forma activa” todas sus piezas “asistidas” por inteligencia artificial para asegurarse de que no haya “más imprecisiones de edición”. “Los humanos también cometen errores”, recalca el equipo.
CNET no es el único medio que ha echado mano de la IA. Associated Press (AP) lleva años aprovechándose de su potencial, si bien de una forma más rudimentaria, asegura TWSP, insertando datos en formatos preparados. “Va desde la transcripción automática de video hasta experimentar con la generación automática de listas de tomas de video y resúmenes de historias. Actualmente, automatizamos historias tanto en deportes como en ganancias corporativas”, señala la agencia.
El caso de CNET lo sitúa ahora en el epicentro del debate. El de la IA y el de la profesión.
“Estas herramientas no pueden salir e informar o hacer preguntas”, advierte Matt MacVey, al frente de un proyecto de IA y noticias locales en el NYC Media Lab de la Universidad de Nueva York.
Imagen de portada: Markus Winkler (Unsplash)
–
La noticia
Un periódico decidió utilizar una IA para escribir sus artículos económicos. El resultado fue catastrófico
fue publicada originalmente en
Xataka
por
Carlos Prego
.