Ya es posible detectar aquellas noticias falsas creadas por la inteligencia artificial que OpenAI no quiso pública
Hace unas semanas, OpenAI causó bastante revuelo anunciando que había desarrollado una IA tan eficiente que no querían hacer público su código por miedo al mal uso que se le pudiera dar, evitando incluso que otros científicos pudieran acceder a la versión completa de la misma.
Dicha IA (técnicamente, un ‘modelo de lenguaje’), denominada GPT-2, era capaz de crear automáticamente textos largos, con sentido y creíbles que, en resumen, podrían pasar como redactados por humanos… y sus creadores temían que pudiera ser usada para crear y difundir noticias falsas de forma masiva.








