El elefante en la habitación de ChatGPT y el boom de la inteligencia artificial: los centros de datos
Marcelo Granieri, profesor de OBS Business School, define la inteligencia artificial generativa como una rama de la inteligencia artificial enfocada en la generación de contenido original a partir de datos existentes. Un ejemplo de esta rama de la IA es ChatGPT, el chatbot desarrollado por OpenAI y que para el mismo Bill Gates supone la segunda “demostración revolucionaria” en términos tecnológicos desde la interfaz gráfica de usuario que permitió la creación de Windows.
Hacia el infinito y más allEl éxito de ChatGPT ha sido tal que otras compañías tecnológicas han desarrollado sus propios bots conversacionales. Recientemente, Microsoft incorporó un chatbot en su buscador Bing y Google creó el suyo denominado Bard. Queda claro, por lo tanto, que la inteligencia artificial generativa está creciendo a un ritmo muy veloz. Sin embargo, esto puede tener graves consecuencias para el medioambiente.
La nube en la Tierra. Al igual que cualquier aplicación o servicio en la nube, los bots conversacionales creados a partir de la IA generativa funcionan con centros de datos. Stackscale, empresa proveedora de servicios tecnológicos, define el centro de datos(data center, en inglés) como la ubicación física donde se concentran los recursos necesarios de computación de una organización. Ahí se encuentran largas filas de avanzados ordenadores, complejos sistemas de cableado y de refrigeración que constituyen la expresión física de lo que se conoce como “la nube”.
Todo pasa por los centros de datos. En esos centros se procesan y almacenan todos los datos necesarios para el funcionamiento de aplicaciones como Google Maps. Los ‘data center’ reciben los datos de los usuarios, elaboran los cálculos necesarios para dar con la respuesta adecuada y la envían. Es el mismo procedimiento que se sigue con aplicaciones de IA generativa como los chatbots, pero con un detalle: esta tecnología requiere de un esfuerzo computacional superior, es decir, más recursos y gasto energético.
Huella de carbono de los centros de datos. Según la Agencia Internacional de la Energía, el uso de internet se ha multiplicado por veinte desde 2010 a nivel mundial, provocando que actualmente entre un 1% y un 1,5% del consumo global de energía provenga de los centros de datos. Además, el organismo alerta del impacto de la actividad de estos centros en el medioambiente: producen casi un 1% de las emisiones de gases de efecto invernadero a nivel mundial.
Más y más para la IA. Estas cifras podrían aumentar en el futuro debido a la IA generativa. En un artículo publicado por Wired el pasado mes de febrero, Martin Bouchard, cofundador del centro de datos de la compañía Qscale ubicado en Canadá, señaló que los planes de Microsoft y Google para desarrollar esta tecnología requeriría un esfuerzo computacional “por lo menos cuatro o cinco veces” superior por cada búsqueda realizada.
LLMs. Ello se debe a que la IA generativa desarrollada por OpeanAI, Microsoft y Google utiliza el programa Large Language Models, un modelo de lenguaje que emplea un método de aprendizaje auto-supervisado cuyo entrenamiento “requiere de una gran cantidad de poder computacional”, afirmó en Wired Carlos Gómez Rodríguez, profesor de Ciencias de la Computación en la Universidade da Coruña. Y eso se transmite en un mayor gasto energético y en un incremento de la huella de carbono.
Como ir y volver a la luna en coche. Según estimaciones científicas citadas por The Register en 2020, el entrenamiento de Chat GPT-3 con procesadores gráficos NVIDIA usados en un centro de datos cualquiera de Microsoft produciría 85.000 kilos de CO2, cantidad equivalente a la producida por un vehículo que hiciera un viaje de 700.000 km, una distancia similar a la de un viaje de ida y vuelta a la luna en coche.
Malas previsiones El auge de la IA generativa hace que las previsiones, en términos medioambientales, sean negativas. En 2018, OpenAI comunicó que el esfuerzo computacional para entrenar las formas de IA más avanzadas se duplica cada tres o cuatro meses. En este sentido, Álex Hernández, investigador en el Instituto de Inteligencia Artificial de Quebec, señaló en declaraciones a El País que, si bien es posible reducir la complejidad energética en otros ámbitos, hacerlo en la fase de entrenamiento es más difícil.
El tiempo dirá cómo se puede compatibilizar el desarrollo de la IA Generativa con la descarbonización total, compromiso adquirido por empresas tecnológicas como Microsoft y Google.
Imagen: Unsplash
–
La noticia
El elefante en la habitación de ChatGPT y el boom de la inteligencia artificial: los centros de datos
fue publicada originalmente en
Xataka
por
Javier Fernández
.