Una startup vasca de IA acaba de levantar 189 millones de euros con una idea genial: comprimir la IA

Una startup vasca de IA acaba de levantar 189 millones de euros con una idea genial: comprimir la IA

Antes comprimíamos ficheros con ZIP. Ahora lo que comenzamos a necesitar es comprimir la IA para hacerla má pequeña y eficiente. Esa es justo la idea que tuvieron los fundadores de Multiverse Computing, una startup española que se está convirtiendo en la nueva joya de la corona de nuestra industria de IA. Sus fundadores, (en la imagen, de izquierda a derecha, Román Orús, Enrique Lizaso Olmos y Samuel Mugel) y Alfonso Rubio tienen mucho que celebrar.

Ronda de inversión. Multiverse Computing acaba de cerrar una ronda de inversión de 189 millones de euros (215 millones de dólares). La ronda (Serie B) ha sido liderada por Bullhound Capital, pero en ella han participado también HP Tech Ventures, SETT, Forgepoint Capital  International, CDP Venture Capital, Santander Climate VC, Quantonation,  Toshiba y Capital Riesgo de Euskadi – Grupo SPRI. El pasado mes de marzo la empresa recibió una inversión de 67 millones de euros por parte del Gobierno de España.

La inferencia IA por bandera. Aunque el protagonismo actual suelen llevárselo las grandes tecnológicas que invierten miles de millones de dólares en centros de datos para entrenar grandes modelos de lenguaje (LLM), hay cada vez más foco en la otra parte: la que usamos los usuarios al preguntarle cosas a ChatGPT, por ejemplo. Es la llamada inferencia IA, y la estimación es que en 2025 el valor de esa industria llegue a los 106.000 millones de dólares. En Multiverse Computing quieren un buen trozo de ese pastel, y para lograrlo su gran baza es una singular tecnología.

CompactifAI. Así se llama la tecnología de compresión de modelos de IA desarrollada por Multiverse Computing. Lo que eso permite es convertir modelos de IA muy grandes —que cuesta mucho “ejecutar”— en modelos mucho más pequeños y eficientes, lo que permite hacerlos más manejables y ahorrar muchos recursos (y tiempo) durante la inferencia.

Cómo comprimir un modelo de IA. Román Orús, director científico de la empresa, lideró un estudio de mayo de 2024 en el que precisamente explicaban el concepto de “redes tensoriales” de inspiración cuántica y que permiten comprimir estos modelos. Su funcionamiento se basa en descomponer las matrices de pesos de las redes neuronales “truncándolas” y conservando solo los valores más grandes y relevantes. En esencia el concepto se centra en descartar la información menos relevante del modelo para quedarse solo con la  más relevante.

¿Pero eso no hace el modelo menos preciso? De hecho sí, pero el grado de truncamiento puede controlarse de forma que haya un buen equilibrio y compromiso entre la compresión y la pérdida de precisión. Aun comprimiendo estos modelos, en Multiverse Computing aseguran que la caída de los modelos es de tan solo del 2 al 3%.

Mismo rendimiento en un tamaño un 95% menor. Para mitigar esa caída de precisión, este sistema incluye una fase de reentrenamiento rápido llamada “curación” que se puede repetir varias veces para lograr una precisión aún más cercana a la versión original. Al final, afirman en la empresa, pueden comprimir hasta un 95% un modelo de IA manteniendo el rendimiento.

Abarata el uso de la IA. Según sus datos, un modelo como Llama 3.1 405B tiene un coste operativo de unos 390.000 dólares si queremos ejecutarlo en local (13 GPUs H100, 9100 W de consumo), pero gracias a CompactifAI es posible reducir ese coste a 60.000 dólares (2 GPUs H100, 1.400 W).

Una IA más “delgadita”. Los modelos “slim” que proporciona la compañía —derivados de Llama 3.3 70B o Llama 4 Scout— son versiones comprimidas que teóricamente no pierden precisión. Se pueden ejecutar a través de la plataforma AWS o mediante licencias que también permiten usarlo on-premise, es decir, en infraestructura local/propia. Según sus métricas, estos modelos son entre 4 y 12 veces más rápidos que sus versiones no comprimidas, lo que se traduce en un coste de inferencia que es entre un 50% y un 80% menor.

Imagen | Multiverse Computing

En Xataka | España tiene al fin su esperadísima Ley de Startups: en qué consiste y cómo va a cambiar el ecosistema


La noticia

Una startup vasca de IA acaba de levantar 189 millones de euros con una idea genial: comprimir la IA

fue publicada originalmente en

Xataka

por
Javier Pastor

.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *