Los chips A100 de NVIDIA son los reyes de la IA: Google dice que sus chips Tensor son más rápidos y eficientes

Los chips A100 de NVIDIA son los reyes de la IA: Google dice que sus chips Tensor son más rápidos y eficientes

Vivimos tiempos tremendamente interesantes. Desde hace tiempo que no presenciábamos el surgimiento de una tecnología tan prometedora, y a la vez preocupante, como la inteligencia artificial. Bill Gates, por citar tan solo un ejemplo, habla del comienzo de una “nueva era” e incluso apunta a una revolución que afectará a varias industrias. Elon Musk, por su parte, hace un llamado a hacer una pausa en el desarrollo de los sistemas más potentes. 

Durante el último tiempo aprendimos que NVIDIA se convirtió en una pieza clave en el mundo de la inteligencia artificial. Los chips del fabricante estadounidense, que ofrecen gran rendimiento, densidad de cálculo y escalabilidad, se utilizaron para entrenar modelos tan famosos como DALL·E y GPT-4. Pero esta compañía no es la única del sector. Google también tiene sus chips, y asegura que son mejores que los de NVIDIA. 

Google también hace hardware para inteligencia artificial 

El gigante de Mountain View presentó en 2016 sus propias unidades de procesamiento diseñadas para centros de datos de inteligencia artificial. Estamos hablando de las Google TPU (por sus siglas en inglés de Cloud Tensor Processing Unit), que han ido mejorando con el paso de los años y ya se utilizan en el 90% de las tareas de aprendizaje automático de la compañía y son cruciales para el funcionamiento del buscador y YouTube.

Google Data Center1

Centro de datos de Google

Además, al igual que Azure de Microsoft (que funciona con hardware de NVIDIA), Google Cloud permite que compañías y organizaciones externas puedan entrenar sus modelos de inteligencia artificial utilizando su infraestructura en la nube. Es decir, en lugar de montar sus propios centros de datos con hardware elevadamente costo y difícil de conseguir, alquilan la potencia de cálculo necesaria en los de estas compañías.

Sin ir más lejos, según se explica en una publicación oficial, el popular generador de imágenes a partir de texto Midjourney, que en su versión más reciente nos ha sorprendido con su precisión y realismo, ha sido entrenado utilizando la infraestructura de Google Cloud. En otras palabras, los chips de la compañía dirigida por Sundar Pichai han jugado un papel protagónico en uno de los modelos de IA más famosos del momento.

Entonces, ¿son realmente buenos los chips de Google? De acuerdo a un artículo científico publicado este miércoles por la compañía, los Google TPUv4 lanzados en 2021 son hasta 1,7 veces más rápidos y 1,9 veces más eficientes a nivel de consumo energético que los NVIDIA A100 lanzados en 2020. Las comparaciones, según los autores del artículo, corresponden a tareas de entrenamiento de modelos de IA del mismo tamaño.

Cabe señalar que, si bien la mayoría de los centros de datos actuales funcionan con chips NVIDIA A100, las compañías ya están migrando a los NVIDIA H100, que mejoran el rendimiento de su predecesor. Los de Mountain View no han dicho si están trabajando en una nueva versión de sus TPU, aunque presumiblemente lo estén haciendo para no quedarse atrás en la carrera de la inteligencia artificial.

Imágenes: (1, 2, 3)

En Xataka: “No resolverá los desafíos”: Bill Gates también reacciona a la carta de Elon Musk sobre el riesgo de la IA


La noticia

Los chips A100 de NVIDIA son los reyes de la IA: Google dice que sus chips Tensor son más rápidos y eficientes

fue publicada originalmente en

Xataka

por
Javier Marquez

.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *