Google Revela Cloud TPU v5p y AI Hypercomputer

El Cloud TPU v5p, una nueva creación de Google, es capaz de manejar el entrenamiento de modelos de IA extremadamente grandes con cientos de miles de millones, e incluso billones, de parámetros.

Google no solo ha dado a conocer su avanzado modelo de lenguaje grande (LLM), Gemini, sino que también ha presentado el Cloud TPU v5p, su acelerador de inteligencia artificial más avanzado que se incorporará en su nueva supercomputadora, la AI Hypercomputer.

Estas tecnologías están diseñadas para ser soluciones efectivas a los desafíos planteados por los modelos de IA generativa, que han aumentado notablemente en complejidad y tamaño.

La última versión del procesador TPU de Google ofrece un rendimiento mucho mayor que sus versiones anteriores, con un total de 8960 chips y la interconexión más rápida desarrollada hasta la fecha, alcanzando hasta 4800 Gbps por chip.

Google afirma que el Cloud TPU v5p duplica la capacidad de operaciones de coma flotante por segundo (FLOPS) en comparación con su predecesor y triplica la eficiencia de su memoria de gran ancho de banda.

Por otro lado, la AI Hypercomputer de Google Cloud se destaca como una arquitectura de supercomputación diseñada para optimizar la eficiencia en la gestión de tareas de IA, utilizando un enfoque de código a nivel de sistema que supera las ineficiencias de los métodos tradicionales en la ejecución de tareas de inteligencia artificial más exigentes.

Unidades de Procesamiento Tensorial (TPU)

El Cloud TPU v5p se destaca como el acelerador de IA más avanzado de Google, capaz de soportar largos periodos de entrenamiento para modelos masivos con cientos de miles de millones o billones de parámetros.

Este acelerador ha sido fundamental en el desarrollo de productos de Google como YouTube, Gmail, Google Maps, Google Play y Android.

El nuevo y sofisticado modelo de IA de Google, Gemini, también utiliza esta tecnología.

El Cloud TPU v5p se caracteriza por su escalabilidad y flexibilidad. Con sus SparseCores de segunda generación, permite entrenar modelos de aprendizaje automático con una densidad de incrustación un 1,9 veces más rápido que el TPU v4.

Esta aceleración se incrementa en el entrenamiento de modelos de lenguaje a gran escala (LLM), logrando una mejora de velocidad de hasta 2,8 veces.

Además, el Cloud TPU v5p ofrece una escalabilidad cuatro veces mayor en términos de FLOPS totales por unidad llamada “pod”.

En una economía de mercado orientada hacia la inteligencia artificial, la introducción de una herramienta de procesamiento de datos en la nube mejorada es un hito significativo.

AI Hypercomputer, la nueva supercomputadora de Google

La AI Hypercomputer combina hardware de alto rendimiento con software de código abierto, marcos líderes de aprendizaje automático y modelos de consumo adaptables.

Este enfoque sistémico de Google se diferencia de las mejoras graduales en componentes individuales, enfocándose en resolver ineficiencias y eliminar posibles cuellos de botella que suelen presentarse en metodologías menos integradas.

Google promete una mayor productividad y eficiencia en procesos clave como el entrenamiento, ajuste y funcionamiento de aplicaciones basadas en IA.

El corazón de la supercomputadora de Google alberga hardware de vanguardia impulsado por su tecnología de red de centro de datos Júpiter, contando con infraestructura que incluye sistemas de refrigeración líquida y una configuración de alta densidad.

El empeño de Google por usar la inteligencia artificial para resolver problemas complejos se refleja en su desarrollo de la Cloud TPU v5p y AI Hypercomputer. La empresa busca llevar adelante años de investigación y diseño de sistemas para hacer que la innovación en IA sea más accesible, costeable y eficiente.