La empresa matriz de Google, Alphabet, presentó el martes un producto llamado Trillium en su familia de chips para centros de datos de inteligencia artificial que, según afirma, es casi cinco veces más rápido que su versión anterior.

«La demanda de la industria de computadoras (de aprendizaje automático) se ha multiplicado por 1 millón en los últimos seis años, aumentando aproximadamente 10 veces cada año», dijo el director ejecutivo de Alphabet, Sundar Pichai, en una conferencia telefónica con periodistas. «Creo que Google fue creado para este momento, hemos sido pioneros (en los chips de IA) durante más de una década».

El esfuerzo de Alphabet por construir chips personalizados para centros de datos de IA representa una de las pocas alternativas viables a los procesadores de primera línea de Nvidia que dominan el mercado. Junto con el software estrechamente relacionado con las unidades de procesamiento tensorial (TPU) de Google, los chips han permitido a la empresa hacerse con una cuota importante del mercado.

Nvidia controla aproximadamente el 80% del mercado de chips para centros de datos de IA, y la gran mayoría del 20% restante son varias versiones de las TPU de Google. La empresa no vende el chip en sí, sino que alquila el acceso a través de su plataforma de computación en la nube.

Según Google, el chip Trillium de sexta generación logrará un rendimiento informático 4,7 veces mejor en comparación con el TPU v5e, un chip diseñado para impulsar la tecnología que genera texto y otros medios a partir de modelos grandes. El procesador Trillium es un 67% más eficiente energéticamente que el v5e.

El nuevo chip estará disponible para sus clientes de la nube a «finales de 2024», dijo la compañía.

Los ingenieros de Google lograron mejoras de rendimiento adicionales al aumentar la capacidad de memoria de alto ancho de banda y el ancho de banda general. Los modelos de IA requieren enormes cantidades de memoria avanzada, lo que ha sido un cuello de botella para mejorar aún más el rendimiento.

La compañía diseñó los chips para que se implementen en módulos de 256 chips que pueden ampliarse a cientos de módulos.

Reuters