Meta Platforms ha anunciado la segunda generación de un chip para IA llamado Meta Training and Inference Accelerator (MTIA), en el marco de un plan para prescindir de los semiconductores más costosos de Nvidia y de otros fabricantes.

La empresa explica que al controlar su propia pila y usar su propio silicio específico logrará una mayor eficiencia que recurriendo a GPU externas.

Afirma que su nuevo chip MTIA duplica con creces el ancho de banda de cálculo y memoria del primero, “al tiempo que mantiene la estrecha relación con nuestras propias cargas de trabajo”.

Meta Platforms señala que la arquitectura del chip aspira a proporcionar “el equilibrio entre capacidad de cálculo, ancho de banda de memoria y capacidad de memoria más adecuado para atender a modelos de clasificación y recomendación”.

La empresa ya ha desplegado el MTIA en sus centros de datos y ha anunciado que se está usando en modelos en producción.

Según los resultados obtenidos hasta la fecha, el chip puede realizar modelos de clasificación y recomendación de alta y baja complejidad. Meta Platforms indica que todos ellos son componentes clave de sus productos.

La empresa afirma que “ya se están viendo los resultados positivos del programa, que nos permite dedicar mayor potencia de cálculo a las cargas de trabajo más exigentes para IA, así como invertir en ellas”.

Meta Platforms también ha explicado que tiene en marcha diversos programas para ampliar el alcance del MTIA. Así, por ejemplo, en soporte para cargas de trabajo en IA generativa.

En una teleconferencia sobre los resultados de 2023 efectuada en febrero, Mark Zuckerberg, consejero delegado de la empresa, anunció su intención de adquirir unos 350.000 chips Hopper H100 de Nvidia para finales de 2024, en el marco de un plan de mejora de sus infraestructuras de computación. Según Bloomberg, dichos chips cuestan decenas de miles de dólares cada uno.