Microsoft está desarrollando un nuevo modelo de IA para competir con los productos más potentes de Google y Anthropic. Sin embargo, aún no se ha determinado su propósito exacto.

Según The Information, el nuevo modelo, denominado MAI-1, también podría competir con los de OpenAI, empresa en la que Microsoft ha efectuado una inversión multimillonaria.

Un portavoz de Microsoft ha declarado a Mobile World Live que la empresa declina hacer comentarios al respecto. Sin embargo, remite a un artículo de blog publicado el 6 de mayo por Kevin Scott, director de tecnología, en el que se afirma que la empresa prevé seguir construyendo grandes superordenadores para OpenAI en el futuro.

Scott ha asegurado en LinkedIn que “nuestro socio OpenAI utiliza estos superordenadores para entrenar modelos que definen fronteras, y luego hacemos que dichos modelos estén disponibles en productos y servicios, de manera que muchas personas puedan beneficiarse de ellos. Nos sentimos muy cómodos con este acuerdo. El creciente impacto de nuestra colaboración no parece hallar límites.”

La misma web de noticias informa de que la supervisión de MAI-1 corre a cargo de Mustafa Suleyman. Este es uno de los fundadores de Google DeepMind y había ejercido el cargo de consejero delegado de la firma incipiente Inflection, especializada en IA, hasta que Microsoft los contrató a él y a su equipo en marzo.

Según The Information, MAI-1 no tiene nada que ver con los modelos que lanzó Inflection, pese a que Microsoft pagó 65 millones de dólares (unos 60 millones de euros) por los derechos de propiedad intelectual de dicha firma.

La citada web explica que MAI-1 será “mucho más grande” que anteriores modelos de código abierto, más pequeños, entrenados por Microsoft. Así pues, requerirá más datos y potencia de cálculo, lo que lo hará más caro.

Según el artículo, contará con unos 500.000 millones de parámetros, mientras que el GPT-4 de OpenAI tiene más de un billón. Los modelos de código abierto más pequeños lanzados por empresas como Meta Platforms y Mistral suman 70.000 millones de parámetros. El modelo Phi-3 mini de Microsoft, lanzado en abril, ofrece 3.800 millones de parámetros.