NUEVA YORK (EFE).— Microsoft presentó ayer Maia 200, la segunda generación de su chip de inteligencia artificial (IA) con el que busca reducir la dependencia a Nvidia y competir contra los desarrollos de Google y Amazon en la nube.
El nuevo modelo es presentado dos años después de su primera versión, el Maia 100, que no llegó a estar disponible para los clientes.
“Es el sistema de inferencia más eficiente que Microsoft ha desplegado jamás”, aseguró Scott Guthrie, vicepresidente ejecutivo de Microsoft para la nube y la IA, en una entrada de blog.
Según la empresa, el Maia 200 está concebido como un procesador para inferencia y promete hasta un 30% más de rendimiento por dólar que el hardware actual de Microsoft. Además, ya se está desplegando en centros de datos de Azure en Estados Unidos para impulsar servicios como Microsoft 365 Copilot, Foundry y los recientes modelos GPT de OpenAI.
Asimismo, estos chips están integrándose en los centros de datos de la región central de Estados Unidos y posteriormente llegarán a los del Oeste y a otras ubicaciones. Los chips utilizan el proceso de tres nanómetros de Taiwan Semiconductor Manufacturing Co.
El anuncio de la tecnológica se enmarca en plena carrera por liderar la IA generativa. Los grandes proveedores de nube luchan por desarrollar un microcircuito propio que no dependa exclusivamente de Nvidia, que lidera el mercado.
Los lanzamientos de Amazon, Google y Microsoft están contribuyendo a incrementar la competencia en un mercado en auge.
