La tecnología artificial inteligente (AI) ha llegado a un punto crítico en el que la industria de la nube se ve obligada a desarrollar sus propios procesadores especializados para satisfacer las crecientes demandas de este tipo de computación. En ese sentido, Microsoft ha lanzado su chip AI, Maia 200, en uno de sus centros de datos y planea implementarlo en otros durante los próximos meses.

Maia 200 es considerada una "potencia para la inferencia de inteligencia artificial" por Microsoft, lo que significa que se ha diseñado para optimizar el proceso computacional intensivo necesario para ejecutar modelos AI en producción. La empresa ha publicado impresionantes especificaciones de velocidad de procesamiento para Maia, afirmando que supera a los chips Trainium más recientes de Amazon y los Unidades de Procesamiento Tensor (TPU) de Google.

Todos los gigantes de la nube están trabajando en sus propios diseños de chips AI porque obtener los más avanzados y mejorados de Nvidia es difícil y costoso, y este problema no muestra signos de abatir. Sin embargo, incluso con su propio chip high-performance en mano, el CEO de Microsoft, Satya Nadella, ha declarado que la empresa seguirá comprando chips hechos por otros.

"No hay una gran rivalidad", explicó. "Tenemos una gran asociación con Nvidia, con AMD. Están innovando. Estamos innovando. Piensa en quién es el mejor al final del día. No es sobre quién es el mejor hoy".

Maia 200 se utilizará inicialmente por el equipo de Superintelligence de Microsoft, que se enfoca en construir modelos AI avanzados para la empresa. Según Mustafa Suleyman, excofundador de Google DeepMind y líder del equipo, Maia 200 también apoyará los modelos OpenAI que se ejecutan en la plataforma de nube Azure de Microsoft.

Además, la accesibilidad a los hardware AI más avanzados sigue siendo un desafío para todos, desde los clientes pagos hasta las equipos internas.

Análisis de riesgo: La creciente demanda de hardware especializado para la computación AI puede llevar a una crisis en la oferta y demanda de chips AI, lo que podría afectar negativamente a las empresas que dependen de esta tecnología. Además, el desarrollo de chips AI propios puede llevar a un aumento en los costos y la complejidad de la nube, lo que podría afectar la competitividad y la capacidad de innovación de las empresas involucradas.