Amazon Web Services, el mayor proveedor de computación en nube del mundo, está considerando la posibilidad de utilizar los nuevos chips de inteligencia artificial de Advanced Micro Devices Inc, aunque aún no ha tomado una decisión definitiva, declaró a Reuters un ejecutivo de AWS.
Las declaraciones se produjeron durante un evento de AMD en el que la empresa de procesadores expuso su estrategia para el mercado de la IA, dominado por su rival Nvidia Corp.
Las acciones de AMD subieron alrededor de un 1% tras conocerse la noticia. El martes cerraron con una baja del 3.6% después de que AMD decepcionó a los inversores al no revelar un cliente emblemático para su chip de IA, que se espera para finales de este año.
En entrevistas, la presidenta ejecutiva de AMD, Lisa Su, esbozó un enfoque para ganarse a los principales clientes de computación en nube ofreciendo un menú de todas las piezas necesarias para construir los tipos de sistemas para alimentar servicios similares a ChatGPT, pero dejando que los clientes elijan lo que quieran, utilizando conexiones estándar de la industria.
“Apostamos a que mucha gente querrá elegir y tener la posibilidad de personalizar lo que necesita en su centro de datos”, afirma Su.
Aunque AWS no se ha comprometido públicamente a utilizar los nuevos chips MI300 de AMD en sus servicios en la nube, Dave Brown, vicepresidente de nube de computación elástica de Amazon, dijo que AWS los está considerando.
“Todavía estamos trabajando juntos sobre dónde exactamente eso aterrizará entre AWS y AMD, pero es algo en lo que nuestros equipos están trabajando juntos”, dijo Brown. “Ahí es donde nos hemos beneficiado de parte del trabajo que han hecho en torno al diseño que se conecta a los sistemas existentes”.
Nvidia vende sus chips por partes, pero también está preguntando a los proveedores de la nube si están dispuestos a ofrecer un sistema completo diseñado por Nvidia en un producto llamado DGX Cloud. Oracle Corp es el primer socio de Nvidia para ese sistema.
Brown dijo que AWS había declinado trabajar con Nvidia en la oferta de DGX Cloud.
“Se pusieron en contacto con nosotros, estudiamos el modelo de negocio, y no tenía mucho sentido” para AWS debido a la larga experiencia de la compañía en la construcción de servidores fiables y la experiencia existente en la cadena de suministro, dijo Brown.
Según Brown, AWS prefiere diseñar sus propios servidores desde cero.
AWS empezó a vender el chip H100 de Nvidia en marzo, pero como parte de sistemas de diseño propio.
“El hecho de que Amazon esté considerando el MI300 de AMD es un indicio del apetito de las empresas tecnológicas por diversificar su hardware de desarrollo de IA”, dijo Jacob Bourne, analista de Insider Intelligence. “Esto podría crear nuevas oportunidades para otros fabricantes de chips más adelante”.