Elon Musk compra miles de GPU para el proyecto de IA Generativa de Twitter

Iniciado por AXCESS, Abril 12, 2023, 11:33:10 PM

Tema anterior - Siguiente tema

0 Miembros y 1 Visitante están viendo este tema.




A pesar de abogar por un cese en toda la industria de la capacitación en IA, se informa que Elon Musk ha iniciado un importante proyecto de inteligencia artificial dentro de Twitter. La empresa ya compró aproximadamente 10 000 GPU y reclutó talento de inteligencia artificial de DeepMind para el proyecto que involucra un modelo de lenguaje grande (LLM), informa Business Insider.

Una fuente familiarizada con el asunto afirmó que el proyecto de inteligencia artificial de Musk aún se encuentra en su fase inicial. Sin embargo, adquirir una cantidad significativa de poder computacional adicional sugiere su dedicación para avanzar en el proyecto, según otra persona. Mientras tanto, el propósito exacto de la IA Generativa no está claro, pero las posibles aplicaciones incluyen mejorar la funcionalidad de búsqueda o generar contenido publicitario dirigido.

En este momento, se desconoce qué hardware exacto adquirió Twitter. Sin embargo, según los informes, Twitter ha gastado decenas de millones de dólares en estas GPU de cómputo a pesar de los continuos problemas financieros de Twitter, que Musk describe como una "situación financiera inestable".

Se espera que estas GPU se implementen en uno de los dos centros de datos restantes de Twitter, siendo Atlanta el destino más probable. Curiosamente, Musk cerró el centro de datos principal de Twitter en Sacramento a fines de diciembre, lo que obviamente redujo las capacidades informáticas de la empresa.

Además de comprar hardware GPU para su proyecto de IA generativa, Twitter está contratando ingenieros adicionales. A principios de este año, la empresa contrató a Igor Babuschkin y Manuel Kroiss, ingenieros de investigación de inteligencia artificial DeepMind, una subsidiaria de Alphabet. Musk ha estado buscando activamente talento en la industria de la IA para competir con ChatGPT de OpenAI desde al menos febrero.

OpenAI usó las GPU A100 de Nvidia para entrenar su bot ChatGPT y continúa usando estas máquinas para ejecutarlo. Por ahora, Nvidia ha lanzado el sucesor del A100, sus GPU de cómputo H100 que son varias veces más rápidas con aproximadamente la misma potencia. Es probable que Twitter use el Hopper H100 de Nvidia o un hardware similar para su proyecto de IA, aunque aquí estamos especulando. Teniendo en cuenta que la empresa aún tiene que determinar para qué se utilizará su proyecto de IA, es difícil estimar cuántas GPU Hopper puede necesitar.

Cuando las grandes empresas como Twitter compran hardware, lo hacen a precios especiales ya que adquieren miles de unidades. Mientras tanto, cuando se compran por separado de minoristas como CDW, las placas H100 de Nvidia pueden costar más de $ 10,000 por unidad, lo que da una idea de cuánto podría haber gastado la compañía en hardware para su iniciativa de IA.

Fuente:
TomsHardware
No tienes permitido ver los links. Registrarse o Entrar a mi cuenta

No tienes permitido ver los links. Registrarse o Entrar a mi cuenta