Hace algo más de un año, Elon Musk anunciaba la creación de xAI, una nueva empresa centrada en la inteligencia artificial. Sus avances por ahora han sido discretos, pero la ambición del magnate en este ámbito es clara, como acaba de demostrar una nueva ronda de inversión. La startup de Musk ha recibido una inyección de capital asombrosa: 6.000 millones de dólares que sitúan la valoración de la compañía en 18.000 millones de dólares. En la ronda han participado inversores de renombre como Andreessen Horowitz y Sequoia Capital, entre otros. Es una cifra espectacular e insólita, sobre todo teniendo en cuenta que de momento xAI no ha demostrado demasiado.
Musk: Grok es una incógnita
La gran apuesta actual de xAI es el (sarcástico) chatbot Grok, que al menos de momento ocupa un segundo plano frente a alternativas mucho más populares. A pesar de su discreto debut, la firma ha publicado su código fuente para atraer a desarrolladores, siguiendo la línea de lo que Meta ha hecho con Llama. Queda por ver si este desarrollo logra captar la atención necesaria para competir en el saturado mercado de la inteligencia artificial.
Una misión grandilocuente
En el anuncio oficial de la ronda de inversión, los responsables de xAI indicaron que “xAI se centra principalmente en el desarrollo de sistemas avanzados de IA que sean veraces, competentes y de máximo beneficio para toda la humanidad”. La misión de la empresa es comprender la verdadera naturaleza del universo, una meta ambiciosa que refleja la visión de Musk sobre el potencial de la inteligencia artificial.
La “Gigafactoría de la Computación”
Según datos de The Information citados en Reuters, Musk está preparando la construcción de una supercomputadora gigantesca con el nombre de “Gigafactoría de la Computación”. Esta instalación tiene como objetivo ofrecer la capacidad de cálculo necesaria para futuras versiones de Grok, su chatbot.
Musk: 100.000 GPUs NVIDIA H100
Esa supercomputadora será sencillamente espectacular si se cumplen los planes de Musk. En una reunión con inversores, indicó que el objetivo es utilizar hasta 100.000 GPUs NVIDIA H100, lo que la convertiría en el clúster más grande del mundo en este ámbito, siendo cuatro veces superior al siguiente en magnitud. Grok 2, la segunda revisión de su modelo de IA, necesitó cerca de 20.000 GPUs H100 para ser entrenado, y puede que futuras versiones requieran precisamente esa enorme capacidad que plantea la “Gigafactoría de la Computación”.
Tardarán en ponerlo en marcha
La alta demanda de esos chips provocará que la empresa tarde en cumplir su objetivo: se espera que esa supercomputadora esté preparada en 2025. Para entonces, los H100 habrán sido ya superados por las GPUs B100 y B200 de NVIDIA con arquitectura Blackwell, lo que subraya el ritmo vertiginoso de avance en la tecnología de inteligencia artificial.
Más noticias:
Cortes de luz programados quedan suspendidos, según Luque