Forbes México.
El auge de los chips de IA salvó a esta pequeña empresa emergente que ahora se enfrenta a Nvidia
El primer indicio de que algo no iba bien llegó en febrero, cuando hablaba con un grupo de miembros del Parlamento noruego y ejecutivos de tecnología en Oslo. Ross, de 42 años, director ejecutivo de la startup de chips de IA Groq, estaba en medio de una demostración que esperaba que revitalizara a la languideciente empresa: un chatbot de IA que pudiera responder preguntas casi instantáneamente, más rápido de lo que un humano puede leer. Pero, por alguna razón, se estaba quedando un poco atrás. Eso puso nervioso a Ross, que estaba promocionando un centro de datos europeo impulsado por Groq que exhibiría los chips especializados responsables de esas respuestas superrápidas. “No dejaba de revisar los números”, recuerda. “La gente no sabía por qué estaba tan distraído”.
El culpable fue la afluencia de nuevos usuarios. Un día antes de la reunión de Ross en Oslo, un tuit viral de un desarrollador entusiasta que alababa “un motor de respuestas de IA ultrarrápido” envió toneladas de tráfico nuevo a la demostración en línea, colapsando los servidores de la empresa. Fue un problema, pero bueno tenerlo.
Cuando fundó Groq hace ocho años, la idea de Ross era diseñar chips de IA explícitamente para lo que en la industria se conoce como “inferencia”: la parte de la inteligencia artificial que imita el razonamiento humano aplicando lo aprendido a nuevas situaciones. Es lo que permite que tu teléfono inteligente identifique a tu perro como un Corgi en una foto que nunca antes ha visto, o un generador de imágenes para imaginar al Papa Francisco con un abrigo de Balenciaga. Es bastante diferente de la otra tarea computacional de la IA: entrenar los modelos masivos para empezar.
Pero hasta que OpenAI lanzó ChatGPT a fines de 2022, lo que desencadenó un frenesí mundial de IA, la demanda de inferencia superrápida era limitada y la empresa avanzaba con dificultad. “Groq estuvo a punto de morir muchas veces”, dice Ross desde el interior del laboratorio de semiconductores de la startup en San José, California, recordando un punto bajo en 2019, cuando la startup estuvo a un mes de quedarse sin dinero. “Pusimos en marcha Groq quizás un poco antes”.
Pero ahora, con la demanda de potencia computacional para construir y ejecutar modelos de IA tan intensa que está contribuyendo a una escasez mundial de electricidad, parece que ha llegado el momento de Groq, ya sea como potencial generador de ruido o como objetivo de adquisición para los gigantes de los chips tradicionales.
El lunes, la empresa le dijo en exclusiva a Forbes que había recaudado una monstruosa ronda de Serie D de 640 millones de dólares, lo que la elevó a una valoración de 2.800 millones de dólares, frente a los 1.100 millones de dólares de 2021. La ronda, liderada por BlackRock Private Equity Partners, también incluye a Cisco Investments y al Samsung Catalyst Fund, una rama de riesgo del gigante de la electrónica que se centra en la infraestructura y la IA.
“Groq estuvo a punto de morir muchas veces”. Jonathan Ross, director ejecutivo de Groq
La necesidad de potencia informática es tan insaciable que ha disparado la capitalización de mercado de Nvidia a 3 billones de dólares con unos ingresos de 60.900 millones de dólares en 2023. Groq sigue siendo pequeña en comparación, con unas ventas en 2023 de tan solo 3,4 millones de dólares y una pérdida neta de 88,3 millones de dólares, según los documentos financieros a los que ha tenido acceso Forbes . Pero a medida que aumenta el interés por sus chips, la empresa ha pronosticado unas ventas quizás optimistas de 100 millones de dólares este año, según las fuentes, aunque tenían dudas de que la empresa pudiera alcanzar ese objetivo. Groq se negó a hacer comentarios sobre esas cifras.
Se espera que el mercado de chips de IA alcance los 1,1 billones de dólares en 2027, por lo que Ross ve una oportunidad de hacerse con una porción de la asombrosa cuota del 80% de Nvidia centrándose en la inferencia. Ese mercado debería valer unos 39.000 millones de dólares este año y se estima que aumentará a 60.700 millones de dólares en los próximos cuatro años, según la firma de investigación IDC. “La informática es el nuevo petróleo”, afirma Ross.
Los rivales como Groq son optimistas porque los chips de Nvidia ni siquiera fueron diseñados originalmente para IA. Cuando el director ejecutivo Jensen Huang presentó sus unidades de procesamiento gráfico (GPU) en 1999, estaban diseñadas para ejecutar videojuegos con uso intensivo de gráficos. Fue una casualidad que hayan sido los chips más adecuados para entrenar a la IA. Pero Groq y una nueva ola de nuevas empresas de chips de próxima generación, incluidas Cerebras (valoración de 4 mil millones de dólares) y SambaNova (valoración de 5,1 mil millones de dólares), ven una oportunidad. “Nadie que comenzó desde cero eligió hacer una GPU para este tipo de trabajo”, dice Andrew Feldman, director ejecutivo de Cerebras.
No son sólo las startups las que buscan destronar a Nvidia. Tanto Amazon como Microsoft están construyendo sus propios chips de IA. Pero los chips de Groq, llamados Language Processing Units (LPU), son tan rápidos que la empresa cree que tiene una oportunidad de luchar. En una presentación a los inversores, la empresa los promociona como cuatro veces más rápidos, cinco veces más baratos y tres veces más eficientes energéticamente que las GPU de Nvidia cuando se utilizan para inferencia. Nvidia se negó a hacer comentarios sobre la afirmación.
“Sus velocidades de inferencia son claramente mejores que las de cualquier otra cosa en el mercado”, afirma Aemish Shah, cofundador de General Global Capital, que invirtió en múltiples rondas de financiación de Groq.
Groq empezó a vender sus chips hace dos años y desde entonces ha sumado clientes como Argonne National Labs, un centro de investigación federal con orígenes en el Proyecto Manhattan, que ha utilizado chips Groq para estudiar la fusión nuclear, el tipo de energía que alimenta al sol. Aramco Digital, la rama tecnológica de la petrolera saudí, también firmó una asociación para utilizar chips Groq.
En marzo, Groq lanzó GroqCloud, donde los desarrolladores pueden alquilar el acceso a sus chips sin comprarlos directamente. Para atraer a los desarrolladores, Groq ofreció acceso gratuito: en su primer mes, se registraron 70.000. Ahora hay 350.000 y el número sigue aumentando. El 30 de junio, la empresa activó los pagos y acaba de contratar a Stuart Pann, ex ejecutivo de Intel y ahora director de operaciones de Groq, para aumentar rápidamente los ingresos y las operaciones. Pann es optimista sobre el crecimiento: más de una cuarta parte de los tickets de los clientes de GroqCloud son solicitudes de pago por más potencia informática.
“El chip Groq realmente apunta a la yugular”, dice el científico jefe de Meta, Yann LeCun, ex profesor de informática de Ross en la Universidad de Nueva York, que recientemente se unió a Groq como asesor técnico. A fines del mes pasado, el director ejecutivo Mark Zuckerberg anunció que Groq sería una de las empresas que proporcionaría chips para ejecutar inferencias para el nuevo modelo Llama 3.1 de Meta, y calificó a la startup de “innovadores”.
“El chip Groq realmente va directo a la yugular”, Yann LeCun, científico jefe de Meta
Ross se inició en Google, donde trabajó en el equipo que creó los semiconductores de la empresa, las “unidades de procesamiento tensor”, que están optimizadas para el aprendizaje automático. Se fue en 2016 para fundar Groq, junto con su colega ingeniero de Google, Doug Wightman, quien se desempeñó como el primer director ejecutivo de la empresa. Ese año, Groq recaudó una ronda de 10 millones de dólares liderada por el fondo de capital riesgo Social Capital. Pero a partir de ahí, encontrar nuevos inversores fue difícil. El cofundador de Groq, Wightman, se fue unos años más tarde y no respondió a las solicitudes de entrevistas.
Todavía hay muchos detractores. Un capitalista de riesgo que rechazó la ronda de Serie D de la empresa calificó el enfoque de Groq como “novedoso”, pero no pensó que su propiedad intelectual fuera defendible a largo plazo. Mitesh Agrawal, responsable de la nube de Lambda Labs, una startup de infraestructura de inteligencia artificial valorada en 1.500 millones de dólares, dice que su empresa no tiene planes de ofrecer Groq ni ningún otro chip especializado en su nube. “Es muy difícil ahora mismo pensar más allá de Nvidia”, dice. Otros cuestionan la rentabilidad de los chips de Groq a gran escala.
Ross sabe que es un camino cuesta arriba. “Es como si fuéramos el Novato del Año”, dice. “Todavía no estamos ni cerca de Nvidia. Así que todos los ojos están puestos en nosotros. Y nos preguntamos: ¿qué vamos a hacer a continuación?”.
Información adicional de Rashi Shrivastava, Alex Konrad y Kenrick Cai.
Este artículo fue publicado originalmente por Forbes US.
Te puede interesar: Así es cómo Donald Trump ganó 550 millones de dólares en la Casa Blanca
El auge de los chips de IA salvó a esta pequeña empresa emergente que ahora se enfrenta a Nvidia
Richard Nieva
Negocios, Groq, Inteligencia Artificial Leer más
Descubre más desde Noticias al Momento
Suscríbete y recibe las últimas entradas en tu correo electrónico.