Saltar al contenido
Tecnología

¿Cómo las compañías están rompiendo el dominio de Nvidia en chips para IA?

Un nuevo grupo de empresas está buscando competir con Nvidia desarrollando procesadores especializados en la etapa de inferencia de inteligencia artificial, una parte clave del funcionamiento de la IA generativa. Este enfoque promete reducir costos y consumo energético, ofreciendo una alternativa más eficiente a las empresas.
Por

Tiempo de lectura 2 minutos

Comentarios (0)

¿Qué es la inferencia de IA y por qué importa?

El desarrollo de chatbots y herramientas de inteligencia artificial requiere una gran potencia de cálculo. Inicialmente, los GPU de Nvidia dominan el entrenamiento, donde los sistemas aprenden de datos masivos. Sin embargo, en la etapa de inferencia, donde se generan respuestas basadas en esos aprendizajes, los GPU no siempre son la opción más eficiente.

Empresas como Cerebras, Groq y d-Matrix están desarrollando chips más especializados en esta área. Estos procesadores están diseñados para manejar cargas más ligeras y, en algunos casos, superar la eficiencia de los GPU. Según Alvin Nguyen, analista de Forrester, estos chips podrían abaratar significativamente el uso de la IA, facilitando su adopción por parte de empresas que no disponen de grandes infraestructuras.

Las empresas detrás de los chips de inferencia

Uno de los principales actores es d-Matrix, que recientemente presentó su producto Corsair. Diseñado en California y fabricado en Taiwán, este chip promete optimizar la inferencia mientras reduce costos operativos y energéticos.

El director de d-Matrix, Sid Sheth, explicó cómo su compañía busca posicionarse en un mercado que prioriza la eficiencia en lugar de la potencia bruta. Comparó esta fase con el uso práctico del conocimiento adquirido en la escuela, destacando que la inferencia se centra en respuestas rápidas y eficaces.

¿Quién está interesado en estos nuevos chips?

Si bien gigantes como Amazon, Google y Microsoft continúan usando GPUs de alto rendimiento, los chips de inferencia están dirigidos a un público más amplio, incluyendo empresas medianas y grandes que buscan implementar IA sin grandes inversiones iniciales.

Además, estos chips podrían tener aplicaciones en dispositivos personales como laptops y teléfonos móviles, ampliando aún más su alcance. Según Jacob Feldgoise, analista de la Universidad de Georgetown, la demanda de este tipo de hardware aumentará a medida que más empresas adopten modelos de IA generativa.

El impacto en costos y sostenibilidad

Los nuevos chips no solo prometen hacer más accesible la IA, sino que también podrían disminuir significativamente los costos energéticos. Esto resulta crucial en un momento en que se debate el impacto ambiental de tecnologías avanzadas como la inteligencia artificial general (AGI).

Como señaló Sheth, la prioridad es desarrollar soluciones que beneficien a un espectro más amplio de empresas sin comprometer el medio ambiente. Este enfoque marca un cambio necesario en una industria dominada por gigantes tecnológicos con recursos prácticamente ilimitados.

Estos avances en chips especializados no solo abren oportunidades para nuevas compañías, sino que también tienen el potencial de redefinir cómo se implementa la inteligencia artificial en el día a día. ¿Será suficiente para desafiar el dominio de Nvidia? El tiempo lo dirá.

Compartir esta historia

Artículos relacionados