
Nvidia prepara un nuevo procesador enfocado en acelerar la respuesta de sistemas de inteligencia artificial. El reporte, difundido por The Wall Street Journal y retomado por Reuters. apunta a un desarrollo orientado al llamado “inference computing”. Esa parte del procesamiento es la que permite que los modelos respondan preguntas y ejecuten tareas con mayor rapidez. La apuesta no es menor porque la velocidad de respuesta se volvió una ventaja competitiva central.
En la práctica, esto pega en costo, experiencia de usuario y escalabilidad de servicios. Según el reporte citado, la nueva plataforma sería presentada en la conferencia GTC de Nvidia en San José el próximo mes. También se menciona que integraría un chip diseñado por el startup Groq. Reuters señaló que no pudo verificar de inmediato el reporte y que. ni Nvidia ni OpenAI respondieron en ese momento a solicitudes de comentarios.
Aun con esa cautela, la información encaja con una tendencia clara del sector: mejorar la inferencia más que solo el entrenamiento. Ese cambio refleja que el negocio de IA ya está migrando de “entrenar gigantes” a “responder millones de consultas”. Reuters recordó además que OpenAI ha mostrado insatisfacción con la velocidad de cierto hardware de Nvidia para casos específicos. Entre esos casos se mencionan tareas como desarrollo de software y flujos donde una IA interactúa con otro software. La nota agrega que OpenAI habló con startups como Cerebras y Groq para acelerar inferencia.
#IA #Tecnologia #Nvidia #Innovacion #RedPopular
Fuente: REUTERS Y REDACCION










