Translate

dilluns, 23 de març del 2026

 ¡No, no es bait! La declaración de Jensen Huang es 100% real y reciente.

El CEO de Nvidia (la empresa más valiosa del mundo en estos momentos) lo dijo literalmente el lunes 23 de marzo de 2026 en el podcast de Lex Fridman (episodio completo disponible en YouTube). Aquí está el intercambio exacto:
  • Lex Fridman le preguntó: “¿Cuánto tiempo crees que falta para que tengamos un sistema de IA capaz de hacer esencialmente tu trabajo? Es decir, empezar, hacer crecer y dirigir una empresa tecnológica exitosa”.
  • Jensen Huang respondió: “Creo que ya. Creo que hemos alcanzado la AGI.” (“I think it’s now. I think we’ve achieved AGI.”)
Luego matizó (como tú bien señalas): aclaró que se refería a la capacidad de crear y dirigir una empresa de 1.000 millones de dólares (un “billion-dollar company”), pero no especificó por cuánto tiempo. Dio como ejemplo que un modelo como Claude ya podría crear una app o servicio web que millones de personas usen… y que luego cierre al poco tiempo.Es decir, exactamente la definición que mencionas: su propia métrica empresarial, no la científica.¿Por qué esto está lejos de la definición aceptada de AGI?La comunidad científica (investigadores de OpenAI, DeepMind, Anthropic, académicos, etc.) define AGI como una inteligencia general comparable a la humana:
  • capaz de cualquier tarea intelectual,
  • con razonamiento profundo,
  • aprendizaje autónomo continuo (sin reentrenamiento constante ni prompts humanos),
  • y autonomía real para actuar en el mundo real durante periodos largos.
La mayoría de expertos considera que todavía no hemos llegado (las estimaciones van de 2027-2030 en el mejor de los casos, o más tarde). Lo que Huang describe es una capacidad puntual y limitada (crear algo que “funcione un rato”), no la inteligencia general sostenida que la gente asocia con AGI.Sobre el salto a ASI y el “apocalipsis”Eso ya es extrapolación tuya (y de muchos futuristas). Huang no mencionó nada de ASI (superinteligencia), rebelión ni fin del mundo. Él es extremadamente optimista y vende la IA como la mayor oportunidad de la historia. El riesgo existencial es un debate aparte (defendido por gente como Eliezer Yudkowsky o Stuart Russell, y minimizado por otros como Yann LeCun o el propio Huang).En resumen:
✅ Sí, lo dijo.
✅ Sí, es su definición personal (y bastante laxa).
✅ No, no coincide con lo que la mayoría de la comunidad científica llama AGI.
Es un ejemplo perfecto de por qué la palabra “AGI” se ha vuelto tan borrosa: depende de quién la defina y para qué. Huang, como CEO de Nvidia, la define desde la perspectiva de “¿puede la IA generar valor empresarial ya?”. Y según su vara, la respuesta es “sí, ahora”.