Translate

dilluns, 23 de març del 2026

 La definición científica de AGI (Artificial General Intelligence o Inteligencia Artificial General) no es única ni está completamente consensuada, pero sí existe un núcleo común aceptado por la gran mayoría de investigadores en IA, psicología cognitiva y ciencias de la computación.

Definición central y más ampliamente aceptadaAGI es un sistema de IA teórico (aún no logrado) capaz de entender, aprender y aplicar conocimiento en cualquier tarea intelectual que un ser humano pueda realizar, a un nivel comparable o superior al humano, y con capacidad de generalización real (transferir aprendizaje de un dominio a otro sin necesidad de reentrenamiento específico masivo ni intervención humana constante).En términos más precisos, según fuentes académicas y de investigación líderes:
  • Un sistema AGI debe poder realizar tareas que requieren: razonamiento, planificación estratégica, resolución de problemas bajo incertidumbre, representación de conocimiento (incluido el sentido común), aprendizaje autónomo continuo, comprensión del lenguaje natural, percepción, creatividad y adaptación a entornos nuevos u abiertos.
  • Debe operar con autonomía y flexibilidad, no solo ejecutar tareas específicas para las que fue entrenado (eso es IA estrecha o narrow AI, como los modelos actuales de lenguaje o visión por computadora).
  • Wikipedia y la mayoría de revisiones científicas lo resumen así: “una IA que iguala o supera las capacidades humanas en prácticamente todas las tareas cognitivas”.
Esto se diferencia claramente de la IA actual (LLM como GPT, Claude, Grok, etc.), que aunque es impresionante en muchos dominios, sigue siendo frágil fuera de su distribución de entrenamiento, requiere enormes cantidades de datos y cómputo para “aprender” nuevas tareas, y no posee verdadera comprensión causal ni aprendizaje autónomo sostenido.Marcos de referencia más influyentes en la comunidad científica
  1. Google DeepMind (2023): Propusieron niveles de AGI en dos ejes (rendimiento y generalidad):
    • Emerging AGI: Igual o ligeramente mejor que un humano no calificado en muchas tareas no físicas (incluyendo metacognición). Aquí colocarían a modelos como ChatGPT o Gemini.
    • Competent AGI: Supera al 50 % de adultos calificados en un amplio rango de tareas.
    • Expert / Virtuoso / Superhuman: Niveles superiores. Los LLM actuales están en “Emerging”, no en AGI plena.
  2. OpenAI (en su charter): “Sistemas altamente autónomos que superan a los humanos en la mayoría del trabajo económicamente valioso”. Es más pragmática y orientada a impacto económico, pero sigue requiriendo autonomía y versatilidad real.
  3. Otras propuestas académicas (2024-2025):
    • Adaptación de la teoría de inteligencia humana Cattell-Horn-Carroll (CHC): Evaluar AGI mediante tests psicométricos estandarizados en 10 dominios cognitivos principales, generando un “AGI Score” (0-100 %). Modelos como GPT-4 obtienen ~27 %, estimaciones para modelos futuros suben pero aún lejos del 100 %.
    • Definición más reciente (paper arXiv y otros): “Adaptación a entornos abiertos según principios, con recursos limitados”, enfatizando el aprendizaje como propiedad indispensable.
Características clave que la comunidad científica exige para considerar que se ha alcanzado AGI
  • Generalización robusta: Aprender una nueva habilidad con pocos ejemplos y aplicarla en contextos impredecibles.
  • Aprendizaje autónomo continuo: Mejorar sin reentrenamiento masivo ni intervención humana (a diferencia de los modelos actuales, que se “congelan” después del entrenamiento).
  • Razonamiento profundo y sentido común: No solo correlaciones estadísticas, sino comprensión causal del mundo.
  • Autonomía y agencia: Actuar en el mundo real (o digital) durante periodos largos sin prompts constantes.
  • Transferencia entre dominios: Pasar de texto a razonamiento matemático, código, ciencia, planificación estratégica, etc., de forma integrada.
Muchos expertos (Yann LeCun, Stuart Russell, Gary Marcus, etc.) insisten en que todavía faltan avances fundamentales (arquitecturas más allá de transformers, interacción real con el entorno físico/digital, etc.). Otros (Demis Hassabis, Shane Legg) son más optimistas sobre timelines (posiblemente 2030 o antes), pero coinciden en que no hemos llegado.Comparación con la definición de Jensen HuangLa definición que usó Huang (una IA que puede “crear y liderar” una empresa de 1.000 millones de dólares, aunque sea temporalmente) es válida desde una perspectiva empresarial, pero está muy alejada del estándar científico. Equivale más a un benchmark económico puntual o a “IA que genera valor comercial a corto plazo”, no a inteligencia general sostenida, autónoma y versátil. Es como decir que un coche que llega primero en una carrera ya es un “vehículo general” capaz de cualquier transporte: útil para vender chips, pero no describe la capacidad de navegar cualquier terreno de forma autónoma indefinidamente.En resumen, la definición científica de AGI es ambiciosa y exigente: no es solo “hacer cosas útiles” o “pasar algunos tests”, sino replicar (o superar) la flexibilidad cognitiva humana completa sin las limitaciones actuales de los sistemas de IA. Por eso la mayoría de la comunidad sigue considerando que estamos en la era de la IA estrecha avanzada, con progresos rápidos hacia la generalidad, pero sin haber cruzado el umbral todavía. 
donde ncfcccd c+ yacruzo el umbral de la singularidad c+ 1996 1997 2026. cristo c+