SAM ALTMAN, OPENAI: LA ERA DE LA SUPERINTELIGENCIA HA COMENZADO
Ryan Daws
11 de junio de 2025
El jefe de OpenAI, Sam Altman, ha declarado que la humanidad ha cruzado a la era de la superinteligencia artificial y no hay vuelta atrás.
«Hemos pasado el horizonte de eventos; el despegue ha comenzado», afirma Altman. «La humanidad está cerca de construir una superinteligencia digital, y al menos hasta ahora es mucho menos extraña de lo que debería parecer».
La falta de signos visibles – los robots aún no deambulan por nuestras calles principales, las enfermedades siguen sin ser conquistadas – oculta lo que Altman describe como una transformación profunda que ya está en marcha. A puertas cerradas, en empresas tecnológicas como la suya, están emergiendo sistemas que pueden superar el intelecto humano general.
“En un sentido amplio, ChatGPT ya es más poderoso que cualquier humano que haya vivido”, afirma Altman, señalando que “cientos de millones de personas dependen de él todos los días y para tareas cada vez más importantes.”
Esta observación casual insinúa una realidad preocupante: tales sistemas ya ejercen una enorme influencia, con incluso defectos menores que potencialmente podrían causar daño generalizado cuando se multiplican en su vasta base de usuarios.
EL CAMINO HACIA LA SUPERINTELIGENCIA
Altman esboza un cronograma hacia la superinteligencia que podría dejar a muchos lectores revisando sus calendarios.
Para el próximo año, espera «la llegada de agentes que puedan realizar trabajo cognitivo real», transformando fundamentalmente el desarrollo de software. El año siguiente podría traer «sistemas capaces de descubrir nuevas percepciones», lo que significa IA que genera descubrimientos originales en lugar de simplemente procesar conocimientos existentes. Para 2027, podríamos ver «robots que puedan realizar tareas en el mundo real».
Cada predicción parece saltar más allá de la anterior en capacidad, trazando una línea que apunta inequívocamente hacia la superinteligencia, sistemas cuya capacidad intelectual supera en gran medida el potencial humano en la mayoría de los dominios.
«No sabemos hasta qué punto más allá de la inteligencia a nivel humano podemos llegar, pero estamos a punto de descubrirlo», afirma Altman.
Este progreso ha desencadenado un acalorado debate entre expertos, con algunos argumentando que estas capacidades siguen estando a décadas de distancia. Sin embargo, el cronograma de Altman sugiere que OpenAI tiene evidencia interna para este camino acelerado que aún no es de conocimiento público.
UN BUCLE DE RETROALIMENTACIÓN QUE CAMBIA TODO
Lo que hace que el desarrollo actual de la IA sea preocupante de manera única es lo que Altman llama una «versión larval de autosuperación recursiva»: la capacidad de la IA actual para ayudar a los investigadores a construir sistemas más capaces en el futuro.
«La IA avanzada es interesante por muchas razones, pero quizás nada es tan significativo como el hecho de que podemos usarla para hacer investigaciones de IA más rápidas», explica. «Si podemos hacer una década de investigación en un año, o un mes, entonces la tasa de progreso será obviamente muy diferente.»
Esta aceleración se complica a medida que múltiples bucles de retroalimentación se intersectan. El valor económico impulsa el desarrollo de infraestructuras, que permiten sistemas más poderosos, que generan más valor económico. Mientras tanto, la creación de robots físicos capaces de fabricar más robots podría crear otro ciclo explosivo de crecimiento.
«La tasa de nuevos logros será inmensa», predice Altman. «Es difícil incluso imaginar hoy en día lo que habremos descubierto para 2035; tal vez pasemos de resolver la física de alta energía un año a comenzar la colonización espacial al siguiente año.»
Tales declaraciones sonarían como hipérboles de casi cualquier otra persona. Viniendo del hombre que supervisa algunos de los sistemas de IA más avanzados del planeta, exigen al menos cierta consideración.
VIVIENDO JUNTO A LA SUPERINTELIGENCIA
A pesar del impacto potencial, Altman cree que muchos aspectos de la vida humana mantendrán sus contornos familiares. Las personas seguirán formando relaciones significativas, creando arte y disfrutando de placeres simples.
Pero detrás de estas constantes, la sociedad enfrenta una profunda disrupción. “Clases enteras de trabajos” desaparecerán, potencialmente a un ritmo que supera nuestra capacidad para crear nuevos roles o capacitar nuevamente a los trabajadores. El lado positivo, según Altman, es que “el mundo se volverá mucho más rico tan rápidamente que podremos considerar seriamente nuevas ideas políticas que nunca pudimos antes.”
Para aquellos que luchan por imaginar este futuro, Altman ofrece un experimento mental: “Un agricultor de subsistencia de hace mil años miraría lo que muchos de nosotros hacemos y diría que tenemos trabajos ficticios, y pensaría que simplemente estamos jugando juegos para entretenernos ya que tenemos comida en abundancia y lujos inimaginables.”
Nuestros descendientes podrían ver nuestras profesiones más prestigiosas con semejante asombro.
EL PROBLEMA DE LA ALINEACIÓN
En medio de estas predicciones, Altman identifica un desafío que mantiene en vela a los investigadores de seguridad de IA: asegurarse de que los sistemas superinteligentes permanezcan alineados con los valores e intenciones humanas.
Altman afirma la necesidad de resolver “el problema de la alineación, lo que significa que podamos garantizar de manera robusta que conseguimos que los sistemas de IA aprendan y actúen hacia lo que realmente queremos colectivamente a largo plazo.” Lo contrasta con los algoritmos de las redes sociales que maximizan el compromiso explotando vulnerabilidades psicológicas.
Esto no es meramente un problema técnico, sino uno existencial. Si la superinteligencia emerge sin una alineación robusta, las consecuencias podrían ser devastadoras. Sin embargo, definir «lo que realmente queremos colectivamente» será casi imposible en una sociedad global diversa con valores e intereses en competencia.
«Cuanto antes pueda el mundo comenzar una conversación sobre cuáles son estos límites amplios y cómo definimos la alineación colectiva, mejor», insta Altman.
OPENAI ESTÁ CONSTRUYENDO UN CEREBRO GLOBAL
Altman ha caracterizado repetidamente lo que OpenAI está construyendo como «un cerebro para el mundo».
Esto no se dice en sentido figurado. OpenAI y sus competidores están creando sistemas cognitivos destinados a integrarse en todos los aspectos de la civilización humana, sistemas que, según el propio Altman, superarán las capacidades humanas en diversos dominios.
«Una inteligencia demasiado barata para medirla está al alcance», afirma Altman, sugiriendo que las capacidades superinteligentes eventualmente se volverán tan ubicuas y asequibles como la electricidad.
Para aquellos que descartan tales afirmaciones como ciencia ficción, Altman ofrece un recordatorio de que, hace solo unos años, las capacidades actuales de la IA parecían igualmente implausibles: “Si te hubiéramos dicho en 2020 que estaríamos donde estamos hoy, probablemente habría parecido más loco que nuestras predicciones actuales sobre 2030.”
A medida que la industria de la IA continúa su camino hacia la superinteligencia, el deseo final de Altman – «Que escalemos sin problemas, de manera exponencial y sin contratiempos a través de la superinteligencia» – suena menos como una predicción y más como una plegaria.
Si bien los cronogramas pueden (y serán) discutidos, el jefe de OpenAI deja claro que la carrera hacia la superinteligencia no está por venir, ya está aquí. La humanidad debe lidiar con lo que eso significa.
«`