
Hace unos años presenté el estado de la inteligencia artificial (IA) a un grupo de altos funcionarios gubernamentales. Lo acompañé con proyecciones sobre los escenarios más probables que enfrentarían en las próximas décadas. Parte de esas sesiones consiste en poner sobre su radar los desarrollos y tendencias más relevantes, para que los consideren, planifiquen o descarten. Al tratar tecnologías de frontera o altamente especulativas, se debe lograr un equilibrio delicado.
En aquel momento, la inteligencia artificial general (AGI) estaba en esa frontera. Ya se investigaba en laboratorios de IA, y la superinteligencia apenas se mencionaba de pasada. Cuesta trabajo creer que el internet, en su momento, también fue considerada una tecnología de frontera. Siempre insisto en que las proyecciones pueden cambiar, tener errores y requerir revisiones constantes.
Quedaba claro entonces que había que actualizar la probabilidad de que la AGI llegaría antes de lo previsto, especialmente a la luz de los avances proyectados en tamaño de modelos, capacidades y comportamientos emergentes. Así que propuse que las líneas de tiempo de la AGI cambiaban, de algo que imaginábamos para las próximas generaciones, a algo que enfrentaríamos en vida. Ese ajuste planteó preguntas difíciles. ¿Qué implicaría para los mercados laborales, la planeación económica o la seguridad nacional? Y, con la misma importancia, ¿qué nuevas tecnologías podría desbloquear la AGI?
Se movió la frontera de la superinteligencia
Tan solo unos años después, la superinteligencia también ha pasado a la lista de temas a considerar. Algunas de las empresas mejor financiadas del sector tecnológico ya ven más allá de la AGI, hacia lo que podría ser la “próxima-próxima” etapa de la IA. Meta, por ejemplo, acaba de realizar uno de los acqui-hires más caros en la historia del sector y con ello sumó talento de Scale AI, incluido su fundador Alexandr Wang, para liderar un nuevo “Equipo de Superinteligencia”. ¿Su misión? Perseguir la superinteligencia, un concepto que hasta hace muy poco vivía exclusivamente en la ciencia ficción.
Aún no es una realidad, pero ya dejó de ser ficción para convertirse en una prioridad de I+D con recursos multimillonarios. Ilya Sutskever, por ejemplo, dejó OpenAI para fundar Safe Superintelligence, una empresa que, sin producto alguno, ha recaudado miles de millones de dólares en su primer año con un objetivo claro: lograr la superinteligencia.
Según Nick Bostrom, la superinteligencia artificial (ASI) describe sistemas que superan la inteligencia humana en prácticamente todos los dominios. No se trata solo de igualar nuestra cognición o habilidades, sino de superarlas por completo, lo que habilita una nueva etapa del progreso tecnológico y humano.
¿Será Meta (u otra empresa) quien lidere la carrera hacia la superinteligencia? Es imposible saberlo. Pero de lo que sí podemos estar seguros es de que debemos actualizar nuestras líneas de tiempo para la AGI, y tal vez incluso para la ASI; en especial en el caso de la AGI, que podría llegar en esta misma década.
En un artículo reciente hablé del valor de pensar en probabilidades: entender qué es probable, qué no lo es y dónde se encuentra tu perspectiva única dentro de las tendencias que dan forma a tu industria, tu país y al panorama global de la IA. A medida que iniciativas de frontera como la AGI y la ASI reciben más capital, los líderes deberán discernir qué tecnologías tienen mayores probabilidades de materializarse—y cómo podrían transformar sus sectores y modelos de negocio.
De imposible al hábito
Claro, también es fácil sentirse rebasado por la velocidad de estos cambios y por lo que se dice sobre la IA. A veces parecería más sencillo decir que la superinteligencia es imposible. Sin embargo, recuerda que cerca del 90% de lo que haces a diario se consideraba imposible en su momento. Lo repito con frecuencia porque es fácil olvidar lo extraordinario de este momento histórico. Si viajaras 1,000, o incluso 200, años al pasado y describieras tu vida diaria, seguramente te correrían del pueblo: “¡Esta persona dice que habla con alguien al otro lado del mundo con una cajita, y que vuela por el cielo en un tubo de metal!” Allá vas a la hoguera.
Es cierto, aún hay mucho furor alrededor de la AGI y la ASI, y aunque muchos, dentro y fuera del campo, han dicho que son imposibles, yo no apostaría en su contra. Nunca apuesto contra la capacidad humana para encontrar soluciones. Prefiero buscar cómo prepararme, cómo apoyar y cómo beneficiarme de esos avances que antes se veían como imposibles. Porque ahí es donde suele estar el futuro… y los retornos. ¿Mi consejo? Siempre que puedas, evita apostar contra lo imposible.