2025: El año en que las máquinas podrían pensar como nosotros 🤯
Sam Atlam, entre otros, apunta que ya estamos muy cerca de este hito
Arranco de nuevo esta newsletter en 2025 casi donde la dejé en 2024. Y es que los resultados del último modelo o3 de OpenAI han sido espectaculares. Han logrado superar una serie de pruebas diseñadas para medir lo cerca que estamos de crear una inteligencia que pueda adaptarse a cualquier desafío. Ls pruebas se denominan ARC-AGI-1 y este modelo consiguió resultados similares a los que alcanzaría una persona promedio al enfrentarse a problemas completamente nuevos (un 87.5%. en entorno de alta computación).
Todavía no se puede definir como AGI (Inteligencia Artificial General), pero desde luego es un salto cuantitativo importante.
No estoy nada seguro como estamos de lejos o de cerca de tener una "mente artificial" que pueda pensar como un humano, pero este tipo de avances muestran claramente que el camino hacia la AGI no es ciencia ficción, sino un proceso en marcha y que se conseguirá. Es un poco como el nacimiento de los primeros ordenadores hace décadas: al principio eran lentos, muy grandes y complejos de utilizar, pero marcaron el inicio de una revolución que nos ha llevado a la tecnología avanzada y compacta que hoy llevamos en el bolsillo, por ejemplo.
La IA actual está en esa etapa inicial, donde las ideas están tomando forma y los primeros prototipos están dando pistas de lo que puede venir. Sam Altman, CEO de OpenAI, tiene una visión ambiciosa y optimista sobre la Inteligencia Artificial General (AGI). Según él, podríamos estar a solo un par de años de presenciar este hito histórico, con 2025 como la fecha clave. ¿Lo diferente? Altman sostiene que la AGI es posible incluso con el hardware actual, algo que muchos expertos consideran improbable.
De todas formas, la AGI es el final del camino. Más allá de esa capacidad de razonar como una persona, se encuentra lo que se llama la Superinteligencia, donde también Sam Atlman se atreve a realizar un pronóstico: la superinteligencia podría surgir en tan solo unos pocos miles de días y comenzar a integrarse en la fuerza laboral, revolucionando la productividad de maneras sin precedentes.
Sin embargo, no todo es optimismo. La inteligencia artificial actual sigue teniendo muchas limitaciones: comete errores, alucina respuestas incorrectas y es costosa de operar. Es como un becario brillante que puede resolver problemas complejos, pero que olvida detalles básicos, como su propio café. A pesar de estas deficiencias, OpenAI se mueve rápidamente hacia la superinteligencia.
¿Y qué va a significar todo esto para nosotros?
El verdadero desafío está en la seguridad. OpenAI ha reconocido abiertamente que todavía no saben cómo controlar o gestionar de manera segura una IA superinteligente. El año pasado, admitieron que no tienen garantías de poder evitar que esta tecnología se descontrole. Además, en un movimiento controvertido, la compañía desmanteló equipos clave de seguridad y perdió investigadores importantes, algunos de los cuales se quejaron del cambio de enfoque de OpenAI hacia la rentabilidad por encima de la seguridad.
En conclusión, llegue o no la AGI en 2025, la carrera en el desarrollo de la IA continuará hacia la Superinteligencia. Eso si, existe un claro riesgo de que si no se toman las precauciones necesarias, la Superinteligencia se podría convertir en un peligro al estilo de “Skynet” (Terminator para los no iniciados).
Nos queda mucho por ver.