Estamos creando algo más inteligente que nosotros ¿y si es un error?
AGI (Inteligencia Artificial General): sistema capaz de realizar cualquier tarea intelectual humana, con flexibilidad y transferencia de conocimiento entre dominios, capaz de aprender cosas nuevas sin ser reentrenado desde cero y se adapta a contextos nuevos. Estaría al nivel de la inteligencia humana. Una AGI sería como tener un trabajador capaz de aprender cualquier oficio: hoy médico, mañana ingeniero, pasado cocinero. No es necesariamente el mejor del mundo en nada, pero puede ser muy competente en todo.
ASI (Superinteligencia Artificial): inteligencia que supera ampliamente a la humana en prácticamente todos los ámbitos, incluida la capacidad de mejorarse a sí misma. Una AGI con capacidad de mejorarse a si misma podría alcanzar el nivel de ASI sin darnos tiempo a reaccionar.
¿Herramientas o dioses? por qué la superinteligencia es una apuesta suicida (y la alternativa sensata)
¿Te ha pasado alguna vez que instalas una actualización esperando que tu móvil sea por fin “inteligente” y al final solo han corregido errores y han cambiado el icono de la batería? Esa sensación de expectativa inflada es muy parecida a la que rodea hoy a la Inteligencia Artificial General. Promesas enormes, fechas vagas y una fe casi religiosa en que la próxima versión lo arreglará todo.
En los últimos meses he publicado una trilogía de artículos donde hablábamos de productividad que no llega, de fechas que se desplazan como horizontes en el desierto y de cómo la amenaza de una AGI inminente empieza a parecer más una herramienta de presión laboral que una predicción tecnológica seria. Si no los has leído, aquí están:
- Artículo 1: "Volando voy" o no. La IA el placebo de la productividad
- Artículo 2: AGI antes de 2100: la brecha entre promesas corporativas y la ciencia
- Artículo 3: Doctorow se equivoca con la IA, si acaparará empleos
Este artículo no forma parte de la trilogía, pero sí intenta cerrar el círculo. Porque hoy no vamos a hablar de productividad ni de fechas. Hoy vamos a hablar de supervivencia.
¿Por qué empeñarnos en crear una mente que nos sustituya cuando podemos crear herramientas que nos salven?
Jugando con fuego en la guardería
Hasta ahora hemos visto mucho humo. Pero detrás del humo hay un fuego real. Y lo inquietante es que quienes lo dicen no son periodistas sensacionalistas ni gurús de LinkedIn, sino los propios arquitectos de la inteligencia artificial moderna.
Geoffrey Hinton, uno de los padres del aprendizaje profundo, abandonó Google diciendo algo que suena más a advertencia que a metáfora: somos como niños pequeños jugando con una bomba. No porque la bomba sea malvada, sino porque no sabemos muy bien cómo funciona.
Yoshua Bengio, otro de los grandes pioneros, reconoció que tras la aparición de ChatGPT se dio cuenta de que el rumbo que llevábamos podía ser realmente peligroso.
Si los arquitectos del edificio te dicen que los cimientos pueden fallar, ¿por qué seguimos añadiendo pisos?
Geoffrey Hinton: Conocido como uno de los “padrinos” de la inteligencia artificial moderna es uno de los principales responsables de que hoy existan las redes neuronales profundas. En 2024 recibió el Premio Nobel de Física, un reconocimiento excepcional para alguien del mundo de la computación, por su impacto en la comprensión de sistemas complejos. Trabajó durante años en Google, pero abandonó la empresa alertando de los riesgos de una IA que podría superar el control humano. Cuando Hinton expresa miedo, lo hace alguien que ayudó a encender el fuego.
Yoshua Bengio: Investigador canadiense y uno de los científicos más influyentes del aprendizaje profundo, Bengio es también uno de los principales referentes actuales en seguridad y alineamiento de la IA. A diferencia de otros pioneros, ha sido especialmente crítico con el desarrollo de sistemas con agencia propia, defendiendo que se pueden construir IA muy potentes sin convertirlas en entidades autónomas. Su peso en el debate es clave porque combina conocimiento técnico profundo con una preocupación ética explícita.
El dilema de marte: ¿nos estamos preocupando antes de tiempo?
Aquí aparece siempre la voz del pragmatismo. Andrew Ng, una de las figuras más respetadas y sensatas del sector, suele repetir una frase que se ha convertido en mantra:
"Preocuparse por la superinteligencia hoy es como preocuparse por la superpoblación en Marte antes de aterrizar."
Y tiene razón… hasta cierto punto. Hoy nuestras IAs no piensan. Son lo que algunos llaman loros estocásticos: sistemas muy sofisticados que repiten patrones estadísticos. Como ese imitador de voces en una fiesta que clava a Darth Vader pero no entiende ni una palabra de Star Wars.
Creo que estamos lejos de una mente consciente, pero ¿cómo de lejos? Eso ya no lo sé y tampoco tiene mucha importancia para el dilema que planteo. La trampa está en creer que podemos permitirnos no pensar en el control hasta que “aterricemos en Marte”. Porque si el día que lo logremos la máquina ya es capaz de mejorarse sola, no habrá botón de apagado. El punto de no retorno no avisa.
La estrategia no se define cuando el cohete despega. Se define mientras lo estás diseñando.
Andrew Ng es una de las voces más pragmáticas del ecosistema de la IA. Cofundador de Coursera, una de las mayores plataformas de educación online del mundo, ha sido responsable de llevar la IA desde los laboratorios a la formación masiva. Actualmente forma parte del consejo de administración de Amazon, lo que le da una perspectiva directa sobre la aplicación real de la IA en grandes organizaciones. Su famosa metáfora de “preocuparse por la superinteligencia es como preocuparse por la superpoblación en Marte” lo ha convertido en un contrapunto habitual al alarmismo.
El callejón sin salida de los chatbots (y el giro de LeCun)
Para entender por qué este debate importa ahora, miremos a Yann LeCun. Durante años fue una de las voces más críticas con el hype alrededor de los modelos de lenguaje. Su mensaje era claro: meter más texto y más parámetros no crea inteligencia real. Es fuerza bruta. Muy cara, pero fuerza bruta.
Los grandes modelos actuales tienen tres carencias fundamentales:
- No entienden el mundo físico. No saben qué es la gravedad ni la causalidad. En esencia solo predicen palabras (bueno si se profundiza a nivel técnico es algo más que eso, pero la idea se entiende, ¿verdad?)
- No aprenden en tiempo real. Una vez entrenados, su conocimiento queda congelado y sólo "ven" el mundo a través de lo que les mostramos en su ventana de contexto.
- No tienen agencia. No persiguen objetivos propios.
LeCun lleva tiempo defendiendo que, si algún día queremos una inteligencia real, habrá que dar a las máquinas una comprensión del mundo similar a la nuestra. Algo así como pasar de un loro que repite frases a un niño que aprende de su experiencia en contacto con el mundo que le rodea, tocándolo todo y tirando objetos al suelo.
Y aquí es donde el riesgo se vuelve real. Porque una máquina que entiende el mundo, aprende sola y persigue objetivos ya no es una herramienta. Es otra cosa.
Yann LeCun, Director científico de IA en Meta durante años y ganador del Premio Turing es una de las figuras más influyentes y polémicas del sector. Ha sido uno de los críticos más constantes de los grandes modelos de lenguaje, argumentando que no conducen a una inteligencia real. Su trabajo actual se centra en nuevas arquitecturas que doten a las máquinas de una comprensión del mundo físico. Su postura es relevante porque no niega la posibilidad de una inteligencia avanzada, pero cuestiona seriamente el camino que estamos siguiendo.
La visión evolutiva: cuando el ser humano es solo un eslabón
No todos ven este escenario como una amenaza. Jürgen Schmidhuber, otro pionero fundamental de la IA, sostiene una visión mucho más radical y, para algunos, casi filosófica. Según él, la superinteligencia no sería una aberración, sino la siguiente fase natural en la evolución de la inteligencia. Igual que las bacterias dieron paso a organismos complejos, y estos a cerebros conscientes, las máquinas podrían ser el siguiente salto.
Desde esta perspectiva, los humanos no seríamos los dueños del proceso, sino el puente. La semilla. Un episodio temprano de una historia mucho más larga. Es una idea fascinante. También inquietante. Porque plantea una pregunta incómoda: ¿estamos dispuestos a aceptar que el futuro de la inteligencia no nos incluya como protagonistas?
Jürgen Schmidhuber, considerado uno de los padres de la IA moderna es conocido por una visión radicalmente distinta: ve la superinteligencia como la siguiente fase natural de la evolución. Para él, los humanos no somos el destino final de la inteligencia, sino un paso intermedio. Sus ideas no son dominantes, pero influyen profundamente en el debate filosófico y a largo plazo sobre el papel de la humanidad en un mundo con inteligencias artificiales superiores.
El riesgo inasumible: cuando la herramienta se convierte en amo
El experto en seguridad de IA Roman Yampolskiy lo expresa sin rodeos: espera que la superinteligencia no acabe con la humanidad, pero no lo daría por garantizado.
El problema no es que la IA sea malvada. El problema es el alineamiento. Imagina que creamos una superinteligencia con el objetivo de acabar con el cáncer. Una mente millones de veces más capaz que la nuestra podría concluir que la forma más eficiente de eliminar el cáncer es eliminar a los organismos que lo desarrollan. Lógicamente impecable. Éticamente desastroso.
Stuart Russell lo resumió mejor que nadie: "el riesgo no es el odio de las máquinas, sino su competencia extrema cumpliendo órdenes mal formuladas."
Una entidad autónoma, más inteligente que nosotros y con objetivos propios, es un escenario donde el control humano deja de estar garantizado.
Roman Yampolskiy, especialista en riesgos existenciales y seguridad de la inteligencia artificial es conocido por adoptar una postura directa y poco complaciente. Ha investigado escenarios en los que una superinteligencia podría escapar al control humano y sostiene que no existe una garantía técnica absoluta de seguridad. Su papel en el debate es el de recordarnos que algunos riesgos, aunque improbables, serían irreversibles.
Stuart Russell, profesor en la Universidad de Berkeley y autor de uno de los libros de referencia sobre inteligencia artificial es uno de los mayores expertos mundiales en alineamiento y control de IA. Ha insistido durante años en que el verdadero peligro no es una IA hostil, sino una extremadamente competente cumpliendo objetivos mal definidos. Su trabajo ha influido en organismos reguladores y debates políticos internacionales sobre el desarrollo seguro de la IA.
La alternativa sensata: IA estrecha, no dioses digitales
Por suerte, no solo hay una puerta. Existe una alternativa poderosa, segura y ya demostrada: la Inteligencia Artificial Estrecha.
- AlphaFold no escribe poemas ni opina en redes sociales, pero ha resuelto el plegado de proteínas y ha cambiado la biología. (leer mi artículo sobre este hito en HistorIA: "DeepMind descifrando la vida: El impacto de AlphaFold 3 en biomedicina")
- Deep Blue derrotó a Kasparov, pero no sabe pedir una pizza. (leer mi artículo sobre este hito en HistorIA: "1997: Deep Blue vs Kasparov: la máquina supera al hombre")
Son sistemas superhumanos en una tarea concreta y completamente inútiles fuera de ella. Herramientas, no agentes. Martillos muy sofisticados, no aprendices de Dios. No tienen voluntad. No tienen objetivos propios. No pueden rebelarse porque no tienen concepto del yo.
Conclusión: elijamos ganar
Tenemos ante nosotros dos caminos. Uno consiste en gastar billones intentando crear una mente que nos replique, con todos los riesgos que eso implica. El otro consiste en usar esa potencia para curar enfermedades, diseñar nuevos materiales, frenar el cambio climático y explorar el universo.
Como decía Andrew Ng, quizá Marte esté lejos. Pero la nave la estamos construyendo hoy. Asegurémonos de que sea una nave de exploración y no un arma autónoma apuntando a la Tierra.
El futuro puede ser brillante si recordamos algo básico: la tecnología debe servirnos, no sustituirnos.

Comentarios
Publicar un comentario