¿Son las actuales inteligencias artificiales apenas un juego de niños frente a las super-IA que podrían surgir? Dos referentes mundiales, Eliezer Yudkowsky y Nate Soares, sostienen que sí y alertan de que la humanidad avanza casi sonámbula hacia un riesgo existencial: el de máquinas más inteligentes que cualquier humano o que incluso toda la humanidad.
Ambos son autores del libro “Si alguien la crea, todos moriremos”, un éxito de ventas en Estados Unidos que ha generado debate sobre si sus advertencias son escenarios hipotéticos o riesgos reales, y que ha polarizado opiniones entre quienes abogan por una regulación estricta y quienes critican la alarma que generan. El libro se publica ahora en España a través de Editorial Destino.
Soares aseguró a EFE que detener la carrera “absolutamente imprudente” hacia la superinteligencia es posible y no afecta la vida cotidiana: no se trata de cerrar herramientas como ChatGPT, renunciar a los coches autónomos o dejar de usar la IA en la investigación médica, sino de frenar la competencia por crear una inteligencia que nadie comprende por completo.
Trayectoria y enfoque de los autores
Yudkowsky y Soares son presidente fundador y director del Instituto de Investigación de la Inteligencia de las Máquinas (MIRI, por sus siglas en inglés), organización que desde hace 25 años estudia la IA y actualmente se centra en los riesgos potenciales y en garantizar que estos sistemas sean “amigables” con la humanidad.
En 2023, ambos firmaron una carta junto a miles de científicos, incluidos varios premios Nobel, solicitando una pausa temporal en los experimentos con IA avanzada para ralentizar su desarrollo. Según ellos, esa carta “subestimaba terriblemente” el problema ante la posibilidad de una superinteligencia (SIA) capaz de desarrollar objetivos propios que podrían entrar en conflicto con los humanos.
Sistemas actuales versus superinteligencia
Soares explica que las IA actuales “siguen siendo tontos” comparados con la SIA que las empresas intentan crear, pero advierte sobre el impacto potencial: así como el cerebro humano superó al del chimpancé y permitió construir cohetes y llegar a la Luna, una SIA podría cruzar un umbral que cambiaría radicalmente la relación entre humanos y máquinas.
“No sabemos cuándo cruzará ese umbral, pero sabemos que es posible”, afirma Soares. Crear una superinteligencia que nadie comprende es “una receta para el desastre”, y el primer paso es que los líderes mundiales reconozcan que esta tecnología puede ser letal.
El coautor subraya que expertos y empresarios como Sam Altman (OpenAI), Elon Musk o Geoffrey Hinton ya han advertido sobre los riesgos de la superinteligencia, y que lo relevante no es si estas máquinas podrían tener sentimientos, sino si pueden escapar, replicarse o construir infraestructuras propias.
“Nadie sabe dónde está el punto de no retorno”, concluye Soares. “La SIA es como un tren que avanza hacia nosotros, y aunque investigadores y académicos gritan ‘¡cuidado!’, no sabemos si los líderes mundiales podrán detener esta carrera suicida”.









