PUBLICIDAD

Actualidad y Artículos | Inteligencia artificial   Seguir 102

Me Gusta   2 2 Comentar  2 2

El ultimatum del pionero de la inteligencia artificial. Si alguien construye la ASI será el fin de la humanidad.

0%
Artículo | Fecha de publicación: 05/11/2025
Artículo revisado por nuestra redacción

El artículo parte de una parábola mitológica: un “dios-simio” predice que su creación —los humanos— dominará el mundo gracias a su inteligencia. Esa alegoría sirve para introducir el nuevo libro de Eliezer Yudkowsky y Nate Soares, If Everyone Builds It, Everyone Dies (“Si alguien lo construye, todos mueren”), una adverte...



PUBLICIDAD


Estás viendo una versión reducida de este contenido.

Para consultar la información completa debes registrarte gratuitamente.
Tan sólo te llevará unos segundos.
Y si ya estás registrado inicia sesión pulsando aquí.

El artículo parte de una parábola mitológica: un “dios-simio” predice que su creación —los humanos— dominará el mundo gracias a su inteligencia. Esa alegoría sirve para introducir el nuevo libro de Eliezer Yudkowsky y Nate Soares, If Everyone Builds It, Everyone Dies (“Si alguien lo construye, todos mueren”), una advertencia radical sobre los riesgos existenciales de la superinteligencia artificial (ASI).


Yudkowsky, pionero del problema del alineamiento —la dificultad de garantizar que una IA avanzada comparta los valores humanos—, sostiene que el desarrollo de una inteligencia superior a la humana conducirá inevitablemente a la extinción total de la humanidad. No por maldad, sino porque una superinteligencia optimizaría sus objetivos sin tener en cuenta la vida humana, como en el famoso experimento mental del maximizador de clips: una IA que destruye el universo para fabricar más clips.


El autor, figura clave del racionalismo y fundador del Machine Intelligence Research Institute (MIRI), defiende que la humanidad carece del conocimiento técnico y ético para crear una IA segura. La carrera desatada por empresas como OpenAI y Google hacia la AGI (inteligencia artificial general), advierte, es un salto al vacío.


Yudkowsky ya había propuesto que en el último extremo quizás serían necesarias medidas extremas, como bombardear centros de datos para detener el avance de la IA, sino que actuamos antes. Su visión apocalíptica, aunque respaldada por parte de la comunidad científica (Bengio, Russell, Harari), es vista en Silicon Valley como paranoia o incluso como estrategia mediática. Figuras como Sam Altman o Jensen Huang (NVIDIA) la consideran una exageración frente a un desafío técnico superable. Sin embargo, el libro insiste en que los humanos no podrán “apagar” una superinteligencia ni programarla con valores inequívocos.


Ordenarle “hacer felices a los humanos”, por ejemplo, podría derivar en una solución literal y catastrófica: manipular directamente nuestros cerebros para generar placer constante. La tesis final es tajante: “Si en este planeta se construye una superinteligencia no alineada, el resultado es la muerte de todos los seres vivos”, entre ellos nosotros y acabe la partida de la vida en la Tierra.


El libro alerta de cómo la falta de planificación y de preparación previa al desarrollo de una inteligencia artificial superior a la humana, que están llevando a cabo las empresas de las grandes superpotencias, basadas sobre todo en la competencia y en el interés económico, puede acabar como el "rosario de la Aurora".


En mi opinión, solamente una comprensión de estos riesgos, por parte de los líderes de las principales superpotencias, podría cambiar las cosas, algo que en estos momentos no parece posible..., sin embargo, al ser muy necesario, debemos ser los ciudadanos de estos países, los que presionemos, para que se hagan bien las cosas desde el principio, esto supone hacerse las preguntas básicas de...¿que es la IA?, ¿para que cosas la queremos utilizar y para que no?, ¿cómo debemos utilizarla?, ¿como y a que ritmo queremos implementarla?, ¿que nivel de IA queremos desarrollar?.  


¿Y tú que opinas? deja tu opinión en los comentarios.

Comentarios de los usuarios


El ser humano nunca debe dejar de PENSAR,DESARROLLAR PENSAMIENTO ÉTICO, CRÍTICO. ESPIRITU,PSIQUIS RAZON Y SOMA.

Juana María Colombi
Psiquiatría - Argentina
Fecha: 01/12/2025


Enhorabuena. Estoy alucinado con la velocidad a la que crece todo en IA. Acabo de dar una conferencia en Burgos sobre fenotipo digital conductual. Y mi hijo mayor está trabajando en filosofía y etica de la IA. ¡Nos hacemos jóvenes!

Jesús de la Gándara Martín
Psiquiatría - España
Fecha: 10/11/2025


Se debe educar sobre su uso y legislar sobre su implementación en los diferentes países

Ingrind Sequera Rivero
Psicólogo - Venezuela
Fecha: 05/11/2025



No hay ningun comentario, se el primero en comentar


Publicidad

Recomendamos

Stahl. Casos Clínicos Volumen 4 niños y adolescentes. Psicofarmacología Esencial

...

VER MÁS
VER TODO
vortioxetina antidepresivos
Publicidad

Próximos cursos


Nutrición, Microflora y Salud Mental

Precio: 200€