Prohibición de la IA superinteligente: ¿Una necesidad?
Un nuevo llamado, firmado por una amplia coalición de figuras de los medios, políticos, investigadores y pioneros tecnológicos, exige la prohibición del desarrollo de «Superinteligencia» hasta que la seguridad y la aprobación democrática estén garantizadas. Esta iniciativa, que hoy, 22 de octubre de 2025, está circulando mundialmente, plantea preguntas importantes y se vincula a debates anteriores sobre la regulación de la Inteligencia Artificial.
Introducción
El debate sobre el futuro de la Inteligencia Artificial (IA) alcanza un nuevo punto culminante. Una amplia coalición, entre ellos Príncipe Harry y Meghan, , exige una moratoria para el desarrollo de la llamada «Superinteligencia». Esta convocatoria, publicada hoy, 22 de octubre de 2025, exige que el desarrollo se detenga hasta que seguridad y aprobación democrática estén garantizadas. Los signatarios, entre los que también se encuentran figuras de los medios, políticos, investigadores y pioneros tecnológicos, , ven en el desarrollo descontrolado de sistemas de IA sobrehumanos riesgos significativos.
«Superinteligencia» se refiere a sistemas de IA hipotéticos que superan a los humanos en prácticamente todas las tareas cognitivas. . Esto las diferencia de la Inteligencia Artificial General (AGI), que posee habilidades similares a las humanas, y de la Inteligencia Artificial Superior (ASI), que va más allá. La iniciativa actual recuerda a la , que exigía una interrupción en el desarrollo de modelos de IA muy grandes., , que exigía una interrupción en el desarrollo de modelos de IA muy grandes.
Antecedentes y análisis
Los organizadores han presentado hoy una explicación concisa de 30 palabras explicación de 30 palabras publicación: «Hacemos un llamado a la prohibición del desarrollo de la Superinteligencia, que no se levantará hasta que exista un amplio consenso científico de que se hará de forma segura y controlable, y una amplia aceptación pública.» Esta declaración está respaldada por AP, Reuters und dem Guardian Se informa de forma consistente. Entre los signatarios prominentes figuran, además del Príncipe Harry y Meghan, los pioneros de la IA Geoffrey Hinton und Yoshua Bengio, , cofundador de Apple, Steve Wozniak, Richard Branson, así como voces políticas como Susan Rice. Es notable la diversidad política de los apoyos, que también Steve Bannon und Glenn Beck incluye.
El llamamiento se dirige expresamente al desarrollo de «Superinteligencia» y no a aplicaciones útiles y limitadas de IA. La idea estratégica detrás de un «alto hasta nuevo aviso» es frenar un la carrera por sistemas sobrehumanos para frenar, , lo que podría diluir los incentivos para la seguridad. Una prohibición pública, condicionada a criterios como el consenso científico y una amplia aceptación, debería ralentizar esta carrera y hacer que la política asuma la responsabilidad. El Future of Life Institute argumenta desde hace años que los riesgos existenciales deben ser regulados de forma sistemática, , similar a otras tecnologías de alto riesgo.
Las encuestas en Estados Unidos muestran una creciente preocupación pública: Pew y Gallup informan en 2025 de un claro apoyo a reglas más estrictas y pruebas de seguridad antes de la liberación de los sistemas de IA. Esto indica un amplio apoyo a medidas regulatorias.
Quelle: YouTube
La entrevista con Geoffrey Hinton (BBC Newsnight) proporciona información de fondo sobre por qué los principales investigadores consideran la Superinteligencia como una clase de riesgo especial.

Quelle: youtube.com
La visión de la Inteligencia Artificial Superior (ASI) — un concepto que provoca tanto fascinación como preocupación.
Controversias y reacciones
La convocatoria para prohibir la Superinteligencia está respaldada: existe una amplia convocatoria, , para prohibir el desarrollo de la Superinteligencia hasta que se cumplan condiciones estrictas. La La formulación de 30 palabras está documentada públicamente y es confirmada por grandes agencias de noticias como AP, Reuters y The Guardian.
Sin embargo, no está claro cuán cercana está la Superinteligencia desde el punto de vista técnico. Los especialistas discrepan en este tema; muchos ven grandes incertidumbres en las trayectorias y plazos de desarrollo. . Sería engañoso interpretar la convocatoria como una prohibición general de IA. Más bien aborda un objetivo específico – sistemas que superan a las personas en casi todas las tareas cognitivas – y vincula la retirada explícitamente a condiciones de seguridad y aprobación.

Quelle: alamy.de
La señal de prohibición simboliza las demandas de un moratorio o de una prohibición completa del desarrollo de IA superinteligente.
Los sectores tecnológicos y los gobiernos advierten en parte que paros radicales podrían poner en peligro la innovación y la competitividad. Reuters señala la resistencia a moratorias en la política y la industria. . Otras voces enfatizan que la ASI podría aún estar lejana y que la regulación convencional, como la Reglamento de IA de la UE, , establece un marco suficiente. La Reglamento de IA de la UE, ya define prácticas prohibidas y regula aplicaciones de alto riesgo, pero no ofrece una prohibición explícita de la Superinteligencia.
Prácticamente, la discusión se desplaza de '¿Qué tan rápido podemos avanzar?' a '¿Bajo qué condiciones podemos hacerlo?'. Para Europa es relevante que la Regulación de IA de la UE ya define prácticas prohibidas (p. ej., puntuación social) y regula estrictamente las aplicaciones de alto riesgo; es un mecanismo de gobernanza listo, pero no una prohibición explícita de la Superinteligencia. Para la clasificación, es importante revisar siempre los Texto original de la convocatoria a revisar y prestar atención a términos precisos (AGI vs. ASI). Las fuentes confiables sobre estados de regulación son páginas de la UE y grandes agencias de noticias.
Quelle: YouTube
La Conferencia de Max Tegmark ofrece una buena introducción a las oportunidades, riesgos e ideas de gobernanza en torno a la Superinteligencia.

Quelle: nexperts.ai
El rápido desarrollo de la IA conduce a un futuro cuya complejidad e impactos aún no son completamente previsibles.
Preguntas abiertas y conclusiones
Quedan preguntas abiertas: ¿Quién define operativamente a partir de qué punto se considera que un desarrollo es una «Superinteligencia»? Sin métricas fiables y auditorías independientes sería difícil hacer cumplir una prohibición. ¿Qué instituciones tendrían mandato y recursos para hacer cumplirla, a nivel nacional, europeo, global? Aquí, regímenes existentes como la Reglamento de IA de la UE Puntos de conexión, pero no hay una regla especial de ASI definitiva. Y, por último: ¿Qué tan grande es la distancia real hasta tales sistemas? La evaluación de la la cercanía temporal sigue siendo discutible.
El llamado mundial a detener la IA superinteligente es una señal política con una condición clara: primero seguridad y aprobación, luego desarrollo. . Para ustedes eso significa: presten atención a términos precisos, verifiquen fuentes primarias y comparen los llamados con marcos jurídicos existentes como la Reglamento de IA de la UE. . Así permanecerán capaces de actuar en el debate, más allá del hype y el alarmismo, como Reuters y The Guardian informan.