Divieto dell'IA superintelligente: una necessità?
Un nuovo appello, firmato da un ampio fronte di figure dei media, politici, ricercatori e pionieri della tecnologia, chiede un divieto allo sviluppo di «Superintelligenza», finché sicurezza e consenso democratico non siano garantiti. Questo impulso, che oggi, il 22 ottobre 2025, sta facendo il giro del mondo, solleva importanti domande e rialimenta le precedenti discussioni sulla regolamentazione dell'Intelligenza Artificiale.
Introduzione
Il dibattito sul futuro dell'Intelligenza Artificiale (IA) raggiunge un nuovo livello di attenzione. Un ampio fronte, tra cui Principe Harry e Meghan, , chiede un moratorio per lo sviluppo di cosiddette «Superintelligenza». Questo appello, pubblicato oggi, il 22 ottobre 2025, richiede che lo sviluppo sia interrotto finché la sicurezza e il consenso democratico siano garantiti. I firmatari, tra cui anche Figure dei media, politici, ricercatori e pionieri della tecnologia, , vedono nei sistemi di IA sovrumani in sviluppo incontrollato rischi significativi.
«Superintelligenza» indica sistemi di IA ipotetici che superano gli esseri umani in praticamente ogni compito cognitivo. . Questo le differenzia dall'Intelligenza Artificiale Generale (AGI), che possiede capacità simili a quelle umane, e dall'Intelligenza Artificiale Superintelligente (IAS), che va oltre. L'attuale impulso ricorda l Appello di sospensione del Future of Life Institute (FLI) del 2023, , che chiedeva una sospensione nello sviluppo di modelli di IA estremamente grandi.
Contesto e analisi
Gli organizzatori hanno oggi una breve Spiegazione in 30 parole pubblicata: «Chiediamo una proibizione dello sviluppo della superintelligenza, non sollevata finché non vi sia un ampio consenso scientifico che garantisca che sia fatto in modo sicuro e controllabile, e un forte consenso pubblico.» Questa dichiarazione è riportata in modo coerente. Tra i firmatari di spicco figurano, oltre a Principe Harry e Meghan, anche i pionieri dell'IA AP, Reuters und dem Guardian viene riferita in modo coerente. Tra i firmatari di spicco figurano oltre a Principe Harry e Meghan anche i pionieri dell'IA Geoffrey Hinton und Yoshua Bengio, , co-fondatore di Apple Steve Wozniak, Richard Branson, nonché voci politiche come Susan Rice. È notevole la varietà politica dei sostenitori che includono anche Steve Bannon und Glenn Beck inclusi.
L'appello è esplicitamente rivolto allo sviluppo di «Superintelligenza» e non ad applicazioni di IA utili e limitate. L'idea strategica dietro uno «Stop finché non ci sarà consenso» è quella di creare un freno alla corsa verso sistemi sovrumani, , che potrebbe attenuare gli incentivi per la sicurezza. Un divieto pubblico, collegato a condizioni come consenso scientifico e ampia accettazione, dovrebbe rallentare questa corsa e responsabilizzare la politica. Il Future of Life Institute sostiene da anni che i rischi esistenziali devono essere regolamentati in modo sistematico, , analogamente ad altre tecnologie ad alto rischio.
Sondaggi negli Stati Uniti mostrano una crescente preoccupazione pubblica: Pew e Gallup riportano nel 2025 una chiara tendenza a favore di regole più rigide e test di sicurezza prima della messa in commercio di sistemi IA. Questo indica un ampio sostegno a misure regolatorie.
Quelle: YouTube
L'intervista Intervista con Geoffrey Hinton (BBC Newsnight) fornisce informazioni di contesto sul perché i principali ricercatori considerino la Superintelligenza una particolare classe di rischio.

Quelle: youtube.com
La visione della Superintelligenza Artificiale (ASI) – un concetto che suscita sia fascino che preoccupazione.
Controversie e reazioni
L'appello al divieto di Superintelligenza è documentato: esiste un appello ampiamente sostenuto, , per vietare lo sviluppo di Superintelligenza finché non siano soddisfatte condizioni rigorose. Il La formulazione in 30 parole è pubblicamente documentata e viene confermata da grandi agenzie di stampa come AP, Reuters e The Guardian.
Tuttavia resta incerto quanto sia tecnicamente vicina la Superintelligenza. Gli esperti discordano su questa questione; molti vedono grandi incertezze nei percorsi di sviluppo e nei tempi. . Sarebbe fuorviante interpretare l'appello come un generico «divieto di IA». Esso indirizza invece una obiettivo specifico – sistemi che superano gli esseri umani in quasi tutti i compiti cognitivi – e collega la revoca esplicita a condizioni di sicurezza e di consenso.

Quelle: alamy.de
Il cartello del divieto simboleggia le richieste di un moratorium o di un divieto completo dello sviluppo di IA superintelligente.
I settori tecnologici e i governi avvertono in parte che fermate radicali potrebbero mettere a rischio innovazione e competitività. Reuters segnala resistenze ai moratori in politica e nell'industria. . Altri hanno sottolineato che l'ASI potrebbe essere ancora lontana e che una regolamentazione normale, come la Regolamento UE sull'IA, , che stabilisce un quadro adeguato. Il Regolamento UE sull'IA, definisce già pratiche vietate e regola le applicazioni ad alto rischio, ma non offre un divieto esplicito di Superintelligenza.
Praticamente si sposta la discussione da «Quanto velocemente possiamo farlo?» a «In quali condizioni ce lo è consentito fare?». Per l'Europa è rilevante che il Regolamento UE sull'IA definisca già pratiche vietate (ad es. Social Scoring) e regoli severamente le applicazioni ad alto rischio – un meccanismo di governance già pronto, ma non esiste un divieto esplicito di Superintelligenza. Per l'inquadramento è importante controllare sempre il testo originale dell'appello e fare attenzione ai termini precisi (AGI vs ASI). Fonti affidabili sullo stato della regolamentazione sono le pagine UE e grandi organizzazioni di notizie. Testo originale dell'appello da verificare e fare attenzione a termini precisi (AGI vs ASI). Fonti affidabili sullo stato della regolamentazione sono pagine UE e grandi organizzazioni di notizie.
Quelle: YouTube
Il Intervento di Max Tegmark fornisce una buona introduzione alle opportunità, ai rischi e alle idee di governance riguardo alla Superintelligenza.

Quelle: nexperts.ai
Lo sviluppo rapido dell'IA ci sta conducendo verso un futuro la cui complessità e le conseguenze non sono ancora pienamente prevedibili.
Domande aperte e conclusioni
Rimangono domande aperte: chi definisce operativamente quando uno sviluppo è una «Superintelligenza»? Senza metriche affidabili e audit indipendenti sarebbe difficile attuare un divieto. Quali istituzioni avrebbero il mandato e le risorse per l'attuazione – a livello nazionale, europeo, globale? Qui i regimi esistenti come la Regolamento UE sull'IA punti di riferimento, ma nessuna regola speciale definitiva sull'ASI. E infine: quanto è reale la distanza verso tali sistemi? La valutazione della prossimità temporale rimane controversa.
L'appello globale al fermo delle IA superintelligenti è un segnale politico con una chiara condizione: prima la sicurezza e il consenso, poi lo sviluppo ulteriore. . Per voi significa: fate attenzione ai termini precisi, verificate le fonti primarie e confrontate gli appelli con i quadri giuridici esistenti come la Regolamento UE sull'IA. . Così resterete in grado di muovervi nella discussione – al di là dell'hype e dell'allarmismo, come riportano Reuters e The Guardian riportano.