Sora: Protezione della somiglianza e personaggi storici
OpenAI ha sospeso la generazione di video che assomigliano a Martin Luther King Jr. Ciò è avvenuto in seguito a reclami del suo patrimonio e solleva interrogativi sui limiti dell'IA video generativa per personaggi storici e deepfake. Questo articolo illustra lo stato attuale, spiega i concetti chiave e mostra come i contenuti possono essere meglio classificati.
Introduzione e contesto
Sora è il sistema di IA di OpenAI per la generazione da testo a video e da video a video. La generazione attuale, Sora 2, , è utilizzabile nell'app Sora. Con "somiglianza" si intende la riconoscibilità di una persona – nome, immagine, voce o caratteristiche distintive che rendono qualcuno identificabile. Ciò è particolarmente rilevante nel contesto del Right of Publicity rilevante. I Cameo sono un meccanismo di opt-in in Sora che consente alle persone di autorizzare esplicitamente l'uso della propria identità nei video e di revocare tale consenso in qualsiasi momento. I dettagli si trovano nelle Hilfestellungen von OpenAI. OpenAI blocca il caricamento di immagini di persone reali in Sora. L'uso di una persona – oltre ai personaggi storici – avviene solo tramite Cameo con consenso, come OpenAI erklärt. La „prevenzione dei deepfake“ include misure tecniche e organizzative come filigrane, prove di origine ( C2PA) ) e strumenti di rilevamento, come descritto nel Sicherheitsbericht von OpenAI descritto.
Stato attuale e reazioni
OpenAI ha annunciato il 16./17. Oktober 2025 di sospendere le generazioni di Sora che assomigliano a Martin Luther King Jr. e di implementare ulteriori misure di protezione. La ragione erano le "rappresentazioni irrispettose" e una richiesta del patrimonio di King. L'annuncio fa riferimento a un contributo del offiziellen OpenAI-Newsroom-Accounts, , secondo cui i rappresentanti autorizzati o gli amministratori del patrimonio possono richiedere che la loro somiglianza non venga utilizzata in Sora. Lo sfondo sono i rapporti su clip Sora controverse che ritraevano personalità defunte in modo irrispettoso e hanno portato a proteste pubbliche da parte dei familiari, come il Washington Post berichtete. Parallelamente, OpenAI sottolinea nel documento sulla sicurezza „Launching Sora responsibly“ tra l'altro, metadati C2PA per tutti i video, filigrane visibili e ricerca inversa interna, nonché misure contro le rappresentazioni di personaggi pubblici – tranne per consenso tramite Cameo. Anche associazioni e agenzie di Hollywood criticano la gestione da parte di Sora della somiglianza e dei diritti di proprietà intellettuale (IP) e chiedono controlli più rigorosi e compensazioni, come ha riferito il Los Angeles Times riportato.
Quelle: YouTube
La clip mostra il funzionamento e le possibilità di Sora 2 – utile per comprendere l'attrattiva e i potenziali rischi delle generazioni realistiche.
Analisi e implicazioni
OpenAI naviga tra la libertà di espressione (ad esempio, l'uso artistico o giornalistico legittimo di figure storiche), i diritti della personalità (ad esempio, gli interessi del patrimonio) e i rischi della piattaforma (economia dei meme, rappresentazioni virali errate o di odio), come ha analizzato il Washington Post analizzato. La pausa MLK stabilisce un segnale visibile: priorità ai diritti della personalità e della pietà rispetto alla crescita virale, affiancata da protezione tecnica ( C2PA, filigrane) e governance ( Cameo-Opt-ins, Takedowns), ) presentato come nel Sicherheitsbericht von OpenAI presentato. Allo stesso tempo, Sora è in competizione con le economie delle piattaforme e dell'intrattenimento, dove l'attenzione e le licenze IP sono valute forti. Di conseguenza, gli studi chiedono trasparenza, standard opt-in e modelli di condivisione dei ricavi, come ha riferito il Los Angeles Times Los Angeles Times riportato.
Fact-checking: Prove vs. affermazioni
Provato: OpenAI sospende i video Sora simili a MLK dopo reclami del patrimonio e implementa ulteriori misure di protezione, come ha riferito il TechCrunch riportato.
Provato: Sora utilizza metadati C2PA e filigrane visibili; le rappresentazioni di personaggi pubblici sono fondamentalmente bloccate, a meno che non avvenga tramite Cameo con consenso, come descritto nel Sicherheitsbericht von OpenAI descritto.
Provato: I Cameo sono un opt-in con controllo/revoca da parte della persona interessata; i caricamenti con persone reali sono bloccati, come si può leggere nelle Sora-Hilfen e weiteren Informationen di OpenAI.
Non chiaro: Quanto sono sbloccate in pratica le "figure storiche" oggi o da quando si applica "recentemente defunto"; OpenAI non comunica una definizione precisa qui, come ha rilevato il Washington Post rilevato.
Non chiaro: Quanto rapidamente e coerentemente i Takedown, gli Opt-out e le richieste di patrimonio funzionano a livello di sistema, come ha osservato il TechCrunch osservato.
Falso/Ingannevole: “Sora permette a chiunque di caricare foto di persone reali a piacere.” – I caricamenti con persone reali sono bloccati; l'uso della somiglianza avviene tramite Cameo con consenso, come OpenAI klarstellt.
Falso/Ingannevole: “C2PA risolve i deepfake definitivamente.” – C2PA crea una prova di origine, ma può essere rimossa e non è ancora implementata ovunque, come hanno riferito il OpenAI e The Verge riportato.
Falso/Ingannevole: “Le persone storiche sono sempre liberamente utilizzabili legalmente.” – I diritti sull'immagine propria/Right of Publicity possono perdurare post mortem (ad esempio, negli CA §3344.1; NY §50-f; Georgia case law) e dipendono dal contesto.
Reazioni e contropiedi
Il patrimonio di King e le famiglie di altri defunti criticano le rappresentazioni irrispettose e chiedono protezione dalla "resurrezione sintetica", come ha riferito il Washington Post riportato. Gli studi di Hollywood e le agenzie richiedono opt-in chiari, compensazione e moderazione più rigorosa, come il Los Angeles Times Los Angeles Times festhielt. Allo stesso tempo, ci sono esempi contrari: singole celebrità autorizzano consapevolmente l'uso della loro somiglianza – a volte con condizioni – e valutano Sora come un esperimento di marketing o di comunità, come ha riferito Business Insider riportato.
Quelle: YouTube
La panoramica su Content Credentials mostra come le prove di origine funzionano in pratica – utili per verificare l'autenticità e la storia delle modifiche.
Raccomandazioni per l'azione
Per i creatori significa: Utilizzate per le persone reali esclusivamente Cameo con consenso esplicito; rispettate i Takedown e le direttive nelle Sora-Hilfen e weiteren Informationen. Verificate l'origine dei Vostri media con Content Credentials/Verify-Tools e fate del C2PA il Vostro standard – questo aiuta Voi e il Vostro pubblico. Inoltre, nell'UE vale: I deepfake devono essere chiaramente etichettati come creati artificialmente/manipolazione ( EU AI Act, Transparenzpflichten). Importante per DACH: Prestate attenzione ai diritti della personalità/"Diritto all'immagine propria" – in Svizzera come derivato dell' Art. 28 ZGB, in Germania in particolare dopo §§22, 23 KunstUrhG. Per i defunti, i diritti post-mortem variano a seconda dello stato federale USA; in caso di dubbio, verificare legalmente ( Kalifornien, New York).

Quelle: viso.ai
Il flusso di lavoro tecnico di Sora: dall'input video all'output generato.
Domande aperte e conclusione
Quanto strettamente definisce OpenAI "figure storiche" e "recentemente defunto" – e gli opt-out familiari si applicheranno in futuro in generale alle personalità defunte, come ha analizzato il Washington Post fragte? Quanto rapidamente e costantemente i Takedown/Opt-out funzionano nell'app e nel web, inclusi i re-upload, come ha notato il TechCrunch anmerkte? Come viene attuato e applicato l'obbligo di trasparenza dell'UE (Deepfake-Labeling) nelle piattaforme, soprattutto a livello interpiattaforma, come il EU AI Act e The Verge diskutierten? E come armonizzano gli spazi legali internazionali i diritti della personalità, quando i contenuti vengono condivisi globalmente, come il DMLP e Right of Publicity Roadmap aufzeigen?

Quelle: techlade.vn
OpenAI limita la creazione di immagini umane tramite Sora per evitare preoccupazioni etiche e abusi.
La pausa MLK in Sora segna un punto di svolta: OpenAI attribuisce maggiore importanza ai diritti della personalità e della pietà e lo collega a prove di origine tecniche e a un sistema di opt-in più rigoroso, come il TechCrunch e il OpenAI-Sicherheitsbericht zeigen. Per Voi significa: Organizzare il consenso ( Cameos), Labeling und Content Credentials usare, rispettare gli obblighi nazionali/europei ( EU AI Act) ) – e esaminare criticamente ciò che vedete. Così collegate la libertà creativa con il rispetto per le persone e i loro diritti.

Quelle: user-added
OpenAI Sora: Una nuova era della generazione video che solleva anche domande sulla gestione delle personalità storiche.