Sora: Protezione della somiglianza e personaggi storici

Avatar
Lisa Ernst · 17.10.2025 · Tecnologia · 6 min

OpenAI ha sospeso la generazione di video che assomigliano a Martin Luther King Jr. Ciò è avvenuto in seguito a reclami del suo patrimonio e solleva interrogativi sui limiti dell'IA video generativa per personaggi storici e deepfake. Questo articolo illustra lo stato attuale, spiega i concetti chiave e mostra come i contenuti possono essere meglio classificati.

Introduzione e contesto

Sora è il sistema di IA di OpenAI per la generazione da testo a video e da video a video. La generazione attuale, Sora 2, , è utilizzabile nell'app Sora. Con "somiglianza" si intende la riconoscibilità di una persona – nome, immagine, voce o caratteristiche distintive che rendono qualcuno identificabile. Ciò è particolarmente rilevante nel contesto del Right of Publicity rilevante. I Cameo sono un meccanismo di opt-in in Sora che consente alle persone di autorizzare esplicitamente l'uso della propria identità nei video e di revocare tale consenso in qualsiasi momento. I dettagli si trovano nelle Hilfestellungen von OpenAI. OpenAI blocca il caricamento di immagini di persone reali in Sora. L'uso di una persona – oltre ai personaggi storici – avviene solo tramite Cameo con consenso, come OpenAI erklärt. La „prevenzione dei deepfake“ include misure tecniche e organizzative come filigrane, prove di origine ( C2PA) ) e strumenti di rilevamento, come descritto nel Sicherheitsbericht von OpenAI descritto.

Stato attuale e reazioni

OpenAI ha annunciato il 16./17. Oktober 2025 di sospendere le generazioni di Sora che assomigliano a Martin Luther King Jr. e di implementare ulteriori misure di protezione. La ragione erano le "rappresentazioni irrispettose" e una richiesta del patrimonio di King. L'annuncio fa riferimento a un contributo del offiziellen OpenAI-Newsroom-Accounts, , secondo cui i rappresentanti autorizzati o gli amministratori del patrimonio possono richiedere che la loro somiglianza non venga utilizzata in Sora. Lo sfondo sono i rapporti su clip Sora controverse che ritraevano personalità defunte in modo irrispettoso e hanno portato a proteste pubbliche da parte dei familiari, come il Washington Post berichtete. Parallelamente, OpenAI sottolinea nel documento sulla sicurezza „Launching Sora responsibly“ tra l'altro, metadati C2PA per tutti i video, filigrane visibili e ricerca inversa interna, nonché misure contro le rappresentazioni di personaggi pubblici – tranne per consenso tramite Cameo. Anche associazioni e agenzie di Hollywood criticano la gestione da parte di Sora della somiglianza e dei diritti di proprietà intellettuale (IP) e chiedono controlli più rigorosi e compensazioni, come ha riferito il Los Angeles Times riportato.

Quelle: YouTube

La clip mostra il funzionamento e le possibilità di Sora 2 – utile per comprendere l'attrattiva e i potenziali rischi delle generazioni realistiche.

Analisi e implicazioni

OpenAI naviga tra la libertà di espressione (ad esempio, l'uso artistico o giornalistico legittimo di figure storiche), i diritti della personalità (ad esempio, gli interessi del patrimonio) e i rischi della piattaforma (economia dei meme, rappresentazioni virali errate o di odio), come ha analizzato il Washington Post analizzato. La pausa MLK stabilisce un segnale visibile: priorità ai diritti della personalità e della pietà rispetto alla crescita virale, affiancata da protezione tecnica ( C2PA, filigrane) e governance ( Cameo-Opt-ins, Takedowns), ) presentato come nel Sicherheitsbericht von OpenAI presentato. Allo stesso tempo, Sora è in competizione con le economie delle piattaforme e dell'intrattenimento, dove l'attenzione e le licenze IP sono valute forti. Di conseguenza, gli studi chiedono trasparenza, standard opt-in e modelli di condivisione dei ricavi, come ha riferito il Los Angeles Times Los Angeles Times riportato.

Fact-checking: Prove vs. affermazioni

Provato: OpenAI sospende i video Sora simili a MLK dopo reclami del patrimonio e implementa ulteriori misure di protezione, come ha riferito il TechCrunch riportato.

Provato: Sora utilizza metadati C2PA e filigrane visibili; le rappresentazioni di personaggi pubblici sono fondamentalmente bloccate, a meno che non avvenga tramite Cameo con consenso, come descritto nel Sicherheitsbericht von OpenAI descritto.

Provato: I Cameo sono un opt-in con controllo/revoca da parte della persona interessata; i caricamenti con persone reali sono bloccati, come si può leggere nelle Sora-Hilfen e weiteren Informationen di OpenAI.

Non chiaro: Quanto sono sbloccate in pratica le "figure storiche" oggi o da quando si applica "recentemente defunto"; OpenAI non comunica una definizione precisa qui, come ha rilevato il Washington Post rilevato.

Non chiaro: Quanto rapidamente e coerentemente i Takedown, gli Opt-out e le richieste di patrimonio funzionano a livello di sistema, come ha osservato il TechCrunch osservato.

Falso/Ingannevole: “Sora permette a chiunque di caricare foto di persone reali a piacere.” – I caricamenti con persone reali sono bloccati; l'uso della somiglianza avviene tramite Cameo con consenso, come OpenAI klarstellt.

Falso/Ingannevole: “C2PA risolve i deepfake definitivamente.” – C2PA crea una prova di origine, ma può essere rimossa e non è ancora implementata ovunque, come hanno riferito il OpenAI e The Verge riportato.

Falso/Ingannevole: “Le persone storiche sono sempre liberamente utilizzabili legalmente.” – I diritti sull'immagine propria/Right of Publicity possono perdurare post mortem (ad esempio, negli CA §3344.1; NY §50-f; Georgia case law) e dipendono dal contesto.

Reazioni e contropiedi

Il patrimonio di King e le famiglie di altri defunti criticano le rappresentazioni irrispettose e chiedono protezione dalla "resurrezione sintetica", come ha riferito il Washington Post riportato. Gli studi di Hollywood e le agenzie richiedono opt-in chiari, compensazione e moderazione più rigorosa, come il Los Angeles Times Los Angeles Times festhielt. Allo stesso tempo, ci sono esempi contrari: singole celebrità autorizzano consapevolmente l'uso della loro somiglianza – a volte con condizioni – e valutano Sora come un esperimento di marketing o di comunità, come ha riferito Business Insider riportato.

Quelle: YouTube

La panoramica su Content Credentials mostra come le prove di origine funzionano in pratica – utili per verificare l'autenticità e la storia delle modifiche.

Raccomandazioni per l'azione

Per i creatori significa: Utilizzate per le persone reali esclusivamente Cameo con consenso esplicito; rispettate i Takedown e le direttive nelle Sora-Hilfen e weiteren Informationen. Verificate l'origine dei Vostri media con Content Credentials/Verify-Tools e fate del C2PA il Vostro standard – questo aiuta Voi e il Vostro pubblico. Inoltre, nell'UE vale: I deepfake devono essere chiaramente etichettati come creati artificialmente/manipolazione ( EU AI Act, Transparenzpflichten). Importante per DACH: Prestate attenzione ai diritti della personalità/"Diritto all'immagine propria" – in Svizzera come derivato dell' Art. 28 ZGB, in Germania in particolare dopo §§22, 23 KunstUrhG. Per i defunti, i diritti post-mortem variano a seconda dello stato federale USA; in caso di dubbio, verificare legalmente ( Kalifornien, New York).

Il flusso di lavoro tecnico di Sora: dall'input video all'output generato.

Quelle: viso.ai

Il flusso di lavoro tecnico di Sora: dall'input video all'output generato.

Domande aperte e conclusione

Quanto strettamente definisce OpenAI "figure storiche" e "recentemente defunto" – e gli opt-out familiari si applicheranno in futuro in generale alle personalità defunte, come ha analizzato il Washington Post fragte? Quanto rapidamente e costantemente i Takedown/Opt-out funzionano nell'app e nel web, inclusi i re-upload, come ha notato il TechCrunch anmerkte? Come viene attuato e applicato l'obbligo di trasparenza dell'UE (Deepfake-Labeling) nelle piattaforme, soprattutto a livello interpiattaforma, come il EU AI Act e The Verge diskutierten? E come armonizzano gli spazi legali internazionali i diritti della personalità, quando i contenuti vengono condivisi globalmente, come il DMLP e Right of Publicity Roadmap aufzeigen?

OpenAI limita la creazione di immagini umane tramite Sora per evitare preoccupazioni etiche e abusi.

Quelle: techlade.vn

OpenAI limita la creazione di immagini umane tramite Sora per evitare preoccupazioni etiche e abusi.

La pausa MLK in Sora segna un punto di svolta: OpenAI attribuisce maggiore importanza ai diritti della personalità e della pietà e lo collega a prove di origine tecniche e a un sistema di opt-in più rigoroso, come il TechCrunch e il OpenAI-Sicherheitsbericht zeigen. Per Voi significa: Organizzare il consenso ( Cameos), Labeling und Content Credentials usare, rispettare gli obblighi nazionali/europei ( EU AI Act) ) – e esaminare criticamente ciò che vedete. Così collegate la libertà creativa con il rispetto per le persone e i loro diritti.

OpenAI Sora: Una nuova era della generazione video che solleva anche domande sulla gestione delle personalità storiche.

Quelle: user-added

OpenAI Sora: Una nuova era della generazione video che solleva anche domande sulla gestione delle personalità storiche.

Teilen Sie doch unseren Beitrag!