Sora : Protection de la ressemblance et des personnes historiques
OpenAI a suspendu la génération de vidéos ressemblant à Martin Luther King Jr. Cela s'est produit après les plaintes de sa succession et soulève des questions sur les limites de l'IA de création vidéo générative pour les personnes historiques et les deepfakes. Cet article présente l'état actuel, explique les concepts clés et montre comment les contenus peuvent être mieux classés.
Introduction et contexte
Sora est le système d'IA d'OpenAI pour la génération texte-vers-vidéo et vidéo-vers-vidéo. La génération actuelle, Sora 2, La génération actuelle est utilisable dans l'application Sora. Par « Likeness », on entend la reconnaissance d'une personne — nom, image, voix ou traits distinctifs qui permettent de l'identifier. Cela est particulièrement pertinent dans le cadre du Right of Publicity Cela est pertinent. Les Cameos constituent un mécanisme d'opt-in dans Sora, qui permet aux personnes d'autoriser explicitement l'utilisation de leur identité dans des vidéos et de retirer ces autorisations à tout moment. Les détails se trouvent dans les Hilfestellungen von OpenAI. OpenAI bloque le téléchargement d'images de personnes réelles dans Sora. L'utilisation d'une personne – à l'exception des figures historiques – ne se fait que via des Cameos avec consentement, comme OpenAI erklärt. La « prévention des deepfakes » comprend des mesures techniques et organisationnelles telles que les filigranes, les preuves d'origine ( C2PA) ) et des outils de détection, tels que décrits dans le Sicherheitsbericht von OpenAI décrites.
État actuel et réactions
OpenAI a annoncé, le 16./17. Oktober 2025 OpenAI a annoncé qu'il mettrait en pause les Sora générations ressemblant à Martin Luther King Jr. et mettrait en œuvre des mesures de protection supplémentaires. Le motif était des « représentations irrespectueuses » et une demande de la succession King. L'annonce renvoie à un article de la offiziellen OpenAI-Newsroom-Accounts, Selon lequel des représentants autorisés ou des administrateurs de succession peuvent demander que leur ressemblance ne soit pas utilisée dans Sora. Le contexte est des rapports sur des clips Sora controversés qui représentaient des personnalités décédées de manière irrespectueuse et ont provoqué des protestations publiques de la part des proches, comme le rapporte le Washington Post berichtete. Parallèlement, OpenAI insiste dans le document de sécurité „Launching Sora responsibly“ notamment des métadonnées C2PA pour toutes les vidéos, des filigranes visibles et une recherche inversée interne, ainsi que des mesures contre les représentations de personnalités publiques – sauf avec consentement via Cameo. Les associations et agences d'Hollywood critiquent également la gestion par Sora des droits de ressemblance et de propriété intellectuelle et réclament des contrôles plus stricts et une compensation, comme le rapporte le Los Angeles Times rapportait.
Quelle: YouTube
Le clip montre le fonctionnement et les possibilités de Sora 2 – utile pour comprendre l'attrait et les risques potentiels des généralisations réalistes.
Analyse et implications
OpenAI navigue entre la liberté d'expression (par exemple utilisation légitime artistique ou journalistique de figures historiques), les droits à la personnalité (par exemple intérêts successoraux) et les risques des plateformes (économie des mèmes, représentations virales d'erreurs ou de haine), comme le Washington Post a analysé. La pause MLK envoie un signal clair : priorité aux droits à la personnalité et à la piété par rapport à la croissance virale, accompagnée par la protection technique (filigrane) et la gouvernance ( C2PA, ) et gouvernance ( Cameo-Opt-ins, Takedowns), Comme dans le Sicherheitsbericht von OpenAI exposé. En même temps, Sora est en concurrence avec les économies des plateformes et du divertissement, où l'attention et les licences IP sont des monnaies lourdes. Par conséquent, les studios exigent transparence, normes d'opt-in et des modèles de partage des revenus, comme le rapporte le Los Angeles Times Los Angeles Times a rapporté.
Vérification des faits : preuves vs affirmations
Établi : OpenAI met en pause les vidéos Sora ressemblant à MLK après les plaintes de la succession et met en œuvre des mesures de protection supplémentaires, telles que TechCrunch a rapporté.
Établi : Sora utilise des métadonnées C2PA et des filigranes visibles ; les représentations de personnalités publiques sont généralement bloquées, sauf via des Cameos avec consentement, comme décrit dans le Sicherheitsbericht von OpenAI décrites.
Établi : Les Cameos constituent une opt-in avec contrôle/retrait par la personne concernée ; les uploads de personnes réelles sont bloqués, comme dans les Sora-Hilfen et weiteren Informationen à lire chez OpenAI.
Incertitude : À quel point les « figures historiques » sont-elles aujourd'hui activées pratiquement et à partir de quand « récemment décédées » s'appliquent ; OpenAI ne communique pas ici une définition précise, telle que celle établie. Washington Post Incertitude :
Incertitude : Dans quelle mesure et avec quelle constance les retraits, opt-outs et les demandes de succession s'appliquent à l'échelle du système, comme TechCrunch il a noté.
Faux / Trompeur : « Sora permet à chacun de téléverser n'importe quelle photo de personnes réelles ». – Les uploads de personnes réelles sont bloqués; l'utilisation de la ressemblance passe par des Cameos avec consentement, comme OpenAI klarstellt.
Faux / Trompeur : « C2PA élimine définitivement les deepfakes. » – Le C2PA crée une preuve d'origine, mais peut être retiré et n'est pas encore déployé partout, comme OpenAI et The Verge rapportaient.
Faux / Trompeur : « Les personnes historiques sont juridiquement toujours libres d'utilisation. » – Les droits à l'image / droit à la publicity peuvent continuer après le décès (par ex. CA §3344.1; NY §50-f; Georgia case law) et dépendent du contexte.
Réactions et contre-positions
La succession King et les familles d'autres personnes décédées critiquent les représentations irrespectueuses et demandent une protection contre la « résurrection synthétique », comme le rapporte le Washington Post rapportait. Les studios hollywoodiens et les agences exigent des opt-ins clairs, une compensation et une modération plus stricte, comme le rapporte le Los Angeles Times Los Angeles Times festhielt. Il existe aussi des contre-exemples : certaines célébrités autorisent délibérément l'utilisation de leur ressemblance – parfois sous condition – et considèrent Sora comme une expérience marketing ou communautaire, comme Business Insider rapporté.
Quelle: YouTube
L'aperçu des conten credentials montre comment les preuves d'origine fonctionnent en pratique – utile pour vérifier l'authenticité et l'historique des modifications.
Recommandations
Pour les créateurs, cela signifie : n'utiliser pour les personnes réelles que des Cameos avec consentement explicite ; respectez les retraits et les exigences dans les Sora-Hilfen et weiteren Informationen. Vérifiez l'origine de vos médias avec Content Credentials/Verify-Tools et faites C2PA à votre standard – cela vous aide, vous et votre public. Dans l'UE, en outre : les deepfakes doivent être clairement étiquetés comme artificiels/manipulations ( EU AI Act, Transparenzpflichten). Important pour le DACH : respectez les droits à la personnalité / « droit à l'image » – en Suisse comme l'expression de Art. 28 ZGB, en Allemagne, notamment après §§22, 23 KunstUrhG. Pour les personnes décédées, les droits post-mortem varient selon l'État américain ; en cas de doute, vérifier légalement ( Kalifornien, New York).

Quelle: viso.ai
Le flux de travail technique de Sora : de l'entrée vidéo à la sortie générée.
Questions ouvertes et conclusion
À quel point OpenAI définit-il précisément « figures historiques » et « récemment décédées » – et les opt-outs familiaux s'appliqueront-ils désormais de manière générale aux personnalités décédées, comme le rapporte le Washington Post fragte? Quelle rapidité et cohérence les retraits/opt-outs s'appliquent dans l'app et le web, y compris les re-téléversements, comme TechCrunch anmerkte? Comment l'obligation européenne de transparence (étiquetage des deepfakes) est-elle mise en œuvre et appliquée sur les plateformes, notamment de manière inter-plateformes, comme le rapporte le EU AI Act et The Verge diskutierten? Et comment les espaces juridiques internationaux harmonisent les droits à la personnalité lorsque les contenus sont partagés mondialement, comme le rapporte le DMLP et Right of Publicity Roadmap aufzeigen?

Quelle: techlade.vn
OpenAI restreint la création d'images humaines par Sora pour éviter les préoccupations éthiques et les abus.
La pause MLK dans Sora marque une rupture : OpenAI accorde plus de poids aux droits à la personnalité et à la piété et les associe à des preuves d'origine techniques et à un système opt-in plus strict, comme TechCrunch et celui de OpenAI-Sicherheitsbericht zeigen. Pour vous : organiser le consentement ( Cameos), Labeling und Content Credentials utiliser, respecter les obligations nationales/européennes ( EU AI Act) ) – et examiner de manière critique ce que vous voyez. Ainsi, vous combinez liberté créative et respect des personnes et de leurs droits.

Quelle: user-added
OpenAI Sora : Une nouvelle ère de la génération vidéo, qui soulève également des questions sur le traitement des personnalités historiques.