Sora: Likeness-Schutz & historische Personen
OpenAI hat die Generierung von Videos, die Martin Luther King Jr. ähneln, pausiert. Dies geschah nach Beschwerden seines Nachlasses und wirft Fragen zu den Grenzen generativer Video-KI bei historischen Personen und Deepfakes auf. Dieser Artikel beleuchtet den aktuellen Stand, erklärt zentrale Begriffe und zeigt auf, wie Inhalte besser eingeordnet werden können.
Einführung & Kontext
Sora ist OpenAIs KI-System zur Text-zu-Video- und Video-zu-Video-Erzeugung. Die aktuelle Generation, Sora 2, ist in der Sora-App nutzbar. Mit „Likeness“ ist die Erkennbarkeit einer Person gemeint – Name, Bild, Stimme oder charakteristische Merkmale, die jemanden identifizierbar machen. Dies ist insbesondere im Kontext des Right of Publicity relevant. Cameos sind ein Opt-in-Mechanismus in Sora, der es Personen ermöglicht, die Nutzung ihrer eigenen Identität in Videos explizit zu erlauben und diese Freigaben jederzeit zu entziehen. Details dazu finden sich in den Hilfestellungen von OpenAI. OpenAI blockiert das Hochladen von Bildern realer Personen in Sora. Die Nutzung einer Person erfolgt – abseits historischer Figuren – nur über Cameos mit Einwilligung, wie OpenAI erklärt. „Deepfake-Prävention“ umfasst technische und organisatorische Maßnahmen wie Wasserzeichen, Herkunftsnachweise (C2PA) und Erkennungswerkzeuge, wie im Sicherheitsbericht von OpenAI beschrieben.
Aktueller Stand & Reaktionen
OpenAI hat am 16./17. Oktober 2025 angekündigt, Sora-Generationen, die Martin Luther King Jr. ähneln, zu pausieren und zusätzliche Schutzmaßnahmen zu implementieren. Anlass waren „respektlose Darstellungen“ und eine Bitte des King-Nachlasses. Die Ankündigung verweist auf einen Beitrag des offiziellen OpenAI-Newsroom-Accounts, wonach autorisierte Vertreter oder Nachlassverwalter beantragen können, dass ihre Likeness in Sora nicht genutzt wird. Hintergrund sind Berichte über umstrittene Sora-Clips, die verstorbene Persönlichkeiten respektlos darstellten und zu öffentlichen Protesten von Familienangehörigen führten, wie die Washington Post berichtete. Parallel betont OpenAI im Sicherheitspapier „Launching Sora responsibly“ unter anderem C2PA-Metadaten für alle Videos, sichtbare Wasserzeichen und interne Rückwärtssuche, sowie Maßnahmen gegen Darstellungen öffentlicher Personen – außer bei Einwilligung per Cameo. Auch Hollywood-Verbände und Agenturen kritisieren Soras Umgang mit Likeness- und IP-Rechten und fordern stärkere Kontrollen und Kompensation, wie die Los Angeles Times berichtete.
Quelle: YouTube
Der Clip zeigt die Funktionsweise und Möglichkeiten von Sora 2 – hilfreich, um die Attraktivität und potenzielle Risiken realistischer Generierungen zu verstehen.
Analyse & Implikationen
OpenAI navigiert zwischen Meinungsfreiheit (z. B. legitime künstlerische oder journalistische Nutzung historischer Figuren), Persönlichkeitsrechten (z. B. Nachlassinteressen) und Plattformrisiken (Meme-Ökonomie, virale Fehl- oder Hassdarstellungen), wie die Washington Post analysierte. Die MLK-Pause setzt ein sichtbares Signal: Vorrang für Persönlichkeits- und Pietätsrechte gegenüber viralem Wachstum, flankiert von Technikschutz (C2PA, Wasserzeichen) und Governance (Cameo-Opt-ins, Takedowns), wie im Sicherheitsbericht von OpenAI dargelegt. Gleichzeitig steht Sora im Wettstreit mit Plattform- und Unterhaltungsökonomien, in denen Aufmerksamkeit und IP-Lizenzen harte Währungen sind. Entsprechend fordern Studios Transparenz, Opt-in-Standards und Revenue-Sharing-Modelle, wie die Los Angeles Times berichtete.
Faktencheck: Belege vs. Behauptungen
Belegt: OpenAI pausiert MLK-ähnliche Sora-Videos nach Beschwerden des Nachlasses und implementiert zusätzliche Schutzmaßnahmen, wie TechCrunch berichtete.
Belegt: Sora nutzt C2PA-Metadaten und sichtbare Wasserzeichen; Darstellungen öffentlicher Personen werden grundsätzlich blockiert, es sei denn über Cameos mit Einwilligung, wie im Sicherheitsbericht von OpenAI beschrieben.
Belegt: Cameos sind ein Opt-in samt Kontrolle/Entzug durch die betroffene Person; Uploads mit realen Personen werden blockiert, wie in den Sora-Hilfen und weiteren Informationen von OpenAI nachzulesen ist.
Unklar: Wie breit „historische Figuren“ heute praktisch freigeschaltet sind bzw. ab wann „kürzlich verstorben“ greift; OpenAI kommuniziert hier keine präzise Definition, wie die Washington Post feststellte.
Unklar: Wie schnell und konsistent Takedowns, Opt-outs und Nachlass-Anträge systemweit wirken, wie TechCrunch anmerkte.
Falsch/Irreführend: „Sora erlaubt jedem, beliebige Fotos realer Menschen hochzuladen.“ – Uploads mit realen Personen sind blockiert; Likeness-Nutzung läuft über Cameos mit Einwilligung, wie OpenAI klarstellt.
Falsch/Irreführend: „C2PA löst Deepfakes endgültig.“ – C2PA schafft Herkunftsnachweis, kann aber entfernt werden und ist noch nicht überall implementiert, wie OpenAI und The Verge berichteten.
Falsch/Irreführend: „Historische Personen sind rechtlich immer frei nutzbar.“ – Rechte am eigenen Bild/Right of Publicity können post mortem fortwirken (z. B. CA §3344.1; NY §50-f; Georgia case law) und sind kontextabhängig.
Reaktionen & Gegenpositionen
Der King-Nachlass und Familien anderer Verstorbener kritisieren respektlose Darstellungen und fordern Schutz vor „synthetischer Wiederauferstehung“, wie die Washington Post berichtete. Hollywood-Studios und Agenturen verlangen klare Opt-ins, Vergütung und stärkere Moderation, wie die Los Angeles Times festhielt. Zugleich gibt es Gegenbeispiele: Einzelne Prominente erlauben bewusst die Nutzung ihrer Likeness – teils an Bedingungen geknüpft – und werten Sora als Marketing- oder Community-Experiment, wie Business Insider berichtete.
Quelle: YouTube
Der Überblick zu Content Credentials zeigt, wie Herkunftsnachweise praktisch funktionieren – hilfreich, um Echtheit und Bearbeitungshistorie zu prüfen.
Handlungsempfehlungen
Für Creator heißt das: Nutzt für reale Personen ausschließlich Cameos mit expliziter Einwilligung; respektiert Takedowns und Vorgaben in den Sora-Hilfen und weiteren Informationen. Prüft die Herkunft Eurer Medien mit Content Credentials/Verify-Tools und macht C2PA zu Eurem Standard – das hilft Euch und Eurem Publikum. In der EU gilt zudem: Deepfakes müssen klar als künstlich erzeugt/Manipulation gekennzeichnet sein (EU AI Act, Transparenzpflichten). Für DACH wichtig: Achtet auf Persönlichkeitsrechte/„Recht am eigenen Bild“ – in der Schweiz als Ausfluss von Art. 28 ZGB, in Deutschland insbesondere nach §§22, 23 KunstUrhG. Für Verstorbene variieren Post-Mortem-Rechte je nach US-Bundesstaat; im Zweifel rechtlich prüfen (Kalifornien, New York).

Quelle: viso.ai
Der technische Workflow von Sora: Von der Videoeingabe zur generierten Ausgabe.
Offene Fragen & Fazit
Wie eng definiert OpenAI „historische Figuren“ und „kürzlich verstorben“ – und gelten family opt-outs künftig generell für verstorbene Persönlichkeiten, wie die Washington Post fragte? Wie schnell und durchgängig greifen Takedowns/Opt-outs in App und Web, inklusive Re-Uploads, wie TechCrunch anmerkte? Wie wird die EU-Transparenzpflicht (Deepfake-Labeling) in Plattformen umgesetzt und durchgesetzt, gerade plattformübergreifend, wie der EU AI Act und The Verge diskutierten? Und wie harmonisieren internationale Rechtsräume Persönlichkeitsrechte, wenn Inhalte global geteilt werden, wie die DMLP und Right of Publicity Roadmap aufzeigen?

Quelle: techlade.vn
OpenAI schränkt die Erstellung von menschlichen Bildern durch Sora ein, um ethische Bedenken und Missbrauch zu vermeiden.
Die MLK-Pause in Sora markiert eine Zäsur: OpenAI räumt Persönlichkeits- und Pietätsrechten mehr Gewicht ein und verknüpft das mit technischen Herkunftsnachweisen und einem strikteren Opt-in-System, wie TechCrunch und der OpenAI-Sicherheitsbericht zeigen. Für Euch heißt das: Einwilligung organisieren (Cameos), Labeling und Content Credentials nutzen, nationale/europäische Pflichten beachten (EU AI Act) – und kritisch prüfen, was Ihr seht. So verbindet Ihr kreative Freiheit mit Respekt vor Menschen und ihren Rechten.

Quelle: user-added
OpenAI Sora: Eine neue Ära der Videogenerierung, die auch Fragen zum Umgang mit historischen Persönlichkeiten aufwirft.