Sora: Protección de la imagen y personas históricas
OpenAI ha pausado la generación de videos que se asemejen a Martin Luther King Jr. Esto ocurrió tras las quejas de su patrimonio y plantea preguntas sobre los límites de la IA de video generativa para personas históricas y deepfakes. Este artículo analiza la situación actual, explica conceptos clave y muestra cómo se pueden clasificar mejor los contenidos.
Introducción y contexto
Sora es el sistema de IA de OpenAI para la generación de texto a video y video a video. La generación actual, Sora 2, , es usable en la app Sora. Con “Likeness” se entiende la capacidad de reconocer a una persona – nombre, imagen, voz o rasgos característicos que la identifiquen. Esto es especialmente en el contexto del Right of Publicity relevante. Cameos son un mecanismo de opt-in en Sora que permite a las personas dar permiso explícito para el uso de su propia identidad en videos y revocar estas autorizaciones en cualquier momento. Detalles se encuentran en los Hilfestellungen von OpenAI. OpenAI bloquea la subida de imágenes de personas reales en Sora. El uso de una persona, aparte de figuras históricas, solo se realiza a través de Cameos con consentimiento, como OpenAI erklärt. «Prevención de deepfakes» incluye medidas técnicas y organizativas como marcas de agua, certificados de procedencia ( C2PA) ) y herramientas de detección, como se describe en el Sicherheitsbericht von OpenAI descrito.
Estado actual y reacciones
OpenAI anunció el 16./17. Oktober 2025 que pausaría las generaciones de Sora que se asemejen a Martin Luther King Jr. y que implementaría medidas de protección adicionales. La razón fueron “representaciones irrespetuosas” y una solicitud de la herencia de King. El anuncio hace referencia a una publicación de offiziellen OpenAI-Newsroom-Accounts, , según la cual representantes autorizados o albaceas pueden solicitar que su semejanza en Sora no sea utilizada. El trasfondo son informes sobre clips de Sora controvertidos que representaron a personas fallecidas de manera irrespetuosa y provocaron protestas públicas de familiares, como la Washington Post berichtete. Paralelamente, OpenAI enfatiza en el documento de seguridad „Launching Sora responsibly“ entre otras cosas, metadatos C2PA para todos los videos, marcas de agua visibles y búsqueda inversa interna, así como medidas contra representaciones de personas públicas, salvo cuando haya consentimiento mediante Cameo. También asociaciones y agencias de Hollywood critican el manejo de Sora de la likeness y de los derechos de propiedad intelectual (IP) y exigen controles más estrictos y compensación, como lo informó. Los Angeles Times informó.
Quelle: YouTube
El clip muestra el funcionamiento y las posibilidades de Sora 2 — útil para entender la atractividad y los riesgos potenciales de las generaciones realistas.
Análisis e implicaciones
OpenAI navega entre la libertad de expresión (p. ej., usos legítimos artísticos o periodísticos de figuras históricas), los derechos de la personalidad (p. ej., intereses de la herencia) y los riesgos de la plataforma (economía de memes, representaciones virales erróneas o de odio), como lo Washington Post analizó. La pausa MLK envía una señal clara: prioridad a los derechos de la personalidad y la dignidad sobre el crecimiento viral, respaldada por protección tecnológica ( C2PA, ) y gobernanza ( Cameo-Opt-ins, Takedowns), Como se explicó en Sicherheitsbericht von OpenAI Al mismo tiempo, Sora compite con economías de plataformas y entretenimiento, en las que la atención y las licencias de IP son moneda dura. En consecuencia, los estudios exigen transparencia, estándares de opt-in y modelos de reparto de ingresos, como lo Los Angeles Times Los Angeles Times informó.
Verificación de hechos: pruebas vs. afirmaciones
Constatado: OpenAI ha pausado videos de Sora que se asemejan a MLK tras las quejas de la herencia e implementa medidas de protección adicionales, como TechCrunch informó.
Constatado: Sora utiliza metadatos C2PA y marcas de agua visibles; las representaciones de personas públicas se bloquean en general, a menos que sea a través de cameos con consentimiento, como se indica en el Sicherheitsbericht von OpenAI descrito.
Constatado: Los cameos son un opt-in con control/revocación por la persona afectada; las subidas de personas reales se bloquean, como se indica en los Sora-Hilfen y weiteren Informationen de OpenAI se puede leer.
Desconocido: Qué tan ampliamente se habilitan hoy en día prácticamente las “figuras históricas” o a partir de cuándo se aplica la “fallecido recientemente”; OpenAI no comunica aquí una definición precisa de cómo la Washington Post determinó.
Desconocido: Qué tan rápido y de forma consistente funcionan a nivel de sistema las eliminaciones, opt-outs y solicitudes de herencia, como TechCrunch se señaló.
Falso/Engañoso: «Sora permite a cualquiera subir fotos arbitrarias de personas reales.» – Las subidas con personas reales están bloqueadas; el uso de la likeness se realiza a través de cameos con consentimiento, como OpenAI klarstellt.
Falso/Engañoso: «C2PA resuelve los deepfakes de forma definitiva.» – C2PA crea una prueba de procedencia, pero puede eliminarse y aún no está implementado en todas partes, como OpenAI y The Verge informaron.
Falso/Engañoso: «Las personas históricas siempre pueden utilizarse legalmente.» – Los derechos de imagen/Derecho a la publicidad pueden persistir después de la muerte (p. ej. CA §3344.1; NY §50-f; Georgia case law) y son dependientes del contexto.
Reacciones y posturas contrarias
La herencia de King y las familias de otros fallecidos critican representaciones irrespetuosas y exigen protección contra la “resurrección sintética”, como informó la Washington Post informó. Los Angeles Times Los Angeles Times festhielt. Al mismo tiempo existen contraejemplos: algunas celebridades permiten deliberadamente el uso de su likeness, a veces condicionadas, y ven a Sora como un experimento de marketing o comunidad, como Business Insider informó.
Quelle: YouTube
La visión general de las credenciales de contenido muestra cómo funcionan prácticamente los certificados de procedencia, útiles para verificar la autenticidad y la historia de edición.
Recomendaciones
Para creadores, eso significa: utilicen para personas reales exclusivamente cameos con consentimiento explícito; respeten las eliminaciones y directrices en los Sora-Hilfen y weiteren Informationen. Verificad el origen de vuestros medios con Content Credentials/Verify-Tools y haced C2PA a vuestro estándar – eso os ayuda a vosotros y a vuestro público. En la UE, además: los deepfakes deben estar claramente etiquetados como generados artificialmente/manipulación ( EU AI Act, Transparenzpflichten). Para la región DACH es importante: tengan en cuenta los derechos de la personalidad/«derecho a la propia imagen» – en Suiza como un efecto de Art. 28 ZGB, en Alemania especialmente después de §§22, 23 KunstUrhG. Para los fallecidos, los derechos póstumos varían según el estado; en caso de duda, consultar legalmente ( Kalifornien, New York).

Quelle: viso.ai
El flujo de trabajo técnico de Sora: De la entrada de video a la salida generada.
Preguntas abiertas y conclusiones
¿Qué tan estrictamente define OpenAI “figuras históricas” y “fallecidos recientemente” – y si las opt-outs familiares deberán aplicarse en el futuro de forma general para personalidades fallecidas, como la Washington Post fragte? Qué tan rápido y de forma consistente funcionan takedowns/opt-outs en la app y en la web, incluidas las re-cargas, como TechCrunch anmerkte? Cómo se aplica y hace cumplir la obligación de transparencia de la UE (etiquetado de deepfakes) en plataformas, especialmente de forma multiplataforma, como la EU AI Act y The Verge diskutierten? ¿Y cómo armonizan los marcos legales internacionales los derechos de personalidad cuando el contenido se comparte globalmente, como la DMLP y Right of Publicity Roadmap aufzeigen?

Quelle: techlade.vn
OpenAI restringe la creación de imágenes humanas mediante Sora para evitar preocupaciones éticas y abusos.
La pausa MLK en Sora marca una ruptura: OpenAI atribuye mayor peso a los derechos de la personalidad y de la dignidad y lo vincula con pruebas técnicas de procedencia y un sistema de opt-in más estricto, como TechCrunch y la OpenAI-Sicherheitsbericht zeigen. Para vosotros significa: organizar el consentimiento ( Cameos), Labeling und Content Credentials cumplir obligaciones nacionales/europeas ( EU AI Act) ) – y examinar críticamente lo que veis. Así combináis la libertad creativa con el respeto a las personas y sus derechos.

Quelle: user-added
OpenAI Sora: una nueva era de la generación de videos, que también plantea preguntas sobre el trato a las personas históricas.