Trump, IA y Charlie Kirk

Avatar
Lisa Ernst · 17.09.2025 · Tecnología · 5 min

La discusión sobre la agenda de IA de Trump, el experimento de chatbot de Truth Social y los videos de IA tras la muerte de Charlie Kirk se ha intensificado en los últimos días. La nueva política de IA de Trump marca enfoques distintos a los de la administración anterior; Truth Social está probando su propio chatbot de búsqueda de IA, y tras el asesinato de Charlie Kirk circulan clips generados por IA en las redes sociales. Este texto ofrece un resumen de hechos, datos y posiciones verificados para facilitar una comprensión rápida de los puntos asegurados, controvertidos y relevantes.

Política de IA de Trump

Desde enero de 2025, el gobierno de EE. UU. bajo el presidente Donald Trump está implementando una nueva línea de IA. Con la Orden Ejecutiva del 23 de enero de 2025 se eliminaron las anteriores directrices de la administración anterior y se inició un giro hacia una "línea de liderazgo en IA estadounidense". El 10 de julio de 2025 siguió la publicación de "Plan de Acción de IA de América" (America’s AI Action Plan), que detalla las prioridades políticas. El 23 de julio de 2025 Trump suscribió tres decretos centrales de IA, incluido "Previniendo IA woke en el Gobierno Federal". Este decreto obliga a los proveedores a evitar o divulgar la parcialidad ideológica de sus chatbots en contratos gubernamentales. Una Ficha informativa de la Casa Blanca y informes de AP News explican los detalles.

Chatbot IA de Truth Social

Paralelamente, la plataforma Truth Social de Trump experimenta con su propio chatbot de búsqueda de IA ("Truth Search AI"), basado en Perplexity. Las primeras pruebas mostraron que el bot a veces da respuestas que contradicen las declaraciones de Trump, por ejemplo sobre las elecciones de 2020 o sobre aranceles, como reportó Washington Post. Wired respalda que hay un filtrado fuerte hacia dominios conservadores; Perplexity documenta abiertamente el filtrado de dominios técnicamente posible en su documentación.

Un tuit viral que muestra supuestamente un video generado por IA de Donald Trump provocó amplias discusiones sobre la autenticidad de los medios digitales.

Quelle: fastcompany.com

Un tuit viral que muestra supuestamente un video generado por IA de Donald Trump provocó amplias discusiones sobre la autenticidad de los medios digitales.

La muerte de Charlie Kirk y la IA

Charlie Kirk fue fundador de Turning Point USA (TPUSA), una organización juvenil conservadora. A lo largo de los años moldeó el movimiento MAGA y ayudó a movilizar a votantes jóvenes conservadores, como señalan análisis de PBS, ABC News y The Guardian a describir. El 10 de septiembre de 2025, Kirk fue asesinado durante un evento en la Utah Valley University; su muerte y las investigaciones dominaron las noticias desde entonces, según Reuters. A partir del 14 de septiembre de 2025 circularon clips posmortem generados por IA, en los que una voz sintética de Kirk transmite mensajes de consuelo y de llamados a la acción. The Daily Beast documentó ejemplos y el efecto viral, especialmente en TikTok y X.

La Debata sobre contenidos generados por IA alcanzó un punto máximo cuando un video de Donald Trump que involucraba a Charlie Kirk causó revuelo.

Quelle: en.newsner.com

La Debata sobre contenidos generados por IA alcanzó un punto máximo cuando un video de Donald Trump que involucraba a Charlie Kirk causó revuelo.

Debates y Críticas

Los defensores de la nueva línea de IA sostienen que el Estado debe adquirir IA neutral, no ideológicamente "dirigida"; los desarrolladores deben revelar directrices. Este es el núcleo de la Orden Ejecutiva "Prevención de IA woke" del 23 de julio de 2025. Fortune y AP News señalan que la industria en general ve con buenos ojos este modelo de "divulgación" en lugar de prohibición, pero advierten riesgos cuando la política y el choque cultural intervienen en el control de los modelos.

Los críticos advierten que la Neutralidad ideológica es difícil de medir, y enmarcar políticamente podría llevar a la autocensura o a la ilusión de objetividad. AP destaca que los grandes modelos de lenguaje (LLMs) traen sesgos inherentes de los datos de entrenamiento y que la "neutralidad" no es un simple interruptor. Una definición básica de qué son los LLMs y por qué tienden al sesgo la ofrece Wikipedia.

En el chatbot "Truth Search AI" la discusión se enciende por el filtrado de fuentes: The Washington Post señala contradicciones con las tesis de Trump, Wired respalda que hay un filtrado fuerte hacia dominios conservadores; Perplexity documenta abiertamente el filtrado de dominios técnicamente posible en su documentación.

En el debate ético, los clips de IA “desde más allá de la tumba” alrededor de Charlie Kirk plantean preguntas: ¿Puede una voz sintética de una persona real, fallecida recientemente, usarse masivamente para la movilización? El fenómeno está documentado; The Daily Beast lo mostró. En esencia, estos videos se entienden como “deepfakes”, contenidos mediáticos generados por IA que imitan de forma extremadamente real a las personas, como lo explica Wikipedia.

Impacto y perspectivas

La combinación “trump ai charlie kirk” está de moda por varias razones: en primer lugar, los Decretos de julio desplazan claramente el foco de la política de IA de EE. UU., lo cual es relevante de inmediato para agencias, adquisiciones y proveedores. En segundo lugar, un ecosistema presidenciado está probando cuán lejos se puede curar las respuestas sin perder credibilidad—una prueba de estrés para la transparencia, la amplitud de fuentes y la tolerancia a errores, como reportaron Wired y la Washington Post. En tercer lugar, el shock por el asesinato de Kirk muestra cuán rápido las herramientas de IA pueden influir en el duelo, la movilización y también la desinformación, como documentaron TIME y The Daily Beast.

Para plataformas y medios, esto implica que la etiquetación, el contexto y la moderación ganarán importancia. YouTube, por ejemplo, presentó en 2025 nuevas funciones de Transparencia de IA que buscan identificar mejor contenidos generados por IA. Para el público, esto significa: verificar fuentes, reconocer patrones y tener cuidado cuando los contenidos sintéticos disparan emociones de manera especialmente intensa.

Para la política y la administración, el camino por delante se resume en tres puntos: primero, operacionalizar claramente los criterios de adquisición para que la “neutralidad” no se quede en una palabra vacía, como muestra la Orden Ejecutiva "Prevención de IA woke" del 23 de julio de 2025. Segundo, diseñar auditoría y divulgación para que la innovación no se frene, pero que se hagan visibles la manipulación y los filtros ocultos, como analizó Fortune. Tercero, normar el manejo societal de las reconstrucciones de IA póstumas: qué es respetuoso, qué es engañoso. La ola actual sobre Kirk demuestra la urgencia, como señaló The Daily Beast.

Quelle: <p>Donald Trump y Charlie Kirk en una aparición conjunta, mucho antes de que las controversias sobre contenidos generados por IA centraran la atención en su relación.</p>

Quelle: YouTube

Quelle: YouTube

El triángulo entre política, producto y público permanece: la política establece incentivos y límites, los productos los operacionalizan en código e interfaces, y el público decide con su comportamiento qué contenidos obtienen alcance. Las próximas semanas dirán si los decretos gubernamentales se traducen en reglas claras de adquisición, si “Truth Search AI” aumenta o continúa la amplitud de sus fuentes, y si las plataformas etiquetan con mayor rigor los clips IA póstumos. Para el público, esto significa: revisar con serenidad, buscar fuentes primarias y tomar las contradicciones como una oportunidad para aprender.

Para profundizar en la agenda oficial de IA, encuentra la Hoja de hechos de la Casa Blanca y el Documento de Acción de IA de América; además, vale la pena la interpretación de la prensa económica, como Fortune informó. Para contexto sobre el papel de Kirk y las consecuencias de su muerte, ayudan los dossiers de PBS, Reuters y TIME.

Teilen Sie doch unseren Beitrag!