Altman advierte sobre el abuso de la IA

Avatar
Lisa Ernst · 26.10.2025 · Técnica · 5 min

Las advertencias de Sam Altman sobre el abuso de la IA, que primero interpreté como una precaución típica de un CEO, han resultado ser reales gracias a ejemplos concretos y a las respuestas de las autoridades. En este explicativo se explica a qué se advierte exactamente, qué ha ocurrido de forma comprobada y qué mecanismos de protección ya están en funcionamiento.

Introducción

Sam Altman, director de OpenAI, advierte sobre una inminente ola de fraude mediante clones de voz y deepfakes potenciados por IA, especialmente en el sector financiero y alrededor de las elecciones ( apnews.com). ). Al mismo tiempo, exige regulación y contramedidas técnicas, como mayor transparencia sobre contenidos de IA ( apnews.com; openai.com). ). Este artículo aclara qué está respaldado por evidencia y qué sigue sin estar claro.

¿Qué es el abuso de IA?

Con el abuso de IA se refiere a aplicaciones que engañan, dañan o perturban procesos democráticos. Esto ocurre, por ejemplo, mediante videos y audios deepfake o textos falsos generados automáticamente ( reuters.com). ). La clonación de voz se refiere a la reproducción sintética de una voz a partir de unas pocas muestras de audio. Voiceprinting, la autenticación por huella de voz, es hoy fácil de engañar ( apnews.com). ). Los deepfakes son medios artificiales que parecen realistas, que inducen a personas a decir o hacer cosas que nunca ocurrieron ( securityconference.org). ). Para contrarrestar, se espera que pruebas de origen como firmas C2PA ayuden, es decir, metadatos criptográficos sobre la procedencia del contenido ( openai.com; c2pa.org).

Estado actual y incidentes

Sam Altman expresa su preocupación por posibles casos de abuso de la IA.

Quelle: nzz.ch

Sam Altman expresa su preocupación por posibles casos de abuso de la IA.

En mayo de 2023, Altman declaró ante el Senado de EE. UU. y se expresó a favor de una supervisión estatal o internacional sobre modelos de IA particularmente poderosos ( congress.gov; youtube.com). ). En febrero de 2024 advirtió en Dubái sobre desajustes sociales muy sutiles que, sin mala intención, podrían causar un gran daño, y volvió a proponer una especie de supervisión similar a la de la IAEA para la IA ( apnews.com).

También en febrero de 2024, más de 20 compañías tecnológicas, entre ellas OpenAI, Microsoft, Google, Meta y TikTok, firmaron en la Conferencia de Seguridad de Múnich un acuerdo contra contenidos electorales engañosos de IA ( securityconference.org; news.microsoft.com).

Tras una llamada robocall de IA Deepfake, que tenía como objetivo disuadir a los votantes en New Hampshire en enero de 2024 de participar en las urnas, la FCC declaró expresamente ilegales las voces de IA en llamadas automáticas ( apnews.com; docs.fcc.gov).

OpenAI publicó entre 2024 y 2025 varios informes situacionales sobre casos de abuso frustrados, entre ellos actores con afinidad estatal de Rusia, China, Irán y Corea del Norte. Se enfatiza que los LLMs allí sirvieron principalmente como aceleradores de métodos existentes ( openai.com; cdn.openai.com; microsoft.com; reuters.com).

El 22 de julio de 2025, Altman advirtió en una conferencia del Banco de la Reserva Federal de EE. UU. sobre una inminente crisis de fraude en el sector bancario debido a clones de voz de IA y criticó que algunas instituciones todavía acepten huellas vocales como autenticación ( apnews.com).

Análisis y motivos

Sam Altman exige con urgencia regulaciones y medidas de protección ante los riesgos del abuso de IA.

Quelle: watson.ch

Sam Altman exige con urgencia regulaciones y medidas de protección ante los riesgos del abuso de IA.

Sam Altman advierte por varias razones sobre el abuso de la IA. En primer lugar, muestran incidentes reales, desde deepfakes electorales hasta fraude con clonación de voz, que amplían el ámbito de abuso y crean presión para que las plataformas y los gobiernos actúen ( apnews.com; apnews.com). ). En segundo lugar, un deseo de regulación articulado temprano puede generar confianza y anticipar intervenciones duras sin frenar por completo la innovación ( apnews.com). ). En tercer lugar, la industria intenta establecer estándares a través de compromisos voluntarios como el Acuerdo de Múnich, antes de que existan reglas vinculantes a nivel mundial ( securityconference.org; news.microsoft.com).

Al mismo tiempo, el mercado está sobrecalentado; el propio Altman llamó recientemente a la IA una burbuja, lo que muestra la tensión entre llamamientos a la seguridad y los planes de inversión masivos ( theverge.com).

Quelle: YouTube

El clip ofrece las declaraciones originales de Altman ante el Senado de EE. UU. en su contexto completo.

Hechos y desinformación

Un hombre y una mujer están sentados en sillas, rodeados por la bandera de Estados Unidos y la bandera del Sistema de la Reserva Federal.

Quelle: user-added

Un hombre y una mujer están sentados en sillas, rodeados por la bandera de Estados Unidos y la bandera del Sistema de la Reserva Federal.

Está probado que las llamadas robocall con clonación de voz por IA en EE. UU. son ilegales; la FCC dejó claro en 2024 que este tipo de llamadas están sujetas a la prohibición de Robocalls ( docs.fcc.gov; apnews.com). También está probado el reproche directo de Altman a la autenticación por huella de voz y su advertencia sobre una inminente ola de fraude en la banca ( apnews.com). OpenAI prohíbe campañas políticas, bots de engaño y contenidos que dificulten la participación electoral ( openai.com).

No está claro cuán grande es el daño adicional por el abuso de LLM frente a métodos clásicos; OpenAI/Microsoft informan en su mayoría de un impulso de productividad de tácticas ya conocidas, no de habilidades ofensivas completamente nuevas ( microsoft.com; openai.com).

La afirmación de que las llamadas robocall con IA son legales hasta que lleguen nuevas leyes no es correcta para EE. UU.; la FCC ya aplica la ley existente (TCPA) a voces IA ( docs.fcc.gov). También es engañoso suponer que la industria no hace nada; existen compromisos voluntarios y medidas técnicas, aunque su alcance sea limitado ( securityconference.org; openai.com).

Impacto y recomendaciones

Para usuarios: no dependan de reconocimiento de voz para transacciones bancarias; prefieran confirmaciones fuera de banda robustas (por ejemplo, aprobaciones en la app o tokens de hardware). Señales de alerta en llamadas: presión de tiempo, rutas de pago inusuales, nuevos métodos de seguridad solo por teléfono; ante la duda, cuelguen y llamen de forma oficial. apnews.com).

Para la alfabetización informacional: verifiquen la fuente ante clips de audio/video inesperados, busquen evidencia contraria y presten atención a indicios de origen (C2PA) y a fuentes primarias confiables como AP/Reuters ( apnews.com; reuters.com). ). OpenAI dirige las preguntas electorales hacia información oficial; en la UE, por ejemplo, hacia elections.europa.eu openai.com; elections.europa.eu).

Quelle: YouTube

Preguntas abiertas

¿Qué tan rápido reemplazarán los bancos los arriesgados métodos de huella de voz por métodos multifactor robustos? ¿Existen estadísticas internacionales fiables sobre la magnitud del fraude por clonación de voces y sus daños financieros? ¿Qué tan efectivos son los estándares de procedencia en la práctica cuando los contenidos están fuertemente editados o re-codificados ( openai.com)? ¿Qué regulación sigue a acuerdos voluntarios, por ejemplo leyes contra publicidad electoral engañosa de IA como el Protect Elections from Deceptive AI Act en EE. UU. ( govtrack.us)?

Conclusión

Las advertencias de Altman sobre el abuso de la IA no son miedos abstractos al futuro, sino que se basan en casos reales, viabilidad técnica y lagunas visibles en procesos, desde el entorno electoral hasta la banca ( apnews.com; apnews.com). ). Existen palancas efectivas: prohibiciones claras, mejor autenticación, pruebas de origen y reglas transparentes de las plataformas ( docs.fcc.gov; securityconference.org; openai.com). ). Lo crucial es aplicarlas de manera consistente y hacernos a todos capaces de detectar engaños a tiempo.

Teilen Sie doch unseren Beitrag!