Quito Verifica: ¿Cómo detectar contenido generado por inteligencia artificial?

Quito (Quito Informa). – La inteligencia artificial (IA) ha permitido apoyar las actividades en distintos trabajos, proyectos y la vida cotidiana, sin embargo, cuando se utiliza sin escrúpulos y con el objetivo de manipular la opinión ciudadana puede causar daño y confusiones.

¿Qué es un deepfake?

Un deepfake es un archivo de audio, imagen o vídeo que se genera con inteligencia artificial (IA) que imita la apariencia y el sonido de una persona real. A diferencia de un montaje tradicional, la IA aprende gestos, tono de voz y las expresiones para crear contenido que esa persona nunca dijo o hizo.

Entre los tipos más utilizados de deepfake están: el intercambio de rostros, clonación de voz y sincronización de labios, a eso se suma la generación de imágenes con IA.

Esta forma de engaño se convirtió en una forma de desinformación masiva. Según el Foro Económico Mundial, la desinformación que genera la IA es un riesgo global número uno a corto plazo, ya que tiene la capacidad de influir en la ciudadanía y los procesos electorales y políticos.

Puede interesarle: Quito: macrooperativos liderados por el Municipio dejan tres locales clausurados y más de 400 personas registradas

¿Cómo identificar este contenido?

Es muy importante que los usuarios verifiquen las fuentes y se hagan preguntas como: quién creó este contenido? ¿la cuenta que lo subió es verificada y confiable? ¿hay otras versiones sobre esta noticia? La IA, aunque imita de forma muy convincente las voces de periodistas o actores políticos, también muestra voces monótonas, gente que no parpadea y sombras o bordes extraños en las imágenes.

Algunos ejemplos

Esta práctica no es nueva. En 2024, unas horas antes de las elecciones parlamentarias de Eslovaquia se viralizó un audio hecho por IA donde el líder del partido progresista decía que subiría los impuestos a la cerveza y haría fraude en las elecciones.

En 2025, para las elecciones primarias en Estados Unidos, ciudadanos recibieron llamadas automáticas generadas por IA con la voz del expresidente Joe Biden pidiendo que se queden en casa en lugar de ir a votar. En Irlanda se crearon deepfakes antes de las elecciones presidenciales en los que el candidato favorito anunciaba su renuncia de la contienda.

En el plano social, se utilizan a famosos como Tom Cruise o Brad Pitt apelando a las emociones de la gente y estafándolos por miles de dólares con vídeos y audios.

En Ecuador también es un ejercicio habitual, en especial para las estafas. El 10 de marzo empezó a circular en redes sociales, un vídeo de un presentador de noticias generado por inteligencia artificial donde se promocionaba una falsa plataforma de inversión. A eso se suman vídeos y fotos generados con IA de actores políticos.

En el caso de Quito, el pasado 13 de marzo, apareció un deepfake con las voces de un periodista y el alcalde de Quito, Pabel Muñoz, en el que se hablaba de presiones a la AMC sobre colaboraciones a los establecimientos para financiar una campaña electoral.