robot de la enciclopedia para niños

Deepfake para niños

Enciclopedia para niños

Los deepfakes son imágenes, videos o audios que se crean o modifican usando herramientas de inteligencia artificial. La palabra "deepfake" viene de "aprendizaje profundo" (deep learning) y "falso" (fake). Pueden mostrar a personas reales diciendo o haciendo cosas que nunca ocurrieron, o incluso crear personas que no existen. Son un tipo de contenido digital generado por computadora.

Aunque crear contenido falso no es algo nuevo, los deepfakes usan de forma especial la tecnología de aprendizaje automático e inteligencia artificial. Esto incluye algoritmos que reconocen caras y sistemas como las redes generativas adversativas (GANs). Los deepfakes han llamado mucho la atención por cómo podrían usarse para crear noticias falsas, estafas, molestias y fraude.

Expertos y gobiernos están preocupados por el uso de los deepfakes para difundir información incorrecta, mensajes de odio o para influir en elecciones. Por eso, la industria tecnológica y los gobiernos están buscando formas de detectarlos y limitar su uso.

Desde el entretenimiento hasta los videojuegos, la tecnología deepfake ha mejorado mucho, volviéndose más convincente y accesible. Esto está cambiando la forma en que se producen los contenidos en el cine y los medios de comunicación.

¿Qué son los deepfakes y cómo funcionan?

Origen de los deepfakes

Antes de que existieran los deepfakes como los conocemos hoy, ya había obras que buscaban engañar a través de imágenes y sonidos. Un ejemplo famoso es la emisión de radio "La guerra de los mundos" de Orson Welles en 1938. Aunque se avisó que era ficción, muchas personas creyeron que una invasión extraterrestre estaba ocurriendo, causando pánico.

Otro ejemplo antiguo es un retrato del presidente de Estados Unidos, Abraham Lincoln, de 1865. En él, la cara de Lincoln fue puesta sobre el cuerpo de otra persona en una imagen anterior. Esto muestra que la idea de manipular imágenes no es nueva.

El antecedente más cercano a los deepfakes modernos fue el programa "Video Rewrite" creado en 1997. Este programa fue el primero en modificar las imágenes de un video para que una persona pareciera decir palabras diferentes a las originales, usando una pista de audio distinta. Fue el primer sistema en conectar los sonidos con los movimientos de la cara usando aprendizaje automático.

¿Cómo se crean los deepfakes?

Los deepfakes usan algoritmos especiales llamados Redes Generativas Antagónicas (RGAs). Funcionan con dos modelos de inteligencia artificial que compiten entre sí:

  • El primer modelo recibe muchas imágenes o videos de una persona y empieza a crear imágenes falsas.
  • El segundo modelo intenta detectar cuáles de esas imágenes son falsas.

Este proceso se repite una y otra vez. El primer modelo sigue mejorando hasta que logra crear una imagen tan buena que el segundo modelo no puede darse cuenta de que es falsa.

Por eso, es más fácil crear deepfakes de personas famosas. Como hay muchísimas fotos y videos de ellas, la inteligencia artificial tiene mucho material para "aprender" y crear imágenes falsas muy convincentes.

¿Cómo se detectan los deepfakes?

Actualmente, las técnicas para identificar deepfakes son bastante buenas, con una precisión de alrededor del 86.6%. Sin embargo, se busca que en el futuro puedan ser casi perfectas, con un 99% de seguridad. Aquí te explicamos algunos métodos:

Análisis de metadatos

Los metadatos son información oculta en los archivos multimedia, como el tipo de cámara que se usó, la fecha de creación o los programas de edición. Al revisar estos datos, se puede saber si una imagen ha sido modificada. Aunque los metadatos se pueden cambiar, muchos archivos aún muestran qué programas se usaron para editarlos, lo que ayuda a identificar manipulaciones.

Análisis del nivel de error (ELA)

Las imágenes, especialmente las JPG, pierden información cuando se comprimen. Las imágenes editadas suelen tener áreas con diferentes niveles de "artefactos de compresión" (pequeñas imperfecciones), porque han pasado por varios procesos de compresión. Esto puede ser una señal de que la imagen fue alterada.

Identificación de errores visuales

Los deepfakes a menudo tienen pequeños fallos visuales que pueden ser difíciles de notar a simple vista:

  • Inconsistencia en la fusión: A veces, la unión de diferentes imágenes no es perfecta. Por ejemplo, un ojo podría tener un color ligeramente diferente al otro.
  • Iluminación imprecisa: Si se combinan varias imágenes con luces distintas, la imagen final puede tener sombras o brillos que no coinciden, haciendo que la iluminación se vea extraña.
  • Errores geométricos: Puede haber fallos en la forma de las caras o figuras humanas, como bordes muy marcados o manchas alrededor de la nariz, la cara o las cejas.
  • Estructura facial: Los deepfakes a veces tienen errores en la estructura de las caras porque reemplazan partes del rostro original con imágenes generadas. Como cada persona tiene una cara única, la tecnología puede no alinear todos los puntos de referencia correctamente.

Además, los videos creados artificialmente a veces se ven "demasiado perfectos", sin las pequeñas imperfecciones que tienen los videos grabados en la vida real. También se están desarrollando algoritmos que pueden detectar el flujo de sangre en las personas que aparecen en los videos, algo que los deepfakes aún no pueden simular perfectamente.

Detección en audios

Detectar audios deepfake es más difícil cuanto más cortos son. La calidad del sonido de la voz y del fondo también influye. Cuanto más clara sea la grabación de la voz y menos ruido de fondo tenga, más fácil será identificar si es falsa.

Los ordenadores son mejores que los humanos para identificar audios deepfake. Cada segundo de voz contiene miles de datos que una computadora puede analizar para verificar su autenticidad. Por ejemplo, la velocidad a la que una persona pronuncia ciertos sonidos o cómo se distinguen los sonidos "fricativos" (como la "s" o la "f"), que son difíciles de simular para los sistemas de inteligencia artificial. También, los deepfakes de audio a veces tienen momentos donde la voz se aleja del micrófono más de lo normal.

Usos positivos de los deepfakes

Aunque los deepfakes a menudo se usan con malas intenciones, también tienen aplicaciones útiles en varios campos.

En el cine

La tecnología deepfake puede ser muy útil en la producción de películas:

  • Si un actor pierde la voz durante un rodaje, se podría simular su voz con audios deepfake para no detener la producción.
  • Se pueden corregir errores en escenas durante la edición, modificando el rostro o los movimientos de una persona.
  • Incluso se podría hacer que actores fallecidos "aparezcan" en nuevas películas o crear doblajes automáticos en cualquier idioma. Esto ya se ha empezado a experimentar y ha ayudado a mejorar el realismo en películas de animación y efectos especiales.

En la educación

Un ejemplo interesante es la exposición de arte "Dalí Lives" en el Museo Dalí de San Petersburgo, Florida, creada en 2019. Usando deepfake, se "revivió" al famoso pintor Salvador Dalí. Se usaron miles de fotos y horas de aprendizaje automático para que la inteligencia artificial reprodujera su rostro y expresiones. Un actor imitó sus movimientos y un doblador su voz. Lo más sorprendente es que este "Dalí" virtual puede interactuar con el público, responder preguntas y hasta tomarse una "selfie" con los visitantes.

Otro uso educativo podría ser la traducción automática e instantánea de conferencias en línea. Al modificar las expresiones faciales y los movimientos de la boca del orador para que coincidan con el audio traducido, se mejora la experiencia del espectador y su concentración.

En el ámbito social

Se ha pensado en usar deepfakes para ayudar a las personas a superar la pérdida de seres queridos, permitiendo una "despedida" virtual. También podría ayudar a personas con Alzheimer a interactuar con rostros jóvenes que recuerden de su pasado.

Para personas que han perdido la voz debido a una enfermedad, se podría recrear su voz para que puedan comunicarse verbalmente. Un ejemplo es el crítico de cine Roger Ebert, quien, tras perder su voz por cáncer, logró recuperarla con la ayuda de la tecnología deepfake.

En el mundo empresarial

En el comercio electrónico, los deepfakes podrían permitir a los usuarios "probarse" ropa en línea usando un personaje virtual creado con sus propias medidas y rostro. Esto sería muy útil para las compras por internet.

En los videojuegos, el audio deepfake ha mejorado mucho el realismo, permitiendo que los personajes hablen de forma muy natural y en tiempo real, a diferencia de las voces más robóticas de antes.

Peligros y preocupaciones de los deepfakes

La precisión de los deepfakes mejora constantemente, haciendo cada vez más difícil distinguir lo real de lo falso. Es más fácil difundir información falsa que verificar la verdadera. Esto genera una crisis de confianza en la información, a veces llamada "infopocalipsis". Las personas, al ver tanta información engañosa, pueden empezar a dudar de todo y rechazar verdades simplemente porque no quieren creerlas.

Los periodistas tienen un papel clave en verificar la autenticidad de los hechos y videos. Algunos medios de comunicación ya están capacitando a sus reporteros para detectar deepfakes. Es difícil identificarlos porque parten de imágenes reales, pueden tener audio casi auténtico y se difunden muy rápido en las redes sociales. Estas redes son el lugar perfecto para que se propaguen rumores y desinformación.

Con la llegada del audio deepfake, la seguridad en las llamadas telefónicas se ha vuelto más importante. Los criminales podrían usar voces clonadas para hacerse pasar por otras personas y robar dinero o contraseñas. Aunque la voz por teléfono puede sonar distorsionada, la diferencia entre una voz real y una falsa será cada vez más difícil de notar.

Los deepfakes también pueden usarse para dañar la reputación de las personas. Por ejemplo, crear un video falso de un político en una situación comprometedora y difundirlo. Aunque algunos puedan darse cuenta de que es falso, el daño a la imagen pública ya se habría hecho.

A pesar de estos peligros, es probable que con el tiempo las personas se acostumbren a los deepfakes y aprendan a diferenciar la realidad de la ficción, como ya ha ocurrido con la publicidad, donde los consumidores saben que las imágenes de los anuncios suelen estar muy editadas.

Impacto en los medios

Cine

En la película Rogue One: una historia de Star Wars, la actriz Ingvild Deila interpretó a la Princesa Leia, pero su cara no apareció. Gracias a técnicas similares a las de los deepfakes, se pudo ver una versión joven de Carrie Fisher (la actriz original), aunque ella ya tenía casi 60 años en ese momento. Estas técnicas también se usaron después de que Carrie Fisher falleciera durante el rodaje. El mundo del cine debate sobre cómo usar esta tecnología de forma ética. En Youtube hay canales que muestran el poder de estos programas aplicando deepfakes en películas populares, por ejemplo, cambiando la cara de un actor por la de otro.

Política

Los deepfakes también se han usado para intentar dañar la imagen de políticos. En 2018, el actor Jordan Peele publicó un video donde falsificaba un discurso del expresidente Barack Obama para mostrar los peligros de esta tecnología. Desde entonces, ha habido más videos de este tipo, como uno en 2019 que ponía la cara del presidente Donald Trump sobre la actuación de un comediante.

Con la cercanía de elecciones, el debate sobre los deepfakes y la falsificación de contenido audiovisual ha aumentado. Algunos políticos han comparado esta tecnología con las armas nucleares del siglo XXI. En Estados Unidos, se han realizado audiencias para discutir los riesgos que los deepfakes representan para la política del país.

En 2022, durante la invasión rusa a Ucrania, se difundieron comunicados falsos del presidente ucraniano Volodímir Zelenski sobre la rendición del país, creados con deepfakes.

Deepfake malware

El DeepfakeMalware es un tipo de programa informático dañino que usa la tecnología de inteligencia artificial para manipular imágenes y videos. Crea representaciones muy convincentes pero falsas de personas, situaciones o eventos con fines maliciosos, como difundir información falsa, cometer fraudes o espiar en internet.

Este tipo de malware puede manipular la opinión pública creando historias falsas que son difíciles de detectar, por ejemplo, durante un período de elecciones. La desinformación que causa puede generar pánico y confusión. Otro uso es para obtener dinero de forma ilegal. Los atacantes pueden hacerse pasar por ejecutivos importantes para convencer a empleados de transferir fondos a cuentas fraudulentas. En el ciberespionaje, pueden crear deepfakes de personas con acceso a información secreta para robar datos valiosos o entrar en sistemas.

El DeepfakeMalware es un riesgo creciente para la seguridad en internet que puede causar mucho daño a personas y empresas. Si se detecta, es muy importante tomar medidas para eliminarlo de forma segura con un programa antivirus actualizado. Dejar que se propague puede llevar a una situación grave y fuera de control.

Un ejemplo real fue cuando un ciberdelincuente usó deepfake para hacerse pasar por un ejecutivo de alto nivel. Se infiltró en una videoconferencia de una empresa multinacional y logró robar información confidencial, que luego vendió, causando grandes pérdidas económicas y dañando la reputación de la empresa.

Ética y regulación de los deepfakes

El avance de la tecnología, como la inteligencia artificial y los deepfakes, ofrece muchas oportunidades pero también desafíos y riesgos, como el acceso a nuestra imagen y privacidad. Por eso, es necesario establecer una ética digital que se adapte constantemente a estos cambios.

Las leyes y principios éticos deben ir al mismo ritmo que el desarrollo tecnológico. Es importante que los usuarios conozcan los riesgos de privacidad al compartir videos o imágenes. Con la gran capacidad de difusión de las redes sociales, es responsabilidad de cada persona no compartir noticias o datos falsos. No es solo un deber moral, sino también legal, ya que difundir cierto contenido puede ser un delito.

El realismo de los deepfakes aumenta sin parar, y la tecnología es cada vez más accesible para todos, incluso con aplicaciones gratuitas. Esto significa que no solo los expertos pueden crear deepfakes, lo que aumenta las oportunidades de uso, tanto para bien como para mal.

Por ello, es fundamental educar a los usuarios en el uso de estas tecnologías, fomentando el pensamiento crítico. Uno de los mayores peligros es que la sociedad pierda la confianza en la información y no se moleste en distinguir la verdad de la mentira. En ese momento, el pensamiento crítico es clave.

Además, los países y organizaciones internacionales deben crear leyes para regular el uso de estas herramientas, no solo a nivel nacional sino también global, ya que el mundo digital no tiene fronteras.

También es importante desarrollar sistemas de inteligencia artificial que puedan distinguir imágenes reales de las manipuladas, como ya se hace con las noticias falsas. Los sistemas actuales aún no pueden bloquear un deepfake fraudulento de inmediato.

La ética digital busca establecer reglas para el comportamiento correcto de usuarios, profesionales y empresas del sector, definiendo principios, derechos y deberes. Es crucial recordar que la ética no depende de las máquinas, sino de las personas que las diseñan, venden, difunden o usan. Los delitos tecnológicos se juzgan por el uso que se les da, no por las herramientas en sí.

En el foro de Davos de 2019, 40 grandes empresarios acordaron una Declaración digital con principios para la ética digital. La evolución de la inteligencia artificial es difícil de predecir, lo que la convierte en un gran reto ético. A nivel internacional, se han establecido principios básicos, aunque son solo recomendaciones y no obligatorias.

Algunos de estos principios son:

  • La inteligencia artificial debe usarse para el bien común y el beneficio de la humanidad.
  • Debe ser comprensible y justa.
  • No debe usarse para reducir los derechos o la privacidad de las personas.
  • No debe aumentar la brecha digital; todos tienen derecho a aprender a usarla.
  • Nunca se le debe dar a la inteligencia artificial la capacidad de dañar, destruir o engañar a los seres humanos.

Las empresas que usan deepfakes o cualquier sistema de inteligencia artificial que cree o modifique imágenes o sonidos que puedan causar confusión, deben "autorregularse". Esto significa que deben tener una ética interna para evitar el uso malicioso y declarar claramente si un video o audio ha sido manipulado.

Empresas como Facebook, Twitter y Google deben cumplir sus compromisos de educar a los usuarios y controlar sus plataformas para evitar la difusión de deepfakes que puedan dañar a alguien. Sin embargo, en aplicaciones de mensajería como WhatsApp, es casi imposible detener la difusión sin la colaboración de los usuarios.

En cuanto a las personas fallecidas, sus derechos personales se mantienen, y sus herederos pueden decidir sobre el uso de su imagen, a menos que se haya especificado lo contrario. La idea de "herencia digital" es actual y ya se menciona en las leyes de varios países para proteger el derecho al honor, la intimidad y la propia imagen de los fallecidos.

Un informe de 2021 de EUROPOL, TrendMicro y UNICR116 identificó el uso fraudulento de deepfakes en casos de ciberacoso, fraude, manipulación de pruebas en juicios, desinformación en elecciones y otros ámbitos.

Ante estos problemas graves, es cada vez más necesario educar a la población, especialmente a los jóvenes, sobre los riesgos del mal uso de esta tecnología, ya que a menudo no se dan cuenta de que están cometiendo un delito al usar sus móviles, ordenadores, aplicaciones y redes sociales.

La dificultad para crear leyes sobre el uso de deepfakes radica en respetar los derechos y libertades fundamentales sin frenar el desarrollo de la tecnología, y también en la dificultad para saber quién es el responsable de crear y difundir el contenido.

La forma de abordar la regulación de los deepfakes varía en el mundo. En Estados Unidos, la preocupación se centra en patentes y propiedad intelectual. En la Unión Europea, se enfocan en la ciberseguridad y la privacidad. En Latinoamérica, hay una tendencia hacia el uso ético de la tecnología.

En Estados Unidos, algunos estados como Virginia, California y Texas han legislado sobre los deepfakes. En China, estos contenidos están totalmente prohibidos desde 2020.

La Unión Europea está trabajando en la Ley de Inteligencia Artificial, que clasifica los sistemas de inteligencia artificial según el riesgo que representan para los usuarios (inaceptable, alto, limitado y mínimo). Los deepfakes se consideran de riesgo limitado y deben cumplir requisitos de transparencia para que el usuario sepa que está interactuando con una inteligencia artificial. En Latinoamérica, países como Perú y Colombia también están adoptando medidas para promover el uso ético de la inteligencia artificial.

Véase también

Kids robot.svg En inglés: Deepfake Facts for Kids

Galería de imágenes

kids search engine
Deepfake para Niños. Enciclopedia Kiddle.