martes 16 mayo de 2023 | Publicado a las 10:58 am · Actualizado a las 10:58 am
¿encontraste un error?
avísanos
Envíanos tu corrección
¿Cuáles son los peligros de los recuerdos falsos?
La firma de IA Deeptrace halló cerca de 15.000 deepfakes de videos online a partir de 2019, observándose que estos se duplicaron en tan solo nueve meses.
No todo lo que se observa en Internet es de fiar: hay miles de imágenes en Instagram, YouTube y Facebook que pueden ser falsas, conllevando a que grupos numerosos de personas lleguen a creer que lo que se expresa a través de estas redes y plataformas digitales es verdadero.
En un artículo del blog de ExpressVPN se expuso que aunque no hubo evidencia de que exista Shazaam, hay muchas personas que se encuentran convencidas de que la vieron e incluso, recuerdan detalles de la trama, los personajes y el cartel.
Además, aunque el propio Sinbad corroboró que no interpretó a un genio nunca, es sorprendente cómo la idea de la película caló de tal forma en la memoria colectiva, puesto que hay mucha gente que piensa que en verdad existe.
¿Qué son los deepfakes?
Los deepfakes consisten en imágenes que se han producido de manera digital, resultando tan naturales que es muy difícil poder distinguirlos de imágenes o vídeos que sean reales.
En vista de la dificultad que tienen para detectarse, estos videos e imágenes se pueden emplear para alterar y manipular recuerdos de las personas: a esto se le conoce como ‘efecto Mandela’.
Asimismo, estos son videos e imágenes que suelen generarse mediante el uso de inteligencia artificial (IA), razón por la que es casi imposible saber qué es lo que tienen de realidad o ficción.
La ubicación de Nueva Zelanda con relación a Australia es un conocido caso del efecto Mandela, puesto que hay gente que, por ejemplo, memoriza que Nueva Zelanda se encuentra al noreste en lugar del sureste. Lo cierto es que este es un país que se halla al sureste de Australia.
El peligro de los recuerdos que se derivan de deepfakes
Para crear los deepfakes, se emplea la tecnología del aprendizaje profundo, que es una rama del aprendizaje automático en la que se someten a un gran entrenamiento de datos a las redes neuronales artificiales.
Se utiliza un ordenador de gama alta que disponga de potentes tarjetas gráficas con acceso a la nube, puesto que con uno normal va a ser difícil lograrlo.
La firma de IA Deeptrace halló cerca de 15.000 deepfakes de videos online a partir de 2019, observándose que estos se duplicaron en tan solo nueve meses.
Según el Foro Económico Mundial, es una cantidad que se cuenta por millones y el número de deepfakes que han sido elaborados por expertos crece cada año a un ritmo de aproximadamente 900%.
¿Qué preocupaciones causan los deepfakes?
Entre las principales preocupaciones que surgen a raíz de los deepfakes, hay que mencionar su uso con fines maliciosos, bien sea para crear propagandas falsas, noticias de odio o incluso, poder obtener algún tipo de beneficio económico.
Además, hay casos en los que se han empleado para hacer pornografía deepfake, lo que ha generado gran preocupación en torno a la explotación de las personas.
Danielle Citron, quien es profesora de Derecho de la Universidad de Boston, expuso el hecho de que la tecnología deepfake se está usando contra las mujeres.
Por otra parte, el escenario potencial de los ataques comprende desde la usurpación de identidades hasta realizar otras prácticas como chantajear a las empresas.
De igual modo, los deepfakes hacen creer a la gente que vio cosas que en verdad no sucedieron.
Otros de los peligros de este tipo de imágenes y videos es que se pueden emplear para manipular contenidos en las redes sociales; modificar imágenes históricas y difundirlas a través de Internet e incluso, crear pruebas científicas falsas.
Cómo detectar un deepfake y protegerse de los falsos recuerdos
Existen algunas alternativas mediante las que es posible detectar un deepfake, así como protegerse de la difusión de estos falsos recuerdos por información que se encuentre adulterada:
- Fijarse en los movimientos oculares que sean poco naturales.
- Ver diferencias de iluminación y color.
- Comparar la calidad que tenga el audio.
- Observar movimientos o formas corporales o faciales que parezcan extraños, así como postura o físico que sean embarazosos.
- Comprobar metadatos.
Así pues, hay que verificar aquellas situaciones que sean antinaturales o poco comunes.
Conclusión
Hay que evitar que se genere una sociedad de confianza cero en la que no sea posible distinguir entre lo que es o no verdad.
Por estas razones, hay que mantenerse seguro de la información que se concibe en Internet, al igual que detectar y prevenir que se difundan imágenes y videos deepfake, en vista de que esta es una práctica que a medida que avanza la tecnología en materia de IA se va incrementando de forma exponencial. .