Enfoque
Los deepfakes o “mentiras profundas” (en castellano) son archivos de vídeo, imagen o voz manipulados mediante un software de inteligencia artificial. Parecen auténticos y reales, por la calidad de las máscaras que generan y cómo éstas son insertadas en otro archivo original, con otros protagonistas distintos. Aunque los deepfakes existen desde finales de 1990, cobraron interés internacional en 2017, cuando un usuario de Reddit publicó material pornográfico falso con los rostros de varias actrices famosas y puso a disposición de los usuarios el software que permite hacer cualquier montaje. Desde entonces, las investigaciones académicas se han centrado especialmente en sus peligros, pues atenta contra la imagen cualquiera, construyendo un imaginario falsificado y perverso, muy difícil de detectar; aunque no ha sido suficiente para frenar el fenómeno.
La firma de inteligencia artificial DeepTrace encontró, en el año 2019, 15.000 vídeos de deepfake en internet. El 96% de esos vídeos era de carácter pornográfico. En enero de 2020, Meta (Facebook e Instagram) prohibió los deepfakes, excepto para publicaciones humorísticas o paródicas. En marzo de 2023, TikTok anunció una medida muy similar, prohibiendo los vídeos creados por “medios sintéticos y manipulados”. Las medidas son numerosas para detectar y denunciar los deepfakes: los expertos apuestan por formar a la ciudadanía en alfabetización digital, los medios reproducen y critican los vídeos falsos en campañas electorales, y empresas, universidades y gobiernos prohíben el uso de deepfakes y otras inteligencias artificiales. Mientras que la primera preocupación era la pornografía, en los últimos meses, la desinformación política se ha convertido en otra consecuencia problemática y potencialmente peligrosa de las “mentiras profundas”.
Los deepfakes inducen a error, transmiten mensajes nunca pronunciados, y facilitan la desinformación. En tiempos de desazón política y desconfianza en los dirigentes, estos vídeos encuentran un público política o ideológicamente polarizado y ávido de compartir y reenviar archivos audiovisuales. Este trabajo se centra en estudiar los deepfakes en TikTok desde una perspectiva original e inédita: detectando, analizando y comentando aquellas cuentas divulgativas en la red social china, que educan a los usuarios en los elementos, características y fallos que desvelan la naturaleza mentirosa de esas piezas audiovisuales. Para conseguirlo se emplea una metodología mixta, que aúna una parte cuantitativa (sobre el alcance de las cuentas, actividad, usuarios, reacciones y me gustas) y una parte cualitativa (sobre la enumeración y reflexión de las pistas y detalles que los expertos comparten para educar digitalmente a los usuarios). Se concluye que la detección de deepfakes es posible, entrenando la vista y el oído, y repartiendo la responsabilidad de combatirlos junto con los algoritmos de las redes.
Gracia Piñero Piñero
Comentó el 26/10/2023 a las 00:06:28
Enhorabuena por el trabajo. Creo que es necesario contar con investigaciones de este tipo en tiempos actuales. ¿Sería posible disponer de algunas de las pautas o recomendaciones presentes en los vídeos de la red china TikTok que tienen el propósito de educar a los usuarios para evitar deepfakes?
Graciela Padilla Castillo
Comentó el 26/10/2023 a las 19:29:04
Estimada Gracia, muchas gracias por su interés. Mientras se publiquen los resultados de este estudio, le podemos remitir a un trabajo previo donde ya trabajamos este tema: https://produccioncientifica.ucm.es/documentos/5f1629752999521cbce0b461. Encantados de debatir y estar en contacto.
Salvador Cantero Sánchez
Comentó el 25/10/2023 a las 14:18:50
Buenas tardes,
Enhorabuena por tan interesante comunicación en la que, además de hacer un recorrido histórico y presentar los peligrosos perfiles de las mentiras profundas y consecuencias lesivas para los derechos de los ciudadanos, se traza un esquema de respuesta a las mismas.
Y en este sentido se enfatiza en la prevención primaria y la formación de la ciudadanía para llevar a cabo la detección de las deep fake, acompañada de la autorregulación de las plataformas en base a su responsabilidad corporativa, la detección temprana, la verificación y en alguna medida la reacción frente a la mentira profunda.
Dentro de este proceso de respuesta, en la UE se ha pasado desde la autorregulación a la propia regulación (Ley de Servicios Digitales-DSA) y en este sentido ¿consideran suficiente la regulación la UE y en los Estados miembros para frenar este fenómeno o creen más relevante situar al ciudadano en el centro mismo de la respuesta, mediante la alfabetización digital, la sensibilización y la verificación?
Muchas gracias y mi felicitación por vuestro trabajo
Graciela Padilla Castillo
Comentó el 26/10/2023 a las 19:29:23
Muchas gracias, Salvador, apreciamos cómo ha valorado y se ha interesado por nuestro trabajo. Le compartimos un trabajo previo, con corte histórico, que seguro es de su interés: https://revistas.ucm.es/index.php/HICS/article/view/66293. La regulación de la UE es interesante pero los peligros siempre acechan antes que lo que la maquinaria legal permite, al ser lenta a nivel europeo y estatal. En clase comentamos mucho la Ley General de Comunicación Audiovisual de 2022 y cómo ha intentado adaptarse a los tiempos actuales, teniendo en cuenta que la ley anterior es de 2010. Nos llama la atención que la ley ponga, como bien dice, tanta responsabilidad en las empresas mediáticas y audiovisuales y hable de autorregulación en buena parte de sus artículos. Es interesante, pero creemos que hay que regular más pues parece que un sistema más punitivo evita más peligros.
Salvador Cantero Sánchez
Comentó el 26/10/2023 a las 20:37:58
Buenas tardes Graciela,
Muchas gracias por la referencia de tu trabajo sobre la Historia del Fake Audiovisual.
Un saludo cordial
Marina Díaz-Peralta
Comentó el 25/10/2023 a las 10:34:15
Buenos días:
Mis felicitaciones por un trabajo tan interesante. ¿Sería posible tener alguna información sobre esos indicios con los que los expertos están haciendo una labor pedagógica?
Graciela Padilla Castillo
Comentó el 26/10/2023 a las 19:29:39
Estimada Marina, muchas gracias por su interés. Mientras se publiquen los resultados de este estudio, le podemos remitir a un trabajo previo donde ya trabajamos este tema: https://produccioncientifica.ucm.es/documentos/5f1629752999521cbce0b461. Y también a una entrevista muy divulgativa: https://maldita.es/malditatecnologia/20210416/deepfakes-riesgos-twitch/. Encantados de debatir y estar en contacto.
Deja tu comentario
Lo siento, debes estar conectado para publicar un comentario.
Organizan
Colaboran
Configuración de Cookies
Utilizamos cookies para mejorar su experiencia y las funcionalidades de esta web. Ver política de cookies