S10-05 07

Deepfakes en TikTok: desinformación y política

Compartir en TWITTER/FACEBOOK/LINKEDIN

Deja tu comentario

Participa en esta ponencia enviádole tu pregunta o comentario a los autores

Añadir comentario

Firmantes

profile avatar
Ana Velasco MolpeceresUniversidad Complutense de Madrid
profile avatar
Graciela Padilla CastilloUniversidad Complutense de Madrid
profile avatar
Jonattan Rodríguez HernándezUniversidad Complutense de Madrid

Enfoque

Los deepfakes o “mentiras profundas” (en castellano) son archivos de vídeo, imagen o voz manipulados mediante un software de inteligencia artificial. Parecen auténticos y reales, por la calidad de las máscaras que generan y cómo éstas son insertadas en otro archivo original, con otros protagonistas distintos. Aunque los deepfakes existen desde finales de 1990, cobraron interés internacional en 2017, cuando un usuario de Reddit publicó material pornográfico falso con los rostros de varias actrices famosas y puso a disposición de los usuarios el software que permite hacer cualquier montaje. Desde entonces, las investigaciones académicas se han centrado especialmente en sus peligros, pues atenta contra la imagen cualquiera, construyendo un imaginario falsificado y perverso, muy difícil de detectar; aunque no ha sido suficiente para frenar el fenómeno.

La firma de inteligencia artificial DeepTrace encontró, en el año 2019, 15.000 vídeos de deepfake en internet. El 96% de esos vídeos era de carácter pornográfico. En enero de 2020, Meta (Facebook e Instagram) prohibió los deepfakes, excepto para publicaciones humorísticas o paródicas. En marzo de 2023, TikTok anunció una medida muy similar, prohibiendo los vídeos creados por “medios sintéticos y manipulados”. Las medidas son numerosas para detectar y denunciar los deepfakes: los expertos apuestan por formar a la ciudadanía en alfabetización digital, los medios reproducen y critican los vídeos falsos en campañas electorales, y empresas, universidades y gobiernos prohíben el uso de deepfakes y otras inteligencias artificiales. Mientras que la primera preocupación era la pornografía, en los últimos meses, la desinformación política se ha convertido en otra consecuencia problemática y potencialmente peligrosa de las “mentiras profundas”.

Los deepfakes inducen a error, transmiten mensajes nunca pronunciados, y facilitan la desinformación. En tiempos de desazón política y desconfianza en los dirigentes, estos vídeos encuentran un público política o ideológicamente polarizado y ávido de compartir y reenviar archivos audiovisuales. Este trabajo se centra en estudiar los deepfakes en TikTok desde una perspectiva original e inédita: detectando, analizando y comentando aquellas cuentas divulgativas en la red social china, que educan a los usuarios en los elementos, características y fallos que desvelan la naturaleza mentirosa de esas piezas audiovisuales. Para conseguirlo se emplea una metodología mixta, que aúna una parte cuantitativa (sobre el alcance de las cuentas, actividad, usuarios, reacciones y me gustas) y una parte cualitativa (sobre la enumeración y reflexión de las pistas y detalles que los expertos comparten para educar digitalmente a los usuarios). Se concluye que la detección de deepfakes es posible, entrenando la vista y el oído, y repartiendo la responsabilidad de combatirlos junto con los algoritmos de las redes.

Preguntas y comentarios al autor/es

Hay 07 comentarios en esta ponencia

    • profile avatar

      Gracia Piñero Piñero

      Comentó el 26/10/2023 a las 00:06:28

      Enhorabuena por el trabajo. Creo que es necesario contar con investigaciones de este tipo en tiempos actuales. ¿Sería posible disponer de algunas de las pautas o recomendaciones presentes en los vídeos de la red china TikTok que tienen el propósito de educar a los usuarios para evitar deepfakes?

      • profile avatar

        Graciela Padilla Castillo

        Comentó el 26/10/2023 a las 19:29:04

        Estimada Gracia, muchas gracias por su interés. Mientras se publiquen los resultados de este estudio, le podemos remitir a un trabajo previo donde ya trabajamos este tema: https://produccioncientifica.ucm.es/documentos/5f1629752999521cbce0b461. Encantados de debatir y estar en contacto.

    • profile avatar

      Salvador Cantero Sánchez

      Comentó el 25/10/2023 a las 14:18:50

      Buenas tardes,
      Enhorabuena por tan interesante comunicación en la que, además de hacer un recorrido histórico y presentar los peligrosos perfiles de las mentiras profundas y consecuencias lesivas para los derechos de los ciudadanos, se traza un esquema de respuesta a las mismas.
      Y en este sentido se enfatiza en la prevención primaria y la formación de la ciudadanía para llevar a cabo la detección de las deep fake, acompañada de la autorregulación de las plataformas en base a su responsabilidad corporativa, la detección temprana, la verificación y en alguna medida la reacción frente a la mentira profunda.
      Dentro de este proceso de respuesta, en la UE se ha pasado desde la autorregulación a la propia regulación (Ley de Servicios Digitales-DSA) y en este sentido ¿consideran suficiente la regulación la UE y en los Estados miembros para frenar este fenómeno o creen más relevante situar al ciudadano en el centro mismo de la respuesta, mediante la alfabetización digital, la sensibilización y la verificación?
      Muchas gracias y mi felicitación por vuestro trabajo

      • profile avatar

        Graciela Padilla Castillo

        Comentó el 26/10/2023 a las 19:29:23

        Muchas gracias, Salvador, apreciamos cómo ha valorado y se ha interesado por nuestro trabajo. Le compartimos un trabajo previo, con corte histórico, que seguro es de su interés: https://revistas.ucm.es/index.php/HICS/article/view/66293. La regulación de la UE es interesante pero los peligros siempre acechan antes que lo que la maquinaria legal permite, al ser lenta a nivel europeo y estatal. En clase comentamos mucho la Ley General de Comunicación Audiovisual de 2022 y cómo ha intentado adaptarse a los tiempos actuales, teniendo en cuenta que la ley anterior es de 2010. Nos llama la atención que la ley ponga, como bien dice, tanta responsabilidad en las empresas mediáticas y audiovisuales y hable de autorregulación en buena parte de sus artículos. Es interesante, pero creemos que hay que regular más pues parece que un sistema más punitivo evita más peligros.

        • profile avatar

          Salvador Cantero Sánchez

          Comentó el 26/10/2023 a las 20:37:58

          Buenas tardes Graciela,
          Muchas gracias por la referencia de tu trabajo sobre la Historia del Fake Audiovisual.
          Un saludo cordial

    • profile avatar

      Marina Díaz-Peralta

      Comentó el 25/10/2023 a las 10:34:15

      Buenos días:
      Mis felicitaciones por un trabajo tan interesante. ¿Sería posible tener alguna información sobre esos indicios con los que los expertos están haciendo una labor pedagógica?

      • profile avatar

        Graciela Padilla Castillo

        Comentó el 26/10/2023 a las 19:29:39

        Estimada Marina, muchas gracias por su interés. Mientras se publiquen los resultados de este estudio, le podemos remitir a un trabajo previo donde ya trabajamos este tema: https://produccioncientifica.ucm.es/documentos/5f1629752999521cbce0b461. Y también a una entrevista muy divulgativa: https://maldita.es/malditatecnologia/20210416/deepfakes-riesgos-twitch/. Encantados de debatir y estar en contacto.


Deja tu comentario

Lo siento, debes estar conectado para publicar un comentario.

Organizan

Colaboran

Configuración de Cookies

Utilizamos cookies para mejorar su experiencia y las funcionalidades de esta web. Ver política de cookies

Revisar