Autenticidad y verificación de contenidos digitales (A3C32C1D02)

Autenticidad y verificación de contenidos digitales

En la actualidad, el mundo vive en la denominada sociedad de la información. En ella las personas pueden crear, modificar, acceder y compartir la información y el conocimiento para mejorar sus procesos productivos y, en definitiva, su calidad de vida.

La sociedad de la información es aquella en la que las Tecnologías de la Información y la  Comunicación (TIC) permiten el acceso, la creación y la distribución de la información en las actividades económicas, sociales y culturales.

Paradójicamente, una de las consecuencias de la sociedad de la información es la desinformación. El acceso a la información no implica necesariamente estar informado, especialmente cuando la información es ingente, heterogénea (cualquier usuario puede producir contenido) y, a menudo, contradictoria. En este sentido, la sociedad de la información plantea a los ciudadanos el reto de filtrar y discriminar con sentido crítico la información útil y veraz de aquella que no lo es.

El análisis forense informático es el área de las ciencias de la computación que engloba el conjunto de técnicas que permiten identificar, preservar, recuperar y analizar medios digitales (hardware y software).

Existen multitud de herramientas de análisis forense informático encaminadas a la toma de decisiones, así como a la presentación de hechos y evidencias respecto a la información digital. Algunas de ellas son FotoForensics (fotoforensics.com), que permite realizar diferentes análisis sobre una imagen proveniente de una URL o del dispositivo local para comprobar si ha sido o no modificada, AmpedAuthenticate (ampedsoftware.com) en la que, tomando una imagen como referencia, es posible realizar diferentes análisis y revelar el historial de procesamiento de una imagen digital para determinar si se trata o no de contenido manipulado, o ForensicToolkit (FTK) (exterro.com/forensic-toolkit), que ofrece una solución integrada que permite recuperar la información de un dispositivo digital y realizar el análisis forense de su contenido.

Un ejemplo claro de contenido que provoca desinformación son las fake news. Se tratan de noticias falsas publicadas en la red con el objetivo de engañar, manipular e inducir a error a los lectores además de enaltecer o desprestigiar a una persona o institución. Estas noticias se presentan con apariencia de veracidad en medios digitales, especialmente en redes sociales.

Recientemente, están apareciendo en redes sociales y numerosos medios digitales contenidos audiovisuales falsos. Algunos de estos contenidos tienen un propósito humorístico, pero otros tienen objetivos similares a los de las fake news. En estos contenidos, conocidos como deepfakes, destacan vídeos en los que se integran caras y voces de personajes reales para elaborar contenidos falsos.

Deepfake, también conocido como falsificación profunda, engloba a aquellos contenidos digitales como imágenes y vídeos ficticios generados a través de técnicas de inteligencia artificial.

Para la generación de deepfakes se utiliza una técnica de inteligencia artificial, concretamente de aprendizaje profundo, basada en redes neuronales y llamada Red Generativa Antagónica (RGA). En ella, coexisten dos redes. Una red se encarga de aprender de una gran base de datos de imágenes y vídeos existentes para generar otros nuevos. La segunda red se encarga de discriminar si las imágenes y vídeos generados por la primera son falsos o no. Cuando un contenido generado por la primera red no es detectado como falso por la segunda, entonces el deepfake está preparado.

Por todo lo anterior, garantizar la autenticidad de un contenido digital y verificar si ha sido manipulado o no es fundamental para evitar la desinformación y otros delitos relacionados con el fraude, el honor o la imagen. En ocasiones, es posible detectar que el contenido ha sido manipulado a través de la observación de incorrecciones en imágenes y vídeos. Para una detección más formal y rigurosa, además de las herramientas de análisis forense vistas con anterioridad, existe tecnología anti–deep fake que trata de detectarlos para autenticar el contenido y también evitar que un contenido se utilice para generar nuevos deepfakes.

Sin embargo, existen muchos más recursos destinados a la tecnología para crear deepfakes que a las herramientas para detectarlos. Además, los desarrolladores de estos contenidos aprovechan las investigaciones publicadas sobre cómo detectarlos para mejorar su tecnología y seguir generando contenido falso que escape a estos sistemas. Por este motivo, el software disponible para la detección de deepfakes no está generalmente abierto a los usuarios.

Nota

Algunas de las comprobaciones visuales que se pueden realizar para detectar un deepfake en imágenes y vídeos son: inconsistencias en la iluminación y sombreado en la imagen o en un frame, alteración de la resolución en algunas zonas y presencia de imperfecciones o incorrecciones  visibles.

Entre el software anti–deep fake más utilizado y disponible para el público general, se encuentran los siguientes:

  • Sensity (sensity.ai/deepfakes-detection): se trata de una plataforma web dedicada a la detección de contenido falso. Permite subir archivos en diferentes formatos, incluidos documentos, para detectar si se trata de contenido fraudulento. Entre sus herramientas disponibles, destacan la verificación de identidad, detección de deepfakes, reconocimiento facial, o reconocimiento de documentos fraudulentos. Para acceder a las herramientas, se debe completar un formulario de contacto con la compañía para solicitar el acceso.

  • Deepware Scanner (github.com/deepware): se trata de un proyecto de código abierto para la detección de deepfakes. Su ejecución se basa en una interfaz de línea de comandos y permite escanear los vídeos de un directorio del dispositivo para detectar cuáles de ellos son un deepfake. Al contrario que Sensity, cuyo sistema se basa en RGA, Deepware Scanner utiliza modelos basados en redes neuronales convolucionales. Al tratarse de un proyecto de código abierto, es posible conocer cómo está diseñado este sistema, así como consultar el código fuente de los modelos pre-entrenados que se utilizan para la detección de deep fakes.

  • Fake Profile Detector (e.digitall.org.es/fake-profile): es una extensión gratuita de Google Chrome que permite identificar si una imagen se trata o no de un deepfake. Su instalación es muy sencilla y para utilizarla simplemente hay que hacer clic con el botón derecho del ratón en la imagen que se quiere analizar y después hacer clic en la opción “check fake profile picture”. En ese momento aparecerá una notificación en la esquina superior derecha que indica la probabilidad de que se trate de una imagen falsa.

En resumen, esta sección recoge una serie de recomendaciones prácticas para autenticar contenido digital a partir de la inspección visual, así como un conjunto de herramientas propias del análisis forense informático y otra tecnología anti-deep fake, que permita a cualquier usuario autenticar y verificar la originalidad de un contenido digital.

Saber más

Otra herramienta de análisis forense es TinEye (tineye.com).

Saber más

Software de detección deepfakes: e.digitall.org.es/deepfake