Nuestra tecnología
Cómo detectamos deep fakes en videos
Cómo detectamos imágenes generadas o manipuladas por IA
Cómo detectamos deep fakes en videos
Modelos para detectar deep fakes: Headpose, Blink and LRCN/VIT
Nos especializamos en la detección de anomalías mediante la aplicación de técnicas de aprendizaje profundo, específicamente utilizando un Vision Transformer (VIT). Nuestro enfoque implica entrenar un modelo de codificador Transformer diseñado para identificar deepfakes, y lo implementamos utilizando el marco FastAI. Para cada vídeo subido, nuestro proceso comienza extrayendo fotogramas de los 10 segundos iniciales. Posteriormente, realizamos la detección de rostros en cada cuadro. Para marcos que contienen un rostro humano detectado, aplicamos nuestro modelo Vision Transformer (VIT) entrenado. Luego, los resultados de cada fotograma se agregan para calcular una estimación de la probabilidad de que un rostro humano generado artificialmente utilice IA en todo el vídeo.
Cómo detectamos imágenes generadas o manipuladas por IA
En este MVP, hemos integrado un modelo público disponible en Hugging Face.
El modelo está basado en Swin Transformer For Image Classification, que es una adaptación del modelo original de Transformer diseñado para problemas de lenguaje, pero adaptado para el reconocimiento de imágenes. La diferencia fundamental radica en la representación jerárquica de los píxeles de las imágenes para aumentar la eficiencia del modelo original.
Para el entrenamiento, se han utilizado imágenes de la red Reddit, donde existen canales que publican imágenes generadas o manipuladas tanto por IA como por humanos. Para las imágenes humanas, se han descartado aquellas publicadas posteriormente a 2019, cuando realmente surgió la tecnología AI generativa de imágenes.
Más detalle en:
https://medium.com/@matthewmaybe/can-an-ai-learn-to-identify-ai-art-545d9d6af226