Publicado 14/03/2026 06:01

Los 'deepfakes' ponen a prueba las capacidades visuales: soluciones para verificar la autenticidad a nivel de cámara

Representación de análisis de pruebas digitales de vídeo.
Representación de análisis de pruebas digitales de vídeo. - AXIS

   MADRID, 14 Mar. (Portaltic/EP) -

   Ante el auge de los 'deepfakes' y la creciente dificultad para distinguir entre contenido real y manipulado con inteligencia artificial (IA), herramientas como el sistema de vídeo firmado de Axis Communications buscan garantizar la autenticidad de los vídeos desde el momento de su captura, sobre todo en entornos legales.

   En un panorama marcado por las diversas herramientas de IA para manipular tanto fotografías, como audio o vídeos, que cada vez cuentan con capacidades para generar contenido más realista, se pone de manifiesto la dificultad de los usuarios para discernir entre la realidad y el contenido sintético.

   Aunque estas capacidades para generar vídeos realistas tienen aplicaciones útiles, por ejemplo, en el sector de los videojuegos o para el entretenimiento, también son la consecuencia de que los usuarios tengan que enfrentarse a los conocidos 'deepfakes'.

   Esto último, son vídeos con contenido manipulado mediante IA para hacer parecer que una persona real dice o hace algo que, en la realidad, nunca ha ocurrido. Habitualmente, los 'deepfakes' se utilizan para fines maliciosos, aprovechando su capacidad de suplantación para confundir a las personas.

   Teniendo todo ello en cuenta, cabe destacar que la manipulación de contenidos visuales mediante IA ha alcanzado unos niveles críticos. Según datos recabados por Telefónica en su informe 'Seguridad en la edad de la IA', publicado en 2025, los 'deepfakes' aumentaron un 550 por ciento sólo entre los años 2019 y 2023.

    Asimismo, según un estudio elaborado por el servicio de seguridad informática DeepStrike, los archivos de 'deepfakes' aumentaron de 500.000 en 2023 a 8 millones el pasado año 2025. Mientras, la tasa de precisión de los humanos para detectar 'deepfakes' solo es del 24,5 por ciento.

   Todo ello pone de relieve la necesidad de disponer de herramientas que ayuden a identificar de forma segura cuándo un vídeo es real o un contenido 'deepfake', sobre todo, en entornos como el empresarial, las instituciones judiciales o las fuerzas de seguridad, entre otros espacios en los que la precisión de la información es esencial.

   En este marco, se ofrecen soluciones como la de la compañía enfocada en soluciones de videovigilancia, Axis Communications, que ha diseñado tecnología de vídeo firmado para la verificación forense de vídeos.

   Concretamente, se trata de un sistema que protege criptográficamente el vídeo en el momento de su captura, lo que facilita las pruebas de vídeo forenses fiables, como ha explicado el responsable del Programa de Ingeniería, Ciberseguridad y Cumplimiento en Axis Communications para Iberia, Alberto Alonso.

AUTENTICACIÓN DESDE EL ORIGEN DEL VÍDEO Y CÓDIGO ABIERTO

   Con este sistema, la autenticación se implementa directamente en la cámara a la hora de grabar el vídeo, a través de la plataforma de ciberseguridad Axis Edge Vault, que añade una firma criptográfica única al flujo de vídeo. De esta forma, se crea una prueba verificable de que el vídeo no ha sido alterado desde que salió del dispositivo.

   "Firmar el vídeo dentro de la propia cámara en lugar de hacerlo más tarde durante el procesamiento constituye un valor diferenciador, ya que elimina cualquier duda de que el contenido haya podido ser editado después de su captura", ha subrayado Alonso, al tiempo que ha matizado que se trata de una solución que "incorpora todo lo necesario para su verificación cuando se almacena y se visualiza, ya sea 'online' u 'offline'".

   Además, este sistema se ofrece como 'software' de código abierto, de cara a garantizar que tenga una amplia adopción y transparencia y, con ello, facilitar la comprobación de la legitimidad de los contenidos audiovisuales en cualquier entorno.

   Por tanto, cualquiera, desde organismos encargados de hacer cumplir la ley hasta equipos jurídicos y otros fabricantes, pueden acoger esta herramienta e "inspeccionar el código utilizado para validar la autenticidad del vídeo". Todo ello, sin necesidad de depender de herramientas propietarias para comprobar las pruebas.

USO PARA PRUEBAS FORENSES VERIFICABLES ENMARCADO EN LA LEGISLACIÓN

   Con todo ello, desde Axis han matizado en un comunicado que la implementación de este sistema de vídeo firmado se ha diseñado en base a los principios del marco estándar ONVIF (Open Network Video Interface Forum), que asegura que el material de vídeo se firma criptográficamente en el momento de la captura con "una clave digital específica para cada cámara de vigilancia individual".

   Este marco ONVIF también colabora con la organización Coalition for Content Provenance and Authenticity (C2PA), cuyo propósito es promover estándares complementarios de integridad de vídeo.

   Al cumplir estos protocolos y estándares, la tecnológica ha subrayado su uso adecuado para procedimientos legales, investigaciones policiales e incidentes de seguridad corporativa, donde habitualmente la capacidad de rastrear el vídeo hasta la cámara original y verificar que el material no ha sido manipulado después de salir del dispositivo "proporciona una solución clave" que, además, "completa los requisitos de los nuevos marcos europeos".

   Esto último hace referencia al AI Act y a la ley de gobernanza de IA de la Unión Europea, que obligan a etiquetar contenidos creados con IA. Aunque estas legislaciones son necesarias, destacan la necesidad "urgente" de ofrecer un método fiable para verificar el contenido.

   Así, junto a otras opciones como la certificación C2PA y métodos internos de marcas de agua invisibles, que utilizan empresas como Meta o Google -esta última con herramientas como SynthID-, la solución de vídeo firmado de Axis proporciona una función complementaria.

   En este caso, no se centra en el contenido sintético, sino en "verificar la realidad". "Creamos un 'sello de autenticidad' para los acontecimientos del mundo real. En un contexto legal o forense, esta validación positiva no sólo es útil, sino esencial para mantener la confianza en las pruebas digitales", ha concluido Alonso.

Contador

Contenido patrocinado