Conozca a su enemigo: la dificultad de definir deepfakes

 los esfuerzos para combatir los deepfakes son complicados por la falta de una forma clara de definirlos

Facebook recientemente prometió que aumentaría los esfuerzos para eliminar los llamados videos "deepfake", incluido el contenido que incluía "medios manipulados engañosos". 19659003] Además de los temores de que las falsificaciones profundas (videos alterados que parecen ser auténticos) podrían afectar las próximas elecciones generales de 2020 en los Estados Unidos, hay una creciente preocupación de que puedan arruinar la reputación y afectar a las empresas.

Un video manipulado eso parece real podría convencer a los espectadores de creer que los sujetos en el video dijeron cosas que no dijeron o hicieron cosas que no hicieron.

Los Deepfakes se han vuelto más sofisticados y fáciles de producir, gracias a la inteligencia artificial y la máquina aprendizaje, que se puede aplicar a los videos existentes de forma rápida y sencilla, logrando resultados que les tomaron a los equipos profesionales de efectos especiales y artistas digitales horas o días en el pasado.

"De La tecnología epfake está siendo armada para la desinformación política y el delito cibernético ", dijo Robert Prigge, CEO de Jumio .

En un caso de alto perfil, los delincuentes el año pasado utilizaron software basado en inteligencia artificial para hacerse pasar por la voz de un jefe ejecutivo y Prigge dijo a TechNewsWorld que exigió una transferencia fraudulenta de US $ 243,000.

"Desafortunadamente, las falsificaciones profundas también se pueden usar para evitar muchos sistemas de verificación de identidad basados ​​en biometría, que han crecido rápidamente en popularidad en respuesta a ataques de suplantación de identidad, robo de identidad e ingeniería social ", agregó.

Frente a Deepfakes

Dado el potencial de daños, tanto Facebook como Twitter han prohibido dicho contenido. Sin embargo, no está claro qué cubren las prohibiciones. Por su parte, Facebook utilizará verificadores de hechos de terceros, que según los informes incluyen más de 50 socios que trabajan en todo el mundo en más de 40 idiomas.

"Están prohibiendo los videos creados a través del aprendizaje automático que pretenden ser engañosos", explicó Paul Bischoff, defensor de la privacidad en Comparitech .

"Los videos deben tener tanto audio como video que la persona promedio no asumiría razonablemente que es falso", dijo a TechNewsWorld.

"Un fake superpuesto existente "Prigge señaló que las imágenes de video de una cara en la cabeza y el cuerpo de la fuente usando IA avanzada alimentada por redes neuronales para crear videos manipulados cada vez más realistas". "En otras palabras, una imitación profunda parece ser el rostro y la voz grabados de una persona real, pero las palabras que parecen estar hablando nunca fueron pronunciadas por ellos".

Definición de Deepfakes

Un problema preocupante con deepfakes es simplemente determinar qué es un deepfake y qué es solo un video editado. En muchos casos, los deepfakes se crean utilizando la última tecnología para editar o manipular videos. Los medios de comunicación editan regularmente entrevistas, conferencias de prensa y otros eventos cuando elaboran noticias, como una forma de resaltar ciertos elementos y obtener fragmentos de sonido jugosos.

Por supuesto, ha habido muchas críticas a los principales medios de comunicación por manipular las secuencias de video para cambiar el contexto sin IA o aprendizaje automático, simplemente usando las herramientas de la suite de edición.

Los Deepfakes generalmente se consideran mucho más peligrosos porque no solo se altera el contexto.

"En el fondo, un deepfake es cuando alguien usa tecnología sofisticada – inteligencia artificial – para combinar múltiples imágenes o audio para cambiar su significado original y transmitir algo que no es verdadero o válido ", dijo Chris Olson, CEO de The Media Trust .

"Desde la manipulación de audio hasta la creación de imágenes engañosas, las falsificaciones profundas fomentan la difusión de la desinformación ya que el usuario final generalmente no sabe que el contenido o el mensaje no es real", dijo a TechNe wsWorld.

"En diversos grados, las plataformas sociales han emitido políticas que prohíben la publicación de videos altamente manipulados que no están claramente etiquetados o son fácilmente aparentes para los consumidores como falsos", agregó Olson.

Aún así, "aunque estas políticas son un "en la dirección correcta, no prohíben explícitamente el video o audio manipulado", señaló. "Tener su cuenta bloqueada no es un gran impedimento".

Manipulación sin malicia

La prohibición de Facebook y otros esfuerzos para prohibir o frenar las falsificaciones profundas no se aplican al discurso político o las parodias.

El consentimiento puede ser otro tema que debe abordarse.

"Este es un gran punto: los videos y las imágenes falsas se pueden definir en términos generales, por ejemplo, cualquier cosa que sea manipulada ", dijo Shuman Ghosemajumder, CTO de Shape Security y ex zar del fraude en Google.

" Pero la mayoría los medios creados son, en cierta medida, manipulados ", dijo a TechNewsWorld.

Las manipulaciones incluyen mejoras digitales automáticas a las fotos tomadas con cámaras modernas, aquellas equipadas con configuraciones HDR u otras mejoras basadas en IA, así como filtros, y La edición y el retoque estéticos, señaló Ghosemajumder.

"Si la mayoría de los medios se marcan automáticamente en una plataforma como 'sintéticos' o 'manipulados', esto reducirá el beneficio de dicha etiqueta", comentó.

el paso será descubrir o criterios objetivos para excluir ese tipo de edición y enfocarse en medios "manipulados maliciosamente", lo que podría ser un estándar inherentemente subjetivo.

Sin embargo, "no puede ser una cuestión de personas que consienten estar en videos, porque no existe dicho consentimiento generalmente se requiere de figuras públicas o de videos e imágenes que se toman en lugares públicos ", observó Ghosemajumder," y las figuras públicas son las que tienen más probabilidades de ser blanco de usuarios malintencionados de estas tecnologías ".

Herramientas AI destacadas

La prohibición de Facebook de los deepfakes destaca los videos que usan tecnología AI o aprendizaje automático para manipular el contenido.

"Este es un enfoque incompleto, ya que la mayoría del contenido falso, incluidos los videos engañosos publicados hoy, son no creado con tal tecnología ", dijo Ghosemajumder.

El ahora famoso video de Nancy Pelosi" podría haber sido creado con tecnología de más de 40 años, ya que era una simple edición de video ", agregó.

Más importante , "la malicia no se puede definir solo en función de la tecnología utilizada", dijo Ghosemajumder, "ya que gran parte de la misma tecnología utilizada para crear una falsificación profunda maliciosa ya se está utilizando para crear obras de arte legítimas, como la tecnología de eliminación de envejecimiento utilizada en El irlandés ".

Percepción del espectador

Tal como está la política de Facebook, la sátira y la parodia estarían exentas, pero lo que cae en esas categorías no siempre está claro. Las reacciones del espectador no siempre se alinean con lo que el creador de contenido pudo haber tenido en mente. Un video de broma que se cae puede no verse como una sátira.

"Los estándares para juzgar la sátira o las películas de fanáticos también son subjetivos: puede ser posible determinar qué se pretende o no como sátira en un tribunal de justicia para "La satisfacción de la sociedad en una instancia individual, pero es mucho más difícil hacer tales determinaciones automáticamente para millones de piezas de contenido en una plataforma de medios sociales", advirtió Ghosemajumder.

Además, incluso en los casos en que un video se crea obviamente intención satírica, esa intención puede perderse si el video se acorta, se saca de contexto o incluso se vuelve a publicar por alguien que no entendió la intención original.

"Hay muchos ejemplos de contenido satírico engañando a personas que no lo hicieron". no entiendo el humor ", dijo Ghosemajumder.

" Se trata más de cómo la audiencia lo percibe. La sátira no cae en la prohibición. Tampoco la parodia, y si el video está claramente etiquetado como ficción, debería estar bien, "respondió Bischoff. [1 9659003] "Entendemos que Facebook y Twitter no están prohibiendo la sátira o la parodia, la intención es el diferenciador clave", agregó Alexey Khitrov, CEO de ID R&D .

"La sátira por definición es la uso del humor, la exageración o la ironía, mientras que la intención de una falsificación profunda es hacer pasar video o discurso alterado o sintético como auténtico ", dijo a TechNewsWorld. "Deepfakes se utilizan para engañar a un espectador y difundir información errónea. Si bien un deepfake pretende engañar al usuario promedio, la sátira es evidente".

Esfuerzos legales

Se han realizado esfuerzos legales para detener la proliferación de falsificaciones profundas, pero el gobierno podría no ser la mejor entidad para abordar este problema de alta tecnología.

"En los últimos dos años, varios estados de EE. UU. presentó una legislación para gobernar las falsificaciones profundas, con la Ley de prohibición de falsificaciones profundas maliciosas y la Ley de rendición de cuentas PROFUNDA introducidas ante el Senado y la Cámara de Representantes de los Estados Unidos, respectivamente ", dijo Olson de The Media Trust.

Ambos proyectos de ley se estancaron con los legisladores, y ninguno propuso mucho cambio más allá Introducción de sanciones. Incluso si se aprobaran leyes, es poco probable que un enfoque legislativo pueda mantenerse al día con los avances tecnológicos.

"Es muy difícil legislar efectivamente contra un objetivo en movimiento como la tecnología emergente", advirtió Olson.

"Hasta que haya un reconocimiento perfecto que el contenido es falso, las plataformas y los medios de comunicación deben revelar a los consumidores la fuente del contenido ", sugirió.

" Los videos profundos no se pueden detener, al igual que las fotos retocadas no se pueden detener ", dijo Josh Bohls, CEO de Inkscreen .

"Las leyes de difamación pueden ampliarse para incluir videos alterados que podrían tergiversar una figura pública de manera perjudicial, proporcionando al sujeto algún tipo de recurso", dijo a TechNewsWorld. "También sería prudente aprobar leyes que requieran el etiquetado de ciertas categorías de videos (anuncios políticos, por ejemplo) para que el espectador sepa que el contenido ha sido alterado".

Tech to Fight Tech

En lugar de que el gobierno cree nuevas leyes, la industria de la tecnología podría resolver el problema de las falsificaciones profundas, incluso si definirlas sigue siendo confuso. Proporcionar acceso a la tecnología para determinar si un video ha sido manipulado podría ser un buen primer paso.

"Varias plataformas sociales han tomado medidas para detectar y eliminar videos falsos profundos con un éxito limitado, ya que la detección va a la zaga de la velocidad a la que emerge la nueva tecnología. crear falsificaciones profundas mejores y más realistas en un período de tiempo cada vez menor ", dijo Olson.

" El desafío sigue siendo el difícil proceso de identificar y eliminar falsificaciones profundas antes de que se extiendan al público en general ", dijo.

Las redes sociales es donde se difunden estos videos y donde la eliminación es crucial. Estas plataformas están en una buena posición para desplegar nueva tecnología.

"En general, Twitter y Facebook anuncian planes para tomar medidas contra el contenido falso malicioso es un excelente primer paso, y aumentará el escrutinio y el escepticismo de los medios cargados en Internet, especialmente por fuentes anónimas o desconocidas ", señaló Ghosemajumder.

Sin embargo, esto no es absolutamente una solución de 'bala de plata' para este problema, por muchas razones advirtió a Ghosemajumder.

" La detección de medios falsos es un gato y juego de ratón. Si el contenido manipulado se marca inmediatamente, los actores maliciosos experimentarán contra el sistema con variaciones de su contenido hasta que puedan pasar desapercibidos ", explicó.

" Por otro lado, si el contenido manipulado no se marca inmediatamente o eliminado, se puede propagar, y se transformará rápidamente, causando daños en cualquier período que exista entre la creación y la carga y el marcado, de una manera que puede no ser posible contener fácilmente en ese punto ", Sugirió Ghosemajumder.

" Finalmente, el uso de cuentas falsas y fraudes y abusos automatizados es el mecanismo principal que utilizan los actores maliciosos para difundir la desinformación ", dijo. "Esta es una de las áreas clave que las redes sociales deben abordar con la tecnología más sofisticada disponible, no solo soluciones caseras".

Herramientas Anti-Deepfake

Varias compañías están explorando métodos para combatir los deepfake. Media Trust lanzó su Deepfake Detection Challenge para fomentar el desarrollo de herramientas de detección de código abierto.

"Sin marcar constantemente el contenido digital sospechoso y etiquetar la fuente del video o audio alterado, la tecnología tendrá poco impacto en el tema", dijo Olson

"Proporcionar este contexto ayudará al consumidor a comprender mejor la veracidad del mensaje. ¿Me lo envió un tercero desconocido o lo encontré en el sitio web de una marca durante la investigación del producto? Esta información de atribución es lo que se necesita para contrarrestar las falsificaciones profundas ", dijo.

Sin embargo, con una gran cantidad de contenido manipulado, a menudo se trata de una mala dirección, y en este caso, centrarse demasiado en el video en sí podría ser problemático.

" No es solo el flujo visual que es vulnerable a los deepfakes, pero también el flujo de voz. Ambos pueden ser alterados o manipulados como parte de un deepfake ", dijo Khitrov de ID R & D.

Hay tecnología para ayudar a detectar el manipulado de un deepfake. señaló el audio

"Las capacidades de detección de vida pueden identificar artefactos que no son audibles para el oído humano pero están presentes en voz sintetizada, grabada o alterada por computadora", explicó Khitrov. "Podemos detectar más del 99 por ciento de las falsificaciones profundas de audio, pero solo donde se implementa esa tecnología".

The Deep View

Aquellos con una visión pesimista creen que la tecnología para crear falsificaciones profundas convincentes simplemente superará a la tecnología para detenerla.

"Nuestra analogía es que hay virus y hay tecnología antivirus, y mantenerse a la vanguardia de los malos requiere una iteración constante, y lo mismo es cierto para la detección de falsificación profunda ", dijo Khitrov.

Sin embargo," las tecnologías basadas en IA que los malos están usando son muy similares a las tecnologías que los buenos usan. Así que los avances que están disponibles para los malos también están siendo utilizados por los buenos para detenerlos ", agregó.

Una amenaza mayor es que" el software deepfake ya está disponible gratuitamente en la Web, aunque no es tan bueno todavía ", dijo Bischoff de Comparitech. "Tendremos que aprender a estar atentos y escépticos".


Leave a Reply

Your email address will not be published. Required fields are marked *