Casa > Ciber Noticias > Deepfake Tech: cómo lidiar con esta creciente amenaza
CYBER NOTICIAS

Deepfake Tech - Cómo hacer frente a esta creciente amenaza

¿Quién hubiera pensado que la aplicación de intercambio cara todos hemos podido disfrutar en las redes sociales podría ser una herramienta que se mete toda la vida de otra persona o incluso a toda una nación?

No todo lo que vemos es real - estas líneas se han vuelto más válida que nunca ahora que deepfakes están planteando terribles amenazas a todo el mundo con los datos publicados en línea. Desde la simple aplicación de la cara de intercambio que hemos estado jugando un poco con los últimos años en, ahora se ha convertido en una tecnología falsificación impecable que produce resultados creíbles.




De hecho, un recién lanzado cara chino aplicación de intercambio llamado Zao demostró cómo deepfake tecnología ha mejorado enormemente. Las salidas son tan convincentes que un ojo humano será fácilmente engañado por cualquier foto o vídeo que crea.

A pesar del gran avance en su manipulación imagen impecable, Zao recibido reacción masiva tan pronto como se alcanzó popularidad mundial. Esto fue después de que se descubrió que han violado ciertas leyes de privacidad que colocan sus usuarios en situaciones comprometedoras.

Sin embargo, las amenazas presentadas por deepfake van más allá del mero susto privacidad. Una preocupación más grande que viene con esta tecnología es la alta probabilidad de que pueda convertirse en un arma poderosa que influye en la opinión pública. La política y la democracia son señalados como los objetivos más importantes de deepfake usuarios con malas intenciones. Alcanzar la perfección, expertos de seguridad cibernética también ven deepfake como una fuente inmejorable de la ciberdelincuencia en el futuro.

Las primeras manifestaciones de Deepfake Tecnología

Los medios de comunicación de alta tecnología deepfake o sintetizados por la IA se utilizó inicialmente en investigaciones académicas como parte de los estudios de Visión por Computador. Uno de los primeros proyectos realizados para este caso fue en 1997 donde un video de una persona que habla se modificó para que parezca como si estuviera hablando del contenido de una pista de audio por separado.

Un avance rápido hasta 2017, un Redditor originó el término “deepfake” y videos publicados de varias estrellas de Hollywood como Scarlett Johansson, la presentación de ella en escenas sexuales comprometer. Al parecer,, se descubrió que el video fue manipulado, pegando el rostro de una actriz para el cuerpo de una estrella del porno.

Otro video hecho para probar cómo deepfake está madurando rápidamente fue el material fotorrealista de la aparentemente ex presidente Barack Obama pronunciar un discurso. Era una parte de la “sintetización de Obama”Proyecto puesto en marcha por la Universidad de Washington, donde sincronización de los labios ha ido a un nivel completamente nuevo.

Uno de los principales investigadores del proyecto admitieron cómo esta tecnología se puede utilizar de una manera negativa y sugirió a la gente a ser responsable en el uso de lo que ellos desarrollaron. También mencionó los métodos de la ingeniería inversa de la tecnología para determinar un vídeo editado con la real.

Pero son realmente la manera de revertir deepfake ingeniero? ¿Cómo puede una persona común que no tienen acceso a cualquier máquina AI saber lo que es real y lo que no lo es?

La amenaza más asustadizo Creado por Deepfake

Ya sabemos que deepfake puede hacer una mirada verdadero falso vídeo. Se puede dañar la reputación de una persona cuando escandalosas falsas fotos y videos en línea son liberados. Además, que se puede utilizar para alterar evidencias de precisar un crimen a otra persona.

Sin embargo, una amenaza más tangible causado por deepfake es cómo se hace el verdadero parecen falsos. Un ejemplo de esto fue el golpe militar Gabón África central en 2018. La gente del país al parecer no han visto a su presidente, Ali Bongo, durante meses y en un caso sorprendente, pronunció su discurso habitual de Año Nuevo.

rivales políticos a insinuar que el material era un producto de deepfake y que el gobierno enmascaraba dolencia del presidente. Una semana después de, un golpe militar se puso en marcha que llevó a matanzas. Este es sólo un desafortunado incidente que demuestra un riesgo más grave planteado por deepfake.

Relacionado: El futuro de las soluciones AI Seguridad basada en la industria de la seguridad cibernética

Deepfake sobre Ciberseguridad

empresa de seguridad digital Symantec ha señalado anteriormente tres casos de fraude voz deepfake, la que todos sucedido anteriormente en 2019. En el post, se citó cómo Euler Hermes pierde al menos $ 10 millones a un ladrón que él creía que era el jefe de uno de sus proveedores.

AI, mientras que ser una herramienta útil para determinar ciberataques entrantes y minimizando ciberamenazas, al parecer también puede ser una tecnología que pone una empresa en un punto. empresas de seguridad cibernética creen que esta nueva innovación pronto será utilizada para el juego de los cibercriminales.

Para evitar que, cada empresa y cada individuo - ya que serán más vulnerables a fraudes deepfake - deben hacer un plan sobre cómo determinar y prevenir ataques.

Tratar con Deepfake Tecnología

Algunas compañías están todavía en la negación de los riesgos que puede plantear deepfake la tecnología a su negocio. Ellos creen que la tecnología aún es prematuro, y el susto sólo es causada por el bombo.

Dado que ya se confirman las víctimas de fraude deepfake, empresas de seguridad cibernética más convencidos que nunca de que una pronta respuesta a la subida de los métodos deepfake complejos se debe implementar.




Existen varias recomendaciones compartidos por académicos y expertos en ciberseguridad. Algunos de ellos incluyen lo siguiente:

1. El uso de AI para la detección Deepfake

Deepfake medios se crean utilizando la inteligencia artificial, por lo que los expertos sugieren que la ingeniería inversa del método también implicará AI.

Ahora hay un par de empresas que desarrollan AI centró el análisis de los medios de comunicación y detectar discrepancias en las fotos, vídeos, y archivos de audio. Uno de los signos reveladores de medios falsos incluye píxeles inconsistentes alrededor de la boca de un sujeto, o inconsistencias en la generación de sombras o los ángulos de la cara de una persona.

Sin embargo, esto no es una prueba concluyente de un deepfake.

Mientras que los desarrolladores pueden llegar a los métodos de detección precisos, que todavía están esperando para una base de datos más grandes que pueden utilizar para construir un modelo de detección.

Esto nos lleva a la última contribución de Google para la gestión de amenazas deepfake.

2. Colección de Deepfake de Google

Hay una razón por qué Google se considera el rey de los motores de búsqueda. Tiene acceso a casi todos los medios de comunicación publicados en línea, y que incluye archivos deepfake.

Si bien no es una solución directa para detener los ataques deepfake, la galería de Google de deepfake medios de comunicación sirve como una gran ayuda para los desarrolladores de base para la búsqueda de sus máquinas de detección de AI. El gigante de la tecnología libera a lo largo 3000 vídeos sintetizados para ayudar a acelerar la creación de herramientas de detección deepfake.

Facebook también emitió un comunicado que va a llegar a una base de datos similar. Cuando se enfrentan aplicaciones de intercambio fueron publicados en línea primicias, muchos han traído sus fotos resultantes de las redes sociales Facebook y vio el volumen más masivo de esos deepfakes. Además, Facebook es también uno de los creadores del deepfakes a través de sus filtros de cámara.

3. 3D Impreso Vidrios y marcas de agua

Symantec reveló que se está explorando la posibilidad de gafas 3D especializados para detectar deepfake. De alguna manera es similar a la tecnología presentada por los teléfonos móviles sobre cómo evitar engañar a su función de reconocimiento facial para desbloquear el bloqueo de teléfono y.

Mientras tanto, empresas de nueva creación y uso ProofMode TruePic sellos fotos con una marca de agua para indicar la autenticidad. Mayor fabricante de chips Qualcomm ya ha desarrollado un software para implementar el método en los teléfonos móviles.

4. verificación de Códigos

No está claro aún cómo los códigos pueden trabajar en la detección de deepfake pero Accenture cree que el uso responsable de la IA es una manera de prevenir las amenazas probables. Ellos sugieren que las personas que publican código para crear deepfakes para incluir medidas de verificación. Sin embargo, es obvio que los cibercriminales no siempre va a cumplir con esta.

Relacionado: Intel y Facebook de Trabajo sobre la IA Inferencia chip llamado Nervana

Conclusión

Deepfake es relativamente una nueva tecnología que abre nuevas ventanas de oportunidad para los cibercriminales para ganarse a sus presas. Los desarrolladores no tardaron en crear herramientas que pueden producir confusión que los medios de comunicación cerda, pero que no estaban preparados para las consecuencias.

Vamos a ver un día en el que necesitaremos para escanear fotos para la verificación? Habrá un momento en el futuro en el que vamos a dudar de todo lo que vemos en T. V. incluyendo las noticias?

La tecnología para hacer frente a las amenazas inevitables puede ser fácilmente trabajado en. El problema real ahora se está extendiendo la conciencia e inculcar la responsabilidad social en el uso de la manipulación AI.


Sobre el Autor: John Ocampos

John es un cantante de ópera de profesión, y un miembro de los tenores Filipinas. Desde entonces, Digital Marketing siempre ha sido su fuerte. Él es el CEO de la publicidad en Internet Megamedia Inc, y el director general de Tech Hacker. John es también el actual encargado de SEO de Softvire Nueva Zelanda y Softvire Australia – la empresa de comercio electrónico de software líder en Australia. Seguir John @iamJohnOcampos

Autores SensorsTechForum de los huéspedes

Las opiniones expresadas en estas publicaciones invitadas son exclusivamente las del autor colaborador., y pueden no reflejar las de SensorsTechForum.

Más Mensajes

Dejar un comentario

Su dirección de correo electrónico no será publicada. Los campos necesarios están marcados *

This website uses cookies to improve user experience. By using our website you consent to all cookies in accordance with our política de privacidad.
Estoy de acuerdo