How DeepFakes could change the internet

Durante Rakhee, muchos de nosotros recibimos regalos. Pero este Rakhee algunas personas recibieron regalos realmente únicos. Por ejemplo, considere a Umang Agarwal,
quien publicó este video "¡Hola Umang! ¡Feliz Rakhee para ti! ¡ Te deseo un muy feliz Rakhee
de parte de tu hermana!" Umang no era el único de su clase. De hecho, el anuncio de la celebración de Cadbury con Hrithik Roshan podría haber deseado personalmente a la
gente un feliz raksha bandhan. "¡Hola, Deepshikha! ¡
Te deseo un muy feliz Rakhee!" El proceso fue simple: primero, tenía que escanear el código QR en la caja; y luego ingrese el nombre de su hermana y, automáticamente, se generará un video "¡Hola Bhavya! ¡
Le deseo un muy feliz Rakhee!" Que luego podrías compartir en Whatsapp. Todo el proceso tomó sólo unos 10 minutos. Cadbury no lo usó solo para Raksha Bandhan
sino también para Diwali.

Con ShahRukh Khan donde respaldó a
las pequeñas empresas locales en el anuncio. "Este Diwali, compre en la
tienda cercana Choice of Fashion". "… compre en la
tienda cercana Ajkal Fashion". "…Royal Fashion…" "…MK Cloths…" para ayudar a las pequeñas empresas de la India en su recuperación de COVID porque no tienen acceso
a lo que las grandes empresas poseen, y eso es, embajadores de marcas superestrellas ". ..¡Haciendo que el embajador de marca más grande de la India
sea su embajador de marca!" Pero, ¿cómo Cadbury hizo esto? Usaron una técnica de aprendizaje automático para recrear la cara y la voz de Shahrukh Khan Al hacer uso del algoritmo de aprendizaje automático
y los códigos PIN del espectador, se crearon diferentes versiones del mismo anuncio con los nombres de las tiendas locales "Este Diwali, compre en la
tienda cercana Choice of Fashion".

" "… compre en la
tienda cercana Ajkal Fashion". "…cerca de Royal Fashions…" "…MK Cloths…" "…comprar de las colecciones cercanas de Laxmi" y luego se las mostró a los espectadores
que vivían cerca de estas tiendas. Este nuevo desarrollo tecnológico
se llama "Deep Fakes" y se está utilizando no solo en campañas de marketing
sino también en campañas políticas. Por ejemplo, mire este video: "… el proyecto de ley de ciudadanía (enmienda) acaba de
aprobarse en el Rajya Sabha" "Dijo que instalarán 15 lakh de cámaras CCTV.
¿Han instalado?" "Solo te han engañado en nombre de las promesas.
Pero este es el momento de Delhi".

Podrías pensar que estos tres videos son originales. Pero, de hecho, solo uno de ellos era original. Los ingleses y los de Haryanvi en realidad han
sido producidos por la tecnología deep fake y fueron producidos por el BJP
antes de las elecciones de la Asamblea de Delhi en 2020. Y en este video veremos más de cerca
cómo se producen los videos deepfake y qué impacto tendría.

hace en nuestra sociedad. "Los deepfakes han comenzado a aparecer en todas partes. Desde intercambios faciales virales de celebridades hasta
suplantaciones de líderes políticos" "… a medida que avanza la tecnología, el peligro
es que los deepfakes se utilicen para engañar a los votantes" "Estamos entrando en el que nuestros enemigos pueden hacerlo
parece que alguien está diciendo algo en algún momento… Verás, ¡yo nunca diría estas cosas! Mantente despierto, B******". La tecnología de Deepfakes se hizo muy popular en 2017 cuando un usuario de Reddit produjo clips de maíz falsos
de celebridades famosas de Hollywood. Los videos de Deepfake básicamente usan inteligencia artificial para intercambiar las caras de las personas en los videos. Se llaman deepfakes
porque utilizan tecnología de aprendizaje profundo, una rama del aprendizaje automático en la que, si una computadora recibe suficientes datos
, puede producir resultados por sí misma y, por lo tanto, producir imágenes y videos falsos. Ahora, hablemos sobre cuáles pueden ser los
impactos de las falsificaciones profundas en nuestra sociedad y cuáles son los lugares en los que se utilizan.

Dividiremos esto en dos secciones:
Política y pornografía En el frente político, la tecnología
llamó la atención por primera vez en 2018, cuando un comediante
que copió a Barack Obama publicó un video sobre cómo los deepfakes pueden ser dañinos. "En el futuro, debemos estar más atentos
a lo que confiamos en Internet". En un incidente separado del que
quizás no haya oído hablar, se publicó un video falso del presidente de
una nación africana, Gabón, ¡ debido al cual el ejército del país incluso
intentó un golpe de estado! Deepfakes también estuvieron durante las
elecciones de la asamblea de Delhi como los videos que vimos.

Usando esta tecnología, videos del
presidente de Delhi BJP, Manoj Tiwari Mientras que un video tenía a Tiwari hablando en inglés, "Dijo que instalarán 15 lakh de cámaras CCTV.
¿Las han instalado?" el otro era él hablando en el dialecto hindi de Haryanvi. "Solo te han engañado en nombre de las promesas.
Pero este es el momento de Delhi". Neelkant Bakshi, co-encargado de redes sociales y TI para BJP Delhi , dijo en una entrevista que ellos utilizaron la tecnología Deepfake
para escalar los esfuerzos de la campaña. Los videos de Haryanvi podrían ayudarlos
a dirigirse a una audiencia en particular, incluso si el candidato político no habló.

ese idioma. Ahora puede preguntarse cómo
se produjeron estos videos Sagar Vishnoi, el estratega jefe de The Ideaz Factory, que ayudó a BJP Delhi, afirma que su compañía usó un algoritmo deepfake de 'sincronización de labios' y usó los discursos de Manoj Tiwari como datos para producir sus videos en inglés y Haryanvi. La firma incluso contrató a un artista de doblaje para proporcionar una lectura de audio en Haryanvi, que luego se
superpuso al video de Manoj Tewari. Neelkanth Bakshi dice que estos deepfakes se
distribuyeron en alrededor de 6000 grupos de WhatsApp que llegaron a aproximadamente 1,5 millones de personas. Bakshi dice que la respuesta de los votantes
a esos videos ha sido muy positiva. Dijo que varias amas de casa dijeron que era alentador ver a su líder hablar su idioma Después de la respuesta "viral" del video de Haryanvi, el partido decidió seguir adelante con un segundo video de Manoj Tiwari en el que estaría hablando en inglés,
dirigido a “votantes urbanos de Delhi”.

Tal vez sea debido a impactos como estos que
varias personas están adoptando videos falsos profundos. Una investigación realizada por un grupo de expertos con sede en el Reino Unido reveló que los videos falsos profundos casi se han duplicado en 2019.
¿Noticias? ¡La respuesta es sí! Debido a que el nivel de alfabetización digital
en India no es muy alto y cuando incluso los videos falsos de baja tecnología
han llevado a la violencia, ¡ Imagínese cómo los videos DeepFake pueden
impactar a nuestra sociedad y las noticias falsas! Un segundo impacto de la tecnología deepfake es que podría conducir a un aumento del
contenido pornográfico en línea.

Una investigación mostró que el 96% del total de videos falsos profundos
se usaron para pornografía. Sensity, una
empresa de inteligencia de amenazas visuales con sede en Ámsterdam, descubrió que dichos videos habían aumentado
de 8000 a 50 000 en solo un año y medio. Los principales sitios web para adultos han creado mecanismos para bloquear videos falsos profundos, pero aún se pueden encontrar esos videos en Internet. LiveMint habló con un creador. de ese tipo de pornografía. Dijo que antes, solía hacer
videos porno tan falsos por placer personal. Pero cuando su nombre se hizo famoso
en sitios web indios e internacionales , comenzó a hacerlo por fama. Le dijo al periodista de LiveMint que hacer esto
podría estar mal según la gente, pero disfruta haciéndolo. Y si bien los sitios web principales
pueden estar bloqueando dicho contenido , hay muchos sitios web próximos
que producen y comparten dicho contenido. La razón principal por la que estos sitios web alojan dicho contenido es que su deseo es ganar dinero. Esto es exactamente lo que dijo el fundador de Sensity.

Dijo que cuando las personas miran
esos videos y los comentan, esos portales de videos ganarían dinero con eso. Muy a menudo, cobran por vista o clip y, a veces, incluso ganan a través de anuncios. A menudo, los pagos se realizan a través de
criptomonedas en dichos sitios web. El informe de Sensity también ha revelado que ahora se han creado bots que se pueden
usar en aplicaciones de mensajería como Telegram que pueden crear imágenes o videos falsos por sí mismos Henry Ajder, experto en deepfakes
y autor principal del informe de Sensity, dijo que dicha tecnología de bot ha hecho que la
creación de deepfakes sea muy fácil para las personas, lo que también ha llevado a un aumento en la cantidad
de contenido pornográfico.

Aparte de estos dos inconvenientes, también hay
aspectos positivos de la tecnología deepfake. Por ejemplo, hablemos de la industria del cine. La industria del cine puede usarlo para crear voces digitales y actualizar el metraje de la película en lugar de volver a filmarlo. Ahora, si alguna vez ha visto una película doblada , es posible que sepa que la experiencia no es muy buena. La tecnología Deepfake puede hacer que el doblaje de voz sea más realista. Por ejemplo: en 2019, David Beckham filmó
para una campaña mundial de concientización sobre la malaria en la que apareció como si estuviera usando muchos
idiomas diferentes y apelando a muchas audiencias diferentes La tecnología también puede tener usos positivos en los campos social y médico Puede ser controvertido en este momento, pero si un amigo
o familiar suyo ha fallecido, la tecnología Deepfake puede ayudar usted
tiene una conversación con ellos Y como vimos en la introducción, la
tecnología deepfake puede ayudar a las marcas en las campañas de marketing Si bien los deepfakes pueden tener más impactos negativos que positivos, si deseamos utilizar esta tecnología de una manera más positiva, entonces necesitaríamos personas más capacitadas
que entiendan esta tecnología.

Por ejemplo, el aprendizaje automático podría usarse para
determinar qué es un video falso y qué no lo es. Esto hace que el papel de los científicos de datos sea importante
y tengan una gran demanda en la India. Por ejemplo, un artículo reciente en Livemint informó que "los científicos de datos tienen una gran demanda, pero
no hay suficientes para cubrir las vacantes". Los estudiantes y profesionales podrán
aprovechar tales oportunidades de trabajo solo si tienen las habilidades adecuadas y para esto, puede recibir ayuda de los
cursos de ciencia de datos upGrad que tienen especializaciones en aprendizaje automático. La mejor parte de estos cursos es
que necesita No deje su trabajo para inscribirse en ellos Puede estudiar junto con su trabajo Estos programas difieren de otros
programas de certificación en línea por varias razones Primero, estos programas ofrecen títulos reconocidos a nivel mundial
ofrecidos por universidades nacionales e internacionales de renombre como el Instituto Internacional de Tecnología de la Información
Bangalore y Universidad de Arizona.

En segundo lugar, el plan de estudios de estos cursos está preparado para la industria. Esto significa que buscar trabajo se vuelve
mucho más fácil después de estos cursos. Finalmente, incluso obtiene apoyo de colocación
para asegurar un trabajo perfecto. Junto con eso, puede elegir diferentes especializaciones, así como aprendizaje profundo, análisis de negocios e ingeniería de datos. Entonces, si desea diferenciarse
en el campo de las ciencias de datos , consulte los cursos en línea de UpGrad. El enlace está en la descripción Como dije antes, esta tecnología en este momento tiene
un lado negativo más grande que uno positivo Necesitamos buscar soluciones para pintar
esta tecnología en una luz positiva El primero es que tendremos que
dar un impulso a alfabetización digital y brindar a las personas las habilidades para
ayudarlos a identificar un video profundamente falso Giorgio Patrini, fundador de Sensity, dice que si está viendo un video que es muy sensacional, su primera reacción debería ser
cuestionar su precisión.

No es demasiado difícil detectar
una falsificación profunda de mala calidad. Con la tecnología actual, los detalles finos
como la sincronización de labios, la calidad de la piel y el cabello aún no son perfectos. IIT-Ropar y la Universidad de Monash en
Australia han desarrollado 'FakeBuster', que ayuda a detectar videos falsos profundos Si queremos seguir un paso adelante, el gobierno
y los institutos de educación privados deben financiar tecnologías de detección falsas profundas Las empresas privadas también pueden desempeñar
un papel importante en esto al ayudar a cerrar la brecha entre
la oferta y la demanda de habilidades Los cursos de ciencia de datos por upGrad
son un paso en una dirección similar En términos de legislación, los autores Simran Jain
y Piyush Jha han escrito que en India no existe una ley explícita que prohíba las falsificaciones profundas.

En medio de las leyes vigentes, es
ilegal producir material sexualmente explícito, pero no está claro si estas regulaciones
pueden abordar las falsificaciones profundas o no. Aparte de eso, también debemos reflexionar
sobre sus efectos en la política. Por ejemplo, el estado de California en 2019. aprobó un proyecto de ley que hizo ilegal la circulación de videos falsos
de políticos dentro de los 60 días de la fecha de las elecciones. Es posible que la tecnología no sea
muy avanzada en este momento, debemos darnos cuenta de que podría volverse
avanzada en algún momento y es por eso que se debe
prestar la debida importancia a este problema.

Hao Li, un experto en Deepfake, dijo que esta tecnología se está desarrollando extremadamente. rápidamente. Podría llegar un momento en el que no haya forma de que
podamos detectar deepfakes de los originales y es por eso que debemos pensar
en este problema hoy mismo. Espero que les haya gustado este video. Como se mencionó anteriormente, consulte
los cursos de ciencia de datos de upGrad. El enlace está en la descripción. Nos reuniremos en el próximo video.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *