Una aberrante aplicación desnuda a mujeres con inteligencia artificial

androidpit thumbs down
© shutterstock.com

Leer en otros idiomas:

Quitarle la ropa a fotos de mujeres con un simple toque. Esta es la horrible idea detrás de DeepNude, un software que utiliza redes neuronales de inteligencia artificial para que las féminas aparezcan desnudas en un abrir y cerrar de ojos. El resultado es tan realista que asusta. Y no asusta solo el resultado... Se trata de una auténtica e inadmisible invasión a la privacidad.

Cualquier mujer puede ser víctima de los "Rayos X" de DeepNude, como ellos mismos describen su app de IA. Solo basta tener una foto de ella -cuanta menos ropa, mejor y más efectivo, claro- y subirla. A partir de ahí, el software crea una nueva imagen, generada por algoritmos, de la mujer desprovista de todo atuendo y en la que se pueden apreciar claramente los pechos y la vagina de la protagonista en cuestión. Y todo en menos de un minuto.

Y sí, decimos mujeres porque, tal y como nuestros compañeros de Motherboard de Vice señalan en su artículo, cuando intentaron usar la imagen de un hombre DeepNude inmediatamente cambió sus pantalones por una vulva. Así, tal cual. Las mujeres son el único objetivo de DeepNude... ¡Hasta ahora! En la web ya podemos leer que están trabajando en los desnudos masculinos. Igualmente escandaloso.

deepnude app
¡Una auténtica aberración! / © DeepNude

DeepNude se ha lanzado el 23 de junio como una página web -que, por supuesto no voy a compartir aquí- pero es a través de una aplicación para Windows y Linux donde el usuario puede subir las imágenes que quiera de quien quiera. La porno venganza es ahora más fácil que nunca... O sin llegar a esos términos, cualquiera puede robar una foto de internet de su compañera de trabajo, vecina, conocida... y tenerla en casa desnuda para su uso y disfrute.

"Esto es absolutamente aterrador", comentó a Motherboard Katelyn Bowden, fundadora y directora ejecutiva de la organización de activismo contra la porno venganza Badass. "Ahora cualquiera puede ser víctima de la venganza del porno, sin haber tomado una foto desnuda. Esta tecnología no debería estar disponible para el público".

Y es que aunque no se vean pechos o vaginas reales, los usuarios al otro lado piensan que te están viendo desnuda. Algo inadmisible. Por mucho que ponga "fake" en la imagen del desnudo. Estamos sin duda ante una nueva forma de los famosos y peligrosos deepfakes.

Hasta hace unos días, quien quisiera podía ver a cualquiera desnuda por 50 dólares, pero debido probablemente a la gran demanda (gesto de repugnancia máxima) ahora hay que pagar 99,99 dólares. Desembolsando esta cantidad se accede a la opción premium con la que puedes hasta modificar mejor la imagen. Eso sí, también se pueden ver desnudos gratis en la versión de no pago, con la que las imágenes están cubiertas en algunas partes por una marca de agua.

¿Hasta dónde vamos a llegar? ¿Habrá algún momento en que este tipo de páginas se prohíban? 

DeepNude hecha el cierre tras viralizarse en los medios ¡Una batalla ganada!

Menos de 24 horas después de publicar este artículo me he encontrado con una grata noticia en The Verge. La polémica y escandalosa aplicación DeepNude ha sido cerrada por sus creadores porque "el mundo no está preparado todavía", aseguran. ¿En serio? Quizá lo de poner en manos de cualquiera algo que deja indefensas a las mujeres sea algo para lo que nadie debería prepararse nunca... Vamos, digo yo.

En cualquier caso, y lejos de convertir este texto en un alegato, no puedo estar más contenta. El cierre tan rápido después de que medios de comunicación de todo el mundo pusieran el grito en el cielo nos enseña una cosa. Y es que, cada vez más, alzar la voz en pro de proteger los derechos de las personas merece la pena. Los que trabajamos en los medios tenemos una responsabilidad en este sentido. Esperemos que las leyes sigan el camino...

Aunque sus creadores se excusan en que "la probabilidad de que la gente haga un mal uso es demasiado alta" (qué cara más dura), que ésta no funcionaba tan bien y que no son capaces de controlar el gran tráfico generado (qué tristeza, por otra parte, que 500.000 personas haya usado DeepNude), la app no debería haberse lanzado en primer lugar en mi modesta opinión. Eso sí, sea por lo que sea por lo que ya no habrá más DeepNude, la batalla está ganada.

Fuente: Vice

Ir al comentario (11)
Silvia Santos

Silvia Santos
Redactora

Periodista de profesión y por pura vocación, Silvia escribe desde que tiene uso de razón, incluso antes de saber escribir bien. La comunicación y la música son sus verdaderas pasiones, por eso siempre está pegada a su smartphone y a unos cascos. Desde hace más de un año ya, la tecnología es su nuevo amor y cada día se enamora un poco más de ella. Silvia está muy centrada en el papel de las mujeres en este mundo tecnológico, a veces tan reservado a los hombres.

Te ha gustado este artículo? Compártelo!
Artículos recomendados
Notificación push Artículo siguiente
11 Comentarios
Escribir un nuevo comentario:
Los cambios realizados se guardarán. No hay borradores guardados durante su edición
Escribir un nuevo comentario:
Los cambios realizados se guardarán. No hay borradores guardados durante su edición

  • Неуроник 19
    Неуроник 8 jul. 2019 Link al comentario

    Y que tal dejar escoger la combinación que más de uno quiere trastear, o es demasiado pertubador para las mentes femeninas de ver una cara de mujer con bello y pelotas o viceversa, XD
    El que encuentra eso como peligroso y que se debería prohibir tal-vez debería madurar y entender que el cuerpo humano es una cosa natural, al mundo no venimos con ropa y maquillaje con un palo selfie a la mano.


    • Silvia Santos 13
      Silvia Santos 8 jul. 2019 Link al comentario

      Para mí el desnudo es algo natural, ninguna duda de eso. Pero ver desnuda a una persona (aunque sea un desnudo fake) que no ha accedido a eso es una violación de la intimidad. Al menos así lo veo yo.


      • Неуроник 19
        Неуроник 9 jul. 2019 Link al comentario

        En caso de publicarlo en una red social, difundirlo por email etc.. es lo que digo, si la herramienta se le da un mal uso no es culpa de la herramienta en si, sino del que la usa para estos fines


  • 25
    Vinsu Karma 29 jun. 2019 Link al comentario

    Digo yo que sea capaz de poner en pelotas a cualquiera ¿no?


  • Miguel Mayol 8
    Miguel Mayol 28 jun. 2019 Link al comentario

    Horrible es matar de hambre directa o indirectamente con tu voto, mintiendo en las TVs ocultando la solución al paro que siempre funciona (subir sueldos y bajar jornadas medias) y posicionando mal las alternativas pro 99%.
    Esto es un divertimento de un filtro más de fotos que debe dejar claro con marcas de agua que son falsas, y que deberían haber tenido la delicadeza de hacerlo también con hombres. Escrito esto hasta las mujeres más seguidistas de los mantras modernos, se echarían unas risas viendo los falsos desnudos del filtro fotográfico de sus familiares y amigos y de ellas mismas más que excitación sexual para la que hay otras aplicaciones. ¿Que es lo horroroso?: ¿El cuerpo desnudo? ¿Hay que prohibir el David el discóbolo o la venus de milo? ¿las risas? sobre los hipotéticos resultados, ¿o la falta de imaginación? ¿O el sexo, dado el caso? ¿Acaso no estamos - casi - todas aquí gracias al sexo?


    • Silvia Santos 13
      Silvia Santos 28 jun. 2019 Link al comentario

      ¿A ti te gustaría que tu hermana, madre, novia (si la tienes) o cualquiera de tus amigas apareciera en alguna de esas fotos (aunque fuera fake) porque un compañero del trabajo, por ejemplo, robara una imagen de internet?
      Que haya otras cosas horribles y peores no quiere decir que esto no lo sea. Es una invasión a la privacidad en toda regla.


      • 25
        Vinsu Karma 29 jun. 2019 Link al comentario

        ¿Discrimina por sexos la app? seguro que es capaz de poner en pelotas a cualquiera.


      • 10
        Prince 30 jun. 2019 Link al comentario

        Le das la importancia que los tíos normales no le damos xD es una estupidez de app que no va a ningún lado, el debate es estéril.


      • 2
        Anibus 30 jun. 2019 Link al comentario

        A nada que leas un poquito del artículo verás que sí, la app solo funcionaba con mujeres

        Silvia Santos


      • 5
        Pedro G. 3 jul. 2019 Link al comentario

        Creo exagerado el artículo de la app. ¿Sería de mayor calidad esta app si en vez de un supuesto "cuerpo desnudo" pusiera un cuerpo de cebra o perro o gato?

        Por supuesto que es una violación de la intimidad que se publique o incluso que se haga una foto de una persona desnuda sin su consentimiento; pero no siendo su cuerpo, ¿es violación de la intimidad? Lo dudo mucho.
        Y si alguien fantasea con esa imagen, ¿en ese caso, deberíamos denunciar a cualquiera que puede crear esa imagen en su imaginación? Pues deberíamos estar en la cárcel todos los de la era pre-internet.

        Está claro que en la app quisieron que aparecieran hombres también, pero no funcionaba. Sospecho que la causa podría ser que haya más fotos circulando de mujeres que de hombres, y el volumen de datos provocaba esos resultados.

        Estoy de acuerdo con los creadores en que "la probabilidad de que la gente haga un mal uso es demasiado alta" y "el mundo no está preparado todavía". Lo segundo implica que se produzca lo primero.
        Y la sociedad no está preparada porque se le da demasiada importancia al desnudo. Se os olvida que una persona desnuda tiene un cuerpo parecido a otras 3.500.000.000 en el mundo. Pero mientras los medios sigan haciendo noticias de que a alguien le han pillado en pelotas, seguiremos con estas tonterías.


      • Неуроник 19
        Неуроник 8 jul. 2019 Link al comentario

        Por eso está la leyes, que un demente coge esa app para crear daño a otra persona, no es culpa de la app, vaya que sino todo se debería retirar por "mal uso" mejor educar que vivimos en sociedad y se debe seguir unas normas de convivencia y castigar los que violan eso

Escribir un nuevo comentario:
Los cambios realizados se guardarán. No hay borradores guardados durante su edición