1. Número 1 · Enero 2015

  2. Número 2 · Enero 2015

  3. Número 3 · Enero 2015

  4. Número 4 · Febrero 2015

  5. Número 5 · Febrero 2015

  6. Número 6 · Febrero 2015

  7. Número 7 · Febrero 2015

  8. Número 8 · Marzo 2015

  9. Número 9 · Marzo 2015

  10. Número 10 · Marzo 2015

  11. Número 11 · Marzo 2015

  12. Número 12 · Abril 2015

  13. Número 13 · Abril 2015

  14. Número 14 · Abril 2015

  15. Número 15 · Abril 2015

  16. Número 16 · Mayo 2015

  17. Número 17 · Mayo 2015

  18. Número 18 · Mayo 2015

  19. Número 19 · Mayo 2015

  20. Número 20 · Junio 2015

  21. Número 21 · Junio 2015

  22. Número 22 · Junio 2015

  23. Número 23 · Junio 2015

  24. Número 24 · Julio 2015

  25. Número 25 · Julio 2015

  26. Número 26 · Julio 2015

  27. Número 27 · Julio 2015

  28. Número 28 · Septiembre 2015

  29. Número 29 · Septiembre 2015

  30. Número 30 · Septiembre 2015

  31. Número 31 · Septiembre 2015

  32. Número 32 · Septiembre 2015

  33. Número 33 · Octubre 2015

  34. Número 34 · Octubre 2015

  35. Número 35 · Octubre 2015

  36. Número 36 · Octubre 2015

  37. Número 37 · Noviembre 2015

  38. Número 38 · Noviembre 2015

  39. Número 39 · Noviembre 2015

  40. Número 40 · Noviembre 2015

  41. Número 41 · Diciembre 2015

  42. Número 42 · Diciembre 2015

  43. Número 43 · Diciembre 2015

  44. Número 44 · Diciembre 2015

  45. Número 45 · Diciembre 2015

  46. Número 46 · Enero 2016

  47. Número 47 · Enero 2016

  48. Número 48 · Enero 2016

  49. Número 49 · Enero 2016

  50. Número 50 · Febrero 2016

  51. Número 51 · Febrero 2016

  52. Número 52 · Febrero 2016

  53. Número 53 · Febrero 2016

  54. Número 54 · Marzo 2016

  55. Número 55 · Marzo 2016

  56. Número 56 · Marzo 2016

  57. Número 57 · Marzo 2016

  58. Número 58 · Marzo 2016

  59. Número 59 · Abril 2016

  60. Número 60 · Abril 2016

  61. Número 61 · Abril 2016

  62. Número 62 · Abril 2016

  63. Número 63 · Mayo 2016

  64. Número 64 · Mayo 2016

  65. Número 65 · Mayo 2016

  66. Número 66 · Mayo 2016

  67. Número 67 · Junio 2016

  68. Número 68 · Junio 2016

  69. Número 69 · Junio 2016

  70. Número 70 · Junio 2016

  71. Número 71 · Junio 2016

  72. Número 72 · Julio 2016

  73. Número 73 · Julio 2016

  74. Número 74 · Julio 2016

  75. Número 75 · Julio 2016

  76. Número 76 · Agosto 2016

  77. Número 77 · Agosto 2016

  78. Número 78 · Agosto 2016

  79. Número 79 · Agosto 2016

  80. Número 80 · Agosto 2016

  81. Número 81 · Septiembre 2016

  82. Número 82 · Septiembre 2016

  83. Número 83 · Septiembre 2016

  84. Número 84 · Septiembre 2016

  85. Número 85 · Octubre 2016

  86. Número 86 · Octubre 2016

  87. Número 87 · Octubre 2016

  88. Número 88 · Octubre 2016

  89. Número 89 · Noviembre 2016

  90. Número 90 · Noviembre 2016

  91. Número 91 · Noviembre 2016

  92. Número 92 · Noviembre 2016

  93. Número 93 · Noviembre 2016

  94. Número 94 · Diciembre 2016

  95. Número 95 · Diciembre 2016

  96. Número 96 · Diciembre 2016

  97. Número 97 · Diciembre 2016

  98. Número 98 · Enero 2017

  99. Número 99 · Enero 2017

  100. Número 100 · Enero 2017

  101. Número 101 · Enero 2017

  102. Número 102 · Febrero 2017

  103. Número 103 · Febrero 2017

  104. Número 104 · Febrero 2017

  105. Número 105 · Febrero 2017

  106. Número 106 · Marzo 2017

  107. Número 107 · Marzo 2017

  108. Número 108 · Marzo 2017

  109. Número 109 · Marzo 2017

  110. Número 110 · Marzo 2017

  111. Número 111 · Abril 2017

  112. Número 112 · Abril 2017

  113. Número 113 · Abril 2017

  114. Número 114 · Abril 2017

  115. Número 115 · Mayo 2017

  116. Número 116 · Mayo 2017

  117. Número 117 · Mayo 2017

  118. Número 118 · Mayo 2017

  119. Número 119 · Mayo 2017

  120. Número 120 · Junio 2017

  121. Número 121 · Junio 2017

  122. Número 122 · Junio 2017

  123. Número 123 · Junio 2017

  124. Número 124 · Julio 2017

  125. Número 125 · Julio 2017

  126. Número 126 · Julio 2017

  127. Número 127 · Julio 2017

  128. Número 128 · Agosto 2017

  129. Número 129 · Agosto 2017

  130. Número 130 · Agosto 2017

  131. Número 131 · Agosto 2017

  132. Número 132 · Agosto 2017

  133. Número 133 · Septiembre 2017

  134. Número 134 · Septiembre 2017

  135. Número 135 · Septiembre 2017

  136. Número 136 · Septiembre 2017

  137. Número 137 · Octubre 2017

  138. Número 138 · Octubre 2017

  139. Número 139 · Octubre 2017

  140. Número 140 · Octubre 2017

  141. Número 141 · Noviembre 2017

  142. Número 142 · Noviembre 2017

  143. Número 143 · Noviembre 2017

  144. Número 144 · Noviembre 2017

  145. Número 145 · Noviembre 2017

  146. Número 146 · Diciembre 2017

  147. Número 147 · Diciembre 2017

  148. Número 148 · Diciembre 2017

  149. Número 149 · Diciembre 2017

  150. Número 150 · Enero 2018

  151. Número 151 · Enero 2018

  152. Número 152 · Enero 2018

  153. Número 153 · Enero 2018

  154. Número 154 · Enero 2018

  155. Número 155 · Febrero 2018

  156. Número 156 · Febrero 2018

  157. Número 157 · Febrero 2018

  158. Número 158 · Febrero 2018

  159. Número 159 · Marzo 2018

  160. Número 160 · Marzo 2018

  161. Número 161 · Marzo 2018

  162. Número 162 · Marzo 2018

  163. Número 163 · Abril 2018

  164. Número 164 · Abril 2018

  165. Número 165 · Abril 2018

  166. Número 166 · Abril 2018

  167. Número 167 · Mayo 2018

  168. Número 168 · Mayo 2018

  169. Número 169 · Mayo 2018

  170. Número 170 · Mayo 2018

  171. Número 171 · Mayo 2018

  172. Número 172 · Junio 2018

  173. Número 173 · Junio 2018

  174. Número 174 · Junio 2018

  175. Número 175 · Junio 2018

  176. Número 176 · Julio 2018

  177. Número 177 · Julio 2018

  178. Número 178 · Julio 2018

  179. Número 179 · Julio 2018

  180. Número 180 · Agosto 2018

  181. Número 181 · Agosto 2018

  182. Número 182 · Agosto 2018

  183. Número 183 · Agosto 2018

  184. Número 184 · Agosto 2018

  185. Número 185 · Septiembre 2018

  186. Número 186 · Septiembre 2018

  187. Número 187 · Septiembre 2018

  188. Número 188 · Septiembre 2018

  189. Número 189 · Octubre 2018

  190. Número 190 · Octubre 2018

  191. Número 191 · Octubre 2018

  192. Número 192 · Octubre 2018

  193. Número 193 · Octubre 2018

  194. Número 194 · Noviembre 2018

  195. Número 195 · Noviembre 2018

  196. Número 196 · Noviembre 2018

  197. Número 197 · Noviembre 2018

  198. Número 198 · Diciembre 2018

  199. Número 199 · Diciembre 2018

  200. Número 200 · Diciembre 2018

  201. Número 201 · Diciembre 2018

  202. Número 202 · Enero 2019

  203. Número 203 · Enero 2019

  204. Número 204 · Enero 2019

  205. Número 205 · Enero 2019

  206. Número 206 · Enero 2019

  207. Número 207 · Febrero 2019

  208. Número 208 · Febrero 2019

  209. Número 209 · Febrero 2019

  210. Número 210 · Febrero 2019

  211. Número 211 · Marzo 2019

  212. Número 212 · Marzo 2019

  213. Número 213 · Marzo 2019

  214. Número 214 · Marzo 2019

  215. Número 215 · Abril 2019

  216. Número 216 · Abril 2019

  217. Número 217 · Abril 2019

  218. Número 218 · Abril 2019

  219. Número 219 · Mayo 2019

  220. Número 220 · Mayo 2019

  221. Número 221 · Mayo 2019

  222. Número 222 · Mayo 2019

  223. Número 223 · Mayo 2019

  224. Número 224 · Junio 2019

  225. Número 225 · Junio 2019

  226. Número 226 · Junio 2019

  227. Número 227 · Junio 2019

  228. Número 228 · Julio 2019

  229. Número 229 · Julio 2019

  230. Número 230 · Julio 2019

  231. Número 231 · Julio 2019

  232. Número 232 · Julio 2019

  233. Número 233 · Agosto 2019

  234. Número 234 · Agosto 2019

  235. Número 235 · Agosto 2019

  236. Número 236 · Agosto 2019

  237. Número 237 · Septiembre 2019

  238. Número 238 · Septiembre 2019

  239. Número 239 · Septiembre 2019

  240. Número 240 · Septiembre 2019

  241. Número 241 · Octubre 2019

  242. Número 242 · Octubre 2019

  243. Número 243 · Octubre 2019

  244. Número 244 · Octubre 2019

  245. Número 245 · Octubre 2019

  246. Número 246 · Noviembre 2019

  247. Número 247 · Noviembre 2019

  248. Número 248 · Noviembre 2019

  249. Número 249 · Noviembre 2019

  250. Número 250 · Diciembre 2019

  251. Número 251 · Diciembre 2019

  252. Número 252 · Diciembre 2019

  253. Número 253 · Diciembre 2019

  254. Número 254 · Enero 2020

  255. Número 255 · Enero 2020

  256. Número 256 · Enero 2020

  257. Número 257 · Febrero 2020

  258. Número 258 · Marzo 2020

  259. Número 259 · Abril 2020

  260. Número 260 · Mayo 2020

  261. Número 261 · Junio 2020

  262. Número 262 · Julio 2020

  263. Número 263 · Agosto 2020

  264. Número 264 · Septiembre 2020

  265. Número 265 · Octubre 2020

  266. Número 266 · Noviembre 2020

  267. Número 267 · Diciembre 2020

  268. Número 268 · Enero 2021

  269. Número 269 · Febrero 2021

  270. Número 270 · Marzo 2021

  271. Número 271 · Abril 2021

  272. Número 272 · Mayo 2021

  273. Número 273 · Junio 2021

  274. Número 274 · Julio 2021

  275. Número 275 · Agosto 2021

  276. Número 276 · Septiembre 2021

  277. Número 277 · Octubre 2021

CTXT necesita 15.000 socias/os para seguir creciendo. Suscríbete a CTXT

ciberacoso

Inteligencia artificial al servicio de la pornografía: cuando tu cara está en un vídeo falso

Los nuevos algoritmos permiten revivir a Lola Flores o crear un Tom Cruise ‘fake’. Pero, sobre todo, se usan en el porno. El 96% de los vídeos manipulados son pornografía y el 100% de las víctimas, mujeres

Gabriela Martínez 13/04/2021

<p>Fotograma del vídeo en el que se explica cómo se hizo el anuncio de Cruzcampo.</p>

Fotograma del vídeo en el que se explica cómo se hizo el anuncio de Cruzcampo.

cruzcampoTV

A diferencia de otros medios, en CTXT mantenemos todos nuestros artículos en abierto. Nuestra apuesta es recuperar el espíritu de la prensa independiente: ser un servicio público. Si puedes permitirte pagar 4 euros al mes, apoya a CTXT. ¡Suscríbete!

Un día la activista y abogada australiana Noelle Martin descubrió que circulaban en internet desde hace meses dos vídeos porno con su rostro. Parecía ella pero no era ella. Alguien había tomado y manipulado las fotos de sus redes sociales y creado falsos vídeos porno con ellas. Tenía entonces 17 años. 

Martin, que tiene ahora 26 años, acudió a la policía pero no consiguió nada. “No había ninguna ley específica en ese momento”, recuerda. Intentó entonces retirar el material pero este seguía difundiéndose en la red y cada vez era más difícil controlarlo.

“Sentí que no tenía otra opción más que hablar”, asegura.

La poeta inglesa Helen Mort también decidió hablar luego de que le ocurriera algo similar. La mujer se llevó una terrible sorpresa cuando vio su rostro en vídeos sexuales explícitos y violentos. Su cara y su nombre circulaban con total libertad en una página de pornografía. Pero, por más reales que parecieran, esas imágenes eran falsas. Ella nunca había compartido fotos íntimas. Alguien había editado esos vídeos con imágenes suyas tomadas a lo largo de los últimos tres años de fotos con su familia y de vacaciones que había compartido en sus redes sociales. 

La policía en Reino Unido tampoco hizo nada por ella.

Mort, también locutora, maestra y madre, fue a la policía en Reino Unido. Pero esta no pudo hacer nada por ella. Aunque algunas formas de pornovenganza son ilegales en este país, no existe una regulación propia para los videos falsos, o deepfakes, como aquellos en los que aparecía ella. “Mi calvario me dejó asustada, avergonzada, paranoica y devastada”, ha asegurado en una campaña que lanzó para cambiar las leyes.

Hechos con herramientas de inteligencia artificial, los deepfakes permiten hacer que la gente diga cosas que nunca dijo y que haga cosas que nunca hizo. Como hacer revivir a la fallecida cantante Lola Flores o crear un falso actor Tom Cruise hablando en TikTok y jugando golf.

Las páginas más importantes de pornografía recibieron más de 134 millones de visualizaciones de vídeos con rostros de famosas de todo el mundo en febrero de 2018

El término fue empleado por primera vez por un usuario de la red social Reddit en noviembre de 2017, quien creó un foro dedicado a utilizar un software para intercambiar caras de mujeres famosas en vídeos pornográficos. Un algoritmo de aprendizaje automático coloca el rostro en una imagen seleccionada mediante una técnica de mapeo facial, manteniendo las proporciones, y luego lo replica en los sucesivos fotogramas del vídeo.

Y desde entonces su principal uso es precisamente ese: crear contenido pornográfico sin consentimiento. Según un estudio de la startup de ciberseguridad Sensity AI con sede en Ámsterdam, el 96% de estos vídeos falsos es pornografía no consentida. Y el 100% de las víctimas son mujeres.

La empresa descubrió que ocho de los 10 principales sitios de pornografía tiene contenido falso. Las cuatro páginas más importantes recibieron más de 134 millones de visualizaciones de vídeos con rostros de mujeres famosas de todo el mundo en febrero de 2018.

Muchos de estos vídeos son creados para silenciar a las mujeres. “Habían creado estos vídeos como un arma para intimidarme porque yo era una activista que hablaba de estos abusos”, asegura Martin. “Creo que es solo cuestión de tiempo para que veamos que esto ocurre a una escala tan amplia que puede afectar a las mujeres de todo el mundo”, agrega.

Como advierte Nina Schick, especialista en ciberseguridad y tecnología en el libro Deepfakes: el próximo infocalipsis, cualquiera puede ser objeto de estos. Y su creación no para de crecer. La periodista asegura que en 2021 una proporción cada vez mayor de los vídeos en línea serán sintéticos, generados total o parcialmente con inteligencia artificial. Para Schick, los deepfakes son la última amenaza de un ecosistema informativo roto, caracterizado por la desinformación. Por ello, estos se desarrollarán más como armas de fraude y propaganda política, precisa.

Más de 100.000 mujeres han sido víctimas del bot. El 70% de las víctimas son mujeres cuyas fotos fueron tomadas de sus redes sociales

Cada vez es más fácil crear un deepfake de cualquier mujer desnuda. Tras la aparición de DeepNude, una aplicación que permitía a sus usuarios subir una foto de una mujer vestida y recibir una donde aparecía aparentemente desnuda, otro informe de Sensity AI descubrió un bot en la aplicación de mensajería Telegram que permite subir una foto y recibir una versión desnuda. Más de 100.000 mujeres han sido víctimas de dicho bot, incluyendo menores de edad. El 70% de las víctimas son mujeres cuyas fotos fueron tomadas de sus redes sociales. 

Vacío legal 

Al tratarse de una herramienta reciente, pocos países han regulado su uso. De acuerdo con el abogado Ricardo Oliva, experto en derecho digital y socio director de la firma Algoritmo Legal, la Unión Europea está trabajando una regulación integral de la inteligencia artificial pero todavía no existe una norma que sea jurídicamente vinculante. En concreto, la UE está estudiando tres proyectos aprobados por el Parlamento Europeo en octubre de 2020. “Uno de estos regula el marco ético de la inteligencia artificial. El segundo versa sobre la responsabilidad civil por los daños generados. Y el tercero es sobre la propiedad intelectual y la propiedad industrial de la inteligencia artificial”, detalla. Se espera que a finales de este año, la Comisión Europea ya haya aprobado estos proyectos, precisa Oliva.

Según este experto, de acuerdo con la legislación vigente, un deepfake podría considerarse un supuesto de “intromisión ilegítima” al derecho al honor, intimidad e imagen y da derecho a la víctima de solicitar una indemnización de daños y perjuicios y a pedir la retirada del contenido vejatorio. Esta acción habría que interponerla directamente contra el agresor (que sería la persona que creó el vídeo falso y/o la difundió por la red o a través de una plataforma).

La pornovenganza, la distribución en redes sociales de imágenes privadas de índole sexual de una persona sin su consentimiento, sí está regulada por el código penal. “Yo, por ejemplo, puedo autorizar a mi pareja o pude haber autorizado a mi expareja a que me grabe. Pero si esta persona, después de que nos separamos, lo difunde en internet, eso es delito, porque yo solamente le he autorizado a que lo vea, no a que lo difunda”, explica Oliva. “La intimidad, igual que la imagen, el honor, y los datos personales, son derechos fundamentales, hay que protegerlos”, enfatiza.

Sin embargo, Oliva hace hincapié en que las plataformas “no son responsables por los contenidos que compartan sus usuarios a no ser que sean manifiestamente ilícitos y que tengan conocimiento de esa ilicitud”.

En el mundo existen pocos avances. Australia prohibió la distribución de vídeos alterados de personas con connotaciones sexuales tras la lucha de Martin. Reino Unido prohíbe la pornovenganza pero no los materiales falsificados. En Estados Unidos, 46 estados también prohíben la primera pero solo dos estados toman en cuenta los contenidos falsos.

Qué hacer si esto me pasa a mí

“Denunciar, denunciar y denunciar”, enfatiza Encarni Iglesias Pereira, presidenta de la Asociación Stop Violencia de Género Digital. Mientras que Oliva señala que lo primero que tiene que hacer una mujer en una situación así es capturar la evidencia digital. “En un proceso judicial es muy importante porque es la prueba que tienes”, asegura. Enseguida tiene que dirigirse a la plataforma que publicó el vídeo para que lo elimine. Y en función de la gravedad del asunto, la víctima podría optar entre ir por la vía civil o penal contra el agresor.

“Nunca te culpes a ti misma”, dice Martin. Aunque considera que ya ha pasado por lo más difícil, confiesa que este abuso “puede causar un daño permanente”. Ella todavía siente que sigue lidiando con ello. “Saber que todos tus colegas, amigos y personas que conoces sabrán de esto es difícil”, asegura. Pero “si buscas ayuda y tratas de rodearte de gente que te apoye, entonces puedes salir adelante y puedes ser feliz” 

Ciberacoso en época de pandemia

Este tipo de amenazas es una nueva cara del acoso que viven las mujeres en la red y que no ha hecho sino recrudecerse durante la pandemia. “Hemos aumentado muchísimo las horas que pasamos tras las pantallas con el confinamiento, los delitos se han triplicado o más en esta época”, asegura Iglesias. 

Un 60% de niñas de entre 15 y 25 años ha sufrido acoso online. Como consecuencia una de cada cinco ha abandonado o reducido el uso de alguna red social

Y si el entorno digital ya es hostil para ellas, estos nuevos medios lo hacen aún más violento. “Cuanto más sofisticadas sean las herramientas y más mecanismos haya para discriminarlas, acosarlas o ejercer violencia contra ellas, si ellas no están preparadas y las plataformas de redes sociales tampoco tienen los mecanismos adecuados, las consecuencias pueden ser más graves”, señala Julia López, portavoz de Plan Internacional. 

El acoso a las niñas y jóvenes es un fenómeno que del que ya alertaba esta ONG antes de la pandemia en un informe según el cual un 60% de niñas de entre 15 y 25 años ha sufrido acoso online. Y como consecuencia de este acoso, una de cada cinco niñas ha abandonado o reducido significativamente el uso de alguna red social. El informe concluye que “no existen los mecanismos adecuados de denuncia, de reporte y de seguimiento de estos casos de acoso”, explica López.

El ciberacoso “es una forma de silenciarlas, de expulsarlas [de la red], de hacerles sentir mal o menos”, señala, y se agrava cuando ellas muestran sus opiniones personales o políticas. “Es una especie de reacción y de discriminación por razón de género. Les ocurre porque son mujeres y porque son jóvenes en mayor medida”, concluye.

Un día la activista y abogada australiana Noelle Martin descubrió que circulaban en internet desde hace meses dos vídeos porno con su rostro. Parecía ella...

El artículo solo se encuentra publicado para las personas suscritas a CTXT. Puedes suscribirte aquí

Autora >

Gabriela Martínez

Suscríbete a CTXT

Orgullosas
de llegar tarde
a las últimas noticias

Gracias a tu suscripción podemos ejercer un periodismo público y en libertad.
¿Quieres suscribirte a CTXT por solo 6 euros al mes? Pulsa aquí

Artículos relacionados >

Deja un comentario


Los comentarios solo están habilitados para las personas suscritas a CTXT. Puedes suscribirte aquí