Los niños debieran ser –y digo debieran porque hoy la humanidad irrespeta hasta lo más sagrado– intocables. En su entorno no podría haber más que cuidado y protección, que parecen lo mismo, pero no lo son. Ellos deberían poder disfrutar de su inocencia sin que nadie se atreva a lacerarla o intente –siquiera– empañarla de forma alguna.
Sin embargo, la suciedad que carcome a ciertas mentes adultas ha comenzado a esparcirse, cual mugre venenosa, hasta tocar con su ponzoña las tecnologías. Así, al alcance de un clic se ven niños protagonistas de contenidos sexualizados, incluida la nudificación, referida al uso de las herramientas de inteligencia artificial (IA) para retirar o modificar la ropa en fotografías.
Se trata de deepfakes, imágenes, videos o grabaciones de voz generados o manipulados por IA con apariencia de realidad, cuya proliferación en las redes preocupa al Fondo de las Naciones Unidas para la Infancia (Unicef), y debiera ocuparnos a todos.
Esta tecnología de simulación, que mediante algoritmos puede crear virtualmente personas y recrear sucesos que realmente no tuvieron lugar, cuando se usa para sexualizar menores, es considerada como abuso, aunque sea falsa. «El daño que causan es absolutamente real», afirmó la Unicef en una Declaración oficial, el pasado 4 de febrero.
Sobre la magnitud de este «problema, que no deja de agravarse», la agencia de la ONU se refirió a un estudio que lleva a cabo en 11 países, donde «al menos 1,2 millones de niños y niñas revelaron haberse visto afectados en el último año por la manipulación de sus imágenes mediante deepfakes con contenido sexual explícito».
Asimismo, el documento señala que muchos de los niños son conscientes del peligro que corren, e incluso, en la investigación se ha hecho palpable su preocupación al respecto.
Utilizar la imagen o la identidad de un niño lo convierte directamente en víctima, insiste la Unicef. Aun cuando no exista una víctima identificable, un material generado por IA que muestre abusos sexuales de niños «normaliza la explotación sexual infantil, impulsa la demanda de contenidos abusivos y plantea importantes obstáculos a las fuerzas del orden a la hora de identificar y proteger a los niños y niñas que necesitan ayuda».
Se trata de una situación que se va de las manos de las familias, y así lo reconoce el Fondo: «existen demasiados modelos de IA que no se están desarrollando con las salvaguardias adecuadas. Los riesgos pueden agravarse cuando las herramientas de ia generativa se integran directamente en las plataformas de redes sociales, donde las imágenes manipuladas pueden difundirse con rapidez».















COMENTAR
Responder comentario