Relatório da Internet Watch Foundation revela aumento de deepfakes altamente realistas no cenário da pornografia infantil.
O mais recente relatório da Internet Watch Foundation destaca que o abuso sexual infantil continua sendo um problema alarmante, com a preocupante evolução das imagens de abuso sexual infantil geradas por IA. A utilização da tecnologia tem possibilitado que criminosos criem vídeos deepfake com uma qualidade quase perfeita, inserindo o rosto ou a imagem de outra pessoa em um vídeo real, o que torna a situação ainda mais grave.
É crucial combater a disseminação de material de abuso sexual infantil, seja em imagens ou vídeos, especialmente aqueles produzidos por IA. A criação de vídeos de abuso sexual de crianças manipulados por IA representa uma ameaça séria, exigindo ação imediata para proteger as vítimas e prevenir a propagação desse conteúdo prejudicial. A sociedade precisa se unir para enfrentar essa questão complexa e garantir a segurança das crianças em todos os aspectos.
Impacto do Abuso Sexual Infantil na Era Digital
A capacidade de transformar qualquer cenário em uma realidade visual está sendo explorada por criminosos que se vangloriam, em um fórum da dark web, sobre a habilidade de ‘produzir qualquer pornografia infantil que desejarmos (…) em alta definição’, conforme relatório da Internet Watch Foundation (IWF). O mais recente relatório da IWF, publicado nesta segunda-feira (22), destaca a crescente presença de vídeos de IA retratando abuso sexual de crianças, com os ‘primeiros exemplos convincentes’ identificados.
A IWF observa que estão ‘aumentando os vídeos feitos por IA à medida que as ferramentas de IA que estão por trás deles se tornam mais difundidas e fáceis de usar’. Os vídeos deepfake, altamente realistas e parcialmente manipulados por IA, estão se tornando cada vez mais convincentes, com rostos – às vezes de vítimas, às vezes de outras pessoas – quase indistinguíveis de vídeos reais.
Em 2023, quando os primeiros conteúdos gerados por IA foram identificados, a qualidade era mais rudimentar, segundo os investigadores. Dan Sexton, diretor de tecnologia da IWF, prevê que os vídeos futuros terão ‘maior qualidade e realismo’. Com a identificação dos primeiros vídeos totalmente sintéticos de abuso sexual infantil, a organização destaca que ‘os infratores replicaram e compartilharam modelos de IA com mais de 100 vítimas de abuso’.
Os pesquisadores da IWF, ao examinarem um fórum da dark web dedicado a material de abuso sexual infantil, descobriram nove vídeos deepfake circulando entre março e abril deste ano. Alguns desses vídeos apresentam pornografia adulta modificada para mostrar o rosto de uma criança, enquanto outros têm o rosto de uma criança sobreposto a vídeos existentes de abuso sexual infantil.
Com a evolução da tecnologia, os deepfakes se tornam ainda mais convincentes, especialmente considerando que os vídeos originais de abuso sexual infantil envolvem crianças reais. Um vídeo em particular, descrito como ‘chocante’, tem 18 segundos e é totalmente gerado por IA, mostrando um homem adulto violando uma menina que aparenta ter cerca de dez anos.
A CEO da Internet Watch Foundation, Susie Hargreaves OBE, destaca que ‘a tecnologia de IA generativa está avançando rapidamente, permitindo que os infratores criem vídeos gráficos de abuso sexual infantil de forma alarmante’. Ela alerta para o fato perturbador de que alguns desses vídeos manipulam imagens de vítimas conhecidas, tornando a situação ainda mais angustiante para os sobreviventes.
Diante desse cenário sombrio, é crucial um controle adequado para evitar que as ferramentas de IA generativas se tornem um playground para pedófilos online realizarem suas práticas abomináveis. A conscientização e a ação são fundamentais para combater o abuso sexual infantil em todas as suas formas, especialmente diante do avanço tecnológico que torna a criação de conteúdo prejudicial mais acessível.
Fonte: @ Agencia Brasil
Comentários sobre este artigo