No mundo digital de hoje, a inteligência artificial (IA) não é apenas uma ferramenta para inovações positivas. Também se tonou um recurso poderoso nas mãos de criminosos. E recentemente, a tecnologia deepfake tem sido usada para criar imagens e vídeos falsos de exploração sexual infantil. Isso torna a tarefa de identificação e proteção das vítimas um desafio cada vez maior para as autoridades policiais.
A Austrália, infelizmente, é um dos principais mercados de material de abuso sexual online, sendo o terceiro maior do mundo. A utilização de IA para gerar conteúdo de exploração infantil dificulta a identificação de vítimas reais. Ampliando também a disseminação desse material, complicando ainda mais o trabalho dos investigadores.
Imagens na Dark Web
Um relatório de 2023 revelou um aumento alarmante na quantidade de imagens geradas por IA em fóruns da dark web. Milhares dessas imagens são classificadas como criminosas sob as leis do Reino Unido. A tecnologia tradicional de identificação de vítimas e criminosos tem se mostrado insuficiente para lidar com a complexidade dos deepfakes. Para enfrentar essa ameaça, é necessário o desenvolvimento de novas abordagens tecnológicas.
Empresas de tecnologia, como Google, Meta e Amazon, estão formando alianças para combater o uso indevido de IA em conteúdos abusivos. Essas colaborações são essenciais para criar um ambiente online mais seguro, exigindo esforços conjuntos entre desenvolvedores de IA, plataformas de hospedagem e autoridades policiais.
Estratégias de Detecção
Com a proliferação e acessibilidade da IA, as forças de segurança estão enfrentando desafios sem precedentes. Estratégias emergentes envolvem o uso da própria IA para detectar e prevenir a criação e disseminação de material de exploração infantil. Ressalta-se a importância de inovações contínuas para acompanhar a evolução das ameaças digitais.
A luta contra a exploração infantil online é um esforço contínuo que requer a combinação de diversos avanços tecnológicos. Colaboração internacional e políticas rigorosas também são úteis para proteger os mais vulneráveis de nossa sociedade.
Fonte: https://techxplore.com/news/2024-06-deepfake-ai-real-harder-police.html