Ferramentas de inteligência artificial (IA) generativa são usadas para criar textos, imagens e vídeos, mudando a forma como consumimos e produzimos conteúdo online. Com a evolução dessa tecnologia, distinguir entre conteúdo gerado por IA e por humanos está cada vez mais difícil. No Laboratório PIKE da Penn State, liderado por Dongwon Lee, a pesquisa foca em determinar a integridade das informações online.
Lee enfatiza a importância de examinar a integridade do texto gerado por IA devido ao aumento das notícias falsas e desinformação. Embora pessoas consigam identificar texto de IA apenas 53% das vezes, a solução de IA do laboratório, um classificador binário, alcança precisão de 85-95%. Essa ferramenta analisa padrões linguísticos e dá respostas confiáveis sobre a origem do texto.
Apesar das melhorias na detecção, as ferramentas de IA, como o ChatGPT, estão constantemente evoluindo, tornando a identificação cada vez mais complexa. A solução de detecção desenvolvida pelo laboratório usa um modelo de rede neural avançado, cuja operação ainda não é completamente compreendida. Pesquisadores precisam antecipar os avanços dos criadores de IA para mitigar abusos potenciais.
Essas ferramentas têm implicações importantes, especialmente em áreas críticas como privacidade e segurança. Saber se um texto foi escrito por IA ou humanos é essencial para evitar desinformação. Além disso, o uso indevido dessas tecnologias pode afetar setores como política e educação, onde a precisão da informação é vital.
Enquanto soluções de detecção continuam a evoluir, usuários devem ser cautelosos quanto à veracidade do conteúdo que encontram online. Verificar fontes e questionar a lógica das informações pode ajudar a prevenir danos causados por notícias falsas ou desinformação.
Fonte: https://techxplore.com/news/2024-05-qa-difficulty-ai-human-generated.html