Entre nos nossos canais do Telegram e WhatsApp para notícias em primeira mão.
Telegram: [link do Telegram]
WhatsApp: [link do WhatsApp]
Empresas líderes como Google, Meta, Microsoft, OpenAI e Amazon uniram forças em um projeto pioneiro que visa estabelecer diretrizes sólidas para evitar que a inteligência artificial gere imagens de abuso sexual infantil.
Este projeto, impulsionado pela Thorn e All Tech is Human, busca direcionar o poder transformador da IA para um progresso que proteja os direitos e a integridade dos menores.
A iniciativa destaca a importância de utilizar bases de dados limpas para o treinamento de modelos de IA. As empresas assumiram o compromisso de garantir que os dados utilizados para alimentar seus sistemas não contenham imagens que explorem menores.
Além disso, as empresas de tecnologia devem implementar mecanismos robustos de controle e realizar testes rigorosos para demonstrar que seus modelos de IA generativa estão livres da capacidade de criar imagens de abuso sexual infantil.
Este projeto também reforça a ideia de que a inovação tecnológica deve andar de mãos dadas com uma ética de desenvolvimento firme. Na busca por explorar os limites do possível, a IA não deve ultrapassar os limites do moralmente aceitável.
A magnitude do problema que essas diretrizes buscam mitigar é alarmante. Apenas nos Estados Unidos, mais de 104 milhões de arquivos suspeitos de conter material de abuso sexual infantil foram relatados em 2023, de acordo com dados fornecidos pela Thorn.
Este número reflete a urgência de estabelecer barreiras digitais eficazes contra a proliferação de tais conteúdos na rede.
Como a IA pode afetar a integridade dos menores?
A inteligência artificial generativa, embora tenha um enorme potencial para a inovação, também representa um risco significativo para a proteção e segurança dos menores, merecendo atenção urgente.
De acordo com o documento que embasa o projeto mencionado anteriormente, a IA pode afetar o processo de identificação de vítimas com a proliferação de imagens falsas.
Além disso, essa tecnologia pode ser usada para intensificar práticas de assédio, como o grooming e a sextorsão, ao produzir conteúdo que simula ações e poses explícitas sem a necessidade de material inicial explícito.
Esse tipo de conteúdo também poderia ter o potencial de aumentar os crimes de contato físico. “A normalização desse material também contribui para outros resultados prejudiciais para as crianças”, diz o documento.
Os modelos de IA generativa podem ser usados por predadores para compartilhar dicas sobre como cometer abusos de forma eficaz, incluindo formas de coagir as vítimas, destruir evidências ou manipular material de abuso para evitar detecção.
Fenômeno dos deepfakes sexuais não consensuais
O fenômeno da criação e distribuição de imagens não consensuais por meio de inteligência artificial se expandiu além dos menores, afetando também adultos, incluindo figuras públicas e celebridades.
Uma recente investigação da Forbes revelou como o eBay, a conhecida plataforma de leilões online, se tornou um mercado para a venda de conteúdo explícito falso de celebridades reconhecidas.
Utilizando ferramentas avançadas de inteligência artificial e edição, como o Photoshop, foram geradas imagens sexualmente explícitas de pelo menos 40 personalidades famosas, incluindo Margot Robbie, Selena Gomez e Jenna Ortega.
Surpreendentemente, uma loja no eBay oferecia à venda mais de 400 produtos contendo fotos alteradas de celebridades como Taylor Swift, Selena Gomez, Katy Perry, Ariana Grande e Alexandria Ocasio-Cortez, apresentando-as em situações comprometedoras.
A reação do eBay ao alerta da Forbes foi imediata, procedendo à exclusão de centenas dessas fotografias falsas e à suspensão das contas dos vendedores envolvidos.
Esse incidente destaca a urgência de implementar medidas mais rigorosas para combater a disseminação de conteúdo digital gerado sem consentimento, ressaltando a necessidade de um quadro regulamentar mais estrito para proteger a integridade e privacidade de todas as pessoas no ambiente digital.