O Projeto de Transparência Tecnológica (TTP) realizou uma nova pesquisa focada em como os próprios sistemas de busca e anúncios da Apple podem ajudar os usuários a encontrar esses aplicativos, após um relatório em janeiro que revelou muitos aplicativos "nudify" disponíveis na App Store. Aqui estão os detalhes.
Aplicativos nudify ainda são um problema nas lojas de aplicativos
De acordo com o novo relatório, tanto a App Store quanto o Google Play Store estão "ajudando a encontrar aplicativos que criam imagens de mulheres nuas e falsas" e fazem isso às vezes através de resultados de busca promovidos e sugestões de busca de autocompletar.
No seu relatório, o TTP afirma que a Apple e o Google ainda falharam em impedir que os aplicativos nudify apareçam nas lojas de aplicativos; alguns deles parecem ser adequados para menores. O grupo descobriu que quase 40% dos 10 principais aplicativos que aparecem para buscas como "nudify", "undress" e "deepnude" "podem deixar as mulheres nuas ou semi-nuas".
Além disso, algumas buscas também revelaram resultados patrocinados para esses aplicativos. Do conteúdo do relatório:
"(...) O primeiro resultado de uma busca na App Store pelo termo 'deepfake' foi um anúncio para o aplicativo FaceSwap Video, desenvolvido pela DuoFace. Este aplicativo permite que os usuários troquem o rosto de alguém de uma imagem fixa para um vídeo. Para testar o aplicativo, o TTP carregou uma imagem de uma mulher vestindo um suéter branco parada na calçada e um vídeo de uma mulher nua. Após mostrar um breve anúncio, o aplicativo produziu um vídeo que colocava o rosto da mulher vestida no corpo da mulher nua."
E
"Outra busca na App Store pelo termo 'face swap' revelou um anúncio para um aplicativo chamado AI Face Swap. Este aplicativo oferece modelos de troca de rosto pré-definidos e permite que os usuários troquem rostos em imagens que eles mesmos carregaram. O TTP carregou uma foto de uma mulher vestindo um suéter azul e uma imagem de uma mulher nua, e o aplicativo trocou os rostos sem qualquer restrição."
Curiosamente, além de entrar em contato com a Apple e o Google sobre essas descobertas, o TTP também se comunicou com os desenvolvedores de vários desses aplicativos. Em pelo menos um caso, o desenvolvedor do aplicativo confirmou que usavam Grok para a produção de imagens, mas alegou que "não estavam cientes de que isso poderia gerar conteúdos tão extremos". O desenvolvedor prometeu apertar as configurações de moderação para a produção de imagens.
No restante do relatório, o TTP observou que a busca "AI NS" poderia resultar em "AI NSFW", registrando que a App Store sugeriu "image to video ai nsfw". Esta busca, por sua vez, retornou vários aplicativos nudify entre os dez melhores resultados.
Apesar de se recusar a responder ao pedido do TTP, a Apple removeu a maioria dos aplicativos identificados pelo TTP em resposta ao relatório.
Para ler o relatório completo do TTP, siga este link.
Produtos que valem a pena conferir na Amazon
- David Pogue – 'Apple: Os Primeiros 50 Anos'
- MacBook Neo
- Logitech MX Master 4
- AirPods Pro 3
- AirTag (2ª Geração) – Pacote com 4
- Apple Watch Series 11
- Adaptador CarPlay sem fio
Comentários
(1 Comentário)