Il Progetto Trasparenza Tecnologica (TTP), dopo un rapporto di gennaio che ha rivelato molte applicazioni "nudify" presenti nell'App Store, ha condotto una nuova ricerca focalizzandosi su come i propri sistemi di ricerca e pubblicità di Apple possano aiutare gli utenti a trovare queste applicazioni. Ecco i dettagli.
Le applicazioni nudify rimangono un problema negli store di applicazioni
Secondo il nuovo rapporto, sia l'App Store che il Google Play Store "aiutano a trovare applicazioni che creano immagini di nudità profonda delle donne" e lo fanno a volte attraverso risultati di ricerca sponsorizzati e suggerimenti di completamento automatico.
Nel suo rapporto, il TTP afferma che Apple e Google continuano a non riuscire a impedire la visibilità delle applicazioni nudify nei loro store; alcune di esse appaiono anche come appropriate per i minori. Il gruppo ha scoperto che quasi il 40% delle prime 10 applicazioni per ricerche come "nudify", "undress" e "deepnude" potrebbe "rendere le donne nude o poco vestite".
Inoltre, alcune ricerche hanno anche rivelato risultati sponsorizzati per queste applicazioni. Ecco un estratto dal rapporto:
"(...) Il primo risultato di una ricerca nell'App Store per il termine 'deepfake' è stato un annuncio per l'app FaceSwap Video sviluppata da DuoFace. Questa applicazione consente agli utenti di sostituire il volto di qualcuno in un video con un'immagine fissa. Per testare l'app, il TTP ha caricato un'immagine di una donna in maglione bianco in piedi sul marciapiede e un video di una donna nuda. Dopo aver mostrato brevemente un annuncio, l'app ha prodotto un video che collocava il volto della donna vestita sul corpo della donna nuda."
E
"Un'altra ricerca nell'App Store per il termine 'face swap' ha rivelato un annuncio per un'app chiamata AI Face Swap. Questa applicazione offre modelli di sostituzione del volto preimpostati e consente agli utenti di cambiare il volto nelle immagini caricate. Il TTP ha caricato una foto di una donna in maglione blu e un'immagine di una donna nuda, e l'app ha cambiato i loro volti senza alcuna restrizione."
In modo interessante, oltre a contattare Apple e Google riguardo a queste scoperte, il TTP ha anche comunicato con alcuni sviluppatori di queste applicazioni. In almeno un caso, lo sviluppatore dell'app ha confermato di utilizzare Grok per la generazione delle immagini, ma ha affermato di non essere a conoscenza del fatto che ciò potesse produrre contenuti così estremi. Lo sviluppatore ha promesso di inasprire le impostazioni di moderazione per la generazione delle immagini.
Nel resto del rapporto, il TTP ha osservato che la ricerca "AI NS" potrebbe risultare in "AI NSFW", notando che l'App Store ha suggerito "image to video ai nsfw". Questa ricerca ha restituito, rispettivamente, diverse applicazioni nudify tra i primi dieci risultati.
Nonostante il rifiuto di Apple di rispondere alla richiesta del TTP, l'azienda ha rimosso la maggior parte delle applicazioni identificate nel rapporto in risposta.
Per leggere il rapporto completo del TTP, segui questo link.
Prodotti da considerare su Amazon
- David Pogue – 'Apple: I Primi 50 Anni'
- MacBook Neo
- Logitech MX Master 4
- AirPods Pro 3
- AirTag (2ª Generazione) – Pacco da 4
- Apple Watch Series 11
- Adattatore CarPlay senza fili
Commenti
(1 Commento)