Le applicazioni "nudify" sono tornate al centro della cronaca tecnologica nel 2026, costringendo Apple e Google a confrontarsi con una sfida che va ben oltre la semplice moderazione di contenuti. Si tratta di software che utilizza l'intelligenza artificiale per generare immagini deepfake di persone nude, spesso senza consenso. Per i due giganti del tech, il controllo di questi strumenti rappresenta un nodo gordiano: bilanciare la libertà degli sviluppatori, le responsabilità legali e la protezione dei diritti delle persone fotografate.

Cosa Sono Realmente le App "Nudify"

Le applicazioni "nudify" sfruttano reti neurali convoluzionali addestrate su milioni di immagini per sintetizzare corpi nudi a partire da fotografie ordinarie. Nel 2026, la qualità di queste elaborazioni ha raggiunto un livello inquietante: le immagini risultanti sono quasi indistinguibili dalle fotografie autentiche, senza gli artefatti evidenti che caratterizzavano i deepfake di cinque anni fa.

Il processo è banale dal lato utente: carica una foto, seleziona il genere, attendi pochi secondi. Dall'altro lato, gli algoritmi eseguono calcoli complessi basati su modelli addestrati su dataset massicci. Le tecnologie di generative AI hanno reso questo processo accessibile persino a chi non ha competenze tecniche specifiche.

Quello che rende queste app genuinamente pericolose non è la tecnologia in sé, ma l'uso: nella stragrande maggioranza dei casi, le immagini vengono create senza il consenso delle persone ritratte. Secondo uno studio del 2025 della Fondazione Mozilla, il 90% delle immagini generate dalle app nudify proviene da foto di donne caricate senza autorizzazione.

Come Apple Gestisce il Problema su iOS

Apple ha costruito la propria reputazione su una promessa di ecosistema controllato e sicuro. Eppure, anche App Store ha faticato a contenere le applicazioni "nudify" nel 2026.

Il problema non è mancanza di volontà, ma di praticità operativa. Apple riceve circa 100.000 nuove app al mese. Revisionarle tutte manualmente è impossibile. Gli algoritmi di screening automatico funzionano bene per identificare:

  • Contenuti sessualmente espliciti già presenti nella descrizione o negli screenshot
  • Nomi di app che contengono parole chiave vietate
  • Violazioni evidenti dei termini di servizio

Ma le app "nudify" sono progettate specificamente per aggirare questi filtri. Si presentano come "editor fotografico AI", "strumenti di bellezza" o "app di editing avanzato". Solo dopo l'installazione, gli utenti scoprono la vera funzione.

Nel maggio 2026, Apple ha rimosso oltre 300 app con questa funzionalità nascosta, ma altre emergono costantemente. La società ha anche iniziato a bloccare il sideloading su iOS 18.3 per le app che mostrano comportamenti sospetti, un passo che ha sollevato preoccupazioni sulla libertà degli sviluppatori.

La linea di confine rimane sfocata: quando un'app è uno strumento legittimo di editing e quando diventa uno strumento di abuso sessuale sintetico?

La Battaglia di Google su Android

Android rappresenta un terreno ancora più complesso. Con il 70% della quota di mercato globale, il sistema operativo di Google è diventato il playground preferito per gli sviluppatori di app "nudify", grazie a politiche di moderazione tradizionalmente meno stringenti.

Google Play Store ha rimosso migliaia di queste applicazioni nel 2025 e 2026, ma il meccanismo di distribuzione di Android consente alternative: app store locali, repository APK non ufficiali, distribuzione diretta tramite link. Uno sviluppatore può letteralmente caricare il file APK su una decina di siti web e raggiungere milioni di utenti senza passare da Google Play.

Nel gennaio 2026, Google ha introdotto nuovi criteri di screening:

  • Analisi del codice sorgente per identificare librerie AI note
  • Verifica delle politiche sulla privacy e sul trattamento dei dati biometrici
  • Collaborazione con organizzazioni come il NCMEC (National Center for Missing & Exploited Children)

Tuttavia, le limitazioni rimangono evidenti. Un'app di generazione di immagini IA potrebbe essere legittima (creazione artistica, design grafico) oppure illegittima (abuso sessuale). Il contesto d'uso sfugge al controllo dei marketplace.

Il Quadro Legale in Trasformazione

Nel 2026, i governi mondiali hanno iniziato a prendere posizioni più decise. Nel Regno Unito, la Online Safety Bill ha incluso disposizioni specifiche contro le immagini "deepfake" non consensuali. La Francia ha criminalizzato la creazione e distribuzione di deepfake sessuali. Gli Stati Uniti, frammentati tra leggi statali, hanno visto l'introduzione del DEFIANCE Act in diversi stati, che responsabilizza esplicitamente le piattaforme.

Per Apple e Google, questo significa nuove responsabilità legali. Se una donna viene denigrata con un'immagine nudify generata attraverso App Store o Google Play, le aziende potrebbero essere considerate corresponsabili in certe giurisdizioni. Questa esposizione legale ha accelerato gli investimenti nella moderazione.

L'Angolo Cieco: Cosa i Giganti del Tech Non Raccontano

Qui arriviamo al punto che i comunicati stampa di Apple e Google evitano: il problema non è principalmente il loro controllo, ma il loro modello di business.

App Store e Google Play guadagnano il 15-30% dai ricavi delle app. Un'applicazione "nudify" con 500.000 download a 2 euro al mese genera centinaia di migliaia di dollari, di cui il 15-30% va a Apple e Google. Non è un incentivo potente per la rimozione aggressiva. Solo quando la pressione mediatica e legale diventa insostenibile, le aziende agiscono.

Inoltre, ammettere il vero scope del problema equivarrebbe a riconoscere l'incapacità di controllare i propri ecosistemi, qualcosa che entrambe le società sono riluttanti a fare pubblicamente.

Nel 2026, la conversazione è passata da "come rimuoviamo queste app" a "come preveniamo i danni alle persone il cui volto viene usato senza consenso". È un cambio di prospettiva importante, ma ancora insufficiente.

Domande Frequenti

D: Un'app "nudify" è illegale in Italia? R: Dipende dall'uso. Nel 2025, l'Italia ha ampliato la legge sul revenge porn per includere esplicitamente le immagini sintetiche non consensuali. Creare e condividere un'immagine nudify di una persona reale senza consenso è ora reato, punibile con ammenda fino a 10.000 euro e reclusione fino a 3 anni. Semplicemente installare l'app non è illegale, ma usarla per abusare di qualcuno lo è.

D: Come posso segnalare se la mia immagine è stata usata per creare un deepfake? R: Sia Apple che Google hanno pagine dedicate al segnalamento di abusi. Su App Store, puoi segnalare tramite "Segnala un problema" nella pagina dell'app. Su Google Play, esiste un modulo specifico per deepfake non consensuali. Inoltre, organizzazioni come Cybersmile e il Revenge Porn Helpline offrono supporto dedicato e possono aiutare con le azioni legali.

D: Gli sviluppatori continuano a trovare modi per aggirare i controlli? R: Sì. Nel febbraio 2026, ricercatori di sicur