Resettare l’algoritmo: consapevolezza, controllo e rischi invisibili del machine learning personalizzato

Da Instagram a YouTube, passando per Netflix e TikTok, molte piattaforme stanno offrendo agli utenti la possibilità di “resettare l’algoritmo”. Si tratta di una funzione che consente di eliminare o azzerare i dati comportamentali accumulati nel tempo – clic, visualizzazioni, condivisioni, like, salvataggi – su cui gli algoritmi si basano per suggerire nuovi contenuti.
Resettare l’algoritmoserve a:
- uscire da bolle di contenuto troppo ristrette,
- azzerare bias accumulati (per esempio dopo aver interagito per sbaglio con contenuti non desiderati),
- e ripartire da zero, come se si fosse un nuovo utente.
Ma dietro questo “click di reset” si cela un’interessante questione di controllo algoritmico, profilazione comportamentale e privacy.
Come funzionano davvero gli algoritmi di raccomandazione?
Gli algoritmi che gestiscono la personalizzazione dei contenuti si basano su modelli di machine learning supervisionati o non supervisionati, alimentati da una mole enorme di dati comportamentali. Ecco cosa tracciano:
- tempo di permanenza su un contenuto,
- sequenze di interazioni (es. guarda → salva → condivide),
- contesto semantico del contenuto (topic extraction, NLP),
- dispositivi e geolocalizzazione,
- affinità con altri utenti simili (collaborative filtering).
Ogni interazione diventa un dato, ogni dato un segnale, ogni segnale un rinforzo nel “profilo dinamico” dell’utente.
Il risultato? Un algoritmo che non solo ti conosce, ma ti modella.
Perché il reset è solo parzialmente efficace
Il reset dell’algoritmo non cancella il profilo utente nel back-end della piattaforma, ma semplicemente smette di usarlo per generare suggerimenti visibili. I dati restano:
- utilizzabili per fini pubblicitari, come spiegano le policy di YouTube e Meta;
- riattivabili se l’utente decide di ripristinare le vecchie preferenze;
- condivisibili con terze parti affiliate per targeting.
È quindi più corretto parlare di soft reset: una misura utile dal punto di vista esperienziale, ma non sufficiente per un reale reset della profilazione.
Cybersecurity e salute mentale: il lato oscuro dell’algoritmo
Gli algoritmi di raccomandazione sono progettati non per informare, ma per trattenere. Come spiegato da Geoffrey Fowler del Washington Post, il loro obiettivo è “tenerti incollato allo schermo, anche a costo di proporti contenuti scioccanti o disturbanti”.
Questo ha impatti rilevanti su:
- salute mentale, in particolare tra adolescenti (esposizione a modelli tossici, idealizzazione della vita altrui, contenuti violenti);
- resilienza cognitiva, perché riducono la diversità informativa e l’apertura a punti di vista alternativi;
- polarizzazione sociale, dato che l’utente viene spinto sempre più verso contenuti affini ai propri bias cognitivi.
In ambito cyber, queste dinamiche rendono gli utenti più vulnerabili a manipolazione, disinformazione, echo chamber e phishing “affinitario” (personalizzato sulle fragilità comportamentali).
Privacy, dark patterns e trasparenza algoritmica
Il reset dell’algoritmo rappresenta anche un banco di prova per la trasparenza delle piattaforme. Nella maggior parte dei casi:
- non viene specificato cosa viene cancellato e cosa no;
- non esiste un registro consultabile delle categorie di interesse assegnate all’utente;
- le interfacce sono progettate per minimizzare la consapevolezza dell’utente (es. reset difficili da trovare, nomi fuorvianti come “ripristino delle preferenze”).
Questo configura un problema di dark UX e solleva questioni di compliance al GDPR e alla futura regolamentazione UE sull’intelligenza artificiale (AI Act).
Il reset non basta, serve consapevolezza
Il reset dell’algoritmo è un primo passo utile per riappropriarsi della propria esperienza digitale. Ma non è sufficiente. Serve:
- una cultura della profilazione consapevole;
- strumenti per visualizzare ed editare attivamente il proprio profilo algoritmico;
- regole più stringenti su trasparenza, controllo e portabilità dei dati.
Nel frattempo, ogni utente può iniziare da piccoli gesti: resettare quando serve, limitare le interazioni impulsive, usare browser e app che proteggono i dati di navigazione.
Perché in rete, se non conosci l’algoritmo, l’algoritmo conosce te.