La pandemia ha dimostrato quanto siano diventati centrali i social media, le piattaforme di messaggistica e collaborazione durante la vita quotidiana delle persone. Tuttavia, non abbiamo ancora capito il compromesso tra la sicurezza e la privacy offerte da queste piattaforme e i costi reali del loro utilizzo. Siamo abituati a sentirci dire che la privacy è equiparabile ad una merce, per esempio, ma nessuno è davvero sicuro di ciò che viene venduto, o quale sia il prezzo reale.
Nel 2022, molto probabilmente questo cambierà. Vedremo finalmente l’argomento “privacy vs. sicurezza” esposto come una falsa dicotomia e la realtà dell’intrusione della privacy generata dalla maggior parte dei servizi “gratuiti” resa chiara. Nel 2022, i consumatori saranno in grado di prendere decisioni sempre più informate sugli impatti sociali dei servizi che usano.
La tecnologia connette il nostro mondo in modi che erano impensabili anche solo un decennio fa. Ingrandisce la nostra capacità di creare molti risultati positivi, ma tiene anche uno specchio sulle società e può permettere ed esacerbare il danno reale, dove i crimini reali hanno vittime reali.
La criminalità prima era locale – autori locali, danni locali e applicazione della legge locale. Molte piattaforme globali ora permettono una criminalità globalizzata, dalle truffe sugli investimenti al crimine organizzato transnazionale fino allo sfruttamento dei bambini.
Molte delle piattaforme lavorano con le forze dell’ordine per scoprire e perseguire la criminalità ospitata o abilitata dalle loro piattaforme o canali. Ma ora stiamo assistendo a una tendenza preoccupante di aziende che progettano la sicurezza pubblica con la premessa di progettare una qualche forma di privacy.
Un argomento contro la progettazione di sistemi che permettano un’adeguata sicurezza pubblica è che creerebbe una vulnerabilità catastrofica – mettendo a rischio la sicurezza informatica globale e permettendo a regimi oppressivi di condurre una sorveglianza di massa. La crittografia non è un fragile fiocco di neve, è matematica con proprietà ben definite. Può essere progettata per evitare che accadano cose brutte, mentre fornisce trasparenza e controllo quando necessario. Per usare un esempio del mondo reale, non costruiamo scuole senza porte antincendio, anche se sono una potenziale vulnerabilità perché contengono serrature che potrebbero essere scassinate, mentre i muri no. Invece, capiamo che sono qualcosa da monitorare con telecamere e allarmi; qualcosa da gestire correttamente. L’alternativa – persone che rischiano di morire bruciate – è inconcepibile. Anche nel mondo online, un design sicuro è importante quanto la privacy degli utenti. Quest’anno, aziende e consumatori vedranno che sono entrambi requisiti fondamentali della tecnologia.
Alcune persone credono che l’intelligenza artificiale risolverà tutto, ma ciò è improbabile. Per molti tipi di danno o abuso, i metadati da soli non sono sufficienti per addestrare un modello IA in modo affidabile. Man mano che i criminali trovano nuovi modi di abusare dei servizi, è molto difficile far evolvere i modelli di IA senza un certo accesso al contenuto, che è dove si trova l’intento umano. Usare l’IA in questo modo porterebbe anche ad un futuro distopico in stile Minority Report, dove una “scatola magica” decide che qualcuno ha probabilmente commesso un crimine, ma non abbiamo prove né per scagionarlo né per condannarlo, perché nessuno può vedere il contenuto su cui si è basata quella decisione.
Amedeo Leone Delegato Federprivacy provincia di Biella
Articolo egualmente reperibile sul portale Federprivacy