Sì alle smart cities, ma occorre proteggere i dati delle persone

Studio del Parlamento Ue: tecnologie sempre più pervasive, sviluppo va fondato sull’etica e sulle persone

L’applicazione delle tecnologie di intelligenza artificiale (AI) allo sviluppo delle cosiddette “smart cities” (o “città intelligenti) può comportare seri rischi, sia per i singoli individui che per i delicati equilibri di coesione territoriale. Un vero e proprio divario potrebbe crearsi, in termini di sviluppo e opportunità sociali ed economiche, tra singole zone delle città, tra città e contesto extra-urbano e fra le varie città di un dato territorio. E’ quanto evidenzia il recente studio “Artificial Intelligence and Urban Development” commissionato dal Parlamento europeo (https://research4committees.blog/2021/09/08/artificial-intelligence-and-urban-development).

La ricerca non manca di valorizzare gli aspetti positivi delle smart cities, L’AI offre enormi potenzialità ai fini dello sviluppo socio-economico e del miglioramento della qualità della vita individuale e collettiva (ad esempio sul fronte della mobilità della gestione dei rifiuti, dell’efficienza energetica, ecc.). L’intelligenza artificiale presenta tuttavia potenziali rischi collegati soprattutto alla capacità di raccogliere, elaborare e trasformare immense quantità di dati, sfruttando anche le sinergie con altre tecnologie (Big Data, cloud, Internet delle cose).

In questo quadro, la protezione dei dati rappresenta un volano fondamentale per la valutazione e la mitigazione di rischi di varia natura, che vanno dalle politiche di cyber-security all’influenza di errori e “bias” (pregiudizi) basati sulla raccolta e l’elaborazione dei dati, che possono avere pesanti ripercussioni a livello individuale e collettivo: dal cosiddetto rischio “black-box”, legato all’opacità o addirittura totale impenetrabilità dei processi automatizzati, alle implicazioni etiche connesse ai processi decisionali dell’AI che, a differenza di quelli umani, possono essere completamente avulsi da implicazioni morali, empatia, riferimento al contesto umano (lack-of-value); dai rischi reputazionali dovuti alla condivisione e diffusione incontrollata di dati personali, alle disparità connesse alle differenti opportunità di accesso ai dati; fino ad arrivare all’eccessiva invasività del controllo tecnologico nelle vite quotidiane.

Per sfruttare al massimo il potenziale dell’AI rispettando al contempo la privacy delle persone, lo studio propone alcuni indirizzi operativi: un’attenta cooperazione tra le istituzioni; lo sviluppo di politiche e pratiche focalizzate su una precisa  regolazione dell’accesso ai dati e della loro condivisione; un puntuale e tempestivo adeguamento dei quadri giuridici e regolamentari; lo sviluppo di competenze e capacità adeguate (anche in chiave data protection) da parte dei soggetti chiamati a gestire lo sviluppo e la governance dei processi e delle tecnologie connessi alle città intelligenti.

Photo by Marc-Olivier Jodoin on Unsplash

Michele Mattei

Nato a Tivoli nel 1994, dopo il diploma di maturità scientifica si è laureato in Comunicazione Pubblica e d’Impresa e in Media, Comunicazione Digitale e Giornalismo presso la facoltà di Scienze Politiche, Sociologia e Comunicazione dell’Università degli Studi di Roma "La Sapienza". Appassionato di storia e di sostenibilità, attualmente scrive articoli per diverse testate e si occupa di volontariato con il Servizio Civile Nazionale in ambito sociale, culturale e ambientale.