Cittadinanza “a punti” e social scoring: le pratiche scorrette dell’era dell’intelligenza artificiale
1. Con un recente comunicato stampa dell’8 giugno 2022, il Garante della Privacy ha annunciato l’apertura di tre istruttorie nei confronti di soggetti pubblici e privati che avrebbero avviato pratiche di profilazione sui propri cittadini. Secondo l’Autorità, i meccanismi predisposti comporterebbero l’instaurazione di «una sorta di “cittadinanza a punti”» da cui deriverebbero conseguenze giuridiche negative sui diritti e le libertà degli interessati, inclusi i soggetti più vulnerabili.
La prima iniziativa, denominata in maniera evocativa “Progetto Pollicino”, prevede meccanismi premiali per i cittadini che, almeno sedicenni, installino un’app di tracciamento della posizione (IoPollicino) per lasciare le loro “briciole digitali”. Il software trasmette in forma “volontaria e anonima” i dati sugli spostamenti degli utenti per consentire l’effettuazione di analisi sulla mobilità urbana. Lanciato dalla Fondazione per lo sviluppo sostenibile, dal Ministero della transizione ecologica e dal Ministero delle infrastrutture e della mobilità sostenibili, l’esperimento ha coinvolto per primo il Comune di Bologna, anch’esso interpellato dal Garante. Problematica è la “moneta” con cui i cittadini vengono retribuiti per la cessione dei dati, ossia premi messi in palio dai partner privati del Progetto. Attività rispetto alla quale il Garante si starebbe interrogando, non essendo chiare le modalità di trattamento dei dati né, quantomeno, la base giuridica di tali operazioni, posto che il consenso del cittadino non può essere considerato una condizione legittimante sufficiente.
Il comune di Bologna si fa notare anche per una seconda iniziativa di sapore orwelliano, lo “Smart Citizen Wallet”: in estrema sintesi, la pubblica amministrazione propone di attivare una “patente digitale” che sarebbe in grado di identificare i cittadini più virtuosi tra coloro che si registrano, sempre su base volontaria, in un innovativo quanto pervasivo sistema computazionale di sorveglianza e tracking. Esso assegna un punteggio più alto ai cittadini dalla condotta impeccabile per attribuire vantaggi economici da parte di soggetti terzi.
Infine, una terza iniziativa, del Comune di Fidenza, deriva dall’approvazione di un regolamento unico comunale in materia di edilizia residenziale pubblica (E.R.P.) che introduce un sistema di valutazione a punti dei nuclei familiari, denominato “carta dell’assegnatario”. Esso è finalizzato, come riporta il comunicato del Garante, «al riconoscimento di benefici e sanzioni, inclusa la risoluzione e/o la decadenza del contratto di locazione, con possibili conseguenze pregiudizievoli in capo a categorie di soggetti vulnerabili».
2. L’idea emergente di una cittadinanza “a punti”, i cui diritti e obblighi si ricollegano all’analisi dei big data attraverso sistemi di intelligenza artificiale, però, spinge a riconsiderare il valore che tale istituto senza tempo è destinato ad acquisire. In un’epoca in cui – volenti o nolenti, – il ricorso alle tecnologie diventa sempre più invasivo, il diritto costituzionale deve aprirsi a riflettere sulle conseguenze della penetrazione delle tecniche di intelligenza artificiale sulla dimensione privata, finanche intima, del singolo (Pollicino, 2020). A maggior ragione, quando di tali tecniche si avvalgono soggetti pubblici nel fornire servizi o prestazioni al cittadino.
Tutto ciò ricorda un po’ “Nosedive”, primo episodio della terza stagione della serie tecno-distopica “Blackmirror”, in cui la protagonista Lacie vive in una realtà sociale in cui il gradimento delle altre persone sui social media contribuisce all’acquisizione di una posizione economica e sociale più elevata. Lì, una nuova tecnologia installata nei telefoni di tutti i cittadini permette di assegnare a chiunque un punteggio sino a cinque stelle, identificando la persona attraverso lenti biometriche. Ne esce fuori un quadro in cui le relazioni umane sono falsate, improntate a una finta gentilezza o persino reverenza, in funzione dell’accrescimento della popolarità personale. Inevitabilmente, la protagonista finisce in una serie di vicende che, per futili ragioni, le fanno perdere popolarità e il suo punteggio, diventato ormai basso, la spinge ai margini di questa società manierata. Scopre, così, che le persone con un social score inferiore sono dei reietti a cui lo Stato può negare impunemente i diritti base, ad esempio le cure sanitarie.
La realtà, come è ovvio, a volte supera la fiction: senza dover richiamare alcuni noti esempi di regimi non democratici (come il sistema di social scoring messo in atto in Cina: Liang & Chen, 2022), basta guardare ai tragici effetti dei modelli statunitensi di credit scoring basati su algoritmi biased per valutare la solvibilità dei clienti: acuti studi hanno dimostrato come il negato accesso al credito e la persecuzione creditizia abbiamo aumentato le diseguaglianze sociali (O’Neil, 2016). Il punteggio ai cittadini attraverso l’estrazione (mining) dai big data è ormai pratica diffusa anche nel cuore degli Stati europei. Un ulteriore esempio è dato dall’Olanda, colpita dallo scandalo del progetto SyRI (Systeem Risico Indicatie), che ha condizionato l’accesso a determinate prestazioni sociali all’assenza di condotte fiscali illecite, salvo poi perseguire ingiustamente (per un errore tecnologico) circa 20 mila famiglie.
3. Il problema, nondimeno, sta nella compatibilità di questi dispositivi di profilazione, implicanti sorveglianza attiva e premialità della cittadinanza, con il nostro sistema di diritti e principi fondamentali. Un sistema che vede un ancoraggio sicuro nel Codice della privacy (il decreto legislativo del 30 giugno 2003, n. 196) e nel General Data Protection Regulation (GDPR), che ha rivoluzionato la materia. Il Garante, che veglia sulla conformità dei trattamenti dei dati al Regolamento, ha da tempo riconosciuto che la raccolta di dati per finalità di profilazione psicologica certamente rientra tra le attività più pervasive di violazione della privacy (v. ad esempio l’ordinanza del 14 giugno 2019 che ha pesantemente sanzionato Facebook).
A livello europeo, inoltre, nell’aprile 2021 è stata avanzata una proposta per la regolamentazione dell’intelligenza artificiale (COM/2021/206 final) che, fra le pratiche di IA oggetto di divieto assoluto, inserisce proprio quelle volte all’attribuzione di “punteggi sociali” per finalità generali da parte di autorità pubbliche. Infatti, il rischio derivante da tali pratiche discende dal fatto che i comportamenti vagliati per ottenere indicazioni sull’affidabilità del cittadino spesso non hanno nulla a che vedere con il contesto finale per il quale l’autorità li utilizza ovvero provocano conseguenze “sproporzionate” o “ingiustificate” rispetto alla condotta iniziale.
Nel momento in cui la proposta europea dovesse essere approvata, ogni attività di IA che operi collegando conseguenze giuridiche sfavorevoli al possesso di caratteristiche legate alla personalità dell’individuo sarà catalogata come rischio “inaccettabile” e dunque vietata. Il coinvolgimento di pubbliche autorità esclude che in questi casi si possa invocare la “scusante” della profilazione a fini di marketing: il cittadino non può essere considerato alla stregua di un cliente o di un consumatore. Non può, pertanto, essere oggetto di manipolazioni, fidelizzazioni e profilazioni che vedano, come risultato finale, l’esasperazione dei profili discriminatori che probabilmente, nell’intenzione degli ideatori, ci si era proposti, forse ingenuamente, di combattere.
4. Così, dunque, rispetto ai casi oggetto di istruttoria da parte del Garante della privacy si può sostenere che all’istituto della cittadinanza si stiano pericolosamente affiancando logiche di mercato, che mirano a targettizzare la popolazione con l’obiettivo di estrarre dati (Zuboff, 2019). Agli strumenti tradizionali di governance democratica si accompagnano logiche di accumulazione informativa dando luogo a una sovrapposizione di confini tra il pubblico e il privato e creando interdipendenze fra soggetti pubblici e sponsor. Il rischio, allargando il campo visivo, è che tali processi vadano a detrimento di quelle categorie della società più sfavorite, poco compatibili con gli obiettivi di profitto e di marketing. Tali eventualità sono state drammaticamente sottolineate da vari studi e position paper (Wang & Tucker, 2021; Camera dei Deputati, Dossier n. 57, 2021), che fanno notare come l’opacità dei processi algoritmici di elaborazione dei dati e la distorsione nella progettazione dei sistemi possano indubbiamente provocare – come nel citato caso olandese, – discriminazioni, sottorappresentazioni di alcuni gruppi sociali, svantaggi a carico di specifiche categorie di cittadini, trasgredendo i più elementari principi costituzionali, con l’aggravante dell’assenza di una responsabilità “umana” diretta.