La proposta del ddl Zanda-Filippin sul contrasto alle fake news sui social network: profili problematici

Il 27 novembre il foglio.it ha diffuso la proposta di ddl elaborata in seno alla maggioranza parlamentare e predisposta su iniziativa dei Senatori Zanda e Filippin, recante titolo “Norme generali in materia di Social Network e per il contrasto della diffusione su internet di contenuti illeciti e delle fake news” (il testo è reperibile qui).

Nella presentazione del ddl il testo apre con la constatazione della “importanza sempre maggiore dei social network per la formazione dell’opinione pubblica nelle società democratiche” e con l’inquadramento delle fake news come “notizie false che suscitano allarme sociale, spesso immesse nel circuito dei social network per condizionare l’opinione pubblica di un Paese” (per un’analisi del fenomeno a tutto tondo si rimanda al numero monografico della rivista MediaLaws n. 1/2017, consultabile qui).
Di indubbia importanza e meritevolezza, l’analisi delle problematiche si concentra però solo sul dato della falsa notizia come strumento di influenza dell’opinione pubblica in ambito politico. Gli estensori non considerano infatti la distorsione, ben più rilevante, del paradigma della stampa e della libertà di informazione, le quali svolgono quei ruoli fondanti e imprescindibili per una democrazia di accountability del potere politico e di informazione della società, basandosi sulla diffusione di notizie vere o veritiere (oggetto qualificato della libertà di informazione).

Questa impostazione di metodo e di lettura del fenomeno sembra influenzare tutto il testo del progetto, suscitando una serie di perplessità.

La prima: al contrario del c.d. ddl Gambaro (consultabile qui), il testo non introduce un reato di diffusione di false notizie online (come il 656-bis del ddl Gambaro), ma enuclea una serie di strumenti penali già esistenti nel nostro ordinamento, richiamati nell’art. 1 del ddl, dei quali alcuni solo latamente legati al problema delle fake news:

  • delitti contro la persona (Diffamazione 595 c.p.; Pornografia minorile 600-ter c.p.; Detenzione di materiale pornografico 600-quater c.p.; Pornografia virtuale 600-quater-1 c.p.; Iniziative turistiche volte allo sfruttamento della prostituzione minorile 600-quinquies c.p.; Minaccia 612 c.p.; Stalking 612-bis c.p.; Trattamento illecito di dati personali 167 d.lgs. n. 196/2003)
  • delitti contro la Repubblica (Soppressione, falsificazione o sottrazione di atti o documenti concernenti la sicurezza dello Stato 255 c.p.; Associazioni con finalità di terrorismo anche internazionale o di eversione dell’ordine democratico 270-bis c.p.; Assistenza agli associati legati al terrorismo 270-ter c.p.; Arruolamento con finalità di terrorismo anche internazionale 270-quater c.p.; Organizzazione di trasferimenti per finalità di terrorismo 270-quater.1 c.p.; Addestramento ad attività con finalità di terrorismo anche internazionale 270-quinquies c.p.; Finanziamento di condotte con finalità di terrorismo 270 quinquies.1 c.p.; Condotte con finalità di terrorismo 270-sexies c.p.; Istigazione a commettere alcuno dei delitti preveduti dai capi primo e secondo 302 c.p.; Offese a una confessione religiosa mediante vilipendio di persone 403 c.p.; Istigazione a delinquere 414 c.p.; Istigazione a pratiche di pedofilia e di pedopornografia 414-bis c.p.; Associazione per delinquere 416 c.p.; Associazione di tipo mafioso 416-bis c.p.; Pubblica intimidazione 421 c.p.; Documenti informatici 491-bis c.p.; Falsificazione alterazione o soppressione del contenuto di comunicazioni o conversazioni telegrafiche o telefoniche 617-ter c.p.; Falsificazione, alterazione o soppressione del contenuto di comunicazioni informatiche o telematiche 617-sexies c.p.; Frode informatica 640 ter c.p.; Apologia di fascismo art. 4 della n. 645/1952; Propaganda all’odio e istigazione alla violenza razziale 3 della legge654/1975).

Ci si potrebbe chiedere perché non aggiungere un’ulteriore fattispecie criminosa relativa alla diffusione di false notizie online o estendere i meccanismi correttivi delle false notizie ai media della rete (per un approfondimento si veda qui).

La disciplina in esame impone la rimozione dei contenuti tipizzati dai reati sopra visti da parte dei social network con più di un milione di utenti.

La seconda questione riguarda per l’appunto l’applicabilità della disciplina ai soli social network con un numero elevato di utenti. Tralasciando il problema del conteggio degli utenti, che denota una scarsa conoscenza dei mezzi (ad esempio, per iscriversi a Facebook non serve altro che un indirizzo di posta elettronica e un nome/nickname; da qui la difficoltà di conteggiare gli utenti: come comportarsi con i profili doppi/tripli/quadrupli etc.? E con i profili comuni a più persone? E con le “pagine”, dietro le quali stanno amministratori ergo persone?), il legislatore è sicuro di voler ignorare i social network con meno di un milione di utenti? Davvero novecentonovantanovemila persone disinformate non rilevano (senza considerare il fatto che il numero potrebbe essere maggiore se esistessero più micro social network tutti pieni di bufale e con meno di un milione di utenti)?
A chi scrive sembra evidente che la prospettiva del legislatore fosse monopolizzata da un social network in particolare, sul quale sembra, sia per clamore mediatico che per effettiva diffusione (si veda in proposito uno studio interessante dall’esplicativo titolo Viral Misinformation, consultabile qui), vi sia un’ingente circolazione di fake news: Facebook.

Arriviamo dunque alla terza problematica, ossia il meccanismo prescelto di contrasto alle fake news (se ancora si potesse sostenere che il testo di questo si occupa). Il meccanismo prescelto è quello della rimozione, correlata, in caso di inosservanza, a sanzioni ingenti ed esorbitanti, che impongono un onere enorme ai social network ex art. 7 (fino a 5 milioni di euro di sanzione).
Come funziona questo sistema? Attraverso quello che sembra un ulteriore passo verso l’istituzionalizzazione della privatizzazione della censura: in altri contesti, come quello dei motori di ricerca e il diritto all’oblio, la dottrina aveva già rilevato il problema di affidare il bilanciamo fra libertà di espressione/informazione e altri beni giuridici, nel caso di specie la privacy, a soggetti privati (ex pluribus O. Pollicino, Google rischia di «vestire» un ruolo para-costituzionale, consultabile qui).
Dietro segnalazione degli utenti ex artt. 2 o 5 del ddl (o dei PM, ex art. 6 del ddl, che dovrebbero pedissequamente controllare tutti i social alla ricerca dei reati contro la Repubblica), i social network dovranno rimuovere i contenuti illeciti sopra visti.
Nel caso di reclamo ex art. 2 – ossia quello proposto da utente non leso direttamente dal contenuto illecito – i social o specifici “organismi di autoregolamentazione”, che potranno essere deputati a questo compito dai social network stessi dopo il riconoscimento del Ministero dello sviluppo economico di concerto con il Ministero della Giustizia e sentito il Garante per la protezione dei dati personali, dovranno provvedere ad un’analisi dei contenuti segnalati e procedere eventualmente alla loro rimozione.
Il fatto che questi “organismi di autoregolamentazione” debbano essere riconosciuti dallo Stato (art. 3), in relazione alle caratteristiche di indipendenza e competenza, sottende, a contrario, una opinabile fiducia del Legislatore sulla neutralità dei social network: il “riconoscimento” dell’indipendenza e imparzialità da parte dei Ministeri è dovuto solo agli organismi e non ai social, i quali sono evidentemente considerati come intrinsecamente imparziali e indipendenti.
La decisione sulla rimozione (art. 2), a seguito della segnalazione degli utenti, dovrebbe essere operata in 24 ore in caso di contenuti manifestamente illeciti o in 7 giorni in tutti gli altri casi, salvo vi sia la necessità di controllare la veridicità di quanto sostenuto o il social network si rimetta al riguardo alla decisione non contestabile di un “organismo di autoregolamentazione” ex art. 3.
Una disciplina specifica è prevista per le richieste del soggetto leso da contenuti illeciti legati ai delitti contro la persona sopra enunciati, la quale prevede che la risposta alla richiesta di rimozione da parte del social network avvenga entro 24 ore per contenuti manifestamente illeciti, entro 7 giorni qualora vi sia da controllare la veridicità dei fatti o entro 3 giorni in tutti gli altri casi (con possibilità di ricorso al Garante per la protezione dei dati personali in caso di inottemperanza o diniego).
In caso di rimozione richiesta dal Pm, invece, l’operazione dovrà essere effettuata entro 48 ore, ex art. 6.

La rimozione dunque assegna un vero e proprio ruolo editoriale ai social network quando si tratti di valutare la veridicità di un accadimento o di un fatto: ecco che riemerge – un minimo – il tema della libertà di informazione, anche in relazione alla scriminante della verità riguardo alle espressioni diffamatorie. Ci si potrebbe allora chiedere quanti social network siano disposti a “rischiare” di contraddire un utente e incorrere nelle sanzioni per aver diffuso contenuti illeciti invece di rimuovere semplicemente a tappeto ogni contenuto segnalato.

 

Infine, quale effetto benefico dovrebbe avere tale disciplina sulle persone disinformate da una fake news?
La rimozione avrebbe solo un effetto pro futuro, non potendo tale meccanismo correggere le opinioni distorte degli utenti disinformati. Questo in realtà è la conseguenza dell’inquadramento del fenomeno al di fuori della logica del diritto all’informazione e a ricevere notizie veritiere (che perlomeno, con tutti i suoi limiti, informava il ddl Gambaro): ciò porta ad ignorare lo strumentario tradizionale del diritto dei media, fra cui svetta l’istituto della rettifica.

Passando dal sein al sollen e guardando al più importante dei social network – Facebook – ci si potrebbe domandare perché non pensare ad un meccanismo di correzione del falso sviluppato sul modello della “rettifica oggettiva” (i.e. basata sulla c.d. verità oggettiva) come pensata originariamente per la disciplina della radio-televisione, rimodulandola per i moderni social.
Il procedimento potrebbe essere molto semplice: 1) segnalazione da parte dell’utente della fake news; 2) controllo da parte di soggetti terzi, imparziali e indipendenti (un’Autorità indipendente, l’ordine dei giornalisti o altro, come suggerito da  G. Pitruzzella sul The Financial Times e ripreso -in parte- in italiano qui); 3) a seguito dell’accertamento della falsità della notizia, obbligo per il social di far arrivare la rettifica agli utenti che abbiano in passato “interagito” (mediante condivisione, like o commento) con la fake news (per esempio Facebook potrebbe inviare una “notifica” agli utenti disinformati con apparizione della rettifica nel Newsfeed, sulla bacheca o al posto del c.d. Buongiorno); 4) infine, rimozione del contenuto, perché la rete è eterna ed i contenuti sui social network pure. (Per ulteriori approfondimenti si veda qui).

In conclusione, la decontestualizzazione del problema fake news dalla libertà di informare e dal diritto ad essere informati e la mancanza dell’analisi dei social come strumento usato per informare e informarsi conduce a una serie di dubbi sulla portata di questa iniziativa, partita da presupposti sicuramente legittimi: in primis la tutela del discorso pubblico. Ci sembra che le inevitabili e meritevoli premesse di responsabilizzazione dei social network non portino ai giusti strumenti di reazione ordinamentale contro le fake news, arenandosi in una disciplina poco efficace.