Page 18 - Carmelita Camardi - "Gigantismo" e disuguaglianze nell'economia dei dati. Appunti sulla governance europea delle relazioni digitali
P. 18
CARMELITA CAMARDI
pubblicistico che la loro azione ha acquisito, irreversibilmente, in conseguenza
della connaturata dimensione a-territoriale, e della capacità di influenzare i
comportamenti sociali su una scala che solo eufemisticamente si può definire
“larga”. Di qui i “rischi sistemici” di cui tali soggetti devono farsi carico. Di qui,
prima ancora, la ritenuta pericolosità della loro azione, e la probabilità del
raggiungimento di un livello di danni (dunque, un livello di rischio) reputato
inaccettabile o poco controllabile sul piano sociale .
28
Sulla base di una evidente connessione tra dimensione, potere e rischio, e con
altrettanto evidente intento di incidere sul possibile effetto di soggezione che può
conseguirne, significativamente l’art. 34 individua i rischi sistemici nel modo
seguente: «a) la diffusione di contenuti illegali tramite i loro servizi; b) eventuali
effetti negativi per l’esercizio dei diritti fondamentali al rispetto della vita privata
e familiare e alla libertà di espressione e di informazione, del diritto alla non
discriminazione e dei diritti del minore, sanciti rispettivamente dagli articoli 7,
11, 21 e 24 della Carta; c) eventuali effetti negativi, attuali o prevedibili, sul
dibattito civico e sui processi elettorali; d) qualsiasi effetto negativo, attuale o
prevedibile, in relazione alla violenza di genere, alla protezione della salute
pubblica e dei minori e alle gravi conseguenze negative per il benessere fisico e
mentale della persona».
L’articolo successivo stabilisce obblighi e procedure funzionali al risultato di
attenuazione dei rischi individuati, da raggiungere con misure proporzionate e
ragionevoli e nel contesto di una cooperazione rafforzata orizzontale (ciascuna
piattaforma con le altre) e verticale (con le varie Autorità di vigilanza e con la
stessa Commissione) (art. 35).
Non occorre in questa sede riferire della complessa disciplina di accountability
ipotizzata dal Regolamento, tutta costruita, come già nel GDPR, nella
prospettiva di una garanzia di legalità dell’azione di questi soggetti, dimensionata
sulla protezione dei diritti coinvolti da lesioni diffuse di gravità pari al peso
esercitato dai soggetti agenti, e non efficacemente ristorabili attraverso rimedi
individuali. Basti evidenziare, per avere l’idea della compiutezza del modello
adottato, che le piattaforme di grandi dimensioni devono agire nello svolgimento
dei loro obblighi di valutazione dei rischi secondo i principi della trasparenza,
della pubblicità delle loro analisi, della condivisione dei dati con le Autorità di
vigilanza (artt. 33-43), dotandosi possibilmente di Codici di condotta specifici per
ognuna delle funzioni esercitate (artt. 45-47); e che la Commissione dispone di
poteri di controllo sull’esecuzione di tali processi da parte delle piattaforme più
grandi incaricate di svolgerli, corredati di tutti gli strumenti (indagini, richieste di
informazioni etc.) che usualmente le Autorità indipendenti ricevono per
l’esercizio della funzione regolativa (art. 65) .
29
28 Sugli obblighi delle piattaforme molto grandi, DE MICHELIS, Il Digital Services Act: i nuovi
obblighi volti a migliorare la lotta alla contraffazione ed i temi aperti, in Dir. ind., 2022, 171.
29 La letteratura su questo e sul successivo Regolamento non è ancora molto presente. Oltre che
agli Autori già indicati, cfr. ALPA, La legge sui servizi digitali e la legge sui mercati digitali, in Contr. impr.,
74