Sei sulla pagina 1di 15

Abbonati a DeepL Pro per poter modificare questa presentazione.

Visita www.DeepL.com/pro per scoprirne di più.

Introduzione alla legge sui servizi digitali, la moderazione dei contenuti e


la protezione dei consumatori*1
AbstrAct: Nel dicembre 2020, la Commissione europea ha presentato la legge sui servizi digitali con l'obiettivo
dichiarato di garantire un ambiente online sicuro e responsabile. Esso consiste principalmente in una proposta
di regolamento del Parlamento europeo e del Consiglio su un mercato unico dei servizi digitali. Questo articolo
fornisce un'analisi del contesto storico e sistematico di questa proposta, incluso un tour guidato del suo
contenuto e una panoramica della relazione con altri strumenti legislativi europei. La questione della
moderazione dei contenuti nei servizi digitali viene ulteriormente affrontata, facendo riferimento al contesto
storico del regime giuridico ora proposto. Vengono delineate le diverse prospettive UE e USA. Anche il tema della
protezione dei consumatori è trattato nel testo, con enfasi sulle disposizioni più rilevanti in questo campo e sui
problemi che ne possono derivare.

1. Introduzione

Il mercato digitale, in particolare le piattaforme digitali, sono stati argomenti intensi di discussione
negli ultimi anni. Questo è dovuto, non solo allo sviluppo esponenziale della tecnologia con cui
abbiamo a che fare negli ultimi decenni, ma anche ai possibili rischi per i consumatori che ne derivano.

Per questo motivo, le istituzioni europee hanno avuto una lunga storia di adozione di sforzi legislativi
per rendere l'ambiente digitale un luogo più sicuro, in particolare quando si tratta dei diritti
fondamentali sanciti dalla Carta dei diritti fondamentali dell'Unione europea, come il rispetto della vita
privata e familiare (articolo 7). Questa attenzione è stata generale, ma si è concentrata soprattutto sul
diritto dei consumatori e sulla protezione dei dati, dove l'acquis giuridico europeo contiene ora una
quantità considerevole di direttive sul diritto dei consumatori1 e il regolamento generale sulla
protezione dei dati (GDPR)2.

Molto recentemente, la Commissione ha presentato una nuova proposta da aggiungere alla lista della
legislazione europea relativa al mercato digitale: la proposta di un Digital Services Act3 (di seguito
DSA). Qui, si concentra principalmente sulla regolamentazione dei servizi di intermediazione,
completando così il diritto dei consumatori e le regole di protezione dei dati già messe in atto.

Così, lo scopo di questo articolo è quello di esplorare la storia di questa proposta, la struttura, così
come la sua relazione con altre direttive e regolamenti europei, in modo da accertare i suoi risultati e
le situazioni in cui non va abbastanza lontano. In particolare, ci concentreremo sulla moderazione dei
contenuti e sul modo in cui mira a proteggere i diritti dei consumatori, quanto protegge i consumatori
e se è sufficiente. Per questo motivo, il capitolo 2 si concentrerà su un'analisi del Digital Services Act,
dalla sua origine e le ragioni che hanno portato la Commissione a presentarlo, alle principali
disposizioni che vi sono incorporate e la relazione che stabilisce con il quadro giuridico esistente, in
particolare il GDPR. Nel capitolo 3 affronteremo specificamente il tema della moderazione dei
contenuti, al fine di verificare se i progressi presentati dal Digital Services Act rispondono
adeguatamente ai problemi identificati nella legislazione precedente (nell'Unione Europea e negli Stati
Uniti), e ciò che viene già fatto nella pratica, cioè dalle piattaforme digitali. Infine, nel capitolo 4
analizzeremo come la proposta rafforza la protezione dei consumatori, per quanto riguarda cinque
aspetti principali: la tracciabilità, l'informazione precontrattuale e l'informazione sulla sicurezza dei
prodotti, la trasparenza della pubblicità, i sistemi di raccomandazione e il principio generale di non
responsabilità dei fornitori di servizi di hosting.

2. Contesto storico e sistematico della legge sui servizi digitali


La proposta di legge sui servizi digitali è stata il culmine di anni di innovazione tecnologica che doveva
essere accompagnata dai necessari aggiornamenti legislativi4. Infatti, secondo la Commissione, ci sono
stati tre motivi principali che hanno portato a questa proposta. In primo luogo, da quando è stata
adottata la direttiva 2000/31/CE, lo sviluppo di nuovi servizi digitali ha raggiunto livelli sempre più
elevati che hanno richiesto l'aggiornamento del quadro giuridico europeo per quanto riguarda il
mercato digitale5. In secondo luogo, l'uso costante di questi nuovi servizi e piattaforme è diventato
una fonte di nuovi rischi, sia per i consumatori che per la società nel suo complesso, essendo quindi
necessario regolamentarli per mitigare questi potenziali pericoli6. Infine, l'attuale scenario pandemico
in cui siamo immersi ha anche sollevato l'attenzione sull'importanza delle tecnologie digitali nella
nostra vita quotidiana. Come afferma la Commissione, "[i]l fatto ha mostrato chiaramente la
dipendenza della nostra economia e della nostra società dai servizi digitali e ha messo in luce sia i
benefici che i rischi derivanti dal quadro attuale per il funzionamento dei servizi digitali "7.

A causa di questa necessità di regolamentare il mercato digitale e i fornitori di servizi, la Commissione


ha presentato a dicembre un pacchetto legislativo composto da due proposte: la legge sui mercati
digitali8 e la legge sui servizi digitali. Mentre la prima mira a garantire risultati economici equi per
quanto riguarda i servizi delle piattaforme digitali, nonché a completare l'applicazione degli articoli
101 e 102 del TFUE a queste piattaforme specifiche9 , la legge sui servizi digitali mira ad armonizzare
le condizioni per lo sviluppo di servizi transfrontalieri innovativi nell'UE, affrontando e prevenendo
l'emergere di ostacoli a queste attività, nonché fornendo un'adeguata supervisione ai servizi forniti10.
Per questo motivo, stabilisce obblighi di due diligence su diversi tipi di fornitori di servizi digitali al
fine di garantire che tali servizi non siano utilizzati impropriamente per attività illegali e che gli
operatori agiscano in modo responsabile11.

Con queste due proposte, diventa evidente che la Commissione vuole affrontare i problemi che
derivano da due situazioni principali. Quando si tratta della legge sui mercati digitali, la Commissione
giustifica la sua necessità con le caratteristiche che hanno i servizi di piattaforma di base, vale a dire
economie di scala estreme, effetti di rete, la capacità di connettere molti utenti commerciali con gli
utenti finali attraverso il multisidedness di questi servizi, ecc12. Queste caratteristiche combinate con
pratiche commerciali sleali hanno il potenziale di minare la contendibilità dei servizi di piattaforma di
base, così come l'equità generale delle imprese e degli utenti finali di tali servizi13. Pertanto, con la
proposta di legge sui mercati digitali, la Commissione mira a fornire adeguate garanzie normative in
tutta l'Unione contro i comportamenti sleali, facilitando il business transfrontaliero in tutta l'Unione,
migliorando il funzionamento del mercato interno14.

La legge sui servizi digitali, tuttavia, ha una portata diversa. Anche se mira a garantire il corretto
funzionamento del mercato interno, specialmente quando si tratta di servizi digitali transfrontalieri
(per lo più intermedi), qui l'obiettivo è quello di promuovere la responsabilità dei fornitori di servizi
intermedi, per consentire l'esistenza di un ambiente online sicuro, dove i cittadini rimangono liberi di
esercitare i loro diritti fondamentali, in particolare la libertà di espressione e di informazione15.

2.1. Visita guidata alla legge sui servizi digitali

La legge sui servizi digitali è uno strumento che mira a rafforzare le responsabilità dei servizi
intermediari. Come suggerisce concretamente la Commissione di raggiungere questo obiettivo? Lo fa
attraverso una Proposta di Regolamento divisa in cinque capitoli: Disposizioni generali; Responsabilità
dei fornitori di servizi intermediari; Obblighi di diligenza per un ambiente online trasparente e sicuro;
Attuazione, cooperazione, sanzioni e applicazione; Disposizioni comuni di applicazione; Disposizioni
finali.

Il primo capitolo stabilisce il tono generale della proposta, chiarendo il suo oggetto, la sua portata
(articolo 1) e le definizioni (articolo 2).
Il regolamento si applicherà a una parte dei servizi della società dell'informazione, cioè i servizi di
intermediazione (articolo 11). Un "servizio della società dell'informazione" è da considerarsi "qualsiasi
servizio prestato normalmente dietro retribuzione, a distanza, per via elettronica e a richiesta
individuale di un destinatario di servizi" (articolo 11(b) della Direttiva (UE) 2015/1535). Ci sono
quattro condizioni che devono essere soddisfatte per rispettare il concetto: (i) remunerazione; (ii) a
distanza; (iii) per via elettronica; (iv) su richiesta individuale di un destinatario di servizi. Nelle cause
Uber Spagna, Uber Francia e Airbnb Irlanda16 , la CGUE ha stabilito la giurisprudenza secondo la quale
un servizio fornito da una piattaforma di intermediazione digitale, per essere classificato come
servizio della società dell'informazione non solo deve soddisfare le quattro condizioni menzionate, ma
anche non essere parte integrante di un "servizio complessivo la cui componente principale è un
servizio che rientra in un'altra qualificazione giuridica". Per rispondere a quest'ultima domanda, la
CGUE ha creato un test che include due criteri decisionali: (i) se la piattaforma ha creato un nuovo
mercato; (ii) se la piattaforma esercita un'influenza decisiva sui fornitori di servizi registrati presso di
essa per quanto riguarda le condizioni di fornitura del servizio17.

I considerando 5 e 6 della proposta affermano che il regolamento dovrebbe applicarsi ai "fornitori di


servizi di intermediazione". Si chiarisce che questa applicazione è limitata ai servizi d'intermediazione,
non incidendo sui requisiti stabiliti nella legislazione dell'Unione europea o nazionale "relativi a
prodotti o servizi intermediati attraverso servizi d'intermediazione, anche in situazioni in cui il
servizio d'intermediazione costituisce parte integrante di un altro servizio che non è un servizio
d'intermediazione come specificato nella giurisprudenza della Corte di giustizia dell'Unione europea".
Questo è un chiaro riferimento alla giurisprudenza della Corte di giustizia dell'Unione europea a cui si
fa riferimento nel paragrafo precedente. Il regime della proposta si applica indipendentemente dal
fatto che il servizio della società dell'informazione faccia parte di un servizio globale il cui elemento
principale è un servizio con un'altra qualifica giuridica, purché si tratti di un servizio intermedio. Il
regolamento non coprirà ovviamente il servizio (altro elemento principale), come il trasporto o
l'alloggio, che non è un servizio intermediario18.

Il regolamento è destinato ad applicarsi ai servizi d'intermediazione, definiti semplicemente come


appartenenti a una delle tre categorie di servizi: semplice conduit, caching e hosting. I servizi di
hosting consistono nella "memorizzazione di informazioni fornite da, e su richiesta di, un destinatario
del servizio". Tra i servizi di hosting sono esplicitamente incluse le piattaforme online. Secondo la
definizione dell'articolo 2(h) una piattaforma online è (i) un fornitore di un servizio di hosting che, (ii)
su richiesta di un destinatario del servizio, (iii) memorizza e diffonde al pubblico informazioni. Non è
qualificata come piattaforma online se "l'attività è una caratteristica minore e puramente accessoria di
un altro servizio e, per motivi oggettivi e tecnici non può essere utilizzata senza tale altro servizio, e
l'integrazione della caratteristica nell'altro servizio non è un mezzo per eludere l'applicabilità del
presente regolamento".

La definizione di contenuto illegale si trova nell'articolo 2(g) in combinazione con il considerando 12.
Il contenuto illegale è qualsiasi informazione che - indipendentemente dalla sua forma, che di per sé o
in riferimento a un'attività (che può includere la vendita di beni e la fornitura di servizi) - non è
conforme al diritto dell'Unione o di uno Stato membro. Si tratta di una definizione volutamente vaga,
che è destinata ad essere interpretata in modo ampio, a causa del campo di applicazione orizzontale e
degli obiettivi della proposta. Il compito di definire il contenuto illegale è lasciato alle autorità
giurisdizionali competenti, in riferimento alla legislazione applicabile a ciascun caso. I contenuti
illegali possono quindi comprendere "discorsi di odio o contenuti terroristici illegali e contenuti
discriminatori illegali, o che si riferiscono ad attività che sono illegali, come la condivisione di
immagini che ritraggono abusi sessuali su minori, la condivisione illegale non consensuale di immagini
private, lo stalking online, la vendita di prodotti non conformi o contraffatti, l'uso non autorizzato di
materiale protetto da copyright o attività che comportano violazioni della legge sulla protezione dei
consumatori "19.

I capitoli II e III della legge sui servizi digitali approfondiscono le responsabilità attribuite ai fornitori
di servizi di intermediazione (articolo 2(f)).
Il capitolo II regola una materia attualmente prevista dalla direttiva sul commercio elettronico. Fissa le
regole generali, in particolare per quanto riguarda l'esenzione di responsabilità20. Concretamente, dà
le condizioni generali che devono essere rispettate per i fornitori di servizi di mero conduit (articolo
3), catching (articolo 4) e hosting (articolo 5) per essere esenti da responsabilità a causa delle
informazioni di terzi che trasmettono e conservano. Inoltre, sembra anche escludere la possibilità di
responsabilità di questi fornitori di servizi se conducono le proprie indagini volte a rilevare,
identificare, rimuovere, disabilitare l'accesso a contenuti illegali o adottare le misure necessarie al fine
di rispettare le regole stabilite dal diritto dell'UE in generale (articolo 6). Infine, stabilisce due obblighi
finali: il divieto di monitoraggio generale o di indagine attiva (articolo 7) e l'obbligo di rispettare gli
ordini delle autorità giudiziarie o amministrative nazionali di agire contro i contenuti illegali e di
fornire informazioni (articoli 8 e 9).

Il capitolo III stabilisce gli obblighi di diligenza per un ambiente online trasparente e sicuro, attraverso
cinque diverse sezioni. Qui, la Commissione regola i diversi servizi di intermediazione secondo le loro
attività e dimensioni, imponendo obblighi proporzionali a questi due criteri.

La prima sezione consolida le basi degli obblighi di diligenza che ogni fornitore di servizi di
intermediazione dovrebbe rispettare: la necessità di stabilire un unico punto di contatto per facilitare
il contatto diretto con le autorità statali (articolo 10), la necessità di designare un rappresentante
legale nell'Unione, per quei fornitori che non sono stabiliti in nessuno Stato membro, ma che
forniscono i loro servizi sul territorio dell'Unione europea (articolo 11), l'obbligo di indicare nei loro
termini e condizioni le eventuali restrizioni che possono imporre all'uso dei loro servizi e di agire in
modo responsabile quando li applicano (articolo 12) e, infine, gli obblighi di segnalazione per quanto
riguarda la rimozione e la disabilitazione delle informazioni considerate illegali o contrarie ai termini e
condizioni del fornitore (articolo 13).

Da qui in poi, le sezioni successive regolano tipi specifici di fornitori di servizi interme diari, in
aggiunta a quanto già sancito nella Sezione 1. La Sezione 2 regolamenta i fornitori di servizi di hosting,
obbligandoli a mettere in atto meccanismi che consentano a terzi di notificare la presenza di contenuti
potenzialmente illegali (articolo 14), nonché l'obbligo di indicare le ragioni della rimozione o
disabilitazione dell'accesso fornito da un destinatario del servizio (articolo 15). Le sezioni 3 e 4
regolano le piattaforme online, come complementi alle sezioni 1 e 2. Pertanto, mentre la sezione 3
stabilisce regole generali applicabili ad esse, in particolare per quanto riguarda i sistemi di gestione dei
reclami e la risoluzione delle controversie (articoli da 17 a 19), la protezione contro l'uso illegale della
piattaforma (articoli da 20 a 22) e gli obblighi di informazione (articoli 23 e 24), la sezione 4 aggiunge
ulteriori responsabilità di due diligence alle piattaforme online molto grandi21 . Queste riguardano
principalmente due aspetti aggiuntivi: obblighi di sicurezza e controllo (articoli 26-28 e articolo 32) e
ulteriori responsabilità di informazione e accesso (articoli 29-31 e articolo 33).

Infine, la sezione 5 contiene disposizioni generali riguardanti gli obblighi di diligenza, come il quadro
per lo sviluppo di codici di condotta (articoli 35 e 36) e protocolli di crisi per affrontare circostanze
straordinarie che possono influenzare la salute pubblica o la sicurezza (articolo 37).

Il capitolo IV si concentra principalmente sull'attuazione e sull'applicazione delle disposizioni


precedenti. Attraverso cinque nuove sezioni, regolamenta (i) le autorità nazionali competenti - i
coordinatori dei servizi digitali - responsabili della corretta attuazione della legge sui servizi digitali e
le attribuzioni che devono possedere, (ii) il Comitato europeo per i servizi digitali22 , (iii) la
supervisione delle piattaforme online di grandi dimensioni da parte della Commissione, (iv) lo
scambio di informazioni tra i coordinatori dei servizi digitali, il Comitato europeo per i servizi digitali e
la Commissione, nonché (v) l'adozione di atti delegati e di esecuzione conformemente agli articoli 290
e 291 del trattato sul funzionamento dell'Unione europea.

Infine, abbiamo il Capitolo V che contiene le disposizioni finali del regolamento, relative alle modifiche
di altre direttive, la sua valutazione e l'entrata in vigore. Essendo questa la struttura del quadro
normativo offerto dalla Proposta, non possiamo dimenticare che per comprenderlo appieno, si deve
tener conto del restante acquis giuridico che è stato adottato in materia di mercato digitale e servizi
digitali in particolare.

2.2. La legge sui servizi digitali nel sistema giuridico europeo

La legge sui servizi digitali offre un aggiornamento dell'attuale quadro UE che regola il mercato
digitale e i servizi di intermediazione in generale. Tuttavia, non è uno strumento legislativo isolato.

In effetti, e come dichiarato dalla Commissione nella proposta, l'atto legislativo più importante in
materia di servizi digitali è la direttiva sul commercio elettronico23. Di conseguenza, la legge sui
servizi digitali dovrebbe basarsi sulle disposizioni in essa contenute, in particolare per quanto
riguarda l'articolo 3 e il principio del mercato interno24. Tuttavia, come già menzionato, le
disposizioni sull'esonero della responsabilità dei fornitori di semplici servizi di conduit, caching e
hosting sono trasferite nella legge sui servizi digitali e le corrispondenti disposizioni della direttiva sul
commercio elettronico sono abrogate. Potrebbe essere una buona idea usare la legge sui servizi digitali
anche per modificare fondamentalmente la direttiva sul commercio elettronico, dato che le sue regole
sono già datate. Sono state redatte con riferimento a un mercato digitale nascente e ora abbiamo
sviluppi tecnologici dilaganti legati a nuove sfide normative. La pandemia COVID19 ha ulteriormente
accentuato questa necessità di aggiornare il regime giuridico del commercio elettronico. Se la presente
proposta viene accolta, le disposizioni e i principi esistenti sulla libertà di stabilimento, il dovere
d'informazione, le comunicazioni commerciali e i contratti conclusi per via elettronica rimarranno in
vigore. Inoltre non risolve il problema sollevato dalle citate sentenze Uber e Airbnb della CGUE, che
escludono l'applicazione di tutta la direttiva sul commercio elettronico nei casi in cui una piattaforma
non sia qualificata come fornitore di un servizio della società dell'informazione e non solo
l'applicazione del principio del mercato interno (come è lo scopo di quella giurisprudenza). Crediamo
che non ci sia motivo di non applicare le disposizioni sui doveri di informazione, le comunicazioni
commerciali e i contratti conclusi per via elettronica a piattaforme come Uber. Il problema è
identificato nella Proposta, ma risolto solo qui e non anche per quanto riguarda la direttiva
eCommerce.

La legge sui servizi digitali mira inoltre a completare gli strumenti specifici del settore, che fungono da
lex specialis. La presente proposta non pregiudica, ad esempio, direttive come la direttiva 2010/13/CE,
modificata dalla direttiva (UE) 2018/1808, sui fornitori di piattaforme di videosharing25 , nella
misura in cui va oltre quanto stabilito dalla legge sui servizi digitali26. La stessa logica vale per il
regolamento (UE) 2019/1150 sulla promozione dell'equità e della trasparenza per gli utenti dei servizi
di intermediazione online, che funge anche da lex specialis alla legge sui servizi digitali27.

Questa proposta è anche destinata a completare l'acquis in materia di diritto dei consumatori. La
protezione dei consumatori è il tema di una sezione autonoma di questo testo, dove si fa riferimento
anche all'analisi di questa questione.

2.3. La legge sui servizi digitali e il regolamento generale sulla protezione dei dati

Il GDPR completa la legge sui servizi digitali, in particolare quando si tratta del diritto di informazione
e della pubblicità online28. Infatti, il legame tra il Digital Services Act e il GDPR è già stato esplorato dal
Garante europeo della protezione dei dati (GEPD) all'inizio di quest'anno.

Se partiamo dalle aggiunte che la legge sui servizi digitali apporta in termini di diritto all'informazione,
l'articolo 121 integra e fa salvi gli articoli da 12 a 14 del GDPR, aumentando così la trasparenza delle
pratiche di moderazione dei contenuti29 . In questo modo, l'informazione che deve essere data agli
interessati è rafforzata nel contesto dei servizi digitali, attraverso l'applicazione congiunta dei regimi
giuridici.
Per quanto riguarda la pubblicità online, gli articoli 24 e 30 del Pro posal completano chiaramente ciò
che è sancito dalla legge sulla protezione dei dati, portando ulteriore trasparenza e responsabilità alla
pubblicità mirata, senza pregiudicare l'applicazione delle disposizioni pertinenti del GDPR e la
necessità del consenso30.

Ci sono altri settori in cui la proposta di legge sui servizi digitali tocca il GDPR. Per esempio, il GEPD
menziona la necessità di coordinare l'articolo 15 della proposta con l'articolo 22 del GDPR, che impone
condizioni rigorose sulle decisioni basate esclusivamente sul trattamento automatico31. È inoltre
importante menzionare che il meccanismo di reclamo sancito dall'articolo 17 della proposta non
pregiudica i diritti e i rimedi a disposizione degli interessati e previsti dal GDPR32.

Tenendo presente le relazioni tra il GDPR e il progetto, il GEPD accoglie con favore il primo, ma
suggerisce ulteriori misure al fine di rafforzare ulteriormente i diritti delle persone, soprattutto
quando si tratta di moderazione dei contenuti e pubblicità mirata online33. Pertanto, il GEPD si
concentra sul fatto che il profiling ai fini della moderazione dei contenuti dovrebbe essere vietato a
meno che il fornitore di servizi online non dimostri che tale misura è necessaria per affrontare i rischi
individuati dalla legge sui servizi digitali34. Inoltre, ritiene che dovrebbe essere vietata la pubblicità
online mirata basata sul tracciamento pervasivo, nonché una limitazione dei dati raccolti ai fini della
pubblicità mirata35.

Così, sembra che anche se questi due documenti si completano a vicenda in aree chiave relative al
mercato digitale, c'è ancora una strada da percorrere e idee da discutere per rafforzare i diritti degli
interessati in un contesto digitale, in particolare quando si tratta di pubblicità, moderazione dei
contenuti e profiling. Queste questioni saranno ulteriormente affrontate nei seguenti capitoli di questo
articolo, dedicati alla moderazione dei contenuti e alla protezione dei consumatori.

3. Moderazione dei contenuti nei servizi digitali

3.1. L'esenzione della responsabilità per i contenuti illegali come pietra miliare per la fornitura
di servizi digitali interme diari

La moderazione dei contenuti nei servizi di intermediazione online è sempre stato un argomento
difficile da affrontare, perché, a differenza dei media tradizionali, questi servizi non mirano a limitare
la pubblicazione di contenuti con rigide norme editoriali e limitazioni di capacità - al contrario,
l'obiettivo è quello di facilitare, democratizzare l'accesso a una via di pubblicazione, archiviazione e
comunicazione delle informazioni - quindi tendono ad assumere il ruolo di intermediari passivi36 .

Fin dall'inizio, l'enorme quantità di contenuti generati e caricati dagli utenti (testo, immagini, audio e
video) era già estremamente difficile da analizzare, classificare e rilevare se c'erano problemi. E, con il
passare degli anni, lo stesso ha fatto la tecnologia: con i massicci miglioramenti nella velocità di
internet, nello stoccaggio della memoria e nella compressione dei file (solo per citarne alcuni)
accompagnati da un accesso molto più ampio della società a personal computer, smartphone e
internet, il compito di moderare i contenuti online è diventato "umanamente" impossibile - nel 2015,
più di 400 ore di video sono state caricate ogni minuto su YouTube37.

Tuttavia, come molti hanno sottolineato, insieme alla crescita esponenziale delle comunicazioni online,
del contenuto generato dagli utenti e dei suoi ampi effetti sociali, politici ed economici, sono
aumentate anche le risorse, gli strumenti e il potere delle imprese di Internet che gestiscono questi
servizi interme diari e piattaforme collaborative.

L'aumento della disinformazione, della criminalità informatica, degli inciuci elettorali, della "cancel
culture" e delle preoccupazioni per la protezione dei dati e dei diritti d'autore hanno, ancora una volta,
dopo 20 anni, portato i riflettori sul ruolo di questi fornitori di servizi - su entrambi i lati dell'Oceano
Atlantico.
In Europa, il processo legislativo della DSA rappresenta un'opportunità tempestiva per rivedere le
scelte politiche fatte nella direttiva eCommerce nel 2000, agli albori di Internet, e accertare il modello
migliore per la distribuzione della responsabilità e dei doveri di moderazione dei contenuti sulle
comunicazioni effettuate dagli utenti sui servizi di intermediazione.

Allora, come siamo arrivati qui?

Alla fine degli anni '90, con la firma dei due trattati WIPO, diversi Stati hanno iniziato iniziative per
regolare il ruolo degli allora primi servizi digitali intermediari. Sono stati considerati diversi approcci:
responsabilità oggettiva, responsabilità per negligenza, responsabilità in condizioni di porto sicuro,
immunità da sanzioni, immunità da sanzioni e ingiunzioni. E, per quanto riguarda le sanzioni
applicabili, gli intermediari dovrebbero essere soggetti alle stesse sanzioni civili, amministrative o
penali applicate ai loro utenti, o a sanzioni diverse, inferiori o di tipo diverso (di natura meramente
amministrativa e non penale, per esempio)38 ?

Ci sono diversi argomenti per giustificare e argomentare contro l'imposizione della responsabilità
secondaria ai fornitori di servizi. A favore di una maggiore responsabilità, abbiamo:

1. 1) La necessità di assicurare la protezione delle vittime i cui diritti (reputazione, privacy,


proprietà intellettuale, ...) sono stati violati, e il loro giusto risarcimento. È quasi impossibile
garantire il risarcimento dei principali trasgressori: la loro identità è mascherata da
pseudonimi, non sono raggiungibili, possono risiedere in giurisdizioni e sistemi giuridici
completamente diversi, ed è quasi impossibile accertare se non siano già insolventi. Tentare di
ritenere responsabili i trasgressori primari è un'impresa costosa con poche o nessuna
prospettiva di risarcimento che difficilmente giustifica il caso stesso.
2. 2) Tenendo gli intermediari responsabili in qualche misura, essi sono economicamente
incentivati ad adottare misure per bloccare e terminare le attività illegali o anche a prevenirle
in primo luogo (attraverso filtri di upload, per esempio).

Contro questa logica, abbiamo le seguenti considerazioni principali:

1. 1) La responsabilità secondaria può essere un onere troppo pesante per questi intermediari
per fornire i loro servizi. Le sanzioni che ne deriverebbero potrebbero rendere i loro modelli di
business impraticabili ed eccessivamente rischiosi, costringendoli ad abbandonarli o a limitarli
fortemente. Questo è particolarmente noto per i servizi gratuiti forniti in un modello non
profit, non basato su entrate pubblicitarie, come Wikipedia.
2. 2) Senza un'esenzione di responsabilità secondaria, affinché il servizio possa continuare ad
operare con la possibilità di innumerevoli cause e sanzioni, potrebbe essere costretto ad
adottare misure che limitano eccessivamente il comportamento dei suoi utenti. Per non essere
ritenuto responsabile di non aver impedito o interrotto attività illegali, l'intermediario ostacola
e blocca preventivamente tutte le attività che possono essere percepite come potenzialmente
sospette, escludendo attività del tutto lecite dei suoi utenti o addirittura l'esercizio dei loro
diritti fondamentali. 39 Questa iperdeterrenza è la reazione naturale all'incertezza che molti tipi
di contenuti rappresentano nei confronti della legge: certe comunicazioni possono essere
considerate hate speech o diffamazione, in alcuni casi e non in altri. Alcune riproduzioni di
opere protette dal diritto d'autore possono essere consentite in base al fair use (negli Stati
Uniti) e alle eccezioni e limitazioni dell'articolo 5 della direttiva sulla società dell'informazione
(nell'UE)40. Il contesto è fondamentale.

Quest'ultima preoccupazione era già una preoccupazione nel 1995, quando fu coniata come "Censura
Collaterale" da Meyerson41. Insieme a una visione politica che l'innovazione non doveva essere
soffocata e che le "Internet Companies" dell'epoca erano semplici startup e imprese di medie
dimensioni, i regolamenti della fine degli anni '90 adottarono un approccio molto protettivo alla
fornitura di servizi digitali intermediari.
Negli Stati Uniti, il legislatore ha seguito queste preoccupazioni e ha deciso un approccio misto
attraverso due atti complementari: il Communication Decency Act (CDA) (1996) e il Digital Mil
lennium Copyright Act (DMCA) (1998).

Nel CDA, gli intermediari non sono mai considerati come editori o relatori per il contenuto dei loro
utenti (Sezione 230 (c) (1)), e sono in grado di sorvegliare e rimuovere contenuti che possono
considerare osceni, lascivi, sporchi, eccessivamente violenti, molesti o altrimenti discutibili, senza
esserne responsabili, se la rimozione è condotta in buona fede (Sezione 230 (c) (2)) - nota anche come
clausola del "Buon Samaritano"). Nel DMCA, la scelta era chiaramente per una responsabilità sotto le
limitazioni del safe harbour, cioè una responsabilità che richiede una chiara omissione specifica, come
la mancata risposta alle richieste di rimozione delle autorità e di terzi privati. Per non essere ritenuto
responsabile, l'intermediario non deve avere alcuna conoscenza effettiva che il materiale è in
violazione, non può ricevere un incentivo finanziario da esso, e su notifica del titolare dei diritti, deve
bloccare il contenuto presumibilmente in violazione.

Nell'UE, questa questione è stata affrontata nella direttiva 2000/31/CE sul commercio elettronico, una
direttiva orizzontale che affronta le prime questioni principali del commercio elettronico e dei
contratti digitali a distanza. In questa direttiva, le principali disposizioni da trasporre negli
ordinamenti giuridici degli Stati membri, relative alla responsabilità dell'intermediario e alla
moderazione dei contenuti, si trovano negli articoli da 12 a 15. Il regolamento europeo non solo
affronta la questione dei contenuti illegali nel suo insieme, senza creare un quadro diverso per la
responsabilità per violazione del diritto d'autore, ma si differenzia anche dagli Atti americani
distinguendo diverse categorie di servizi, con condizioni diverse.

Per i servizi di semplice trasporto di dati, la direttiva stabilisce che i fornitori di servizi possono essere
protetti dalla responsabilità se assumono un ruolo passivo in relazione ai dati trasmessi (quando non
avviano la trasmissione, non selezionano il destinatario o non modificano nessuna delle informazioni
del destinatario). A tutti gli effetti, tratta tutte le trasmissioni allo stesso modo. Solo se debitamente
notificato da un tribunale o da un'autorità amministrativa, ha bisogno di intraprendere un'azione per
terminare o prevenire una violazione - il che vale anche per i restanti servizi.

Per i servizi di caching, le condizioni di protezione cambiano leggermente. Oltre ai requisiti precedenti,
ci si aspetta anche che il fornitore rispetti le condizioni di accesso, che non interferisca con gli usi
legittimi secondo gli standard industriali, che mantenga il servizio aggiornato. Ci si aspetta anche che
rimuova o disabiliti l'accesso a contenuti illegali se ne viene a conoscenza.

Infine, per l'hosting di contenuti, l'intermediario non è responsabile se non ha conoscenza effettiva del
contenuto illegale o dei fatti o delle circostanze da cui deriva l'illegalità; solo nel caso in cui la
cosiddetta illegalità diventi evidente o il provider ne sia messo a conoscenza, si deve intervenire
adeguatamente per rimuovere tale contenuto.

La direttiva sancisce anche il principio di nessun obbligo generale di monitorare e cercare attività
illegali all'interno dei loro servizi, al fine di proteggere i diritti fondamentali di libertà e accesso
all'informazione. Tuttavia, gli Stati membri possono creare obblighi specifici42 per segnalare alle
autorità pubbliche competenti alcuni tipi di presunte attività o contenuti illegali sul loro servizio43 -
un obbligo che è applicabile anche se il fornitore soddisfa le condizioni dell'articolo 141, e quindi non è
responsabile44.

Questi quadri giuridici, su entrambi i lati dell'Atlantico, hanno plasmato gli ultimi due decenni - un
lungo periodo di tempo, in cui diversi fattori sono cambiati in modo imprevisto. Sono apparsi nuovi
modelli di business e le aziende Big Tech sono diventate straordinariamente potenti e piene di risorse.

3.2. L'autoregolamentazione nella pratica: cosa abbiamo imparato dagli ultimi 20 anni?
Mentre né la legislazione europea né le leggi americane imponevano doveri generali per la
moderazione dei contenuti (il CDA dava una spada figurativa per il controllo dei contenuti "osceni" ma
nessun obbligo di usarla), diversi fattori di mercato hanno spinto le aziende più grandi - più esposte a
contenziosi e boicottaggi da parte di compagnie pubblicitarie, organizzazioni di gestione collettiva e
altri partner commerciali - ad agire sulla proliferazione di contenuti illegali nelle loro piattaforme.

Accanto a queste pressioni commerciali per affrontare la violazione dilagante del copyright, la crescita
esponenziale delle truffe violente legate al terrorismo ha preoccupato molte autorità pubbliche
dell'UE, e ha portato a una miriade di legislazioni nazionali ed europee che impongono procedure per
eliminare certi tipi di contenuti illegali45. Infine, negli ultimi anni, l'aumento dei discorsi d'odio ha
anche posto un'ulteriore pressione su questi provider per far rispettare i loro termini di servizio e
intraprendere alcune azioni preventive contro questo tipo di comportamenti.

A partire dai primi anni 2000, la soluzione più immediata per la modera zione nelle piattaforme, sia
nei forum online che nei servizi, è stata l'adozione di amministratori ("admins" o funzionari interni al
provider) e moderatori ("mods", singoli utenti fidati del servizio, ma la nomenclatura può cambiare)
con la funzione e i poteri di sorvegliare le bacheche, ricevere reclami, risolvere controversie, analizzare
la conformità dei contenuti segnalati, bloccarli e sospendere o bandire l'utente che li ha pubblicati.
Questo approccio ha dimostrato di essere inefficace e alquanto imperfetto: 1) non è scalabile e
replicabile in molti servizi; 2) si basa pesantemente sugli utenti stessi, suscettibile di pregiudizi, abusi
di potere e può promuovere l'emergere di echochambers; 3) e non è abbastanza efficace per il volume
di contenuti caricati dagli utenti. In un esempio recente, il social network Parler usava un sistema in
cui tutte le notifiche di contenuti illegali e di violazioni dei Termini di Servizio erano valutate da panel
di utenti, in una sorta di tribunale tra pari. Alcuni dei difetti di cui sopra si sono verificati con grande
effetto46. Questo tipo di sistema deve essere integrato con altri meccanismi47.

A partire dalla fine degli anni 2000, le grandi piattaforme hanno deciso di utilizzare la moderazione
algoritmica48 , cioè di impiegare mezzi automatizzati di riconoscimento dei contenuti illegali, e più
tardi, di collaborare addirittura in consorzi, come il Global Internet Forum to Counter Terrorism
(GIFCT), per aiutare l'applicazione del codice di condotta della Commissione Europea per combattere
l'hate speech illegale online49 all'interno dei loro rispettivi servizi. La maggior parte delle forme di
moderazione algoritmica, come il matching, l'hashmatching e la classificazione, insieme ai database
costantemente aggiornati delle opere protette dal diritto d'autore e dei contenuti illegali, hanno
dimostrato di avere una certa efficacia nel trovare le "corrispondenze" e nel bloccare i contenuti
illegali - specialmente le violazioni dei diritti d'autore e i contenuti legati al terrorismo. La questione
dell'hate speech si è dimostrata molto più difficile da affrontare, a causa dei limiti degli algoritmi nella
comprensione delle sfumature del discorso e del contesto stesso.

Tuttavia, anche gli algoritmi sono ancora strumenti imperfetti. Sono inclini a falsi negativi (gli utenti
possono ancora trovare mezzi per eludere il loro rilevamento) e, in misura molto maggiore, a falsi
positivi, cioè a bloccare contenuti legali. Questo è particolarmente grave nei sistemi di rilevamento del
copyright, come il Content ID System50 di Youtube. A causa del modo in cui il DMCA americano e la
direttiva europea sul commercio elettronico hanno costruito la responsabilità - senza meccanismi di
ricorso per i destinatari e conseguenze per l'uso improprio - i fornitori di servizi hanno un incentivo a
bloccare sempre il contenuto, anche in caso di dubbio. Poi, il destinatario che lo ha fornito, non avrà
anche accesso ad adeguate opzioni di ricorso (non automatizzato) per appellarsi alla decisione
automatizzata - risultando nel fenomeno che i legislatori stavano inizialmente cercando di mitigare in
primo luogo: la censura collaterale e la violazione dei diritti fondamentali dell'utente.

3.3. Gli atti del servizio digitale e la moderazione dei contenuti

Contrariamente alle aspettative di molti, la proposta della Commissione per il DSA non affronta il
problema della responsabilità degli intermediari e della moderazione dei contenuti cercando di
reinventare la ruota e forzando una maggiore sorveglianza da parte dei fornitori di servizi. Invece,
mira a gettare una maggiore trasparenza sull'intero processo e dare disposizioni concrete e uniformi
per l'azione e la rimozione di contenuti illegali, e i mezzi per gli utenti interessati a fare appello contro
le decisioni, al fine di mitigare i rischi di blocco errato o ingiustificato del discorso legittimo - un
problema che abbiamo visto è sorto da piattaforme troppo zelanti e titolari di diritti che abusano delle
loro posizioni.

Il DSA abroga gli articoli da 12 a 15 della direttiva eCommerce, relativi al "mero condotto", "cattura",
"hosting" e "nessun obbligo generale di monitorare il contenuto", e li sostituisce con la propria
versione - cioè gli articoli 3, 4, 5 e 7 della proposta della Commissione, come da articolo 71.

Confrontando gli articoli di entrambi i testi si nota che per i servizi di mero conduit e catching, le
condizioni per l'esenzione di responsabilità rimangono le stesse, mentre per i servizi di hosting c'è
stata l'inclusione di una disposizione che elimina l'esenzione di responsabilità per le violazioni del
diritto dei consumatori da parte di alcuni marketplace online, un argomento che sarà ulteriormente
sviluppato nella sezione 4.5 di questo articolo.

Il principio di nessun obbligo generale di sorveglianza dei contenuti persiste anche nella nuova
versione (sebbene con un testo diverso) - come sottolineato dalla Commissione nel testo della
proposta51: "La legislazione proposta manterrà il divieto di obblighi generali di sorveglianza della
direttiva sul commercio elettronico, che di per sé è fondamentale per il necessario equilibrio dei diritti
fondamentali nel mondo online. Il nuovo regolamento vieta gli obblighi generali di monitoraggio, in
quanto potrebbero limitare in modo sproporzionato la libertà di espressione degli utenti e la libertà di
ricevere informazioni e potrebbero gravare eccessivamente sui fornitori di servizi e quindi interferire
indebitamente con la loro libertà di condurre un'attività. Il divieto limita anche gli incentivi per la
sorveglianza online e ha implicazioni positive per la protezione dei dati personali e della privacy".

Il regolamento include anche una nuova clausola del "buon samaritano" nell'articolo 6, che mantiene la
protezione dalla responsabilità degli articoli da 3 a 5, per le indagini volontarie lanciate dallo stesso
fornitore di servizi.

Per la sottrazione del contenuto, la proposta mira a stabilire nuove regole per le relazioni tra i fornitori
di servizi, le autorità pubbliche e gli organi giudiziari negli articoli 8 e 9, e tra il fornitore e altre parti
private nell'articolo 14 e seguenti. Entrambi devono ora rispettare una serie di requisiti assenti nella
direttiva, migliorando la trasparenza del processo di comunicazione, ragionamento e ricorso. Le
ordinanze degli enti pubblici devono avere le dichiarazioni del motivo per cui il contenuto è illegale, le
disposizioni pertinenti del diritto nazionale ed europeo, e la portata dell'ordine di bloccare l'accesso, e
le procedure per entrambi il fornitore e il destinatario del servizio che ha fornito il contenuto per
difendersi. Nell'articolo 14, per gli individui e le entità private, la richiesta di rimozione deve contenere
la loro identificazione, la chiara localizzazione del presunto contenuto (può richiedere gli URL esatti),
una dichiarazione che confermi che stanno agendo in buona fede, e una dichiarazione completa ed
esauriente delle ragioni, rispettando i requisiti dell'articolo 15, che spieghi perché hanno sostenuto
che il contenuto dovrebbe essere considerato illegale (se si tratta di violazione del copyright, la prova
di essere il titolare effettivo dei diritti, per esempio).

Poi, il DSA introduce negli articoli 16 e seguenti una serie di requisiti molto necessari, non applicabili
alle micro o piccole imprese, volti a contrastare gli effetti delle notifiche frivole e automatizzate, e i
takedown eccessivamente zelanti dei contenuti, mitigando gli effetti della censura collaterale52:
sistemi interni di gestione dei reclami gratuiti, facili da usare, che funzionino diligentemente e
tempestivamente, in grado di ribaltare decisioni errate di rimozione, con un'automazione limitata
(articolo 17), la risoluzione extragiudiziale delle controversie (articolo 18)53 , la sospensione del
meccanismo di notifica e azione per gli attori i cui reclami sono spesso infondati (articolo 202), la
sospensione per gli utenti che forniscono frequentemente contenuti illegali (articolo 201), e uno
stretto contatto e cooperazione con flaggers di fiducia54 (articolo 19). I segnalatori di fiducia sono
persone giuridiche, private o pubbliche, riconosciute dagli Stati membri e dalle agenzie europee, che
possiedono conoscenze speciali ed esperienza nell'identificazione di contenuti illegali55.

Per quanto riguarda la moderazione dei contenuti, il DSA implementa nuovi requisiti di trasparenza e
porta un effettivo equilibrio nel modo in cui si verificano le azioni di notifica e rimozione, proteggendo
in ultima analisi i diritti fun damentali dei consumatori. Toglie gli incentivi esistenti che portano i
fornitori di servizi a impegnarsi in un dilagante blocco eccessivo di presunti contenuti ille gal
denunciati, per esempio, dai loro partner commerciali e dalle organizzazioni di gestione collettiva. Si
ottiene questo spostando parte dell'onere dal destinatario del contenuto al denunciante e al fornitore
di servizi, che deve garantire sia un meccanismo affidabile di notifica e azione, con conseguenze per il
suo uso improprio, sia un adeguato processo di ricorso per il destinatario.

4. La protezione dei consumatori nella legge sui servizi digitali

Anche se la legge sui servizi digitali non è strutturata in modo da proteggere i consumatori, ci sono
diverse disposizioni in essa che rafforzano la loro posizione.

In primo luogo, è importante notare che si afferma espressamente che l'acquis dell'UE nel campo del
diritto dei consumatori non è interessato (cfr. considerando 10 e articolo 15, lettera h), della
proposta). Il considerando fa espresso riferimento alle direttive 93/13/CEE56 , 98/6/CE57 ,
2005/29/CE58 e 2011/83/UE59 , tutte modificate dalla direttiva (UE) 2019/2161)60. Il fatto è che,
sebbene si sostenga in generale che le direttive sulla tutela dei consumatori rimangano applicabili, il
principio di neutralità delle piattaforme digitali può influire sull'applicazione pratica del diritto dei
consumatori in molti casi in cui potrebbe essere giustificato ritenere le piattaforme responsabili. La
considerazione stessa che le piattaforme si limitano a fornire servizi di host ing è, fin dall'inizio, molto
dubbia.

Tuttavia, questo è il regime che abbiamo, e l'essenza dell'approccio già adottato dalla direttiva sul
commercio elettronico è mantenuta. Le definizioni di consumatore e commerciante (articolo 2(c) e (e)
della Proposta) non sono sorprendenti e corrispondono ai precedenti atti giuridici dell'UE. Oltre al
commerciante, è anche importante rendersi conto che la relazione del consumatore può essere
stabilita direttamente tra il consumatore e la piattaforma online. La verità è che questa relazione B2C
non è affrontata direttamente e pienamente in modo adeguato dalla legge. Questo

è, infatti, una delle nostre principali critiche in questo contesto. Passiamo


ora a una breve analisi successiva dei temi che ci sembrano più rilevanti dal punto di vista del diritto
dei consumatori: tracciabilità, informazione
precontrattuale e sicurezza dei prodotti, pubblicità, sistemi di raccomandazione e responsabilità dei
consumatori online

piattaforme.

4.1. Tracciabilità

Una delle disposizioni della legge sui servizi digitali che mira maggiormente alla protezione dei
consumatori e che può essere particolarmente importante per i consumatori è quella che impone alle
piattaforme l'obbligo di garantire la tracciabilità dei commercianti (cfr. considerando 49). L'articolo 22
si applica solo alle piattaforme online che permettono ai consumatori di concludere contratti con i
commercianti. L'operatore della piattaforma deve garantire che i commercianti possano essere
presenti sulla piattaforma solo se forniscono una serie di informazioni pertinenti sulla loro
identificazione. Oltre a questo dovere, l'operatore della piattaforma deve anche "fare sforzi
ragionevoli" per valutare se le informazioni sono affidabili, chiedere al commerciante di correggere le
informazioni che sono imprecise o incomplete, e sospendere il commerciante fino a quando tale
correzione viene effettuata. Le informazioni sono conservate per la durata della relazione contrattuale
tra le parti. Il consumatore ha il diritto di accedere a queste informazioni "in modo chiaro, facilmente
accessibile e comprensibile".

Queste informazioni possono essere molto importanti per il consumatore per poter esercitare i suoi
diritti contro il commerciante.

4.2. Informazioni precontrattuali e informazioni sulla sicurezza del prodotto

Perso nell'articolo 22 c'è una disposizione che non riguarda la tracciabilità ma la progettazione
dell'interfaccia delle piattaforme digitali.

Il paragrafo 7 stabilisce che l'interfaccia online della piattaforma deve essere concepita e organizzata
"in modo da permettere ai commercianti di rispettare i loro obblighi in materia di informazione
precontrattuale e di sicurezza dei prodotti ai sensi del diritto dell'Unione applicabile".

Stiamo parlando dei doveri di informazione che sono fondamentalmente contenuti nelle direttive sul
diritto dei consumatori. Il considerando 50 si riferisce espressamente, per esempio, agli articoli 6 e 8
della direttiva 2011/83/UE (diritti dei consumatori), all'articolo 7 della direttiva 2005/29/CE
(pratiche commerciali sleali) e all'articolo 3 della direttiva 98/6/CE (indicazione dei prezzi).

La piattaforma ha lo scopo di facilitare al commerciante l'adempimento di questi doveri


d'informazione, assicurando così che i consumatori abbiano un accesso più facile alle informazioni in
questione.

Una questione che sembra essere lasciata aperta qui è quella delle conseguenze se le piattaforme non
rispettano questo obbligo.

4.3. Trasparenza della pubblicità

Un altro aspetto affrontato dalla legge sui servizi digitali riguarda la protezione dei consumatori per
quanto riguarda il principio di identificabilità della pubblicità. L'articolo 24 richiede che il
consumatore sia immediatamente in grado e percepisca chiaramente ogni messaggio pubblicitario
come tale.

La legislazione va anche oltre, richiedendo anche l'indicazione della persona per conto della quale
viene emesso il messaggio pubblicitario, cioè, di regola, il commerciante, con il quale il consumatore
può poi concludere un futuro contratto.

Dovrebbero essere indicati anche i principali parametri utilizzati per definire su quale base la
pubblicità è stata mostrata a quella determinata persona e non a un'altra. L'automatizzazione e la
personalizzazione della pubblicità permettono di selezionare i destinatari in modo sempre più preciso
e rigoroso, dando eventualmente luogo a problemi di discriminazioni e pratiche non trasparenti legate
alla raccolta e al trattamento dei dati dei consumatori.

Oltre al GDPR, questo tema è regolato anche dalla direttiva sulle pratiche commerciali sleali, con la
quale il Digital Ser vices Act dovrebbe essere articolato in questo campo.

4.4. Sistemi di raccomandazione

La legge sui servizi digitali contiene anche una disposizione per rafforzare la trasparenza dei sistemi di
raccomandazione (articolo 29). Si rivolge in particolare alle piattaforme molto grandi, cioè "le
piattaforme che forniscono i loro servizi a un numero di destinatari attivi mensili medi del servizio
nell'Unione pari o superiore a 45 milioni" (articolo 25).
L'articolo 2, lettera o), definisce "sistema di raccomandazione" come "un sistema completamente o
parzialmente automatizzato utilizzato da una piattaforma online per suggerire nella sua interfaccia
online informazioni specifiche ai destinatari del servizio, come risultato di una ricerca avviata dal
destinatario incluso, o per determinare in altro modo l'ordine relativo o il risalto delle informazioni
visualizzate". Nel considerando 62 si riconosce che la prioritizzazione e la presentazione delle
informazioni è una parte importante dell'attività della piattaforma. Esempi di tali pratiche includono
suggerimenti algoritmici, classifiche e l'ordine di presentazione delle informazioni. Gran parte del
successo di queste grandi piattaforme sta proprio nel modo in cui vengono presentate le informazioni.
Questo è ciò che i consumatori cercano di più.

La legge sui servizi digitali mira a garantire che, per quanto riguarda le informazioni presentate, i
consumatori siano, da un lato, adeguatamente informati sui criteri per presentarle in un determinato
modo e, dall'altro, siano in grado di influenzare il modo in cui vengono presentate. Le piattaforme
online devono offrire ai consumatori diverse possibilità alternative per quanto riguarda i principali
parametri di priorità delle informazioni, compresa almeno una che non sia basata sulla profilazione. Le
possibilità dovrebbero essere facilmente accessibili.

La possibilità che questi sistemi di raccomandazione siano uno strumento per la diffusione di fake
news o altre informazioni illegali significa che l'analisi dei rischi e le misure di mitigazione da parte
delle piattaforme online molto grandi dovrebbero anche tenerne conto (articoli 262 e 271).

4.5. Responsabilità

Passiamo ora all'analisi di quella che ci sembra essere la disposizione più rilevante e innovativa del
Digital Services Act in relazione alla protezione del consumatore.

Ai sensi dell'articolo 53, il principio generale di non responsabilità dei fornitori di servizi di hosting
non si applica "per quanto riguarda la responsabilità ai sensi della legge sulla protezione dei
consumatori delle piattaforme online che permettono ai consumatori di concludere contratti a
distanza con i commercianti, se tale piattaforma online presenta lo specifico elemento di informazione
o altrimenti permette la specifica transazione in questione in modo tale da indurre un consumatore
medio e ragionevolmente ben informato a credere che l'informazione, o il prodotto o servizio oggetto
della transazione, sia fornito dalla piattaforma online stessa o da un destinatario del servizio che
agisce sotto la sua autorità o controllo".

Presentiamo tre critiche principali a questa disposizione. In primo luogo, non è affatto chiaro cosa si
intenda per "quando tale piattaforma online presenta lo specifico elemento di informazione o
comunque consente la specifica transazione in questione". Sarà probabilmente l'informazione a cui si
può accedere sulla piattaforma online, nel qual caso, pensiamo che possa essere dichiarato in modo
più chiaro.

Il secondo elemento problematico in questa regola molto importante è l'effettiva materializzazione del
concetto di "consumatore medio e ragionevolmente ben informato", che porta ad una certa incertezza
giuridica. Anche se c'è già una giurisprudenza della CGUE in materia, i confini sono molto sfumati.
Affidarsi a questo concetto per questo scopo, che è così rilevante, sembra che potrebbe non essere la
soluzione migliore.

Lo stesso si può dire del concetto di "agire sotto la sua autorità o controllo", che è l'elemento decisivo
di questa disposizione. Airbnb esercita un controllo sugli host? Noi diremmo di sì, secondo i termini di
questa disposizione, ma sospettiamo che molte persone, certamente compresa la stessa Airbnb,
diranno di no. Ci viene presentato un concetto che solleva questo tipo di difficoltà in relazione a una
piattaforma come Airbnb, che chiaramente ha un controllo sugli host, o almeno dovrebbe avere un
certo grado di responsabilità, per l'importanza che ha nel contratto stipulato attraverso di essa. E la
verità è che in questo momento è praticamente impossibile dire quale sarà l'interpretazione del
regolamento61.

Un'altra questione che può essere sollevata qui è l'effettiva portata dell'esenzione di responsabilità
quando sono in gioco le disposizioni di protezione dei consumatori. Almeno per quanto riguarda le
vendite ai consumatori e la fornitura di contenuti digitali o servizi digitali, sembra possibile ritenere le
piattaforme responsabili della mancanza di conformità del bene digitale, del contenuto digitale o del
servizio digitale anche in casi non previsti in questo articolo della legge sui servizi digitali.

Usando la direttiva 2019/771 come riferimento, si evince dal suo considerando 23: "Gli Stati membri
dovrebbero rimanere liberi di estendere l'applicazione della presente direttiva ai fornitori di
piattaforme che non soddisfano i requisiti per essere considerati un venditore ai sensi della presente
direttiva", cioè le piattaforme che stanno fornendo servizi di hosting come intermediari tra il
consumatore e il commerciante62. Gli Stati membri possono quindi prevedere che la piattaforma sia
responsabile del difetto di conformità dei beni venduti da un terzo.

5. Conclusione

La proposta della Commissione si rivela sia troppo ambiziosa che non abbastanza ambiziosa. Come
abbiamo delineato in questo testo, serve perfettamente il suo scopo di unificare molte questioni
orizzontali nel commercio elettronico, aggiornando successivamente molti principi e disposizioni per i
servizi digitali nel mercato interno europeo. Mira anche a completare il GDPR in diverse aree, vale a
dire il diritto di informazione, la raccolta dei dati e il monitoraggio per la profilazione nella pubblicità e
nei sistemi di raccomandazione - ma a questo proposito, il GEPD ha sollevato alcune critiche che
dovrebbero essere considerate durante il processo legislativo.

Per quanto riguarda la moderazione dei contenuti, abbiamo mostrato il quadro giuridico esistente, le
sue origini e i suoi difetti, e come il DSA cerca di correggerli basandosi sui principi dell'eCommerce
Direc tive e codificando molte disposizioni della raccomandazione della Commissione del 2018 - con
una grande attenzione alla trasparenza e alle procedure di ricorso sulle decisioni di bloccare l'accesso
a presunti contenuti illegali. Se attuati, questi cambiamenti causeranno sicuramente un grande effetto
a livello mondiale a causa della portata oggettiva del regolamento e del valore del mercato unico
europeo - anche se altri ordinamenti giuridici (come gli Stati Uniti) non affrontano questi temi, il
cosiddetto effetto Bruxelles63 spingerà le imprese private a conformarsi e darà vita a iniziative
legislative simili. Tuttavia, come il GEPD è critico nei confronti delle disposizioni relative alla
protezione dei dati nella DSA, anche molti altri hanno disapprovato il suo approccio alla moderazione
dei contenuti, sostenendo che non "va abbastanza lontano". Alcuni avvertono dei pericoli per la libertà
di espressione posti dai sistemi di controllo privatizzato dei contenuti e che le regole sull'applicazione
e sul risarcimento dovrebbero essere migliorate64 , mentre altri nel Parlamento europeo chiedono
un'espansione del suo campo di applicazione per includere i "contenuti dannosi "65. Le prossime fasi
del processo legislativo potrebbero diventare l'apertura del vaso di Pandora a questo proposito, e la
natura del suo impatto (se positivo o negativo) non è ancora chiara.

Infine, abbiamo anche affrontato come le disposizioni relative alla protezione dei consumatori siano
accolte con favore e in molte istanze siano imperfette. Il regolamento dovrebbe avere la protezione dei
consumatori come un obiettivo esplicito, riflesso nelle sue disposizioni66. Molte delle disposizioni
della proposta mancano di chiarezza e usano concetti che lasceranno molti consumatori senza
protezione e nell'incertezza legale, specialmente quelle riguardanti la responsabilità della piattaforma.
Anche se innovativo, il DSA è chiaramente in difficoltà su questo punto e dovrebbe articolarsi meglio
con l'acquis europeo esistente in materia di diritto dei consumatori.

Le prossime fasi della procedura legislativa di questo regolamento si riveleranno cruciali. Ci sono
opinioni politiche molto diverse riguardo alle questioni affrontate nella proposta, presenti sia nel
Consiglio europeo che nel Parlamento. Per ora, l'iniziativa della Commissione segnerà l'agenda, ma i
prossimi dibattiti saranno certamente molto interessanti. Dall'altra parte dell'Atlantico, sta nascendo
anche la volontà politica di avviare il processo legislativo.

Continueremo a prestare molta attenzione a questo argomento.

Potrebbero piacerti anche