Disclaimer: il testo di questo articolo non contiene in alcun modo, come è ovvio, consigli legali. Non ambisce nemmeno ad avere alcuna dignità scientifico-giuridica, essendo piuttosto una guida divulgativa, possibilmente alla portata di tutti, per capire i termini della questione. Ho corredato quasi ogni frase con una fonte specifica (talora di stampo scientifico, talora di stampo divulgativo) con note a pié di pagina o hyperlinks per chi volesse approfondire o più semplicemente verificare la veridicità di quanto dico.
CHE COSA È SUCCESSO
Come è noto, Twitter ha sospeso in modo permanente l’account personale del Presidente degli Stati Uniti uscente Donald Trump[1]. Si tratta di una decisione che non ha precedenti storici quanto alla rilevanza pubblica del soggetto «bannato», ma non è certo la prima volta che la piattaforma di Jack Dorsey prende provvedimenti nei confronti di soggetti politici che violano le sue Regole e le sue Policies[2]. In un comunicato pubblicato a mezzo del proprio blog, Twitter ha fatto sapere che la motivazione alla base della sospensione dell’account di Trump sarebbero i due tweets che seguono, il cui linguaggio risulterebbe in violazione della policy di Twitter contro la glorificazione della violenza.
“The 75,000,000 great American Patriots who voted for me, AMERICA FIRST, and MAKE AMERICA GREAT AGAIN, will have a GIANT VOICE long into the future. They will not be disrespected or treated unfairly in any way, shape or form!!!”
e
“To all of those who have asked, I will not be going to the Inauguration on January 20th.”
Entrambi i tweets sono stati pubblicati nella giornata dell’8 gennaio 2021, due giorni dopo i violenti attacchi al Campidoglio posti in essere da fanatici sostenitori dello stesso Trump. Nel comunicato Twitter ha precisato che i due tweet «devono essere letti nel contesto degli eventi di più ampio respiroo occorsi negli Stati Uniti e dei modi in cui le dichiarazioni del Presidente possono interpretate dal diverso pubblico anche come un’incitazione alla violenza, e nel contesto del pattern di comportamenti posti in essere nelle recenti settimane dall’account di Donald Trump».
UNA PREMESSA FONDAMENTALE.
A scanso di equivoci, è bene specificare immediatamente che la diatriba, assai interessante e pregna di conseguenze, tra chi concepisce i social network come «club privati» e chi al contrario come «piazze pubbliche» non è al centro di questo articolo. È infatti evidente che essi non sono né l’una né l’altra cosa, come ha spesso spiegato la nostra amica Vitalba Azzollini nei numerosi video sul nostro canale YouTube.
Lo scopo di questo contributo è fare chiarezza sull’importanza della norma giuridica che consente a Twitter di sospendere l’account personale del Presidente degli Stati Uniti d’America, senza poter essere accusata di aver commesso un atto illegittimo o un’«ingiusta censura». Stiamo parlando della § 230(c) del Communications Decency Act.
Sul punto ha già scritto tutto quello che c’era da scrivere l’avvocato Carlo Blengino, in un contributo pubblicato un anno fa su Il Post dal titolo: «Le 26 parole che hanno cambiato internet» (che vi invito a leggere, prima di continuare con questo articolo). Senza la pretesa di sostituirmi a colui che ritengo un’autorità nel campo, mi permetto di aggiungere qualche riflessione aggiuntiva, scaturita dalle vicende di queste ultime settimane.
LA NORMA GIURIDICA (O LE NORME GIURIDICHE).
Vediamo in traduzione che cosa dice la §230(c) del Communications Decency Act.
«(c) Protezione del “Buon Samaritano” che blocchi e rimuova contenuti offensivi
- Trattamento dell’editore o dell’autore
Nessun fornitore o utente di un servizio internet può essere trattato come l’editore o l’autore di alcuna informazione fornita da un terzo.
- Responsabilità civile
Nessun fornitore o utente di un servizio internet può essere chiamato a rispondere di
- Qualsiasi azione volontaria intrapresa in buona fede per restringere l’accesso a o la disponibilità di contenuti che il fornitore o l’utente considerino essere osceni, impudichi, lascivi, ripugnanti, eccessivamente violenti, molesti o altrimenti sgradevoli indipendentemente dal fatto che quei contenuti siano costituzionalmente protetti; o
- Qualsiasi azione intrapresa per permettere o rendere disponibile ai fornitori di contenuti o ad altri i mezzi tecnici per restringere l’accesso ai materiali di cui al paragrafo sub (1)»[3].
A voler essere precisi, dunque, siamo di fronte a due norme giuridiche distinte (per quanto da leggersi in combinato disposto), ciascuna delle quali disciplina una diversa «immunità» civilistica[4].
Storicamente le controversie più rilevanti hanno avuto ad oggetto la sezione §230(c)(1), mentre la §230(c)(2) è rimasta sullo sfondo[5]. Anche nelle controversie più recenti, in cui la (c)(2) avrebbe potuto giocare un ruolo tutt’altro che irrilevante, le corti hanno preferito applicare la §230(c)(1) anche a costo di espanderne il significato[6].
IL MISUNDERSTANDING FONDAMENTALE: LA NEUTRALITÀ.
Il Communications Decency Act (“CDA”) è stato emanato dal Congresso americano nel 1996[7]. I casi giurisprudenziali precedenti all’emanazione della §230 CDA sono stati descritti e riassunti magistralmente da Blengino, a cui rimando.
La storia legislativa mostra chiaramente che la §230, lungi dall’essere approvata per obbligare le piattaforme ad essere «neutrali», costituisce la reazione del Congresso all’orientamento giurisprudenziale inaugurato dal caso Stratton Oakmont, Inc. v. Prodigy Services Co.,il quale rischiava di mettere le piattaforme davanti ad un non agevole dilemma[8]:
- moderare diligentemente i contenuti user generated, assumendosi il rischio di diventare «editori» agli occhi dei giudici e, come tali, essere chiamati a rispondere legalmente delle cose pubblicate dai terzi sui loro spazi;
- lasciare liberi gli utenti di pubblicare ogni cosa senza intervenire, così da evitare la responsabilità giuridica ma al contempo assumendosi il rischio commerciale di perdere quella parte di utenza che invece gradisce un ambiente «family friendly» e politicamente corretto[9].
È noto che negli stessi anni il Congresso intendeva disincentivare l’ignavia delle piattaforme, in particolare al fine di limitare la diffusione della pornografia, sempre più facilmente disponibile al pubblico di bambini e adolescenti che ai tempi cominciava ad approcciarsi al Web[10]. La §230, dunque, è stata approvata per permettere alle piattaforme di moderare e selezionare i propri contenuti senza essere chiamate per ciò stesso a rispondere legalmente nella qualità di editori degli stessi[11]. In un certo senso, dunque, la §230 è stata approvata proprio perché le piattaforme smettessero di essere neutrali[12]. O, per dirla con le parole della giudice Carol Corrigan, estensore dell’opinione maggioritaria della sentenza Barret v. Rosenthalpronunciata nel 2006 dalla Corte suprema californiana, la §230 del CDA «impedisce l’imposizione del regime giuridico di responsabilità dell’editore [publisher] in capo ad un fornitore di servizi internet, per l’esercizio del suo potere editoriale e delle sue funzioni di auto-regolamentazione»[13].
Che il testo della norma rispecchi l’intenzione dei drafters è discutibile: nel corso degli anni non sono mancati i tentativi, in realtà quasi sempre falliti, da parte degli avvocati di affermare che una lettura troppo estensiva della §230(c)(1) avrebbe reso la §230(c)(2) inutile[14]. Hanno contribuito a generare confusione sul tema anche le dichiarazioni del senatore repubblicano Ted Cruz che, durante la testimonianza di Mark Zuckerberg davanti al Congresso tenutasi nell’aprile 2018 ha ripetutamente richiamato quest’ultimo al rispetto del dovere di neutralità imposto dalla §230. Le affermazioni di Cruz hanno però incontrato la disapprovazione di molti giuristi statunitensi, i quali hanno provveduto a ricordare che la §230 non impone alcun dovere di neutralità alle piattaforme[15].
Chi ritiene che esista un dovere di neutralità in capo alle piattaforme non è necessariamente in errore. Si deve, infatti, considerare in nessun altro paese al mondo esiste un regime così favorevole alle piattaforme[16]. In particolare, nel contesto giuridico dell’Unione europea, dove vige il regime della Direttiva e-commerce (Dir. n. 2000/31/CE), attuata in Italia con il d.lgs. 70/2003 la prospettiva è completamente rovesciata, giacché è proprio sul presupposto della neutralità e passività delle piattaforme online, rispetto ai contenuti user generated, che si fonda l’esclusione della loro responsabilità giuridica per i contenuti pubblicati dai loro utenti[17]. Noi però dobbiamo analizzare questa vicenda considerando esclusivamente il diritto statunitense.
COME E PERCHÉ LA § 230 PROTEGGE LA SCELTA DI TWITTER.
In una eventuale controversia giuridica avviata da Donald Trump nei confronti della piattaforma Twitter, quest’ultima si troverebbe ad essere protetta dalle immunità di cui alla §230 CDA. Possiamo immaginare che i legali di Donald Trump convengano in giudizio Twitter lamentando che la sospensione dell’account personale di Donald Trump sia avvenuta in violazione dei Terms of service (definiti un «binding contract»), perché ad esempio i tweet incriminati non potevano essere considerati come glorificazione della violenza; in alternativa potrebbero lamentare di aver subito un danno dalla scelta di Twitter[18].
Esistono dei precedenti. Infatti, se è vero che storicamente la §230 ha avuto le maggiori applicazioni in cause per diffamazione[19], nel corso degli ultimi anni, influencers e personaggi di spicco (spesso provenienti dal mondo conservatore americano), sospesi dai social network per il loro linguaggio aggressivo, hanno intentato una serie di cause contro i gestori delle piattaforme online, per ottenere di esservi riammessi o, in alternativa, il risarcimento dei danni. E proprio questo ha dato vita ad un corpus giurisprudenziale piuttosto consolidato in favore delle piattaforme.
Ad esempio, nel novembre del 2018 l’influencer Megan Murphy aveva pubblicato due tweet in cui affermava: «le donne trans non sono donne; come può una donna trans non essere un maschio?». Di lì a qualche settimana, Twitter avrebbe modificato le proprie policy, inserendo nella definizione di hate speech non tollerato anche le espressioni «misgendering». Sulla base di questa nuova definizione di hate speech Twitter aveva sospeso Megan Murphy, la quale aveva agito in giudizio lamentando una violazione del contratto, dal momento che la nuova policy era stata applicata da Twitter retroattivamente. Nel caso Murphy v. Twitter che ne seguì, la Corte superiore della California ha invece respinto la richiesta di Murphy, sostenendo che Twitter fosse protetta dalla §230(c). È interessante notare che i giudici californiani, accogliendo le eccezioni di Twitter, hanno considerato che si applicasse l’immunità di cui alla §230(c)(1) e non invece quella di cui alla §230(c)(2)[20]. La differenza non è di poco punto: se avesse trovato applicazione la §230(c)(2) Twitter avrebbe dovuto dimostrare che la rimozione dei contenuti considerati inappropriati fosse avvenuta «in buona fede»; così facendo, invece, i giudici hanno evitato di inerpicarsi in una scivolosa analisi di un concetto, la good faith, che è prettamente fattuale (quindi extra-giuridico). Invece, una piattaforma può avvalersi della protezione di cui alla § 230(c)(1) se dimostra di soddisfare tre condizioni[21]:
- La piattaforma deve essere un «fornitore o utente di un servizio internet».
- Il contenuto del quale l’attore cerca di ritenere la piattaforma responsabile deve essere «un’informazione fornita da un terzo».
- L’attore cerca di ritenere la piattaforma responsabile come l’«editore o l’autore di quella informazione».
Nel caso Murphy i giudici non hanno avuto dubbi che tutti e tre i requisiti fossero presenti (pag. 11 della sentenza) e hanno ulteriormente affermato che «le corti della California e quelle federali sono concordi nell’affermare che azioni come questa, che facciano valere una pretesa contro la decisione di un internet service provider quanto al pubblicare, modificare o rimuovere determinati contenuti sono impedite dalla Sezione 230»[22].
Alla medesima conclusione è pervenuta la Corte federale del Distretto del Nord della California nel giugno del 2019, dismettendo la causa del repubblicano Craig Brittain, canidato al Senato nell’Arizona, il quale lamentava l’ingiusta sospensione dei suoi quattro account Twitter, sui quali esprimeva opinioni vicine all’estrema destra americana, con un linguaggio particolarmente violento[23]. Negli stessi giorni la medesima Corte dismetteva per le stesse ragioni l’azione intentata dall’utente Jason Fyk contro Facebook[24], con la quale il primo lamentava l’ingiusta rimozione dal suo account di alcune immagini ritraenti persone nell’atto di urinare, da questi ritenute perfettamente compatibili con le regole di Facebook.
Difficilmente una causa intentata da Trump, davanti alle stesse corti che hanno deciso i casi sopra menzionati, potrebbe avere un destino migliore.
CONCLUSIONI FINALI
In questo breve articolo ho voluto dare conto del perché la scelta di Twitter può dirsi con tutta probabilità legittima dal punto di vista giuridico. Sarebbe del resto disonesto tralasciare che negli ultimi anni la §230 CDA ha subito una serie di critiche bipartisan: i repubblicani sono convinti che la norma permetta alle piattaforme di perseguire policies di moderazione anticonservatrici[25]; i democratici la incolpano di aver permesso la propagazione quasi illimitata delle fake-news sui social network. È bene però sgomberare il campo da un equivoco che ogni tanto ritorna ad inquinare il dibattito: il regime di irresponsabilità giuridica previsto dalla §230 non è assoluto: certamente non protegge la piattaforma che dovesse esprimere in prima persona dei contenuti diffamatori o illegali; inoltre, nel corso degli anni il Congresso ha approvato una serie di leggi complementari che hanno escluso lo scudo dell’immunità in particolari casi (si pensi alla controversa eccezione prevista dalla legge FOSTA-SESTA)
Eric Goldman, professore di Diritto dell’Internet Santa Clara University School of Law ha fatto un riassunto dei principali tentativi di riforma che hanno avuto ad oggetto la Sezione 230 solo nell’anno appena trascorso. Possiamo dire, tirando un sospiro di sollievo, di esserci liberati dagli spasmi avventati di Donald Trump, che ha gestito il dibattito sulla §230 come un bambino a cui le piattaforme hanno rubato le caramelle. Ma sarebbe fin troppo ingenuo pensare che molte delle proposte fatte in questi anni non ritornino (magari trovando un terreno più fertile nell’opinione pubblica) anche sotto la presidenza Biden, il quale in passato ha espresso opinioni negative sulla norma in questione. Nelle ultime righe di questo articolo cercherò di spiegare come mai è necessario stare attenti a quello che si vuole, prospettando una serie di possibili conseguenze alle riforme principali che dovessero passare.
- Eradicare totalmente le immunità di cui alla §230 dal Communications Decency Act.
- Dal momento che non è pensabile che nel 2020 le piattaforme tornino ad ignorare i contenuti user generated, per evitare il regime di responsabilità giuridica degli editori le piattaforme prenderebbero a rimuovere energicamente qualsiasi contenuto passibile di essere considerato diffamatorio. In pratica, si darebbe più potere alle piattaforme di decidere che cosa possa o non possa essere pubblicato[26]. E con tutta probabilità sparirebbero dal mercato le piattaforme medio-piccole, non in grado di coprire i costi di compliance per una moderazione diligente (e che pure non potrebbero permettersi, per motivi di utenza, di essere completamente neutrali).
- Costringere le piattaforme a rimuovere i contenuti ritenuti inappropriati, trasformando quella che oggi è una facoltà in un dovere.
- Il Primo emendamento impedisce ogni tentativo da parte dello Stato non solo di limitare la libertà di espressione ma anche di costringere all’espressione (è la cosiddetta dottrina del negative free speech). Dunque, se le piattaforme venissero costrette a rimuovere contenuti costituzionalmente protetti dai loro siti, facilmente la Corte suprema potrebbe ritenere quella legislazione incostituzionale.
- Escludere l’operare dell’immunità per le piattaforme che deliberatamente («knowingly») ospitano o incoraggiano contenuti illegali[27].
- A differenza di quelle sopra-citate, questa proposta ha il vantaggio di essere più “moderata” e anche facilmente accettabile. Non dimentichiamoci tuttavia che la verifica dell’elemento della volontà della piattaforma richiederebbe di aprire una fase istruttoria in seno a qualsiasi procedimento, così eliminando uno dei vantaggi procedurali della §230, di cui pure non ho parlato: dismettere la controversia prima che si passi alle “prove”.
Insomma, le proposte in gioco sono tante: ciascuna ha i propri vizi e le proprie virtù. Al lettore, propongo invece una riflessione “eretica”. Potrebbe essere il caso che la §230 vada bene così come è e non abbia bisogno di essere riformata. Essendo frutto di un equilibrio politico-giuridico piuttosto complesso, permette da un lato alle piattaforme una certa libertà su cosa vedere pubblicato sui loro siti e dall’altro agli utenti di poter essere più liberi nel pubblicare contenuti senza temere l’abbattersi della scure di un ban ingiustificato per espressioni “border-line”.
Chi paventa indicibili poteri delle piattaforme di silenziare il dissenso politico si dimentica che, oltre alla legge, esiste anche il mercato. E una piattaforma che dovesse targetizzare una certa parte politica, censurandola ed eliminandone sistematicamente i contenuti, probabilmente, non sopravvivrebbe una settimana nel mare magnum delle piattaforme social sul web.
ESPERTI DA SEGUIRE SUL TEMA.
Segue un elenco (ovviamente non completo) dei siti e delle persone che hanno scritto cose interessanti sul tema.
- Technology and Marketing Law Blog. Il blog del professor Eric Goldman, di cui ho parlato nell’articolo.
- Danielle Citron, giurista e professoressa alla University of Virginia School of Law (UVA).
- Oreste Pollicino, professore di diritto costituzionale alla Bocconi
- Giancarlo Frosio, giurista e autore del manuale Oxford Handbook of Online Intermediary Liability (Oxford University Press, 2020)
- Carlo Blengino, avvocato penalista
- Maria Romana Allegri, giurista e professoressa alla Sapienza di Roma.
[1]https://www.bbc.com/news/world-us-canada-55597840
[2]https://www.theverge.com/2021/1/12/22226503/twitter-qanon-account-suspension-70000-capitol-riots
[3] La traduzione è mia, ma sono debitore alla versione tradotta da Carlo Blengino. Il testo originale può essere consultato a questo link: https://www.law.cornell.edu/uscode/text/47/230#fn002009
[4]https://crsreports.congress.gov/product/pdf/LSB/LSB10484 (pagina 2: «(…)Section 230 contains two different provisions that courts have generally viewed as two distinct liability shields»)
[5] Eric Goldman, Online User Account Termination and 47 U.S.C. § 230(c)(2), 2 U.C. Irvine L. Rev. 659 (2012).
Available at: scholarship.law.uci.edu/ucilr/vol2/iss2/8 (pagina 660).
[6] V. infra.
[7]https://www.congress.gov/bill/104th-congress/senate-bill/314/cosponsors?q={%22search%22:[%22Communications+Decency+Act%22]}&searchResultViewType=expanded
[8] Vedi Eric Goldman, Sex Trafficking Exceptions to Section 230, Sept. 20, 2017, https://ssrn.com/abstract=3038632 che utilizza la locuzione «Moderator’s Dilemma».
[9] Eric Goldman, An Overview of the United States’ Section 230 Internet Immunity, Dec. 1, 2018 The Oxford Handbook of Online Intermediary Liability (Giancarlo Frosio, ed.) (Forthcoming), Santa Clara Univ. Legal Studies Research Paper, Available at SSRN: https://ssrn.com/abstract=3306737 or http://dx.doi.org/10.2139/ssrn.3306737 (pagina 2).
[10]https://www.congress.gov/congressional-record/1995/6/26/senate-section/article/s9017-2
[11] È ciò che viene detto esplicitamente nella §230(b)(4), che elenca tra i motivi di policy alla base dell’emanazione della norma quello di rimuovere i disincentivi per le piattaforme allo «sviluppo e utilizzo di tecnologie di blocco e di filtro che rendano i genitori in grado di restringere l’accesso dei propri figli ai contenuti sgradevoli o inappropriati online».
[12]https://techfreedom.org/wp-content/uploads/2019/04/TechhFreedom-Letter-4.10.19-Senate-Platform-Bias-230-Hearing.pdf (pagina 2).
[13]Barrett v. Rosenthal, 40 Cal. 4th 33, 146 P.3d 510 (Cal. 2006) («§ 230 forbids the imposition of publisher liability on a service provider for the exercise of its editorial and self-regulatory functions»)
[14] Vedi la nota 6 della majority opinion in Murphy v. Twitter No. CGC-19-573712 (Cal. Super. June 12, 2019), disponibile a https://digitalcommons.law.scu.edu/cgi/viewcontent.cgi?article=2968&context=historical.
[15] A titolo d’esempio: https://www.vox.com/recode/2019/5/16/18626779/ron-wyden-section-230-facebook-regulations-neutrality e https://abovethelaw.com/2020/10/ted-cruz-once-insisted-that-net-neutrality-was-the-govt-takeover-of-the-internet-now-demands-that-twitter-host-all-nonsense/
[16] V. Goldman in nota 9, pagina 10.
[17] M. R. Allegri. Alcune considerazioni sulla responsabilità degli intermediari digitali, e particolarmente dei "social network provider", per i contenuti prodotti dagli utenti, in Informatica e diritto, 2017, 1-2, pp. 69-112. Vedi anche
[18] Per una precisa scelta contrattuale di foro esclusivo contenuta nei TOS di Twitter, nonché in base al più banale principio actor sequitur forum rei, la controversia sarebbe decisa davanti ad una corte statale californiana. Per la verità sono numerosi gli altri claimsche Trump potrebbe muovere contro Twitter ma, come vedremo proseguendo nella trattazione, nessuno di questi si salverebbe dall’immunità di cui alla §230.
[19] Vedi Goldman in nota 5.
[20] Vedi https://blog.ericgoldman.org/archives/2019/06/twitter-gets-another-significant-section-230-win-in-lawsuit-by-suspended-user-murphy-v-twitter.htm
[21]https://newmedialaw.proskauer.com/2019/07/01/new-california-court-decisions-showcase-robust-cda-immunity/
[22] «California and federal courts are in accord that actions that, like the instant case, seek relief based on an internet service provider’s decisions whether to publish, edit, or withdraw particular postings are barred by Section 230» (p.13).
[23] Brittain v. Twitter, Inc., No. 19-00114 (N.D. Cal. June 10, 2019)
[24] Fyk v. Facebook, Inc., No. 18-05159 (N.D. Cal. June 18, 2019)
[25]https://www.technologyreview.com/2019/08/13/610/section-230-law-moderation-social-media-content-bias/
[26]https://itif.org/publications/2020/06/03/president-trumps-attacks-section-230-could-backfire
[27] Danielle Keats Citron and Benjamin Wittes, The Internet Will Not Break: Denying Bad Samaritans § 230
Immunity, 86 Fordham L. Rev. 401 (2017). Available at: ir.lawnet.fordham.edu/flr/vol86/iss2/3