A Palermo una bambina di soli dieci anni, per partecipare a quello che le appare come un gioco popolare sui social come Tik Tok, perde la vita. L’ennesima vittima di una #challenge, stavolta la Blackout challenge, una delle tante sfide pericolose e che mettono a rischio la vita di quanti vi partecipano. Eppure, è da anni che queste sfide spopolano sul web, ed in particolare su social network del calibro di TikTok, social – popolato perlopiù da minori di 16 anni – e che è pensato proprio per facilitare la registrazione di brevi video accompagnati da auto descrizioni o da canzoni.
Infatti, quello di Palermo non è il primo caso di utilizzo improprio dei social network che conduce al decesso ovvero a lesioni gravi nei confronti di bambini ed adolescenti. È bene, per chiarire la pericolosità di siffatte condotte, ricordare, tra queste challenge, la Planking challenge, che spinge i ragazzi a sdraiarsi in luoghi pericolosi come all’incrocio di una strada o sul cornicione di un palazzo; la Skullbreaker challenge, che invita a far cadere una persona all’indietro col solo fine di provocargli un trauma cranico; la Balconing challenge che richiama ragazzi incuranti dell’altezza portandoli a scavalcare balconi… L’elenco sarebbe troppo lungo da continuare e queste sommarie descrizioni dovrebbero esser già sufficienti a far capire, in concreto, i rischi (o le certezze) di morte derivanti dalla messa in pratica di siffatti atteggiamenti.
Proprio in considerazione di queste caratteristiche e in seguito al caso della bambina di Palermo, è stato aperto da parte della Procura di Palermo e della Procura per i Minori un fascicolo per istigazione al suicidio a carico di ignoti. Ciononostante, sarebbe doveroso porsi la problematica di se gli Internet Service Providers ed in particolare i gestori delle piattaforme social possano essere ritenuti responsabili, pur senza esserne gli autori, per quei contenuti a carattere illecito che gli utenti producono o che comunque diffondono e condividono.
Sul punto, secondo la giurisprudenza costante della Corte di Giustizia UE, non è dato rinvenire alcun tipo di responsabilità per il provider ove questo mantenga una posizione neutrale rispetto al comportamento degli utenti, stante l’assenza di un generale obbligo di sorveglianza preventiva. Questo aspetto è dovuto a causa del grande costo dei sistemi di filtraggio prevenivi dei contenuti caricati dagli utenti, passibili di costituire una violazione della libertà di impresa, oltre che una lesione del diritto alla tutela dei dati personali.
Nello stesso senso, in merito si è pronunciata anche la Corte di Cassazione (cfr. Sent., Sez. V, n.12546/2019) la quale è ben consapevole di come “Il vero problema della responsabilità del provider riguarda invece il caso in cui questo debba rispondere del fatto illecito altrui, posto in essere avvalendosi delle infrastrutture di comunicazione del network provider, del server dell’access provider, del sito creato sul server dell’host provider, dei servizi dei service provider o delle pagine memorizzate temporaneamente dai cache-providers.” (cfr. sentenza in analisi).
Infatti, richiamando le disposizioni normative contenute all’interno del d.lgs 70/2003, gli Ermellini hanno riconosciuto l’assenza di un obbligo generale di sorveglianza ex ante per le informazioni che gli ISP trasmettono o memorizzano, circostanza che esclude la sussistenza in capo agli stessi di un obbligo generale di ricerca attiva di fatti o circostanze che indichino la presenza di attività illecite, la quale trova un contraltare nell’obbligo di operare ex post e con urgenza nei confronti di violazioni che siano oggetto di indicazioni ed atti delle competenti autorità giudiziarie ovvero amministrative. Qualora non dovessero ottemperare alle richieste delle autorità, allora dovrebbero essere considerati responsabili “per concorso omissivo nel reato commissivo dell’utente, se detto contenuto sia penalmente illecito.”.
Il problema è: che fare quando queste società sono al corrente di contenuti potenzialmente (ma palesemente) illeciti su un piano penale anche in assenza di un previo ordine dell’autorità giudiziaria ovvero amministrativa? Una risposta potrebbe essere l’applicazione estensiva della responsabilità per concorso omissivo in reato commissivo, prevista per le ipotesi di mancata ottemperanza agli ordini delle autorità, a quei casi in cui sia provata la conoscenza di fatto di detti contenuti illeciti.
Ciò discende dalla considerazione che la condotta del concorrente nel reato è per sua natura atipica e consiste non nell’adozione della condotta tipica quanto, piuttosto, nell’adozione di una condotta agevolatrice di quella tipica e che, peraltro, andrebbe valutata sotto il profilo del dolo eventuale (cfr. Sent., Sez. V, n. 25221/2020). Ora, il comportamento di un ISP che, pur consapevole della presenza di contenuti dannosi e passibili di costituire fattispecie penali all’interno del proprio sistema, ugualmente non prenda posizioni idonee ad evitare che si verifichi l’evento dannoso (es. lesioni o decesso di utenti che partecipano alle challenge) e, di fatto, continui col proprio business come se nulla fosse sarebbe ipoteticamente sussumibile all’interno del dolo eventuale, il quale sussiste “quando l’agente si sia rappresentato la significativa possibilità di verificazione dell’evento e si sia determinato ad agire comunque, anche a costo di cagionarlo come sviluppo collaterale o accidentale, ma comunque preventivamente accettato, della propria azione, in modo tale che, sul piano del giudizio controfattuale, possa concludersi che egli non si sarebbe trattenuto dal porre in essere la condotta illecita, neppure se avesse avuto contezza della sicura verificazione dell’evento medesimo (cfr. Cass., Sez. I, n. 18220 del 11/03/2015, rv. 263856).”.
Certo, “occorre la rigorosa dimostrazione che l’agente si sia confrontato con la specifica categoria di evento che si è verificata nella fattispecie concreta” ma è pure vero che, ai fini dell’accertamento di detto nesso psichico “l’indagine giudiziaria, volta a ricostruire l'”iter” e l’esito del processo decisionale, può fondarsi su una serie di indicatori, quali: la personalità e le pregresse esperienze dell’agente; la durata e la ripetizione dell’azione; il comportamento successivo al fatto; il fine della condotta e la compatibilità con esso delle conseguenze collaterali; la probabilità di verificazione dell’evento; le conseguenze negative anche per l’autore in caso di sua verificazione; il contesto lecito o illecito in cui si è svolta l’azione nonché la possibilità di ritenere, alla stregua delle concrete acquisizioni probatorie, che l’agente non si sarebbe trattenuto dalla condotta illecita neppure se avesse avuto contezza della sicura verificazione dell’evento (cfr. Cass., Sez. U. n. 38343 del 24/04/2014, rv. 261105; Cass., Sez, V, n. 23992, del 23/02/2015, rv. 265306).” (cfr. Sent., Sez. V, n. 25221/2020).
E, invero, alla luce di siffatti indicatori, potrebbe ragionevolmente ipotizzarsi il suddetto concorso in capo all’ISP che, ripetutamente, non adotti misure idonee a fermare simili contenuti pericolosi.
La violenza online
Neutralità?
Inoltre, si noti quanto segue: se è vero che la giurisprudenza europea (ex plurimis Corte di Giustizia UE, 7 agosto 2018, causa C-521/17, Coöperatieve Vereniging SNB-REACT U.A. vs Deepak Mehta) e nazionale appaiono concordi nel ritenere l’insussistenza di un qualsivoglia titolo di responsabilità in capo a un provider che si limita ad un ruolo passivo di mera trasmissione tecnica dei dati, diviene difficile ricondurre a tale paradigma il comportamento dei social network, giacché conducono una vera e propria attività di profilazione a fini di lucro (con buona pace della neutralità). Infatti, la profilazione – cd. user data profiling – è una attività che vede il social network attivamente impegnato nella cessione di dati personali e talvolta anche sensibili degli utenti agli inserzionisti pubblicitari che li utilizzeranno per creare pubblicità mirate per i singoli utenti. In tal caso quindi i social network non si limitano a svolgere una attività di hosting neutrale ma intervengono direttamente nell’organizzazione e nella gestione dei contenuti esulando quindi dall’esonero di responsabilità riconosciuto sia normativamente che dalla giurisprudenza costante sia europea che nazionale.
Violenza di genere online: revenge porn, sexting, sextortion.
L’urgenza di una regolamentazione
Ciò posto, si nota comunque la labilità di qualsiasi argomentazione interpretativa tendente a rinvenire nell’attuale impianto normativo una idonea risposta alle sfide poste dall’attuale galassia di social network, oramai divenuta un luogo alquanto idoneo alla commissione di determinati delitti (si pensi all’istigazione nelle sue varie forme), come riconosce pure la Cassazione, che afferma testualmente: “Lo sviluppo giurisprudenziale sul tema, però, non è stato accompagnato da modifiche del testo normativo di riferimento, dimostratosi ormai inadeguato alla materia che si prefigge di regolare, è avanzato parallelamente ai cambiamenti tecnologici di Internet.” (cfr. Sent., Sez. V., n. 12546/2019)
Pertanto, si pone l’esigenza di regolamentare gli illeciti online e di delineare la responsabilità delle piattaforme online intervenendo sull’impianto regolamentare e legislativo. Esempio ne è la Comunicazione n. 555 della Commissione Europea del 2017 avente ad oggetto: «Lotta ai contenuti illeciti online. Verso una maggiore responsabilizzazione delle piattaforme online».
Tale comunicazione evidenzia la necessità di predisporre delle misure proattive efficaci volte ad individuare e rimuovere i contenuti illegali online ed invita quindi i providers a non circoscrivere l’attività di sorveglianza alle sole segnalazioni ricevute. Ma comunque non sarebbe un intervento idoneo a produrre risultati adeguati.
Infatti, come si legge all’interno della stessa Comunicazione, «l’adozione di tali misure proattive non comporta automaticamente la perdita da parte della piattaforma online del beneficio della deroga in materia di responsabilità di cui all’articolo 14 della direttiva sul commercio elettronico». Ovviamente, dovrà verificarsi la circostanza della neutralità per godere dell’esonero di responsabilità, circostanza che – come abbiamo già visto – non pare caratterizzare i social network ma viene ugualmente invocata.
Un simile approccio non sarebbe altro che un palliativo nel mare magnum delle responsabilità che numerosi ISP dovrebbero essere chiamati ad accollarsi in ragione del loro peso socialmente rilevante. E, purtroppo, non è l’unico tentativo di mettere unicamente una pezza senza risolvere il problema in quanto proprio la piattaforma social Tik Tok è stata più volte nel mirino dell’autorità Garante Italiana, ma senza che adottasse misure concrete ed efficaci. Anzi, l’anno scorso – in data 24 gennaio 2020 – il Garante della privacy italiano ha perfino richiesto la creazione di una task force europea poiché è «necessaria un’azione coordinata contro i rischi per i dati degli utenti, soprattutto dei minori», segnalazione rimasta lettera morta. Quest’ anno – il 22 gennaio 2021 – in seguito al tragico evento di Palermo, l’autorità Garante adotta un altro provvedimento de facto inutile, disponendo il blocco del social unicamente per quegli utenti la cui età non sia stata ancora accertata.
C’è sicuramente da chiedersi se tale provvedimento sia effettivamente in grado di arginare il fenomeno, potendo l’utente – ancora una volta – semplicemente mentire sulla propria età dichiarandone una maggiore.
Luigi Izzo, Livia Smoraldi