Con sentenza dello scorso 3 ottobre, la Corte di Giustizia Europea, nel procedimento di pronuncia pregiudiziale C-18/18, ha fornito alcuni chiarimenti sull’interpretazione dell’art. 15 par. 1 della Direttiva CE 2000/31. La norma, infatti, vietando agli Stati membri di imporre in capo agli internet service provider un obbligo generalizzato di sorveglianza sulle informazioni memorizzate o un obbligo di ricerca attiva delle circostanze che possono indicare la presenza di un illecito, sancisce il principio di neutralità dei provider. Con la pronuncia in questione, tuttavia, la Corte di Giustizia ha chiarito che un provider può essere destinatario di un ordine di rimozione, con portata mondiale, avente ad oggetto non solo le specifiche informazioni dichiarate illecite da un’autorità nazionale, ma anche le informazioni memorizzate aventi un contenuto identico e/o equivalente, da ricercarsi mediante tecniche automatizzate.

La vertenza ha avuto origine dalla condivisione, da parte di un utente di Facebook, di un articolo tratto da una rivista di informazione online relativo alla sig.ra Glawischnig‑Piesczek, deputata del parlamento austriaco. La condivisione dell’articolo aveva infatti automaticamente generato sulla bacheca dell’utente un’anteprima del post accompagnata da una fotografia della deputata, cui seguiva un commento dell’utente ritenuto dalla stessa deputata lesivo del proprio onore, poiché lasciava intendere che quest’ultima avesse compiuto reati senza però fornire prove a riguardo.

In seguito al rifiuto di Facebook di eliminare il commento in questione, la deputata aveva adito il Tribunale di Vienna che, accertando la natura ingiuriosa e diffamatoria del commento, aveva inibito a Facebook la pubblicazione e diffusione di fotografie della ricorrente accompagnate da messaggi “identici o dal contenuto equivalente” a quello del commento dichiarato illecito. Tale provvedimento veniva confermato in appello solo parzialmente: il giudice di secondo grado precisava infatti che il divieto di diffusione di contenuti con significato equivalente, in coerenza con il principio di neutralità di cui all’art. 15 citato, doveva ritenersi limitato ai soli contenuti portati – in qualsiasi modo e da chiunque – a conoscenza del provider.

In seguito al ricorso promosso dalle parti avanti la Corte Suprema austriaca, quest’ultima sollevava questioni pregiudiziali di fronte alla Corte di Giustizia UE, chiedendo di precisare se l’articolo 15 par. 1 della dir. 2000/31 impedisce ai giudici nazionali di ordinare ad un hosting provider la rimozione sia delle informazioni dichiarate illecite, sia di altre informazioni di contenuto identico e/o equivalente, tanto nello Stato membro interessato quanto a livello mondiale.

Ritenendo pacifica la natura di hosting provider della società Facebook Ireland LTD, la Corte di Giustizia ha anzitutto ricordato che, pur in assenza di un obbligo generalizzato di sorveglianza e ricerca attiva, i giudici nazionali possono imporre al provider un obbligo di sorveglianza “in casi specifici”, così come previsto dal considerando 47 della direttiva. Tali casi specifici, secondo la Corte, ricorrono ad esempio quando un’autorità nazionale accerta l’illiceità di un’informazione memorizzata dall’hosting provider, individuandola in modo specifico. In aggiunta, poiché i danni conseguenti alle violazioni che si verificano nell’ambito dei servizi della società dell’informazione si manifestano e diffondono con particolare rapidità ed estensione geografica, l’art. 18 par. 1 della direttiva prevede che le autorità giurisdizionali nazionali possano porre fine, anche mediante provvedimenti provvisori, a “qualsiasi” violazione. Di conseguenza, la Corte ha concluso che i giudici nazionali possono ordinare ai provider di rimuovere tanto la specifica informazione dichiarata illecita, quanto le altre informazioni memorizzate di identico contenuto, senza che ciò comporti un obbligo generale di sorveglianza o di ricerca attiva incompatibile con l’art. 15 citato.

Secondo la Corte, inoltre, l’ordine di rimozione/disabilitazione deve potersi estendere ai contenuti che veicolano lo stesso messaggio illecito, pur formulandolo in modo diverso attraverso l’uso di combinazioni e di parole differenti. Diversamente, infatti, il provvedimento dell’autorità sarebbe facilmente eludibile mediante leggere modifiche di forma. Tuttavia, provvedimenti di tale portata sono compatibili con il divieto ex art. 15 solo nella misura in cui non impongano obblighi sproporzionati in capo al provider. A tal fine, dunque, la Corte ha precisato che è legittimo ordinare ad un hosting provider la ricerca e rimozione di contenuti analoghi, solo quando questi possono essere ricercati e individuati con tecniche automatizzate in base ad elementi specifici da precisarsi nel provvedimento (ad es. il nome della persona offesa, le circostanze in cui è stata accertata la violazione, un contenuto equivalente a quello dichiarato illecito), fermo restando che le eventuali differenze nel wording non possono obbligare il provider ad effettuare una valutazione autonoma del contenuto analogo. Infine, la Corte ha osservato l’art. 18 par. 1 della direttiva non prevede limitazioni all’efficacia geografica ai provvedimenti adottati dai giudici nazionali, con la conseguenza che tali provvedimenti possono legittimamente avere portata mondiale, fermo restando che spetta alle autorità nazionali tenere debitamente conto delle norme di diritto internazionale applicabili