Il codice di autoregolamentazione è stato appena approvato e rimarrà in consultazione pubblica fino al 24 febbraio. Ecco come si vuole limitare l’uso violento del Web (con qualche punto negativo)

Per il momento sono tre paginette stringate. Che fanno leva fondamentalmente su un paio di punti: l’assoluta necessità che la segnalazione sia facile da inoltrare e, soprattutto, che sia presa in carico entro due ore da “personale opportunamente qualificato”. È la prima bozza del Codice di autoregolamentazione per la prevenzione e il contrasto del cyberbullismo. L’ha approvata oggi un tavolo presieduto dal viceministro dello Sviluppo economico Antonio Catricalà insieme a rappresentanti delle istituzioni (Agcom, Polizia postale e delle comunicazioni, Garanti per la privacy e l’infanzia), delle associazioni (Confindustria digitale e Assoprovider fra gli altri) e degli operatori, fra cui Google e Microsoft. Rimarrà online sul sito del ministero per 45 giorni, quindi fino al 24 febbraio, in una consultazione da cui dovranno venire fuori eventuali aggiunte o modifiche da spedire a uno specifico indirizzo e-mail.

Cinque articoli per cercare di bloccare l’uso violento del Web fra minori. In particolare dei social network, al centro di diversi fatti recenti di cronaca che hanno coinvolto giovanissimi colpiti da ingiurie e persecuzioni online. Gli aspetti da cui muove il documento, dopo una serie di premesse che specificano il significato di cyberbullismo e fanno anche riferimento alla Convenzione internazionale sui diritti dell’infanzia (non si sa perché ribattezzata “del bambino”), riguardano la modalità di segnalazione di eventuali atti di questo tipo. Se ne occupa in particolare l’art. 2, quando dice che “i sistemi di segnalazione […] devono essere adeguatamente visibili all’interno della pagina visualizzata, semplici e diretti, in modo da consentire loro l’immediata segnalazione di situazioni a rischio e di pericolo”. Questi meccanismi (pulsanti, bottoni, possibilità di bloccare altri utenti) devono essere disponibili “nella lingua dello stesso utente che effettua la segnalazione”. E, soprattutto, devono avere un seguito concreto.

Questo l’altro aspetto essenziale, affrontato dall’art. 3. Il quale prevede che gli “aderenti” – dai social network ai “fornitori di servizi online”, di contenuti e le “piattaforme User generated content” – diano risposte rapide a bambini e adolescenti. Tanto da rimuovere i contenuti “lesivi per la vittima” entro due ore dalla segnalazione, “al fine di evitare che le azioni si ripetano e/o si protraggano nel tempo”. Non solo rimozione ma anche oscuramento “cautelare temporaneo del contenuto lesivo segnalato”. Ma è davvero necessario bloccare i siti frequentati dai giovani? Il problema in realtà non è la Rete, lo dicevamo lo scorso settembre con una petizione online.

Ma non basta. L’articolo forse più delicato è il quarto. Si dice che, pur nel rispetto della normativa sui dati personali, gli aderenti potranno aiutare le autorità competenti a “risalire all’identità di coloro che utilizzano il servizio per porre in essere comportamenti discriminatori e denigratori con l’intento di colpire o danneggiare l’immagine e/o la reputazione di un proprio coetaneo”. Il documento si conclude poi invitando i gruppi firmatari a impegnarsi in campagne di formazione e sensibilizzazione sull’uso consapevole del Web, su come difendersi e istituendo un Comitato di monitoraggio (a costo zero) al ministero composto da “esperti di comprovata esperienza e professionalità”. Il gruppo dovrà controllare e stilare una relazione annuale. I poteri sanzionatori? Scarsi, d’altronde di tratta di una carta di autoregolamentazione: c’è solo il richiamo.

“Come provvedimento di autoregolamentazione e sensibilizzazione il giudizio è senz’altro positivo – dice a Wired Guido Scorza, avvocato ed esperto di diritto del Web – tuttavia mi pare che anche in questo caso di punti su un meccanismo un po’ pericoloso, quello di attribuire direttamente ai gestori dei servizi prerogative di cui non dovrebbero e spesso non vorrebbero disporre”. Si tratta insomma dell’automatismo per cui chi sottoscriverà il codice s’impegna a rimuovere entro due ore ogni contenuto ritenuto lesivo: “Al netto delle ottime intenzioni del codice – continua Scorza – il tema è più astratto: è opportuno coinvolgere questi soggetti in maniera insistente nel controllo discrezionale dei contenuti? Forse sarebbe meglio, come succede ad esempio per la pubblicità, che le segnalazioni arrivassero a un organismo terzo, una specie di giurì in grado di decidere nel merito. In fondo ogni volta che si ripropone un sistema dle genere si presta il fianco a ulteriori abusi”.

Senza contare, conclude Scorza, altri piccoli dubbi che spuntano rileggendo con attenzione il documento. Uno su tutti: da chi è composto quel “personale opportunamente qualificato” che dovrebbe valutare ogni segnalazione ed effettuare oscuramento o rimozione? Difficile pensare che ogni società aderente possa dotarsi di squadriglie di pedagoghi, esperti in comunicazione online o psicologi impegnati nell’analisi e nella verifica di un’ondata quotidiana di segnalazioni cui dare un feedback in un paio d’ore.