1

Web Reputation, la difesa della propria identità online

C’è un termine, entrato negli ultimi anni prima nel vocabolario comune e poi, sulla Treccani: googlare. Il verbo in questione indica molto di più della mera azione di ricerca sul web, ma abbraccia un concetto più ampio, quello della conferma di una nostra iniziale percezione.

Per capirne realmente la forza e la portata innovativa basta guardare alle nostre azioni quotidiane: ho visto un prodotto, ho sentito alla radio il nome di una certa località, mi hanno parlato bene di un certo dentista, in tutte queste situazioni, l’azione che immediatamente segue il primo impulso (per usare un termine caro al marketing) è quella di cercare conferma online e appunto googlare: il nome della località in questione, o del professionista sanitario, o del prodotto specifico, per tornare all’esempio sopracitato. Nel nostro viaggio online, alla ricerca di conferme e recensioni positive (i professionisti del marketing chiamerebbero questa fase Zero Moment of Truth (ZMOT) ci imbattiamo in una serie di informazioni, frutto di recensioni e giudizi altrui, lasciati nel grande spazio libero del web. Già lo spazio libero del web, un mondo senza vincoli e barriere che rischia di essere anche un mondo senza regole.

Cosa succederebbe infatti se, per tornare all’esempio di cui sopra, googlando sul web mi imbattessi in una serie di recensioni negative sul professionista sanitario di cui stavo cercando informazioni, quali effetti avrebbero sulla mia scelta, quali sulla reputazione del sanitario in questione?

Qui veniamo al nodo forse più spinoso della web reputation, che comprende non soltanto tutte le informazioni che forniamo noi in prima persona sul web o sui nostri account social: foto, video, pensieri condivisi in libertà, ma altresì ciò che gli altri più o meno consapevolmente, più o meno volontariamente scrivono su di noi. Foto pubblicate da altri, recensioni lasciate su portali dedicati, post pubblicati sul proprio account che fanno riferimento ad uno specifico prodotto, articoli scritti su blog.

Gli esempi sono tendenzialmente infiniti, così come le occasioni che il web offre per esprimersi. Cosa ha spinto quella persona a raccontare in termini negativi l’esperienza vissuta, quali erano le aspettative dell’acquirente sul prodotto? In realtà le variabili sono tantissime e spesso e volentieri, diventa difficile per l’avventore che legge un commento o una recensione sul web, riuscire a cogliere le mille sfumature che si celano dietro una frase e che sono sintetizzate in una recensione negativa, o in un Non mi piace, piuttosto che in una emoticon con l’espressione arrabbiata, o in un coinciso non lo consiglio. Ma chi controlla tutta questa mole di informazioni, cosa possiamo fare realmente per tutelarci? Vero, il web è sì un mondo virtuale, ma non svincolato dalle leggi, quindi in teoria, possiamo far valere gli stessi principi e le stesse norme che disciplinano nel mondo reale il diritto all’immagine, alla reputazione, e parimenti la tutela dalla diffamazione. Purtroppo però, non sempre è così semplice. Ancor più tortuoso il diritto all’oblio, la sacrosanta richiesta di non essere marchiato a vita online, di veder cancellati dati e informazioni, non (più) corrispondenti alla nostra identità. Il monitoraggio costante, la costruzione della web reputation diventano così elementi imprescindibili per il privato cittadino e ancor più per le aziende.




Digital Europe, ecco il programma per la trasformazione digitale dell’Unione Europea

Sicurezza informatica, intelligenza artificiale, competenze digitali avanzate, supercalcolo e la garanzia di un ampio uso delle tecnologie digitali nella società e nell’economia. Questi gli obiettivi di Digital Europe, il programma di finanziamento UE per favorire la trasformazione digitale dell’Unione Europea che può contare su un budget complessivo di 7 miliardi e mezzo di euro da spendere fino al 2027.

Gli obbiettivi strategici che si inseriscono in una strategia europea più ampia e hanno come quadro di riferimento il MFF (Multiannual Financial Framework), ossia il bilancio pluriennale dell’UE, che delinea le strategie e le risorse disponibili per il periodo 2021-2027, sono i seguenti:

Horizon Europe,  il programma quadro dell’Unione europea per la ricerca e l’innovazione per il periodo 2021-2027
il programma CEF (Connecting Europe Facility), che si occupa di promuovere investimenti nelle infrastrutture strategiche, come banda larga e 5G
Creative Europe, il programma dedicato all’industria creativa e ai media
EU4Health, il programma di investimenti per la digitalizzazione del settore sanitario
la politica di coesione dell’Unione Europea, in riferimento agli obiettivi di sviluppo della rete di connettività (per ridurre le disuguaglianze tra i Paesi membri), di sostegno alle imprese e di sviluppo delle competenze digitali la strategia di trasformazione digitale del settore agricolo, che punta a sfruttare i Big Data per la politica agricola comune (CAP)
gli strumenti del Recovery and Resilient Facility (RRF), lo strumento europeo che mette a disposizione un totale di 723,8 miliardi di euro per la ripresa degli Stati membri dopo la pandemia

InvestEU, lo strumento di finanziamento per stimolare gli investimenti europei

Il work program per il biennio 2021-2022 indica le aree di intervento su cui l’UE aprirà dei bandi per promuovere la partecipazione di imprese private, affianco a soggetti comunitari:
High performance computing (HPC), gestito dall’Iniziativa europea sull’HPC (EuroHPC JU)
cyber security, che sarà gestita dall’ECC (European Cybersecurity Competence Network and Center), l’iniziativa europea che punta a creare un ecosistema industriale e di ricerca interconnesso a livello europeo sulla cyber sicurezza. In attesa che l’ECC sia operativo, il work program sarà gestito, ad interim, dal DG Connect, la Direzione generale della Commissione che si occupa delle politiche dell’Ue in materia di mercato unico digitale, sicurezza di Internet e scienza e innovazione digitale gli European Digital Innovation Hub (Edih), per cui è stato individuato un work program separato, in quanto le call che li riguardano hanno criteri diversi (gestiti da DG Connect)  main work program (il programma di lavoro principale), che copre obiettivi più specifici, gestito da DG Connect e EA HaDEA (l’agenzia esecutiva europea per la salute e il digitale).

Il main work program si concentrerà su quattro aree strategiche: l’Intelligenza Artificiale, cloud, i dati e sviluppo di programmi formativi (master) per le competenze digitali avanzate; azioni di cybersecurity e diffusione e miglior uso delle tecnologie (azioni a sostegno del Green deal, Blockchain, servizi pubblici e fiducia nella trasformazione digitale).

Le risorse
Vista l’entità degli interventi programmati, questi non saranno attivati contemporaneamente, ma saranno divisi in tre call. Le risorse complessive stanziate per il biennio ammontano a 1,38 miliardi di euro. Per la prima call – aperta lo scorso 17 novembre – sono stati stanziati circa 415 milioni di euro. Per la seconda, che sarà avviata nel primo trimestre del 2022, sono stati stanziati circa 250 milioni di euro e per la terza (che si aprirà nel terzo trimestre del 2022) circa 170 milioni di euro.




L’industria dei dati pubblici, il motore della riforma della PA

Aperti, aggiornati, strutturati, machine readable e corredati dai metadati: i dati prodotti dalle Pubbliche Amministrazioni, per essere realmente utilizzabili, dovrebbero avere almeno queste caratteristiche. Sono decenni, ormai, che si sente parlare delle numerose possibilità offerte dai dati e delle ricadute, in termini di conoscenza e di benessere collettivo, conseguenti alla loro condivisione.

Eppure, nonostante nel settore privato sia evidente il valore attribuito ai dati, talmente elevato da essere “pagato” con un corrispettivo in servizi gratuiti di ogni tipo, il settore pubblico sembra ancora troppo inconsapevole delle potenzialità informative di cui dispone e impreparato rispetto alle politiche da attuare.

In realtà, l’impreparazione è più che altro dovuta a una specie di ostruzionismo burocratico e formale che impedisce di definire degli accordi snelli e veloci tra le amministrazioni. Per questo, la condivisione dei dati, prima di arrivare alle questioni tecnologiche riguardanti la cooperazione applicativa, viene ostacolata da protocolli d’intesa manzoniani firmati e controfirmati da dirigenti, direttori e presidenti, che, nel migliore dei casi, richiedono mesi di tempo per essere formalizzati. Nel peggiore, le trattative terminano con un nulla di fatto.

C’è stato un periodo, circa quindici anni fa, in cui parlare di condivisione e open data andava di moda: chiunque si lanciava in riflessioni fantasiose e proiezioni spericolate di ogni tipo, a volte veniva perfino interpellato chi ne sapeva realmente qualcosa e che, proprio per questo motivo, è stato escluso dai consessi importanti. Poi, la moda è passata e la questione open data è stata considerata più o meno risolta.

Anche perché si è palesata una parola sicuramente più comunicativa, misteriosa e affascinante, il termine “big”, che ha avuto il potere di arrestare il processo di diffusione e di condivisione dei dati: tutto si è fermato ad alcune esperienze virtuose e a qualche file di testo che ancora resiste, eroicamente appeso alle pagine di un sito dimenticato, come una vecchia canottiera a costine stesa sui fili arrugginiti di una casa abbandonata. Come spesso accade, la normativa esiste ed è chiara: l’articolo I del CAD prevede che i dati aperti debbano essere:

disponibili con una licenza o una previsione normativa che ne permetta l’utilizzo da parte di chiunque, anche per finalità commerciali, in formato disaggregato;
accessibili attraverso le tecnologie digitali, comprese le reti telematiche pubbliche e private, in formati aperti e provvisti dei relativi metadati;
resi disponibili gratuitamente attraverso le tecnologie digitali, oppure resi disponibili ai costi marginali sostenuti per la loro riproduzione e divulgazione (salvo quanto previsto dall’articolo 7 del decreto legislativo 24 gennaio 2006, n. 36).

A dispetto delle norme, però, la situazione reale è ben diversa. In primo luogo perché all’interno delle PPAA non sembrano esserci molte persone che conoscano approfonditamente i dati e il loro ciclo di vita e siano in grado di attuare strategie di condivisione stabili e di lungo periodo. I dati prodotti e condivisi dalle istituzioni, almeno di quelle che fanno parte del Sistema Statistico Nazionale, dovrebbero garantire la qualità, la completezza dei metadati e il rispetto degli standard internazionali di diffusione.

Per produrre dei dati con queste caratteristiche, occorre industrializzare il processo di produzione e fare in modo che la diffusione non sia il compito di qualche volenteroso che inserisca manualmente un file di testo su uno dei tanti portali, ma la conclusione di un flusso informativo che passi per la raccolta, la validazione, l’archiviazione, la pubblicazione e, possibilmente, la visualizzazione.

Costruire “l’industria dei dati pubblici” è molto oneroso e impegnativo: la pandemia ha dimostrato ampiamente l’impreparazione del sistema Paese, soprattutto in una situazione di emergenza, nella costruzione di una metodologia di raccolta rigorosa e affidabile e di un sistema di validazione e di condivisione trasparente e strutturato. Questi limiti, in una condizione di normalità, devono spesso fare i conti anche con la duplice anima delle istituzioni, che producono contemporaneamente dati di flusso e dati di stock.

I due processi produttivi, pur avendo degli elementi comuni, sono governati da logiche molto diverse e richiedono l’impiego di metodologie e di tecnologie differenti per quanto riguarda le fasi di validazione, di diffusione e di visualizzazione. I dati di stock sono trattati attraverso l’impiego di tecniche consolidate e vengono aggregati con lo scopo di descrivere un certo fenomeno nella sua interezza, i dati di flusso descrivono l’evoluzione temporale di un fenomeno e, oltre a essere numericamente più consistenti, hanno delle specificità che richiedono trattamenti e tecniche di validazione e di diffusione diverse dai dati di stock, anche in relazione al GDPR.

La validazione dei dati di stock, generalmente riferiti a un intero anno, richiede molto tempo in quanto gli archivi si devono consolidare e il processo scientifico per garantirne la qualità è molto oneroso: questo vincolo non consente di avere dati aggiornati in tempo reale, ma permette di descrivere i fenomeni con molta precisione. La validazione dei dati di flusso segue un iter molto diverso, attraverso il quale non è al momento possibile garantire la stessa qualità dei dati di stock, ma in compenso risponde al bisogno crescente di numerosi ambiti di ricerca.

C’è poi una questione delicata che riguarda la distinzione tra i dati di sintesi e i dati puntuali: i primi possono essere trattati e condivisi senza vincoli particolari, i secondi, nella maggior parte dei casi, sono soggetti alla regolamentazione sul trattamento dei dati e impongono numerosi limiti non solo alla diffusione ma anche al trattamento e all’analisi da parte dei ricercatori.

Superato lo scoglio organizzativo e metodologico, che già di per sé rappresenta un limite notevole, c’è da affrontare la questione politica. Nonostante i proclami e le linee guida (molto spesso ignorate) dell’AGID, le pubbliche amministrazioni sono ancora dei feudi nei quali regnano le regulae societatis dei gesuiti, ovvero l’obbedienza incondizionata alle volontà dei superiori gerarchici e la negazione dell’evidenza, attraverso l’omissione della diffusione della conoscenza, per indirizzare il pensiero per mezzo di ordini precisi dettati dalla Divina Provvidenza, che, chissà perché, ha sempre sembianze molto umane.

Questo aspetto rende gli archivi delle istituzioni assimilabili a dei fortini inespugnabili, protetti da un recinto chiamato “privacy”, che ne legittima di fatto l’isolamento. Se è vero che negli ultimi anni la collaborazione tra istituzioni è stata rafforzata, e alcuni archivi, soprattutto stock, sono stati condivisi, è altresì vero che le metodologie adottate per la condivisione dei dati sono assolutamente inadeguate rispetto ai mezzi disponibili e fanno ricorso ancora a vecchi e insicuri metodi di trasferimento manuali (upload o FTP).

In altre parole, non esiste una governance nazionale che definisca strategie, metodi e infrastrutture di condivisione, esistono più che altro prassi sedimentate che non tengono conto delle evoluzioni del mondo e della tecnologia e, soprattutto, della necessità di creare un’industria dei dati pubblici. Eppure, le pubbliche amministrazioni dispongono di patrimoni informativi ricchissimi, che vanno dalle caratteristiche dei singoli individui ai dati economici, dai fabbisogni di personale ai bilanci, dalle competenze alle professioni svolte, attraverso i quali sarebbe possibile attuare consapevolmente tutte le riforme di cui il Paese ha bisogno.

Il rinnovamento della PA passa attraverso un reclutamento del personale più efficace e consapevole, un’erogazione dei concorsi pubblici fluida e trasparente, una valorizzazione del merito, della conoscenza e dell’esperienza dei lavoratori, un’ottimizzazione delle spese e degli assetti organizzativi attraverso l’attuazione di politiche sul lavoro sostenibili in termini economici, produttivi e ambientali.

È difficile, se non impossibile, immaginare una riforma che, ancora una volta, ignori il valore dei dati e faccia ricorso alla volontà della Divina Provvidenza. Se è proprio necessario arrendersi all’idea che la salvezza degli uomini non sia frutto del contributo di ciascun individuo al benessere della collettività, ma una specie di miracolo compiuto da uno dei tanti salvatori della Patria, molto cari alle masse, tanto vale identificare il salvatore nei dati e non in un santone improvvisato che dispensi l’elisir delle riforme perfette.




Anac. Aidr: con lo Spid accesso veloce ad una serie di servizi

Dal 28 marzo è possibile accedere ad alcuni servizi online di Anac anche tramite Spid, il Sistema Pubblico di Identità Digitale. Con un unico nome utente e una sola password è, quindi, possibile fruire in modo veloce e sicuro di alcuni servizi digitali dall’Autorità Nazionale Anticorruzione già integrati con il nuovo sistema di autenticazione.

In particolare: il rilascio del Certificato esecuzione lavori (Cel) e le Attestazioni Soa (nuova versione). Il primo servizio è rivolto al Responsabile unico del procedimento (RUP) delle stazioni appaltanti che rilascia il Certificato all’impresa esecutrice di lavori pubblici che ne abbia fatto richiesta. Il secondo servizio invece è dedicato al rilascio delle attestazioni da parte delle Società Organismi di Attestazione (Soa).

“L’implementazione digitale da parte dell’Autorità Nazionale Anticorruzione – A.N.A.C, guidata da Giuseppe Busia – sottolinea in una nota Aidr – va in direzione di una sempre maggiore copertura di servizi digitali da parte della pubblica amministrazione con conseguente ottimizzazione dei tempi e delle relative procedure.

Nel 2021 lo Spid-. ricorda l’associazione Aidr in una nota – ha raggiunto il 43% della popolazione, con 26 milioni di identità rilasciate a fine ottobre dello scorso, più del doppio di quelle dello stesso periodo del 2020”.