Le otto pioniere dell'informatica al femminile

by Antonello Camilotto


Sono molte le donne che hanno fatto la storia dell’informatica ma le cui teorie, idee e invenzioni fondamentali a stento vengono oggi nominate e studiate.


 Ada Lovelace Byron

Nata nel 1815 e morta a soli 36 anni, Ada venne concepita nel breve e infelice matrimonio fra il poeta George Gordon Byron e la nobile matematica Anne Isabella Milbanke. La madre la portò via dopo la separazione dal marito, e indirizzò la sua educazione verso le materie scientifiche con un occhio di riguardo per la matematica. La donna temeva infatti che Ada avrebbe potuto ricalcare i passi fallimentari del padre nel mondo della poesia.


Fin dai primi anni, caratterizzati da una salute cagionevole, Ada si rivelò una bimba prodigio. Grandi studiosi e matematici assunti da sua madre, ne seguirono e incoraggiarono attivamente gli studi fin dall’infanzia.


A 17 anni, durante un ricevimento, conobbe il matematico Charles Babbage, inventore che influenzò molto i suoi studi futuri. L’uomo le parlò del suo ultimo progetto, la Macchina Analitica, uno dei tasselli fondamentali della storia dell’informatica. Tale macchina era sostanzialmente il primo prototipo di computer meccanico, anche se non venne mai effettivamente completata. Babbage vedeva nel suo progetto solo una sfaccettatura limitata, ossia quella di un semplice calcolatore. Per l’epoca era comunque un progetto estremamente all’avanguardia.


Fu proprio Ada ad intravedere però le potenziali applicazioni ben più complesse e futuristiche di tale macchina, prevedendo che avrebbe cambiato le sorti dell’umanità in ambito scientifico, e prefigurando il concetto di intelligenza artificiale. Dalla collaborazione fra i due, e la corrispondenza col giovane ingegnere italiano Luigi Federico Menabrea, Ada elaborò un algoritmo per la Macchina Analitica, che le avrebbe consentito di calcolare i numeri di Bernoulli. Tale lavoro è stato riconosciuto al giorno d’oggi come il primo vero e proprio programma mai scritto per un computer. Ada Lovelace Byron è stata dunque a tutti gli effetti la prima programmatrice della storia dei computer, nonché la visionaria che intravide i primi abbozzi di un futuro informatico non troppo lontano.


๏ปฟSuor Mary Kenneth Keller

Nata nel 1913 e morta nel 1985 fu una donna di fede ma anche una pioniera dell’informatica.


Dopo aver preso i voti e ben due lauree in matematica e fisica, Mary fu la prima donna nella storia degli Stati Uniti ad ottenere un PhD in informatica, ossia un dottorato. La sua tesi trattava degli algoritmi necessari alla soluzione analitica di equazioni differenziali.


Nel 1958 partecipò allo sviluppo del BASIC, un linguaggio di programmazione ad alto livello. Nel 1965 invece, iniziò una brillante carriera nel campo dell’insegnamento al Clarke College di Dubuque nell’Iowa. Qui fondò il Dipartimento di Informatica del College e lo resse per ben vent’anni. La sua visione come informatica e soprattutto educatrice, era volta ad offrire grande importanza al processare e rendere fruibile la mole di informazioni già all’epoca disponibili, soprattutto per facilitarne l’apprendimento.


 Hedy Lamarr

Nata nel 1914 e morta nel 2000, oltre ad essere una diva del cinema, fu anche una grande inventrice. L’ex studentessa di ingegneria a Vienna, ha sviluppato insieme al compositore George Antheil un sistema di guida a distanza per siluri. Il brevetto consiste in un sistema di modulazione per la codifica di informazioni da trasmettere su frequenze radio, verso un’entità che li riceverà nello stesso ordine con il quale sono state trasmesse. La sua invenzione contribuì in modo decisivo alla sconfitta dei nazisti ed è alla base di tutte le tecnologie di comunicazione senza fili che usiamo oggi, dal wi-fi al Gps.


 Karen Spärck Jones

Nata nel 1935 e morta nel 2007, fu figlia dell’insegnante di chimica Owen Jones e della norvegese Ida Spärck. Dopo la laura in Filosofia e una breve carriera come insegnante, si dedicò del tutto al mondo dei computer. Divenne docente di informatica alla prestigiosa Cambridge, e fu per tutta la sua vita una forte sostenitrice dell’avvicinamento delle donne all’intero campo tecnologico.


Karen fu l’ideatrice del sistema alla base dei moderni motori di ricerca, con la creazione della cosiddetta funzione di peso td-idf. Questa funzione era capace di misurare la rilevanza e importanza di uno specifico termine in relazione ad uno o più documenti. Karen presentò questo lavoro in un articolo nel 1972 “A statistical interpretation of term specificity and its application in retrieval”, che venne poi concretizzato da Mike Burrows nel 1994 con la creazione del motore di ricerca Alta Vista. Un’opera essenziale per rendere più facilmente consultabili numerosissimi documenti destinati a moltiplicarsi e ammucchiarsi esponenzialmente nei decenni a venire.


 Grace Murray Hopper

Nata nel 1906 e morta nel 1992, questa donna esile e minuta fu una brillante matematica, informatica ed anche una militare statunitense. Dopo aver ottenuto un PhD in matematica nel 1934 a Yale, insegnò per due anni al Vassar College e in seguito si arruolò nella Riserva della Marina nel ’43. La sua genialità le offrì un posto in Marina nonostante non rientrasse negli standard minimi fisici, a causa della sua bassa statura. Per permetterle ciò venne persino emessa una deroga fatta su misura per lei.


A Grace la storia dell’informatica deve molto, in quanto fra le tante cose, il suo ruolo fu essenziale nella programmazione del COBOL, linguaggio adoperato ancora oggi in software commerciali di tipo bancario. A Grace dobbiamo anche l’utilizzo del termine bug per definire un malfunzionamento di un computer, e le relative operazioni di debugging.


 Radia Perlman

Nata nel 1951, è ancora oggi una celebre informatica soprannominata affettuosamente “la madre degli switch“. Dopo una laurea in matematica ed un dottorato in informatica al prestigioso Massachusetts Institute of Technology (MIT), Radia ha donato al progresso informatico un contribuito storicamente essenziale, senza la quale oggi non avremmo internet così come lo conosciamo. Radia, fra i suoi numerosi contributi, è celebre per aver concepito l’algoritmo alla base del protocollo spanning tree, essenziale nel networking.


 Adele Goldberg

Nata nell’Ohio nel 1945, è tutt’ora una celebre informatica statunitense. Laureata in matematica con un master in informatica, ha ottenuto il PhD in scienze dell’informazione. È stata per diversi anni operativa presso il PARC, il Centro di ricerca Xerox a Palo Alto ed è stata la co-fondatrice della ParcPlace-Digitalk. I suoi contributi al mondo dell’informatica sono stati riconosciuti e premiati nel corso degli anni, ed è nota in particolare per il lavoro di sviluppo del linguaggio di programmazione Smalltalk, in collaborazione con Alan Kay.


 Anita Borg

Nata nel 1949 e morta nel 2003, l’informatica statunitense è stata colei che ha dato forse l’impulso maggiore a beneficio delle donne in campo informatico e tecnologico. Un apporto essenziale e ancora oggi estremamente attuale, atto ad incoraggiare la presenza femminile in un mondo che vede le donne ancora troppo assenti se non direttamente escluse da studio e lavori legati alle discipline tecnologiche.


Celebre per i suoi lavori come ricercatrice e programmatrice, la Borg fondò nel 1987 Systers, una rete di email per donne che lavoravano e studiavano nell’ambito della tecnologia con un’alta formazione a livello tecnico. Tale rete consentiva un ricco scambio di consigli ed esperienze nel campo, ma costituì anche il terreno fertile per piccole ma rilevanti lotte sociali. Una delle poche argomentazioni non tecniche che vennero trattate in Systers riguardò ad esempio l’uscita nel 1992 da parte di Mattel, di una Barbie che recitava una battuta come “l’ora di matematica è tosta“. Tale giocattolo, per quanto apparentemente innocuo, si sarebbe potuto rivelare piuttosto dannoso per la formazione delle bambine, alimentando fin dall’infanzia lo stereotipo che vuole la matematica come materia naturalmente più indirizzata ai maschi. La protesta sorta da Systers portò alla rimozione di quella frase dai microchip della celebre bambola.


Fra le imprese più grandi di Anita Borg sempre in ambito femminile, vi furono la creazione della Grace Hopper Celebration of Women in Computing nel 1994 e la fondazione dell’Institute for Women and Technology nel 1997. La Grace Hopper, in omaggio alla celebre informatica militare statunitense, fu una conferenza che fondò in collaborazione con la collega Telle Whitney, allo scopo di radunare un gran numero di donne del campo della tecnologia. Durante la prima conferenza nel 1994 a Washington DC ottennero una partecipazione di 500 donne.


L’Institute for Women and Technology invece, è una compagnia che venne creata da Anita ricalcando i suoi valori principali in merito alla diffusione e potenziamento dei mestieri tecnologici fra le donne. L’istituto che nel tempo si è accresciuto acquisendo rilevanza internazionale, svolge ancora oggi un ruolo importante nel consentire sviluppo, connessione e opportunità di accrescimento del ruolo delle donne che lavorano in campo tecnologico. Non mancano dunque incentivi alla formazione o premi come il Technical Leadership Abie Award. Un compenso di ben 20.000 dollari, assegnato durante le celebrazioni in onore di Grace Hopper, alle donne che hanno contribuito a creare e progettare prodotti o servizi tecnologici di grande rilevanza in campo sociale, del business o di grande impatto per la comunità femminile nella tecnologia. All’istituto è stato oggi aggiunto il nome della celebre informatica, in un omaggio importante di cui avere sempre memoria.

๏ปฟ

© ๐—ฏ๐˜† ๐—”๐—ป๐˜๐—ผ๐—ป๐—ฒ๐—น๐—น๐—ผ ๐—–๐—ฎ๐—บ๐—ถ๐—น๐—ผ๐˜๐˜๐—ผ

Tutti i diritti riservati | All rights reserved

๏ปฟ

Informazioni Legali

I testi, le informazioni e gli altri dati pubblicati in questo sito nonché i link ad altri siti presenti sul web hanno esclusivamente scopo informativo e non assumono alcun carattere di ufficialità.

Non si assume alcuna responsabilità per eventuali errori od omissioni di qualsiasi tipo e per qualunque tipo di danno diretto, indiretto o accidentale derivante dalla lettura o dall'impiego delle informazioni pubblicate, o di qualsiasi forma di contenuto presente nel sito o per l'accesso o l'uso del materiale contenuto in altri siti.


Autore: by Antonello Camilotto 28 ottobre 2025
Negli ultimi trent’anni, la rivoluzione digitale ha modificato profondamente non solo le nostre abitudini quotidiane, ma anche il modo in cui ci esprimiamo. Il linguaggio del Web — fatto di abbreviazioni, emoji, hashtag e neologismi — ha introdotto un nuovo codice comunicativo, capace di fondere oralità e scrittura in una forma del tutto inedita. Con l’avvento dei social network, la comunicazione è diventata più immediata, sintetica e visiva. Le parole si accompagnano a immagini, gif e simboli che sostituiscono intere frasi o stati d’animo. Un semplice “๐Ÿ˜‚” può raccontare più di una battuta ben scritta, mentre un hashtag come #mood racchiude in poche lettere una sensazione condivisa. È il trionfo della comunicazione rapida, dell’istantaneità, dove l’importante non è solo cosa si dice, ma come lo si rappresenta. La rete ha anche favorito la nascita di un linguaggio globale, ibrido e in continua evoluzione. Termini inglesi, abbreviazioni e sigle — da LOL a DM, da follower a streaming — sono entrati nel lessico quotidiano di milioni di persone, superando barriere linguistiche e culturali. Tuttavia, questa evoluzione non è priva di critiche: secondo molti linguisti, la semplificazione del linguaggio online rischia di ridurre la complessità del pensiero e di appiattire le sfumature emotive. D’altro canto, la rete ha anche dato voce a chi prima non ne aveva. Forum, blog e piattaforme social hanno permesso a individui e comunità di esprimersi, raccontarsi e costruire nuove forme di identità collettiva. Il linguaggio del Web non è dunque solo una questione di parole, ma anche di partecipazione, di democrazia comunicativa, di libertà espressiva. In definitiva, il linguaggio del Web è lo specchio di un’epoca in costante mutamento: dinamico, fluido, inclusivo, ma anche frammentato e veloce. Come ogni linguaggio, riflette la società che lo usa — e oggi quella società è sempre più connessa, globale e digitale. La sfida sarà imparare a usare questo nuovo codice senza perdere la profondità e la ricchezza che da sempre caratterizzano la comunicazione umana. ๏ปฟ
Autore: by Antonello Camilotto 28 ottobre 2025
I chatbot basati sull’intelligenza artificiale stanno diventando sempre più sofisticati e accessibili, tanto che molte persone iniziano a chiedersi se possano davvero sostituire un professionista della salute mentale. La risposta, tuttavia, è no: non è una buona idea sostituire il proprio psicologo con un’intelligenza artificiale, almeno con le tecnologie attualmente disponibili. L’AI, per quanto avanzata, rimane priva di empatia reale. Può simulare comprensione ed elaborare risposte coerenti, ma non prova emozioni, non percepisce il tono della voce, lo sguardo o la postura dell’interlocutore, tutti elementi fondamentali nella relazione terapeutica. La psicoterapia non è solo scambio di parole, ma un processo complesso che si fonda sulla fiducia, sull’intuizione e sulla capacità umana di cogliere segnali sottili, spesso inconsci. Ciò non significa che i chatbot non possano avere un ruolo nel campo del benessere psicologico. In contesti di emergenza o in aree dove i servizi di salute mentale sono carenti o inaccessibili, gli strumenti di AI “terapeutici” possono offrire un supporto temporaneo, una sorta di “primo soccorso emotivo”. Possono aiutare a gestire momenti di ansia, solitudine o stress, fornendo strategie di coping o spunti di riflessione. Tuttavia, si tratta di un sostegno limitato e non paragonabile a un percorso psicologico guidato da un esperto. I rischi aumentano quando si utilizzano chatbot “generici”, come ChatGPT, per scopi terapeutici. Questi modelli non sono progettati per affrontare problemi di salute mentale e, in alcuni casi, hanno mostrato comportamenti problematici: risposte inappropriate, rafforzamento di convinzioni pericolose o addirittura incoraggiamento involontario di pensieri dannosi. In definitiva, l’intelligenza artificiale può essere un valido strumento di supporto o di orientamento, ma non un sostituto del contatto umano. Il dialogo con uno psicologo resta insostituibile perché basato sull’empatia, sulla comprensione profonda e sulla capacità di adattarsi alla complessità unica di ogni individuo.
Autore: by Antonello Camilotto 8 ottobre 2025
Gary McKinnon, noto anche come "Solo" (Glasgow, 10 febbraio 1966), è un programmatore e hacker britannico accusato dalle autorità statunitensi di aver compiuto "la più grande intrusione informatica mai registrata nei sistemi di difesa". ๏ปฟ Catturato nel Regno Unito dopo una richiesta di estradizione dagli Stati Uniti — considerata da alcuni una persecuzione nei confronti di un capro espiatorio —, nel 2012 il Regno Unito negò l’estradizione verso gli USA. Affetto dalla sindrome di Asperger, McKinnon è ritenuto da molti una delle menti informatiche più brillanti dei nostri tempi. Ha dichiarato di essere motivato dalla ricerca di prove sull’esistenza degli UFO, sostenendo di essere certo che i militari statunitensi detenessero tecnologia per l’antigravità e che il governo americano cercasse di sopprimere la diffusione della cosiddetta "energia libera". Da solo, McKinnon scansionò migliaia di computer governativi e individuò gravi falle di sicurezza in molti di essi. Tra febbraio 2001 e marzo 2002 violò quasi un centinaio di macchine appartenenti all’Esercito, alla Marina, all’Aeronautica, alla NASA e al Dipartimento della Difesa. Per mesi si muovette all’interno di quei sistemi, copiando file e password; in un episodio paralizzò la rete dell’esercito americano a Washington, DC, rendendo inutilizzabili circa 2.000 computer per tre giorni. Nonostante le sue competenze, non riuscì a nascondere le tracce e fu individuato in un piccolo appartamento a Londra. Nel marzo 2002 la National Hi-Tech Crime Unit del Regno Unito lo arrestò: all’epoca era un tranquillo scozzese di 36 anni, con tratti che qualcuno descriveva come elfico e sopracciglia pronunciate in stile Spock. Era stato amministratore di sistema, ma al momento dell’arresto non aveva un impiego fisso e trascorreva le giornate coltivando la sua ossessione per gli UFO. A quattordici anni imparò da autodidatta a programmare videogiochi ambientati nello spazio sul suo computer Atari. Entrò nella British UFO Research Association e trovò una comunità di appassionati con interessi simili; sua madre ricorda che lo interrogò sul patrigno, cresciuto a Bonnybridge, località nota per avvistamenti UFO. Dopo aver lasciato la scuola secondaria, alternò diversi lavori di supporto tecnico. Dopo aver letto The Hacker’s Handbook, manuale degli anni Ottanta, iniziò a sperimentare le tecniche suggerite e nel 2000 decise di cercare prove sugli UFO nei sistemi informatici governativi statunitensi. Concentrato e ossessivo, mise a punto metodi per introdursi nelle macchine. Con Perl scrisse uno script che gli consentiva di scansionare fino a 65.000 computer in meno di otto minuti e scoprì che molti impiegati federali non avevano cambiato le password predefinite. Sorpreso dalla scarsa sicurezza, installò su quegli apparecchi il software RemotelyAnywhere, che permette l’accesso e il controllo remoto; in questo modo poteva spostarsi tra i sistemi, trasferire o cancellare file e interrompere l’attività quando rilevava altri accessi. Si spostò virtualmente da Fort Meade fino al Johnson Space Center della NASA in cerca di tracce di vita extraterrestre; raccontò di aver trovato un elenco di "ufficiali non terrestri" della Marina e una foto di un oggetto a sigaro con cupole geodetiche, foto che però non riuscì a salvare perché in JavaScript. Alimentò la sua ossessione e il piacere dell’hacking: come disse al Guardian nel 2005, era diventato una dipendenza, simile al desiderio di affrontare sfide di sicurezza sempre più complesse. La sua attività venne però scoperta: il Dipartimento di Giustizia statunitense non ha reso pubblici i dettagli su come sia stato rintracciato, ma McKinnon sostiene che la sua intrusione fu individuata quando si collegò al Johnson Space Center in un momento sfortunato; l’accesso fu subito interrotto e, secondo la sua ricostruzione, il ritrovamento del software RemotelyAnywhere sul sistema avrebbe portato agli acquisti associati al suo indirizzo e-mail.
Autore: by Antonello Camilotto 8 ottobre 2025
Brendan Eich è una delle figure più influenti nella storia dell’informatica moderna. Nato nel 1961 a Pittsburgh, in Pennsylvania, è conosciuto soprattutto per aver creato JavaScript, uno dei linguaggi di programmazione più utilizzati al mondo. Tuttavia, la sua carriera va ben oltre questo contributo: Eich è anche uno dei fondatori di Mozilla e, successivamente, il creatore del browser Brave e della criptovaluta Basic Attention Token (BAT). Gli inizi e la creazione di JavaScript Dopo aver conseguito una laurea in matematica e informatica alla Santa Clara University e un master all’Università dell’Illinois a Urbana-Champaign, Eich lavorò per Silicon Graphics e MicroUnity. Nel 1995 entrò in Netscape Communications, dove gli fu affidato un compito che avrebbe cambiato per sempre il web: sviluppare un linguaggio di scripting da integrare nel browser Netscape Navigator. Incredibilmente, Eich scrisse la prima versione di JavaScript in soli dieci giorni. L’obiettivo era creare un linguaggio facile da apprendere per gli sviluppatori web, capace di rendere le pagine dinamiche e interattive senza la necessità di compilazione. Il risultato fu un linguaggio flessibile, interpretato e basato su concetti del linguaggio Scheme e della sintassi di Java. Nel giro di pochi anni, JavaScript divenne uno standard del web, adottato da tutti i principali browser e poi formalizzato come ECMAScript dal consorzio ECMA International. L’era Mozilla Dopo la fusione di Netscape con AOL, Eich continuò a lavorare sul progetto Mozilla, un’iniziativa open source nata per creare un browser libero e indipendente. Nel 2003 fu tra i fondatori della Mozilla Foundation, che avrebbe poi dato vita a Firefox, uno dei browser più popolari e apprezzati per la sua attenzione alla privacy e alla libertà dell’utente. Nel 2014 Eich fu nominato CEO di Mozilla, ma la sua permanenza durò solo pochi giorni a causa di polemiche legate a una sua donazione politica del 2008. Dopo le dimissioni, si allontanò temporaneamente dai riflettori, per poi tornare con un nuovo progetto che avrebbe combinato tecnologia blockchain e navigazione web. Brave e la rivoluzione della privacy Nel 2015 Eich fondò Brave Software, l’azienda dietro il browser Brave. L’obiettivo era ambizioso: creare un browser veloce, sicuro e attento alla privacy, capace di bloccare di default la pubblicità invasiva e i tracciatori. Allo stesso tempo, Brave proponeva un nuovo modello economico basato sulla criptovaluta Basic Attention Token (BAT), che consente agli utenti di essere ricompensati per l’attenzione prestata agli annunci pubblicitari. Brave rappresenta una risposta concreta ai problemi di privacy e sostenibilità economica del web moderno, incarnando la visione di Eich di un internet più equo e rispettoso dell’utente. Eredità e impatto Il contributo di Brendan Eich va ben oltre la creazione di un linguaggio di programmazione: ha influenzato profondamente la struttura stessa del web. JavaScript è oggi la base dello sviluppo front-end, presente in milioni di siti e applicazioni. Allo stesso tempo, attraverso Mozilla e Brave, Eich ha promosso un’idea di internet aperto, trasparente e orientato alla libertà individuale. In definitiva, Brendan Eich è una figura complessa e visionaria: un innovatore tecnico, un sostenitore dell’open source e un imprenditore che continua a ridefinire i confini del web.
Autore: by Antonello Camilotto 2 ottobre 2025
Il termine data breach è ormai entrato nel linguaggio comune, spesso associato a scenari catastrofici e notizie di cronaca legate alla perdita o al furto di dati sensibili. Tuttavia, intorno a questo fenomeno circolano ancora molti luoghi comuni che rischiano di far abbassare la guardia o, al contrario, di alimentare panico ingiustificato. Facciamo chiarezza, sfatando alcuni miti diffusi. Mito 1: “Un data breach riguarda solo le grandi aziende” La realtà è opposta: anche le piccole e medie imprese sono bersaglio frequente di attacchi informatici. Spesso, anzi, risultano più vulnerabili perché non dispongono delle stesse risorse per la sicurezza informatica di una multinazionale. Nessuna organizzazione è troppo piccola per essere presa di mira: i criminali cercano opportunità, non dimensioni. Mito 2: “I data breach avvengono solo dall’esterno” Non sempre le violazioni derivano da hacker esterni. Una parte significativa dei data breach è dovuta a errori interni, negligenze o comportamenti scorretti da parte di dipendenti e collaboratori. Anche una semplice e-mail inviata al destinatario sbagliato può costituire un data breach. Mito 3: “Se i dati non sono sensibili, non c’è pericolo” Ogni informazione ha valore. Anche dati apparentemente innocui, come indirizzi e-mail o numeri di telefono, possono essere utilizzati per campagne di phishing, furto di identità o social engineering. Minimizzare l’importanza delle informazioni può favorire l’esposizione a rischi seri. Mito 4: “Un data breach si risolve con la tecnologia” Gli strumenti tecnologici sono indispensabili, ma da soli non bastano. La sicurezza è anche una questione di processi, formazione del personale e cultura aziendale. La prevenzione richiede un approccio integrato che includa procedure chiare, consapevolezza degli utenti e piani di risposta agli incidenti. Mito 5: “Se non si parla del problema, sparisce” Ignorare o sottovalutare un data breach è un errore grave. La normativa, come il GDPR in Europa, impone obblighi stringenti in materia di notifica e gestione delle violazioni. Tentare di nascondere un incidente può comportare sanzioni pesanti e danni reputazionali difficili da recuperare. I data breach non sono eventi rari né circoscritti a contesti specifici: rappresentano una minaccia concreta per qualsiasi realtà, indipendentemente dalla dimensione o dal settore. Per difendersi è necessario superare i falsi miti, adottare un approccio consapevole e proattivo e considerare la sicurezza dei dati come una responsabilità condivisa da tutta l’organizzazione.
Autore: by Antonello Camilotto 2 ottobre 2025
Chi scrive ai comuni italiani, spesso non ci pensa: dietro ogni indirizzo di posta elettronica istituzionale c’è un fornitore di servizi che garantisce la consegna, la sicurezza e la gestione dei messaggi. Ma quali provider dominano davvero la corrispondenza digitale dei municipi del nostro Paese? Secondo un’analisi condotta su un campione rappresentativo di indirizzi istituzionali, il panorama è meno variegato di quanto ci si potrebbe aspettare. Gran parte delle amministrazioni si affida ancora a soluzioni tradizionali, spesso centralizzate a livello regionale o fornite da società pubbliche e partecipate. In prima linea ci sono infatti i servizi legati a Aruba, Microsoft e Google, che negli ultimi anni hanno guadagnato terreno anche grazie a convenzioni Consip e gare pubbliche. Non mancano però le eccezioni: alcuni comuni, soprattutto i più piccoli, utilizzano ancora provider locali o servizi gestiti da consorzi intercomunali, spesso legati a società informatiche regionali. Questa scelta, se da un lato garantisce vicinanza e assistenza personalizzata, dall’altro può tradursi in una minore capacità di aggiornamento tecnologico rispetto ai grandi player. Il tema non è secondario: l’adozione di un provider piuttosto che un altro influisce su sicurezza, interoperabilità e costi. Nel pieno delle politiche di digitalizzazione promosse dal PNRR e dall’AgID, la scelta del servizio di posta elettronica diventa anche un tassello strategico. In particolare, la PEC (Posta Elettronica Certificata), strumento fondamentale per le comunicazioni ufficiali, resta saldamente in mano ad Aruba e ad altri operatori italiani accreditati, in linea con la normativa nazionale ed europea. La fotografia che emerge è quindi quella di un’Italia a più velocità: grandi città e capoluoghi sempre più orientati verso infrastrutture cloud internazionali, piccoli comuni che faticano a staccarsi da provider storici e soluzioni su misura. La sfida, nei prossimi anni, sarà garantire a tutti i municipi un’infrastruttura sicura, efficiente e interoperabile, senza lasciare indietro nessuno.
Mostra Altri