Firma digitale: i miti da sfatare

by antonellocamilotto.com

Cos’è una firma digitale, se non una convenzione tecnologica che sostituisce una consolidata convenzione sociale? Questo passaggio, tuttavia, è ben più complesso di quanto non ci si possa immaginare perché, nonostante la bontà della soluzione tecnica adottata, è necessario altresì riscrivere il concetto di “firma” nell’immaginario collettivo.


La scarsa conoscenza di uno strumento innovativo come la firma digitale ha lasciato spazio ad una serie di falsi miti che a questo punto occorre sfatare e dimenticare.


Un nuovo tipo di firma

La parola “Firma”, che nella accezione comune implica un segno grafico sostitutivo di una identità, deriva dal latino “firmus” che significa fermo, solido, coerente, nonché leale, sicuro e affidabile. Ognuna di queste parole descrive in effetti le caratteristiche che la “firma” include nella propria posizione strumentale nella società: un tratto grafico elaborato e complesso che vuol certificare un contenuto ed il suo riconoscimento da parte di una specifica persona.

Il fatto che nei secoli la parola “firmus” sia stata legata ad elementi visibili (oggetti prima, sigilli poi, tratti grafici infine), rende ora complesso per molti metabolizzare il fatto che una soluzione elettronica possa tradurre in digitale quegli elementi di sicurezza, coerenza, affidabilità e robustezza che il concetto di “firmus” pretende.

Ed è così che al trasformarsi da strumento analogico a soluzione digitale, la firma si porta appresso una serie di convinzioni che rischiano di minare la consapevolezza collettiva su questo tipo di soluzione.


Cinque falsi miti da sfatare

Occorre pertanto alleggerire la firma digitale da una serie di falsi miti che (pur se apparentemente banali per chi ha già usato e compreso questo tipo di soluzione) rischiano di tenere lontani da questa opportunità gli utenti con minor abitudinarietà con le pratiche del digitale.

Falso mito n.1: una firma scansionata è una firma digitale
Questo è esattamente il tipo di convinzione che si porta appresso l’idea per cui la firma digitale altro non sia se non l’evoluzione grafica (in senso digitale) della tradizionale firma autografa. Una firma trasformata in immagine da uno scanner, in realtà, altro non è se non un insieme di bit privi di qualsivoglia significato. Il motivo è evidente: qualsiasi immagine può facilmente essere elaborata con software di editing: nessun file può essere considerato autentico se non attraverso soluzioni che siano del tutto differenti dalla mera identificazione grafica. Nessuna analisi grafologica potrebbe certificare la genuinità di una firma scansionata: è riproducibile all’infinito, senza elemento alcuno in grado di certificarne originalità, veridicità e riconducibilità ad una identità univoca.

Falso mito n.2: firma elettronica e firma digitale sono la stessa cosa
“Elettronica” e “Digitale” non sono sinonimi, soprattutto se in relazione al concetto di firma. La firma elettronica è infatti un macro-insieme all’interno del quale è compresa anche la firma digitale. Sta tutto nelle definizioni.

  • La Firma Elettronica è un insieme di dati che consente l’identificazione certa del firmatario: può essere semplice, avanzata o qualificata e sostituisce (con pieno valore legale) la tradizionale firma auto in presenza.
  • La Firma Digitale è invece così definita dal Codice dell’Amministrazione Digitale (CAD): “un particolare tipo di firma qualificata basata su un sistema di chiavi crittografiche, una pubblica e una privata, correlate tra loro, che consente al titolare di firma elettronica tramite la chiave privata e a un soggetto terzo tramite la chiave pubblica, rispettivamente, di rendere manifesta e di verificare la provenienza e l’integrità di un documento informatico o di un insieme di documenti informatici”. Un requisito fondamentale della Firma Digitale è pertanto la crittografia a chiavi asimmetriche.


Le definizioni chiariscono perché “Firma Elettronica” e “Firma Digitale” siano nomi che non possono e non debbono essere confusi o mutuamente sostituiti, poiché identificano entità differenti ed implicano una importante separazione funzionale, soprattutto in termini legali.

Falso mito n.3: la firma digitale non ha valore legale
E invece ha valore eccome. La firma digitale è pienamente riconosciuta in virtù di protocolli che chiariscono in modo inoppugnabile la bontà tecnica di questa soluzione e l’identificazione certa del firmatario. Una firma digitale, dunque, ha validità piena e, se apposta su di un documento, ne certifica in toto la conoscenza e l’aderenza da parte del firmatario. Apporre una firma digitale su di un documento implica pertanto l’accettazione dello stesso, esattamente al pari di una firma autografa tradizionale stipulata “a mano” su carta.

Falso mito n.4: la firma digitale ha la forma di una firma tradizionale

La firma digitale assolve le medesime funzioni di una firma autografa, ma non ne condivide al tempo stesso la forma: la firma digitale non è dunque giocoforza contraddistinta da un segno grafico che esplicita nome e cognome del firmatario - sebbene sia possibile utilizzare immagini ad hoc che simulano la firma autografa per dare corpo e visibilità alla firma stessa.

Un documento con firma digitale non deve pertanto giocoforza concludersi dal punto di vista grafico con una firma tradizionale: la firma digitale è di per sé invisibile poiché identificabile soltanto in una serie di metadati invece che in un’icona fatta di inchiostro, linee e manualità.

Falso mito n.5: la firma digitale va posta in presenza
C’è una differenza sostanziale tra una firma digitale e la tradizionale firma “a mano”: mentre la seconda può essere falsificabile, la prima è invece unica e certa in modo inoppugnabile. Mentre la firma “a mano” va dunque fatta preferibilmente in presenza (per i documenti più importanti sarà un testimone terzo a certificarne la bontà), la firma digitale può invece essere fatta in remoto senza la necessità di alcun certificatore.

Questa caratteristica è uno dei punti di forza più evidenti della firma digitale: la possibilità di porre firme da remoto, peraltro in modo molto semplice, consente di evitare trasferte e appuntamenti di compresenza, liberando ambo le parti dalla necessità di essere in un certo luogo ed in un dato momento con tutti i costi connessi e gli obblighi che tale circostanza impone.


© ๐—ฏ๐˜† ๐—”๐—ป๐˜๐—ผ๐—ป๐—ฒ๐—น๐—น๐—ผ ๐—–๐—ฎ๐—บ๐—ถ๐—น๐—ผ๐˜๐˜๐—ผ

Tutti i diritti riservati | All rights reserved

๏ปฟ

Informazioni Legali

I testi, le informazioni e gli altri dati pubblicati in questo sito nonché i link ad altri siti presenti sul web hanno esclusivamente scopo informativo e non assumono alcun carattere di ufficialità.

Non si assume alcuna responsabilità per eventuali errori od omissioni di qualsiasi tipo e per qualunque tipo di danno diretto, indiretto o accidentale derivante dalla lettura o dall'impiego delle informazioni pubblicate, o di qualsiasi forma di contenuto presente nel sito o per l'accesso o l'uso del materiale contenuto in altri siti.


Autore: by Antonello Camilotto 3 novembre 2025
Adrián Alfonso Lamo Atwood, conosciuto come Adrian Lamo, nacque il 20 febbraio 1981 a Malden, nel Massachusetts. Cresciuto tra una curiosità precoce per la tecnologia e un profondo spirito indipendente, fin da giovane mostrò un’inclinazione naturale verso i computer e la programmazione. Il suo primo contatto con l’informatica avvenne grazie a un Commodore 64, con cui iniziò a sperimentare piccoli programmi e modifiche ai videogiochi che amava. Dopo aver frequentato il liceo a San Francisco, abbandonò gli studi in seguito a diversi contrasti con i docenti. Tentò poi un percorso in giornalismo all’American River College di Carmichael, in California, ma la sua vera formazione avvenne da autodidatta, nel mondo in continua evoluzione delle reti informatiche. Gli inizi e la scoperta dell’hacking Lamo iniziò la sua avventura nell’hacking con curiosità più che con intenzioni distruttive. Da adolescente si divertiva a manipolare giochi, creare virus su floppy disk e cimentarsi nel phreaking — l’arte di sfruttare le linee telefoniche per effettuare chiamate gratuite o restare anonimo. Queste prime esperienze lo portarono a comprendere il funzionamento profondo dei sistemi di comunicazione e ad appassionarsi sempre più al mondo nascosto dietro la rete. Negli anni ’90, con la diffusione di Internet, Adrian scoprì una nuova frontiera: il web aziendale. Spinto dal desiderio di esplorare e di comprendere, iniziò a testare i limiti di sicurezza di grandi compagnie, trovando vulnerabilità che spesso lasciavano attoniti i responsabili informatici. Non lo muoveva il desiderio di profitto, ma una sfida intellettuale. Faceva parte di quella che lui stesso definiva la “cultura hacker”: una comunità di menti curiose, convinte che la conoscenza dovesse essere libera e che ogni sistema potesse essere migliorato solo mettendolo alla prova. Il vagabondo digitale Per due anni Lamo visse come un nomade tecnologico. Viaggiava con uno zaino e un computer portatile, dormiva in edifici abbandonati o sui divani degli amici, e si collegava a Internet dalle biblioteche pubbliche o dai centri Kinko. Dalla Biblioteca Pubblica di San Francisco, trascorreva intere giornate ai terminali, connettendosi via telnet a sistemi remoti e affinando le proprie capacità. Questa vita errante lo rese una figura quasi leggendaria nella scena hacker: un giovane senza fissa dimora che riusciva, con mezzi minimi, a violare i sistemi informatici delle più grandi aziende del mondo. La fama e gli attacchi celebri All’inizio degli anni 2000, Lamo divenne noto per una serie di intrusioni in sistemi di alto profilo. Tra i suoi bersagli comparvero AOL, Yahoo, Microsoft e persino il New York Times. Il suo intento, come avrebbe più volte dichiarato, era quello di dimostrare quanto fosse fragile la sicurezza informatica anche nei colossi della comunicazione e della tecnologia. Nel 2002 il suo nome fece il giro del mondo: riuscì a penetrare nella rete interna del New York Times, ottenendo credenziali di amministratore e accesso a un database contenente i dati di oltre tremila collaboratori. Per ironia, si aggiunse egli stesso alla lista degli esperti del giornale come “esperto di hacking”. Una figura controversa La comunità hacker si divise sul suo conto. Per alcuni era un idealista che cercava di mettere in guardia le aziende dalle proprie debolezze; per altri, un traditore delle regole non scritte del mondo underground. Questa percezione divenne ancora più complessa negli anni successivi, quando venne etichettato da alcuni come “spia” per aver collaborato con le autorità in casi di rilievo. La morte e l’eredità Adrian Lamo morì il 14 marzo 2018, a soli 37 anni, in Kansas. La notizia fu diffusa dal padre attraverso un post su Facebook. Le circostanze della sua morte rimasero in parte avvolte nel mistero, e persino il medico legale non poté escludere completamente l’ipotesi di un atto violento. Nonostante la sua breve vita, Lamo lasciò un’impronta duratura nella storia dell’hacking. Era un esploratore dei limiti digitali, un anticonformista che cercava di dimostrare quanto fosse necessario prendere sul serio la sicurezza informatica. Figura controversa e affascinante, Adrian Lamo rimane simbolo di un’epoca in cui la curiosità e il desiderio di conoscenza potevano ancora cambiare il mondo – un hacker errante che trasformò la propria inquietudine in una sfida costante al sistema.
Autore: by Antonello Camilotto 3 novembre 2025
Nell’epoca delle conversazioni con i chatbot, delle traduzioni automatiche e dei testi generati dai modelli linguistici, sorge una domanda affascinante: qual è la lingua che l’intelligenza artificiale comprende meglio? ๏ปฟ Dietro la patina di neutralità delle macchine si nasconde infatti una realtà più complessa. I sistemi di intelligenza artificiale, anche i più avanzati, non sono “poliglotti” nel senso umano del termine. La loro competenza linguistica dipende dalla quantità e dalla qualità dei dati con cui vengono addestrati. E in questa corsa al predominio linguistico, l’inglese resta nettamente in testa. La ragione è semplice: la maggior parte dei contenuti digitali – articoli, siti web, ricerche accademiche, conversazioni online – è scritta in inglese. Ciò fornisce ai modelli un’enorme base di conoscenze, permettendo loro di affinare sfumature grammaticali, lessicali e culturali con una precisione che altre lingue non possono ancora vantare. Le lingue europee più diffuse, come il francese, lo spagnolo e il tedesco, beneficiano a loro volta di un’ampia presenza nei dataset globali, seppure con un livello di accuratezza leggermente inferiore. Diverso il destino per idiomi meno rappresentati o dotati di strutture grammaticali complesse, come l’ungherese, il basco o molte lingue africane e asiatiche: in questi casi, le intelligenze artificiali faticano a cogliere contesti, proverbi e sfumature culturali. Negli ultimi anni, tuttavia, diversi centri di ricerca stanno lavorando per colmare il divario linguistico. L’obiettivo è quello di creare modelli più equi e realmente multilingue, capaci di comprendere e valorizzare la diversità linguistica del pianeta. Iniziative come i progetti open source di traduzione automatica e le collaborazioni tra università e aziende tecnologiche stanno gettando le basi per una nuova era del linguaggio artificiale. La sfida, insomma, non è solo tecnologica ma anche culturale: un’IA che comprenda tutte le lingue, comprese quelle parlate da piccole comunità, significherebbe un passo avanti verso un mondo digitale più inclusivo e democratico.
Autore: by Antonello Camilotto 3 novembre 2025
I codici QR sono diventati strumenti di uso quotidiano: li troviamo nei ristoranti per consultare i menu, nei negozi per ottenere sconti, nei musei per approfondire le opere, fino ai documenti ufficiali e ai biglietti elettronici. Tuttavia, dietro la loro apparente comodità, si nasconde anche un rischio: i QR code possono essere manipolati per indirizzare l’utente verso siti pericolosi o truffe online. Ecco quindi alcuni suggerimenti per capire se un QR code è affidabile e come proteggersi. 1. Verificare la fonte Il primo passo è chiedersi dove si trova il QR code. Se è su un sito ufficiale, un documento aziendale o un prodotto riconosciuto, è probabile che sia sicuro. Se invece si trova su un volantino anonimo, un manifesto pubblico o un messaggio ricevuto via e-mail o chat, è bene diffidare: chiunque può stampare un QR code e applicarlo sopra uno autentico. 2. Controllare l’aspetto del codice Un QR code manomesso può avere segni evidenti, come un’etichetta sovrapposta o un adesivo non perfettamente allineato. Nei luoghi pubblici, come fermate degli autobus o vetrine, vale la pena verificare che il codice non sembri incollato sopra un altro o alterato. 3. Usare un’app di scansione sicura Molti smartphone moderni integrano la scansione dei QR code nella fotocamera, ma esistono anche applicazioni che mostrano l’anteprima del link prima di aprirlo. Questo permette di vedere l’indirizzo web e capire se è attendibile. Diffidate dei link abbreviati (come bit.ly o tinyurl), perché nascondono la destinazione reale. 4. Controllare l’indirizzo web Dopo la scansione, osservate attentamente il dominio: deve corrispondere al nome dell’ente o dell’azienda ufficiale. Un piccolo errore di ortografia (come “gooogle.com” o “p0stag.it”) può indicare un sito fraudolento. In caso di dubbi, meglio non cliccare. 5. Attenzione alle richieste sospette Un QR code non dovrebbe mai chiedere dati personali, bancari o password. Se dopo la scansione compare un modulo di login o una richiesta di pagamento, è bene fermarsi subito e verificare la legittimità della pagina. 6. Utilizzare un antivirus aggiornato Molti software di sicurezza per smartphone e computer possono bloccare automaticamente i siti pericolosi aperti da QR code. Avere un antivirus aggiornato è quindi un’ulteriore barriera contro le truffe digitali. I QR code sono uno strumento utile e veloce, ma come ogni tecnologia vanno utilizzati con consapevolezza. Prima di scansionare, è sempre bene chiedersi: mi fido della fonte? Un piccolo controllo in più può evitare grandi problemi di sicurezza.
Autore: by Antonello Camilotto 3 novembre 2025
Gli attacchi informatici evolvono con una rapidità impressionante. Tra le minacce più subdole e difficili da individuare spiccano gli attacchi zero-click, una categoria di exploit che non richiede alcuna interazione da parte dell’utente per compromettere un dispositivo o un account. Queste tecniche rappresentano un pericolo crescente, soprattutto per la loro capacità di passare inosservate anche ai sistemi di sicurezza più sofisticati. Che cosa sono gli attacchi zero-click Un attacco zero-click è una forma di intrusione che sfrutta vulnerabilità presenti in applicazioni o sistemi operativi, senza richiedere che la vittima compia alcuna azione, come cliccare su un link o aprire un allegato. Basta, ad esempio, ricevere un messaggio, una chiamata o una notifica per attivare l’exploit. Questo tipo di attacco è particolarmente insidioso perché elimina l’anello debole più comune della sicurezza informatica: l’errore umano. Come funzionano Gli attacchi zero-click si basano su vulnerabilità di tipo zero-day, cioè difetti di sicurezza sconosciuti ai produttori del software al momento dell’attacco. Gli aggressori individuano e sfruttano questi punti deboli per eseguire codice malevolo sul dispositivo della vittima. In molti casi, l’attacco avviene attraverso servizi di messaggistica o comunicazione come iMessage, WhatsApp o MMS: basta ricevere un messaggio contenente dati strutturati in modo anomalo per attivare il codice exploit. Una volta compromesso il sistema, l’aggressore può ottenere accesso completo al dispositivo, alle conversazioni, ai file, ai contatti e persino alla fotocamera e al microfono. Esempi noti Uno dei casi più noti è quello legato al software di sorveglianza Pegasus, sviluppato dalla società israeliana NSO Group. Pegasus è stato utilizzato in diversi contesti per spiare giornalisti, attivisti e politici, sfruttando vulnerabilità zero-click di applicazioni come iMessage. Anche se Apple e altri produttori hanno poi rilasciato patch correttive, questi episodi hanno mostrato quanto possano essere pericolosi gli attacchi di questo tipo. Perché sono difficili da individuare Gli attacchi zero-click non lasciano quasi tracce evidenti. Poiché non richiedono interazione, non esistono log di clic o comportamenti sospetti che possano far scattare un allarme. Spesso solo un’analisi forense approfondita del dispositivo può rivelare l’avvenuta compromissione. Questo li rende strumenti ideali per operazioni di spionaggio e sorveglianza mirata. Come proteggersi Anche se nessuna misura è completamente efficace contro le vulnerabilità sconosciute, è possibile ridurre il rischio seguendo alcune buone pratiche: mantenere sempre aggiornato il sistema operativo e le applicazioni; installare solo app provenienti da fonti ufficiali; limitare i permessi delle app, soprattutto l’accesso a fotocamera, microfono e messaggi; utilizzare sistemi di sicurezza avanzati e soluzioni di monitoraggio comportamentale; essere consapevoli che anche un dispositivo apparentemente “sicuro” può essere vulnerabile. Gli attacchi zero-click rappresentano una delle frontiere più avanzate e pericolose del cybercrimine. Il loro carattere invisibile e l’assenza di interazione da parte dell’utente li rendono difficili da prevenire e individuare. La sfida per il futuro sarà quindi quella di sviluppare sistemi in grado di rilevare comportamenti anomali a livello profondo del software, unendo tecniche di intelligenza artificiale e sicurezza proattiva per contrastare minacce che non danno neppure il tempo di un clic.
Autore: by Antonello Camilotto 2 novembre 2025
Esiste un progetto che può essere definito come un “archivio universale dei codici sorgente”: è il Software Heritage. Che cos’è Software Heritage Software Heritage è un’organizzazione senza scopo di lucro che ha come missione «raccogliere, preservare e condividere» tutto il software disponibile pubblicamente in forma di codice sorgente. Il progetto è stato lanciato dall’Inria (Istituto nazionale francese per la ricerca in informatica e matematica applicata) nel 2016, in collaborazione con l’UNESCO e altri partner. L’archivio raccoglie codice sorgente da piattaforme di sviluppo e repository pubblici (es. GitHub, GitLab) e package repository (es. npm, PyPI) per preservare la storia del software. Perché “universale” e perché è importante “Universale” nel senso che mira a conservare tutto il codice sorgente pubblico, indipendentemente dal linguaggio o dalla piattaforma. È importante perché il codice sorgente è parte integrante del patrimonio culturale e tecnico: sapere come è stato scritto, cosa fa e come si evolve, è utile per la ricerca, la riproducibilità scientifica, la trasparenza, la sicurezza. In particolare, offre una base per lo “studio dei Big Code” (ossia analizzare su larga scala i codici sorgente) e per applicazioni quali l’intelligenza artificiale, la conservazione digitale, la tracciabilità. Alcuni numeri e caratteristiche salienti L’archivio contiene decine di miliardi di file di codice sorgente, provenienti da centinaia di milioni di progetti software. Ogni entità (file, directory, commit, progetto) ha un identificatore univoco, lo “SWHID” (Software Heritage ID), che aiuta a referenziare e tracciare il codice. In Italia, il ENEA (Centro Ricerche di Bologna) ospita uno dei mirror istituzionali europei dell’archivio, consentendo la ridondanza e la conservazione locale. A chi serve e come può essere utilizzato Ricercatori: per studi storici sul software, sull’evoluzione dei linguaggi, delle librerie, degli algoritmi. Industria / Open Source: per garantire che del codice importante non vada perso, per facilitare la riโ€utilizzazione, per motivi di audit o sicurezza. Educazione: studenti o professionisti possono esplorare codice storico, versioni, commit, per imparare. Policy / Strategia nazionale: dato che il software è infrastruttura critica, conservarlo apre questioni di autonomia digitale e resilienza. Limitazioni e note pratiche L’archivio comunque prende codice che è pubblicamente disponibile; non tutti i software proprietari chiusi o privati saranno inclusi. Anche se “universale” nell’intento, ci sono limiti tecnici, legali e finanziari a quanto possa effettivamente coprire. L’uso richiede comunque familiarità con il concetto di repository, versioning, etc; non è solo “scarica e usa” come libreria comune. Per un uso pratico, serve verificare licenze, condizioni di riuso del codice contenuto — l’archivio conserva il codice, ma non sempre cambia le licenze originali.
Autore: by Antonello Camilotto 1 novembre 2025
Negli anni ’90 Internet cominciava a entrare nelle case e negli uffici, ma era ancora un territorio nuovo e misterioso. Oggi bastano pochi secondi per essere online, ma trent’anni fa collegarsi significava affrontare una vera e propria avventura tecnologica, fatta di modem rumorosi, linee telefoniche occupate e pazienza infinita. I primi passi nel mondo digitale All’inizio degli anni ’90, in Italia come nel resto del mondo, la rete non era ancora accessibile a tutti. Le università e alcune grandi aziende erano collegate tramite reti accademiche o interne, ma per il pubblico arrivarono i primi provider commerciali: società che offrivano, dietro pagamento di un abbonamento, la possibilità di “entrare” in Internet. Tra i pionieri italiani si ricordano nomi come MC-link, Video On Line, InWind, Tiscali e Tin.it. Erano gli anni in cui gli utenti scoprivano la posta elettronica, i primi forum e le chat IRC, strumenti che avrebbero cambiato per sempre il modo di comunicare. Il rito del modem e il suono della connessione Per collegarsi serviva un computer con modem analogico, di solito a 14.4 o 28.8 kbps, che si collegava alla presa del telefono. La connessione era “dial-up”: il modem componeva un numero, stabiliva la comunicazione e solo allora si poteva navigare. Il tipico suono gracchiante del modem che tentava di agganciarsi alla linea è rimasto un simbolo indelebile di quell’epoca. Navigare significava anche occupare la linea telefonica: durante la connessione nessuno poteva fare o ricevere chiamate, e ogni minuto aveva un costo. Per molti, la sera tardi o la notte erano gli unici momenti “sicuri” per esplorare la rete senza rischiare la bolletta salata. Contenuti e comunità: un Internet più piccolo, ma più intimo I siti web degli anni ’90 erano semplici, leggeri e spesso amatoriali. Le immagini si caricavano lentamente, e le pagine erano dominate dal testo. Non esistevano i social network: le comunità online si ritrovavano nei newsgroup, nelle mailing list o nelle chat IRC, dove si parlava di tutto, dall’informatica alla musica, dal cinema ai giochi. Era un Internet più ingenuo, ma anche più partecipativo: chi sapeva un po’ di HTML poteva creare una pagina personale su Geocities o Tripod e contribuire direttamente alla crescita del web. L’evoluzione verso la banda larga Con la fine degli anni ’90 arrivarono le connessioni ISDN e poi l’ADSL, che permisero di restare online senza bloccare il telefono e a velocità impensabili fino a poco tempo prima. Da quel momento Internet smise di essere un’esperienza “da pionieri” e cominciò a diventare parte della vita quotidiana. Un’epoca che ha fatto scuola Oggi Internet è ovunque, ma chi ha vissuto gli anni ’90 ricorda quella sensazione di scoperta e di libertà dei primi collegamenti. Ogni pagina caricata era una conquista, ogni e-mail un piccolo miracolo tecnologico. I primi provider e gli utenti di allora hanno gettato le basi del mondo connesso che conosciamo oggi.
Mostra Altri