Internet via Satellite: Una Rivoluzione per la Connettività Globale

by Antonello Camilotto

Negli ultimi decenni, Internet è diventato un servizio essenziale per la vita quotidiana di milioni di persone in tutto il mondo. Tuttavia, esistono ancora vaste aree geografiche, soprattutto in zone rurali e remote, che non sono coperte dalle tradizionali infrastrutture di rete. In questo contesto, Internet via satellite ha iniziato a giocare un ruolo cruciale nel ridurre il divario digitale, permettendo l'accesso alla rete globale anche dove le tecnologie tradizionali non arrivano.


Cos'è Internet via satellite?


Internet via satellite è una tecnologia che consente di fornire connettività a Internet tramite satelliti in orbita intorno alla Terra. Al contrario delle connessioni via cavo o fibra ottica, che richiedono infrastrutture fisiche costose e difficili da installare, Internet satellitare si basa sulla comunicazione tra un'antenna parabolica installata presso l'utente e un satellite che trasmette i dati. Questo permette di portare Internet ovunque, dalle regioni montuose più impervie ai deserti e alle aree rurali più isolate.


Come funziona?


Il funzionamento di Internet via satellite è relativamente semplice. Un utente necessita di un'antenna parabolica e di un modem satellitare. I dati viaggiano dal modem dell'utente verso l'antenna, che li trasmette al satellite in orbita. Da lì, il satellite invia i dati a una stazione terrestre (detta "gateway"), la quale è collegata direttamente alla rete Internet globale. Lo stesso processo avviene in senso opposto quando l'utente riceve i dati, con un flusso continuo tra il satellite e la stazione terrestre.


Tipologie di satelliti


I satelliti utilizzati per fornire connettività Internet si dividono principalmente in tre categorie, a seconda della loro altitudine orbitale:


1. Satelliti in orbita geostazionaria (GEO): Si trovano a circa 36.000 km dalla Terra e orbitano in sincronia con la rotazione terrestre. Questo permette loro di rimanere fissi rispetto a un punto sulla superficie terrestre. Tuttavia, a causa della grande distanza, la latenza (il ritardo di trasmissione) può essere significativa, con tempi di risposta che possono superare i 600 millisecondi.


2. Satelliti in orbita media (MEO): Si trovano a circa 8.000-12.000 km dalla Terra. Offrono un compromesso tra la copertura geografica e la latenza, con tempi di risposta più bassi rispetto ai satelliti GEO, ma con la necessità di una costellazione di satelliti per garantire una copertura continua.


3. Satelliti in orbita bassa (LEO): Operano a una distanza tra i 500 e i 2.000 km dalla Terra. Questo riduce drasticamente la latenza, con tempi di risposta inferiori a 50 millisecondi, simili a quelli delle connessioni terrestri. Tuttavia, i satelliti LEO coprono una porzione limitata della Terra e richiedono una rete complessa di satelliti in orbita per garantire una copertura globale continua. Progetti come Starlink di SpaceX e OneWeb utilizzano questo tipo di satelliti per offrire Internet a bassa latenza.


Vantaggi di Internet via satellite


1. Copertura globale: Uno dei principali vantaggi di Internet via satellite è la sua capacità di fornire connettività in luoghi inaccessibili per le infrastrutture tradizionali. Questo è particolarmente utile in regioni rurali o remote dove la posa di cavi in fibra ottica è impraticabile o troppo costosa.


2. Facilità di installazione: A differenza delle infrastrutture terrestri, che richiedono lavori di scavo e installazione di cavi, Internet via satellite necessita solo di un'antenna parabolica e di un modem. Questo rende la connessione via satellite una soluzione più veloce e meno costosa da implementare in determinate aree.


3. Indipendenza dalle infrastrutture locali: Le reti satellitari non dipendono dalle infrastrutture fisiche locali, il che le rende meno vulnerabili a guasti o interruzioni causate da eventi naturali o conflitti.


Svantaggi di Internet via satellite


1. Latenza: Come accennato, la latenza è un problema particolarmente rilevante per i satelliti GEO e, in misura minore, per i satelliti MEO. Per applicazioni che richiedono tempi di risposta rapidi, come i videogiochi online o le videochiamate in tempo reale, questo può rappresentare un limite.


2. Costi: Nonostante i costi di installazione siano generalmente inferiori rispetto alla posa di infrastrutture terrestri in aree remote, le connessioni via satellite possono essere più costose per l'utente finale. Questo dipende principalmente dal tipo di servizio richiesto e dalla tecnologia satellitare utilizzata.


3. Condizioni meteorologiche: Le connessioni satellitari possono essere influenzate dalle condizioni atmosferiche. Pioggia, neve o tempeste possono ridurre la qualità del segnale, portando a interruzioni temporanee del servizio.


Prospettive future


Il futuro di Internet via satellite sembra promettente, soprattutto con l'ascesa di progetti ambiziosi come Starlink di SpaceX, Kuiper di Amazon e la costellazione di OneWeb. Questi progetti si basano su reti di satelliti LEO per fornire connettività a bassa latenza e alta velocità su scala globale. L'implementazione di queste tecnologie potrebbe cambiare radicalmente il panorama della connettività, rendendo Internet accessibile anche nei luoghi più remoti del pianeta.


Inoltre, con l'aumento della domanda di Internet nelle aree rurali e il crescente utilizzo di dispositivi IoT (Internet of Things), il ruolo delle reti satellitari diventerà sempre più centrale per sostenere la crescita digitale globale.


Internet via satellite rappresenta una delle soluzioni più promettenti per ridurre il divario digitale e portare connettività nelle aree più isolate e difficili da raggiungere. Sebbene esistano ancora sfide da superare, come la latenza e i costi, l'evoluzione tecnologica, in particolare grazie all'adozione di satelliti in orbita bassa (LEO), sta rapidamente migliorando le prestazioni e l'accessibilità di questa tecnologia.


Progetti globali ambiziosi come Starlink e Kuiper stanno già dimostrando il potenziale di una connessione satellitare veloce e stabile, offrendo un'alternativa valida alle reti terrestri, specialmente in regioni del mondo non coperte da reti tradizionali. Con l'aumento della domanda di Internet in contesti rurali e lo sviluppo dell'economia digitale, è probabile che Internet via satellite giochi un ruolo sempre più significativo nel futuro della connettività globale.


In un mondo sempre più interconnesso, la capacità di garantire un accesso a Internet affidabile e universale è cruciale per promuovere l'uguaglianza digitale, lo sviluppo economico e l'inclusione sociale. Grazie alla connessione via satellite, la visione di un mondo in cui tutti possono accedere a Internet, indipendentemente dalla loro posizione geografica, diventa ogni giorno più vicina alla realtà.


© 𝗯𝘆 𝗔𝗻𝘁𝗼𝗻𝗲𝗹𝗹𝗼 𝗖𝗮𝗺𝗶𝗹𝗼𝘁𝘁𝗼

Tutti i diritti riservati | All rights reserved



Informazioni Legali

I testi, le informazioni e gli altri dati pubblicati in questo sito nonché i link ad altri siti presenti sul web hanno esclusivamente scopo informativo e non assumono alcun carattere di ufficialità.

Non si assume alcuna responsabilità per eventuali errori od omissioni di qualsiasi tipo e per qualunque tipo di danno diretto, indiretto o accidentale derivante dalla lettura o dall'impiego delle informazioni pubblicate, o di qualsiasi forma di contenuto presente nel sito o per l'accesso o l'uso del materiale contenuto in altri siti.


Autore: by Antonello Camilotto 3 novembre 2025
Adrián Alfonso Lamo Atwood, conosciuto come Adrian Lamo, nacque il 20 febbraio 1981 a Malden, nel Massachusetts. Cresciuto tra una curiosità precoce per la tecnologia e un profondo spirito indipendente, fin da giovane mostrò un’inclinazione naturale verso i computer e la programmazione. Il suo primo contatto con l’informatica avvenne grazie a un Commodore 64, con cui iniziò a sperimentare piccoli programmi e modifiche ai videogiochi che amava. Dopo aver frequentato il liceo a San Francisco, abbandonò gli studi in seguito a diversi contrasti con i docenti. Tentò poi un percorso in giornalismo all’American River College di Carmichael, in California, ma la sua vera formazione avvenne da autodidatta, nel mondo in continua evoluzione delle reti informatiche. Gli inizi e la scoperta dell’hacking Lamo iniziò la sua avventura nell’hacking con curiosità più che con intenzioni distruttive. Da adolescente si divertiva a manipolare giochi, creare virus su floppy disk e cimentarsi nel phreaking — l’arte di sfruttare le linee telefoniche per effettuare chiamate gratuite o restare anonimo. Queste prime esperienze lo portarono a comprendere il funzionamento profondo dei sistemi di comunicazione e ad appassionarsi sempre più al mondo nascosto dietro la rete. Negli anni ’90, con la diffusione di Internet, Adrian scoprì una nuova frontiera: il web aziendale. Spinto dal desiderio di esplorare e di comprendere, iniziò a testare i limiti di sicurezza di grandi compagnie, trovando vulnerabilità che spesso lasciavano attoniti i responsabili informatici. Non lo muoveva il desiderio di profitto, ma una sfida intellettuale. Faceva parte di quella che lui stesso definiva la “cultura hacker”: una comunità di menti curiose, convinte che la conoscenza dovesse essere libera e che ogni sistema potesse essere migliorato solo mettendolo alla prova. Il vagabondo digitale Per due anni Lamo visse come un nomade tecnologico. Viaggiava con uno zaino e un computer portatile, dormiva in edifici abbandonati o sui divani degli amici, e si collegava a Internet dalle biblioteche pubbliche o dai centri Kinko. Dalla Biblioteca Pubblica di San Francisco, trascorreva intere giornate ai terminali, connettendosi via telnet a sistemi remoti e affinando le proprie capacità. Questa vita errante lo rese una figura quasi leggendaria nella scena hacker: un giovane senza fissa dimora che riusciva, con mezzi minimi, a violare i sistemi informatici delle più grandi aziende del mondo. La fama e gli attacchi celebri All’inizio degli anni 2000, Lamo divenne noto per una serie di intrusioni in sistemi di alto profilo. Tra i suoi bersagli comparvero AOL, Yahoo, Microsoft e persino il New York Times. Il suo intento, come avrebbe più volte dichiarato, era quello di dimostrare quanto fosse fragile la sicurezza informatica anche nei colossi della comunicazione e della tecnologia. Nel 2002 il suo nome fece il giro del mondo: riuscì a penetrare nella rete interna del New York Times, ottenendo credenziali di amministratore e accesso a un database contenente i dati di oltre tremila collaboratori. Per ironia, si aggiunse egli stesso alla lista degli esperti del giornale come “esperto di hacking”. Una figura controversa La comunità hacker si divise sul suo conto. Per alcuni era un idealista che cercava di mettere in guardia le aziende dalle proprie debolezze; per altri, un traditore delle regole non scritte del mondo underground. Questa percezione divenne ancora più complessa negli anni successivi, quando venne etichettato da alcuni come “spia” per aver collaborato con le autorità in casi di rilievo. La morte e l’eredità Adrian Lamo morì il 14 marzo 2018, a soli 37 anni, in Kansas. La notizia fu diffusa dal padre attraverso un post su Facebook. Le circostanze della sua morte rimasero in parte avvolte nel mistero, e persino il medico legale non poté escludere completamente l’ipotesi di un atto violento. Nonostante la sua breve vita, Lamo lasciò un’impronta duratura nella storia dell’hacking. Era un esploratore dei limiti digitali, un anticonformista che cercava di dimostrare quanto fosse necessario prendere sul serio la sicurezza informatica. Figura controversa e affascinante, Adrian Lamo rimane simbolo di un’epoca in cui la curiosità e il desiderio di conoscenza potevano ancora cambiare il mondo – un hacker errante che trasformò la propria inquietudine in una sfida costante al sistema.
Autore: by Antonello Camilotto 3 novembre 2025
Nell’epoca delle conversazioni con i chatbot, delle traduzioni automatiche e dei testi generati dai modelli linguistici, sorge una domanda affascinante: qual è la lingua che l’intelligenza artificiale comprende meglio?  Dietro la patina di neutralità delle macchine si nasconde infatti una realtà più complessa. I sistemi di intelligenza artificiale, anche i più avanzati, non sono “poliglotti” nel senso umano del termine. La loro competenza linguistica dipende dalla quantità e dalla qualità dei dati con cui vengono addestrati. E in questa corsa al predominio linguistico, l’inglese resta nettamente in testa. La ragione è semplice: la maggior parte dei contenuti digitali – articoli, siti web, ricerche accademiche, conversazioni online – è scritta in inglese. Ciò fornisce ai modelli un’enorme base di conoscenze, permettendo loro di affinare sfumature grammaticali, lessicali e culturali con una precisione che altre lingue non possono ancora vantare. Le lingue europee più diffuse, come il francese, lo spagnolo e il tedesco, beneficiano a loro volta di un’ampia presenza nei dataset globali, seppure con un livello di accuratezza leggermente inferiore. Diverso il destino per idiomi meno rappresentati o dotati di strutture grammaticali complesse, come l’ungherese, il basco o molte lingue africane e asiatiche: in questi casi, le intelligenze artificiali faticano a cogliere contesti, proverbi e sfumature culturali. Negli ultimi anni, tuttavia, diversi centri di ricerca stanno lavorando per colmare il divario linguistico. L’obiettivo è quello di creare modelli più equi e realmente multilingue, capaci di comprendere e valorizzare la diversità linguistica del pianeta. Iniziative come i progetti open source di traduzione automatica e le collaborazioni tra università e aziende tecnologiche stanno gettando le basi per una nuova era del linguaggio artificiale. La sfida, insomma, non è solo tecnologica ma anche culturale: un’IA che comprenda tutte le lingue, comprese quelle parlate da piccole comunità, significherebbe un passo avanti verso un mondo digitale più inclusivo e democratico.
Autore: by Antonello Camilotto 3 novembre 2025
I codici QR sono diventati strumenti di uso quotidiano: li troviamo nei ristoranti per consultare i menu, nei negozi per ottenere sconti, nei musei per approfondire le opere, fino ai documenti ufficiali e ai biglietti elettronici. Tuttavia, dietro la loro apparente comodità, si nasconde anche un rischio: i QR code possono essere manipolati per indirizzare l’utente verso siti pericolosi o truffe online. Ecco quindi alcuni suggerimenti per capire se un QR code è affidabile e come proteggersi. 1. Verificare la fonte Il primo passo è chiedersi dove si trova il QR code. Se è su un sito ufficiale, un documento aziendale o un prodotto riconosciuto, è probabile che sia sicuro. Se invece si trova su un volantino anonimo, un manifesto pubblico o un messaggio ricevuto via e-mail o chat, è bene diffidare: chiunque può stampare un QR code e applicarlo sopra uno autentico. 2. Controllare l’aspetto del codice Un QR code manomesso può avere segni evidenti, come un’etichetta sovrapposta o un adesivo non perfettamente allineato. Nei luoghi pubblici, come fermate degli autobus o vetrine, vale la pena verificare che il codice non sembri incollato sopra un altro o alterato. 3. Usare un’app di scansione sicura Molti smartphone moderni integrano la scansione dei QR code nella fotocamera, ma esistono anche applicazioni che mostrano l’anteprima del link prima di aprirlo. Questo permette di vedere l’indirizzo web e capire se è attendibile. Diffidate dei link abbreviati (come bit.ly o tinyurl), perché nascondono la destinazione reale. 4. Controllare l’indirizzo web Dopo la scansione, osservate attentamente il dominio: deve corrispondere al nome dell’ente o dell’azienda ufficiale. Un piccolo errore di ortografia (come “gooogle.com” o “p0stag.it”) può indicare un sito fraudolento. In caso di dubbi, meglio non cliccare. 5. Attenzione alle richieste sospette Un QR code non dovrebbe mai chiedere dati personali, bancari o password. Se dopo la scansione compare un modulo di login o una richiesta di pagamento, è bene fermarsi subito e verificare la legittimità della pagina. 6. Utilizzare un antivirus aggiornato Molti software di sicurezza per smartphone e computer possono bloccare automaticamente i siti pericolosi aperti da QR code. Avere un antivirus aggiornato è quindi un’ulteriore barriera contro le truffe digitali. I QR code sono uno strumento utile e veloce, ma come ogni tecnologia vanno utilizzati con consapevolezza. Prima di scansionare, è sempre bene chiedersi: mi fido della fonte? Un piccolo controllo in più può evitare grandi problemi di sicurezza.
Autore: by Antonello Camilotto 3 novembre 2025
Gli attacchi informatici evolvono con una rapidità impressionante. Tra le minacce più subdole e difficili da individuare spiccano gli attacchi zero-click, una categoria di exploit che non richiede alcuna interazione da parte dell’utente per compromettere un dispositivo o un account. Queste tecniche rappresentano un pericolo crescente, soprattutto per la loro capacità di passare inosservate anche ai sistemi di sicurezza più sofisticati. Che cosa sono gli attacchi zero-click Un attacco zero-click è una forma di intrusione che sfrutta vulnerabilità presenti in applicazioni o sistemi operativi, senza richiedere che la vittima compia alcuna azione, come cliccare su un link o aprire un allegato. Basta, ad esempio, ricevere un messaggio, una chiamata o una notifica per attivare l’exploit. Questo tipo di attacco è particolarmente insidioso perché elimina l’anello debole più comune della sicurezza informatica: l’errore umano. Come funzionano Gli attacchi zero-click si basano su vulnerabilità di tipo zero-day, cioè difetti di sicurezza sconosciuti ai produttori del software al momento dell’attacco. Gli aggressori individuano e sfruttano questi punti deboli per eseguire codice malevolo sul dispositivo della vittima. In molti casi, l’attacco avviene attraverso servizi di messaggistica o comunicazione come iMessage, WhatsApp o MMS: basta ricevere un messaggio contenente dati strutturati in modo anomalo per attivare il codice exploit. Una volta compromesso il sistema, l’aggressore può ottenere accesso completo al dispositivo, alle conversazioni, ai file, ai contatti e persino alla fotocamera e al microfono. Esempi noti Uno dei casi più noti è quello legato al software di sorveglianza Pegasus, sviluppato dalla società israeliana NSO Group. Pegasus è stato utilizzato in diversi contesti per spiare giornalisti, attivisti e politici, sfruttando vulnerabilità zero-click di applicazioni come iMessage. Anche se Apple e altri produttori hanno poi rilasciato patch correttive, questi episodi hanno mostrato quanto possano essere pericolosi gli attacchi di questo tipo. Perché sono difficili da individuare Gli attacchi zero-click non lasciano quasi tracce evidenti. Poiché non richiedono interazione, non esistono log di clic o comportamenti sospetti che possano far scattare un allarme. Spesso solo un’analisi forense approfondita del dispositivo può rivelare l’avvenuta compromissione. Questo li rende strumenti ideali per operazioni di spionaggio e sorveglianza mirata. Come proteggersi Anche se nessuna misura è completamente efficace contro le vulnerabilità sconosciute, è possibile ridurre il rischio seguendo alcune buone pratiche: mantenere sempre aggiornato il sistema operativo e le applicazioni; installare solo app provenienti da fonti ufficiali; limitare i permessi delle app, soprattutto l’accesso a fotocamera, microfono e messaggi; utilizzare sistemi di sicurezza avanzati e soluzioni di monitoraggio comportamentale; essere consapevoli che anche un dispositivo apparentemente “sicuro” può essere vulnerabile. Gli attacchi zero-click rappresentano una delle frontiere più avanzate e pericolose del cybercrimine. Il loro carattere invisibile e l’assenza di interazione da parte dell’utente li rendono difficili da prevenire e individuare. La sfida per il futuro sarà quindi quella di sviluppare sistemi in grado di rilevare comportamenti anomali a livello profondo del software, unendo tecniche di intelligenza artificiale e sicurezza proattiva per contrastare minacce che non danno neppure il tempo di un clic.
Autore: by Antonello Camilotto 2 novembre 2025
Esiste un progetto che può essere definito come un “archivio universale dei codici sorgente”: è il Software Heritage. Che cos’è Software Heritage Software Heritage è un’organizzazione senza scopo di lucro che ha come missione «raccogliere, preservare e condividere» tutto il software disponibile pubblicamente in forma di codice sorgente. Il progetto è stato lanciato dall’Inria (Istituto nazionale francese per la ricerca in informatica e matematica applicata) nel 2016, in collaborazione con l’UNESCO e altri partner. L’archivio raccoglie codice sorgente da piattaforme di sviluppo e repository pubblici (es. GitHub, GitLab) e package repository (es. npm, PyPI) per preservare la storia del software. Perché “universale” e perché è importante “Universale” nel senso che mira a conservare tutto il codice sorgente pubblico, indipendentemente dal linguaggio o dalla piattaforma. È importante perché il codice sorgente è parte integrante del patrimonio culturale e tecnico: sapere come è stato scritto, cosa fa e come si evolve, è utile per la ricerca, la riproducibilità scientifica, la trasparenza, la sicurezza. In particolare, offre una base per lo “studio dei Big Code” (ossia analizzare su larga scala i codici sorgente) e per applicazioni quali l’intelligenza artificiale, la conservazione digitale, la tracciabilità. Alcuni numeri e caratteristiche salienti L’archivio contiene decine di miliardi di file di codice sorgente, provenienti da centinaia di milioni di progetti software. Ogni entità (file, directory, commit, progetto) ha un identificatore univoco, lo “SWHID” (Software Heritage ID), che aiuta a referenziare e tracciare il codice. In Italia, il ENEA (Centro Ricerche di Bologna) ospita uno dei mirror istituzionali europei dell’archivio, consentendo la ridondanza e la conservazione locale. A chi serve e come può essere utilizzato Ricercatori: per studi storici sul software, sull’evoluzione dei linguaggi, delle librerie, degli algoritmi. Industria / Open Source: per garantire che del codice importante non vada perso, per facilitare la ri‐utilizzazione, per motivi di audit o sicurezza. Educazione: studenti o professionisti possono esplorare codice storico, versioni, commit, per imparare. Policy / Strategia nazionale: dato che il software è infrastruttura critica, conservarlo apre questioni di autonomia digitale e resilienza. Limitazioni e note pratiche L’archivio comunque prende codice che è pubblicamente disponibile; non tutti i software proprietari chiusi o privati saranno inclusi. Anche se “universale” nell’intento, ci sono limiti tecnici, legali e finanziari a quanto possa effettivamente coprire. L’uso richiede comunque familiarità con il concetto di repository, versioning, etc; non è solo “scarica e usa” come libreria comune. Per un uso pratico, serve verificare licenze, condizioni di riuso del codice contenuto — l’archivio conserva il codice, ma non sempre cambia le licenze originali.
Autore: by Antonello Camilotto 1 novembre 2025
Negli anni ’90 Internet cominciava a entrare nelle case e negli uffici, ma era ancora un territorio nuovo e misterioso. Oggi bastano pochi secondi per essere online, ma trent’anni fa collegarsi significava affrontare una vera e propria avventura tecnologica, fatta di modem rumorosi, linee telefoniche occupate e pazienza infinita. I primi passi nel mondo digitale All’inizio degli anni ’90, in Italia come nel resto del mondo, la rete non era ancora accessibile a tutti. Le università e alcune grandi aziende erano collegate tramite reti accademiche o interne, ma per il pubblico arrivarono i primi provider commerciali: società che offrivano, dietro pagamento di un abbonamento, la possibilità di “entrare” in Internet. Tra i pionieri italiani si ricordano nomi come MC-link, Video On Line, InWind, Tiscali e Tin.it. Erano gli anni in cui gli utenti scoprivano la posta elettronica, i primi forum e le chat IRC, strumenti che avrebbero cambiato per sempre il modo di comunicare. Il rito del modem e il suono della connessione Per collegarsi serviva un computer con modem analogico, di solito a 14.4 o 28.8 kbps, che si collegava alla presa del telefono. La connessione era “dial-up”: il modem componeva un numero, stabiliva la comunicazione e solo allora si poteva navigare. Il tipico suono gracchiante del modem che tentava di agganciarsi alla linea è rimasto un simbolo indelebile di quell’epoca. Navigare significava anche occupare la linea telefonica: durante la connessione nessuno poteva fare o ricevere chiamate, e ogni minuto aveva un costo. Per molti, la sera tardi o la notte erano gli unici momenti “sicuri” per esplorare la rete senza rischiare la bolletta salata. Contenuti e comunità: un Internet più piccolo, ma più intimo I siti web degli anni ’90 erano semplici, leggeri e spesso amatoriali. Le immagini si caricavano lentamente, e le pagine erano dominate dal testo. Non esistevano i social network: le comunità online si ritrovavano nei newsgroup, nelle mailing list o nelle chat IRC, dove si parlava di tutto, dall’informatica alla musica, dal cinema ai giochi. Era un Internet più ingenuo, ma anche più partecipativo: chi sapeva un po’ di HTML poteva creare una pagina personale su Geocities o Tripod e contribuire direttamente alla crescita del web. L’evoluzione verso la banda larga Con la fine degli anni ’90 arrivarono le connessioni ISDN e poi l’ADSL, che permisero di restare online senza bloccare il telefono e a velocità impensabili fino a poco tempo prima. Da quel momento Internet smise di essere un’esperienza “da pionieri” e cominciò a diventare parte della vita quotidiana. Un’epoca che ha fatto scuola Oggi Internet è ovunque, ma chi ha vissuto gli anni ’90 ricorda quella sensazione di scoperta e di libertà dei primi collegamenti. Ogni pagina caricata era una conquista, ogni e-mail un piccolo miracolo tecnologico. I primi provider e gli utenti di allora hanno gettato le basi del mondo connesso che conosciamo oggi.
Mostra Altri