Gary McKinnon, l'autore del più grande attacco informatico militare di tutti i tempi

by antonellocamilotto.com


Gary McKinnon, anche noto come "Solo" (Glasgow, 10 febbraio 1966), è un programmatore e hacker britannico. È accusato dalla giustizia statunitense di aver perpetrato "la più grande intrusione informatica su computer appartenenti alla difesa che si sia mai verificata in tutti i tempi."


Catturato nel Regno Unito in seguito ad una richiesta di estradizione dagli Stati Uniti d'America - in quella che alcuni considerano una persecuzione giudiziaria contro un capro espiatorio - nel 2012 venne negato dal Regno Unito alla giustizia statunitense. Affetto dalla Sindrome di Asperger, McKinnon è considerato una delle più grandi menti informatiche di tutti i tempi.


Si è giustificato dicendo che la sua motivazione era cercare una prova dell'esistenza degli UFO e disse di sapere per certo che i militari americani fossero in possesso della tecnologia dell'antigravità e che il governo USA stesse cercando di sopprimere la diffusione della "Free Energy" (energia libera).


Gary, da solo scansionò migliaia di macchine del governo degli Stati Uniti e scoprì evidenti falle di sicurezza in molte di esse.

Tra febbraio 2001 e marzo 2002, fece irruzione in quasi un centinaio di PC all’interno dell’Esercito, della Marina, dell’Aeronautica, della NASA e del Dipartimento della Difesa.


Solo, navigò al loro interno per mesi, copiando file e password e mise down l’intera rete dell’esercito americano a Washington, DC, mettendo fuori servizio circa 2000 computer per tre giorni. Ma nonostante la sua esperienza, “Solo” non riuscì a coprire le sue tracce e venne presto rintracciato in un piccolo appartamento a Londra.


Nel marzo 2002, la National Hi-Tech Crime Unit del Regno Unito lo arrestò, era un tranquillo scozzese di 36 anni con tratti da elfo e sopracciglia inarcate da Spock. Era stato un amministratore di sistema, ma non aveva un lavoro al momento del suo arresto; trascorreva le sue giornate assecondando la sua ossessione per gli UFO.


All’età di 14 anni, ha imparato da solo a programmare videogiochi, ambientati nello spazio, ovviamente, sul suo computer Atari. McKinnon si è unito alla British UFO Research Association e ha trovato una comunità di appassionati di spazio che la pensavano allo stesso modo. Quando ha saputo che il suo patrigno era cresciuto a Bonnybridge, una città inglese famosa per gli avvistamenti di UFO, lo ha interrogato per informazioni, ricorda sua madre. Ma mentre sognava dischi volanti, ha lottato con la vita di tutti i giorni sulla Terra. Dopo aver abbandonato la scuola secondaria, ha fluttuato tra i lavori nel supporto tecnico informatico. 


L’hacking, una via di fuga


Dopo aver letto The Hacker’s Handbook , il classico manuale degli anni ’80 per hacker, McKinnon ha deciso di indagare un po’ lui stesso. A tarda notte, nella sua camera da letto buia, iniziò a provare le tecniche suggerite dal libro e nel 2000 decise di cercare prove UFO sui sistemi informatici del governo degli Stati Uniti. McKinnon ha messo a frutto i suoi poteri di concentrazione, cercando ossessivamente modi per entrare nelle macchine.


L’attacco ai sistemi governativi degli Stati Uniti D’America


Usando il linguaggio di programmazione Perl, ha scritto un piccolo script che gli ha permesso di scansionare fino a 65.000 macchine alla ricerca di password in meno di 8 minuti. Dopo aver chiamato i sistemi governativi, ha eseguito il codice e ha fatto una scoperta sorprendente: molti dipendenti federali non sono riusciti a modificare le password predefinite sui loro computer.


“Sono rimasto stupito dalla mancanza di sicurezza” Disse in seguito al Daily Mail.


Su queste macchine non sicure, McKinnon ha installato un programma software chiamato RemotelyAnywhere , che consente l’accesso remoto e il controllo dei computer da Internet. McKinnon poteva quindi navigare tra le macchine a suo piacimento e trasferire o eliminare file. Poiché era in grado di monitorare tutta l’attività sui computer, poteva disconnettersi nel momento in cui vedeva accedere chiunque altro.


Con la sua profonda fissazione, McKinnon ha navigò attraverso i computer del governo da Fort Meade al Johnson Space Center della NASA nella sua ricerca di ET. Ha affermato di aver trovato un elenco di “ufficiali non terrestri” della Marina degli Stati Uniti, nonché una foto di un sigaro a forma di UFO tempestato di cupole geodetiche (una foto che non ha potuto salvare, ha detto, perché era in Java script). Dopo una vita di ossessione per gli UFO, ora stava alimentando la sua abitudine come mai prima d’ora. Stava anche assaporando il brivido dell’hack. “Si finisce per desiderare misure di sicurezza sempre più complesse”, ha detto al Guardian nel 2005. “Era come un gioco. Amavo i giochi per computer. Questo era come un vero gioco. È stato avvincente con una enorme dipendenza.”


Ma alla fine la partita è finita. Il Dipartimento di Giustizia degli Stati Uniti non ha discusso pubblicamente di come sia venuto a conoscenza di McKinnon, ma crede che la sua intrusione sia stata rilevata quando si è connesso a un computer del Johnson Space Center nel momento sbagliato. Ha detto che il suo accesso a quel computer è stato immediatamente interrotto; crede che il governo abbia poi scoperto il software RemotelyAnywhere sulla macchina e abbia fatto risalire il suo acquisto al suo indirizzo e-mail.


© ๐—ฏ๐˜† ๐—”๐—ป๐˜๐—ผ๐—ป๐—ฒ๐—น๐—น๐—ผ ๐—–๐—ฎ๐—บ๐—ถ๐—น๐—ผ๐˜๐˜๐—ผ

Tutti i diritti riservati | All rights reserved

๏ปฟ

Informazioni Legali

I testi, le informazioni e gli altri dati pubblicati in questo sito nonché i link ad altri siti presenti sul web hanno esclusivamente scopo informativo e non assumono alcun carattere di ufficialità.

Non si assume alcuna responsabilità per eventuali errori od omissioni di qualsiasi tipo e per qualunque tipo di danno diretto, indiretto o accidentale derivante dalla lettura o dall'impiego delle informazioni pubblicate, o di qualsiasi forma di contenuto presente nel sito o per l'accesso o l'uso del materiale contenuto in altri siti.


Autore: by Antonello Camilotto 30 agosto 2025
Il termine wetware è utilizzato in diversi ambiti per indicare l’insieme degli elementi biologici e cognitivi che interagiscono con la tecnologia. Se l’hardware è la parte fisica delle macchine e il software è l’insieme delle istruzioni digitali che le guidano, il wetware rappresenta la dimensione “umida”, organica, legata alla biologia e al cervello umano. Origini del termine La parola compare nella letteratura informatica e cyberpunk a partire dagli anni ’80, quando autori come Rudy Rucker e altri scrittori di fantascienza immaginano mondi in cui computer e sistemi biologici si intrecciano. Da allora, il termine è stato adottato anche in contesti accademici e tecnologici per descrivere l’interazione diretta fra sistemi viventi e macchine digitali. Wetware come metafora biologica Nell’informatica teorica, il wetware è spesso inteso come il cervello umano: il “processore biologico” che elabora informazioni tramite reti neurali naturali. In questo senso, parlare di wetware significa riconoscere che l’essere umano stesso è un sistema informativo, dove neuroni e sinapsi funzionano in modo analogo a transistor e circuiti. Applicazioni scientifiche e tecnologiche Il concetto di wetware trova applicazioni concrete in diversi campi: Neuroscienze e intelligenza artificiale: lo studio del cervello come sistema di elaborazione ispira modelli di reti neurali artificiali. Biocomputing: sperimentazioni con materiali organici (DNA, proteine, cellule) per realizzare calcolatori biologici capaci di risolvere problemi complessi. Brain-computer interfaces (BCI): tecnologie che permettono la comunicazione diretta tra cervello e macchina, come i sistemi di controllo neurale per protesi robotiche. Ingegneria bioibrida: la combinazione di tessuti viventi e componenti elettronici per sviluppare nuove forme di interazione uomo-macchina. Implicazioni culturali ed etiche Oltre alla scienza, il wetware porta con sé un immaginario culturale potente: la fusione tra organico e digitale solleva interrogativi sulla natura dell’identità, sulla possibilità di aumentare le capacità cognitive e sul rischio di ridurre l’essere umano a un “modulo” di calcolo. Le questioni etiche riguardano la privacy dei dati cerebrali, i limiti dell’ibridazione e la definizione stessa di “umano”. Il wetware non è solo una parola suggestiva, ma un concetto che si colloca al confine tra biologia, informatica e filosofia. Indica una frontiera in cui la tecnologia non si limita più a estendere il corpo umano, ma si intreccia con esso, ridefinendo i confini del possibile.
Autore: by Antonello Camilotto 28 agosto 2025
Nel vasto e mutevole panorama dei sistemi operativi, Linux si erge come una maestosa alternativa all'egemonia di Windows e macOS. Creato nel 1991 da Linus Torvalds, Linux ha guadagnato una reputazione ineguagliabile come sistema operativo open source, affascinando programmatori, sviluppatori e appassionati di tecnologia di tutto il mondo. In questo articolo, esploreremo il mondo affascinante e potente di Linux, scoprendo le sue origini, le sue caratteristiche distintive e il suo impatto sulla società moderna. Le Origini di Linux La storia di Linux inizia con un giovane programmatore finlandese di nome Linus Torvalds. Nel 1991, Torvalds, studente all'Università di Helsinki, decise di creare un sistema operativo che fosse simile a UNIX ma accessibile e modificabile da chiunque. Questa ambizione portò alla nascita del kernel di Linux, il cuore del sistema operativo. Una delle caratteristiche chiave di Linux è la sua natura open source. Questo significa che il codice sorgente del sistema operativo è disponibile pubblicamente e può essere modificato e distribuito liberamente. Questa filosofia ha ispirato una vasta comunità di sviluppatori in tutto il mondo, che hanno contribuito a migliorare e personalizzare il sistema operativo nel corso degli anni. Caratteristiche Distintive di Linux 1. Varietà di Distribuzioni: Una delle caratteristiche più affascinanti di Linux è la sua varietà di distribuzioni. Una distribuzione Linux, o "distro", è una versione specifica del sistema operativo che include il kernel di Linux insieme a una selezione di software e strumenti. Alcune distro popolari includono Ubuntu, Fedora, Debian e CentOS. Ogni distro ha il proprio stile e obiettivi specifici, che variano dalla facilità d'uso alla robustezza per l'uso in ambienti aziendali. 2. Personalizzazione: Linux è rinomato per la sua capacità di essere altamente personalizzabile. Gli utenti possono scegliere tra diverse interfacce grafiche, temi e applicazioni per adattare il sistema alle proprie preferenze. Questa flessibilità è particolarmente attraente per gli utenti esperti che desiderano creare un'esperienza su misura. 3. Stabilità e Sicurezza: Linux è noto per la sua stabilità e sicurezza. Grazie alla sua architettura solida e alla natura open source, gli sviluppatori possono individuare e risolvere rapidamente le vulnerabilità di sicurezza. Ciò ha reso Linux una scelta popolare per server, dispositivi integrati e supercomputer. 4. Linguaggio di Linea di Comando (CLI): Linux offre un potente linguaggio di linea di comando che consente agli utenti di interagire direttamente con il sistema operativo. Questa caratteristica è particolarmente amata dagli sviluppatori e dagli amministratori di sistema, poiché consente di eseguire compiti avanzati in modo più efficiente. Impatto sulla Società Moderna Linux ha avuto un impatto significativo sulla società moderna, sia nel mondo della tecnologia che al di fuori di esso. Ecco alcuni modi in cui Linux ha influenzato la nostra vita: 1. Server e Cloud Computing: Molte aziende utilizzano Linux come sistema operativo per i loro server e servizi di cloud computing. La sua affidabilità, sicurezza e scalabilità lo rendono una scelta ideale per gestire carichi di lavoro critici. 2. Android: Il sistema operativo Android, ampiamente utilizzato su smartphone e tablet, è basato su Linux. Questo ha contribuito a rendere Linux parte integrante della vita quotidiana di miliardi di persone in tutto il mondo. 3. Sviluppo Software: Linux è una piattaforma preferita da sviluppatori di software e programmatori. Le sue potenti funzionalità di sviluppo, combinata con la vasta gamma di strumenti disponibili, rendono Linux un'opzione attraente per la creazione di applicazioni. 4. Comunità Open Source: Linux ha contribuito a promuovere la cultura dell'open source, dove il condividere il codice e la collaborazione sono fondamentali. Questa filosofia ha ispirato la creazione di numerosi progetti software open source in tutto il mondo. Linux è molto più di un semplice sistema operativo; è una filosofia che ha dato forma al modo in cui concepiamo la tecnologia. Con la sua natura open source, la sua flessibilità e la sua stabilità, Linux si è affermato come una forza potente e positiva nell'ambito della tecnologia moderna. Mentre continuiamo a esplorare nuovi orizzonti digitali, è probabile che Linux continuerà a svolgere un ruolo cruciale nell'evoluzione tecnologica e nella definizione del nostro futuro digitale.
Autore: by Antonello Camilotto 28 agosto 2025
Dennis MacAlistair Ritchie (1941 – 2011) è stato uno degli ingegneri e scienziati informatici più influenti della storia. Sebbene il suo nome non sia noto al grande pubblico quanto quello di figure come Steve Jobs o Bill Gates, il suo contributo è stato fondamentale per lo sviluppo dell’informatica moderna. Senza il suo lavoro, gran parte delle tecnologie su cui si basano i computer, gli smartphone e persino Internet non esisterebbero nella forma che conosciamo oggi. Gli inizi e la formazione Nato a Bronxville, New York, Ritchie studiò fisica e matematica applicata all’Università di Harvard, dove sviluppò un forte interesse per i calcolatori. Negli anni Sessanta entrò nei Bell Labs, uno dei centri di ricerca più innovativi del Novecento, che fu la culla di invenzioni decisive come il transistor e il linguaggio C. La nascita del linguaggio C Il contributo più noto di Ritchie fu la creazione del linguaggio di programmazione C all’inizio degli anni Settanta. Sviluppato come evoluzione del linguaggio B (a sua volta derivato dal BCPL), C si distinse per la sua efficienza e portabilità. Permetteva di scrivere programmi di basso livello, vicini al linguaggio macchina, mantenendo però un alto grado di astrazione e leggibilità. C divenne rapidamente lo standard per la programmazione di sistemi operativi e applicazioni, influenzando in seguito linguaggi come C++, Java, C#, e persino Python e Go. Il sistema operativo Unix Parallelamente alla creazione di C, Ritchie lavorò insieme a Ken Thompson alla realizzazione di Unix, un sistema operativo rivoluzionario. Unix si distingueva per semplicità, modularità e capacità di essere eseguito su diverse macchine, caratteristiche che lo resero la base di molti sistemi operativi moderni. Dalle sue idee nacquero varianti e discendenti diretti: BSD, Linux, macOS, Android e iOS devono molto a Unix. Oggi, l’eredità di questo sistema operativo è ovunque, dai server web agli smartphone. Riconoscimenti Per il suo contributo, Dennis Ritchie ricevette nel 1983 il Premio Turing, considerato il “Nobel dell’informatica”, insieme a Ken Thompson. Nel 1999 fu insignito della National Medal of Technology dagli Stati Uniti. Tuttavia, non cercò mai i riflettori, preferendo lavorare dietro le quinte. L’eredità Dennis Ritchie morì nel 2011, pochi giorni dopo Steve Jobs, ma la sua scomparsa passò in gran parte inosservata al di fuori della comunità informatica. Eppure, il suo impatto è incalcolabile: ogni volta che utilizziamo un computer, un telefono o navighiamo online, stiamo beneficiando indirettamente delle sue invenzioni. ๏ปฟ Il linguaggio C e Unix rappresentano ancora oggi colonne portanti della programmazione e dei sistemi operativi, dimostrando la visione lungimirante di Ritchie.
Autore: by Antonello Camilotto 28 agosto 2025
Kathleen Booth (nata Britten, 1922 – 2022) è stata una delle figure pionieristiche dell’informatica. Matematica e ricercatrice britannica, viene ricordata soprattutto come colei che sviluppò uno dei primi linguaggi Assembly, aprendo la strada alla programmazione moderna. Negli anni Quaranta lavorò al Birkbeck College di Londra, in un contesto in cui i computer erano ancora macchine sperimentali, ingombranti e complessi da utilizzare. Con il marito, Andrew Booth, progettò alcuni tra i primi calcolatori elettronici britannici, come l’Automatic Relay Calculator e successivamente l’Automatic Computing Engine. La sua intuizione principale fu quella di creare un linguaggio intermedio tra il codice macchina e il pensiero logico del programmatore. Fino ad allora, infatti, per istruire un computer era necessario inserire sequenze di numeri binari o esadecimali, un compito lungo e soggetto a errori. L’Assembly introdusse invece simboli e abbreviazioni che semplificavano la scrittura delle istruzioni, rendendo la programmazione più accessibile e riducendo drasticamente il margine di errore. Il lavoro di Kathleen Booth non si fermò qui: contribuì alla definizione di metodi per la costruzione dei compilatori e si interessò anche all’intelligenza artificiale, anticipando temi che sarebbero esplosi decenni più tardi. La sua carriera proseguì come docente e ricercatrice, lasciando un’impronta profonda nel campo dell’informatica teorica e applicata. Nonostante il suo ruolo fondamentale, per molto tempo la sua figura è rimasta in secondo piano rispetto ad altri pionieri maschili. Solo negli ultimi anni la comunità scientifica e storica le ha restituito il giusto riconoscimento come una delle madri della programmazione moderna. Kathleen Booth è oggi ricordata come l’inventrice del linguaggio Assembly e come una delle menti che hanno reso possibile l’evoluzione dei computer da strumenti sperimentali a macchine universali.
Autore: by Antonello Camilotto 14 agosto 2025
Il divario digitale indica la distanza tra chi ha accesso e competenze nell’uso delle tecnologie digitali e chi, invece, ne è escluso o limitato. Non si tratta solo di possedere un dispositivo o una connessione internet, ma anche di saper utilizzare efficacemente tali strumenti per informarsi, lavorare, studiare o partecipare alla vita sociale. Le cause del divario digitale sono molteplici: differenze economiche, geografiche, culturali e generazionali giocano un ruolo importante. Ad esempio, aree rurali con infrastrutture carenti, famiglie a basso reddito che non possono permettersi dispositivi adeguati, o persone che non hanno ricevuto una formazione digitale di base, rischiano di restare indietro. Le conseguenze possono essere significative: Esclusione sociale e culturale, con minori opportunità di accesso a servizi pubblici e informazione. Svantaggi economici, poiché molte professioni richiedono competenze digitali sempre più avanzate. Limitazioni educative, soprattutto per studenti che non dispongono di strumenti e connessione per seguire la didattica online. Ridurre il divario digitale richiede un approccio integrato. Alcune azioni possibili includono: Potenziamento delle infrastrutture, garantendo connessioni veloci anche nelle zone remote. Accessibilità economica, con agevolazioni per dispositivi e abbonamenti internet. Formazione diffusa, per fornire competenze digitali a tutte le fasce di popolazione, con particolare attenzione a anziani e persone svantaggiate. Colmare questa distanza non significa solo fornire tecnologia, ma anche assicurare che tutti possano usarla in modo consapevole e sicuro. In un mondo sempre più interconnesso, l’inclusione digitale è una condizione essenziale per garantire pari opportunità e partecipazione attiva nella società.
Autore: by Antonello Camilotto 14 agosto 2025
Quando Neil Armstrong e Buzz Aldrin misero piede sulla superficie lunare nel 1969, la missione Apollo 11 era sostenuta da un’impressionante quantità di ingegneria, calcoli e tecnologia. Tuttavia, ciò che oggi sorprende di più non è tanto la complessità della missione, quanto il fatto che la potenza di calcolo del computer di bordo dell’Apollo Guidance Computer (AGC) fosse nettamente inferiore a quella di uno smartphone moderno. Il cervello della missione Apollo: l’AGC L’AGC, sviluppato dal MIT Instrumentation Laboratory, aveva specifiche che oggi sembrano quasi comiche: Processore: 1 MHz di clock Memoria: 2 KB di RAM e 36 KB di memoria a sola lettura (ROM) Prestazioni: circa 85.000 operazioni al secondo Eppure, quell’hardware limitato era sufficiente per guidare un’astronave dalla Terra alla Luna e ritorno, grazie a un software ottimizzato e a un utilizzo estremamente mirato delle risorse. Uno smartphone di oggi: un supercomputer in tasca Prendiamo ad esempio un comune smartphone di fascia media del 2025: Processore: multi-core a oltre 2,5 GHz RAM: 6-12 GB Memoria interna: 128-512 GB Prestazioni: miliardi di operazioni al secondo In termini puramente numerici, un moderno smartphone è milioni di volte più potente dell’AGC in velocità di calcolo, capacità di memoria e larghezza di banda. Perché allora è stato possibile andare sulla Luna con così poca potenza? La risposta sta nella differenza tra potenza grezza e progettazione ottimizzata: Gli ingegneri dell’epoca scrivevano codice estremamente efficiente, privo di sprechi. L’AGC eseguiva solo funzioni essenziali: calcoli di traiettoria, gestione dei sensori, correzioni di rotta. Gran parte del “lavoro” era affidata all’intelligenza umana, non a calcoli automatici continui. Oggi, invece, la potenza di calcolo dei nostri dispositivi è in gran parte usata per elaborazioni grafiche, interfacce complesse, app sempre in esecuzione e funzioni multimediali. Una riflessione finale Dire che “il nostro smartphone è più potente del computer della missione Apollo” è vero, ma rischia di essere fuorviante. La conquista della Luna non è stata una sfida di hardware, ma di ingegno, pianificazione e coraggio. Forse, la vera domanda non è “quanta potenza abbiamo in tasca?”, ma “cosa facciamo con essa?”.
Mostra Altri