Dark Web: il mercato nero e i miti da sfatare

I dati rubati alle aziende passano inevitabilmente attraverso il mercato nero del Dark Web, finendo in mano di cyber criminali e truffatori. Ecco il resoconto di un viaggio tra i “punti vendita” illegali della rete underground.


Gli investimenti in cyber security vengono spesso snobbati dalle aziende, il più delle volte per questioni legate a un presunto risparmio. Invece, proteggere il patrimonio informativo ed evitare fughe di notizie a causa di attacchi di social engineering dovrebbero essere tra i principali obbiettivi. Anche perché, in pochi lo sanno, i dati rubati passano inevitabilmente attraverso il mercato nero del Dark Web.


Chi ruba i dati, con ogni probabilità non è chi poi ne fa utilizzo diretto, bensì vengono semplicemente rivenduti nei canali underground della rete.


Cos’è il Dark Web e come si è creato


Il Dark Web porta con sé un’immagine negativa anche se non era così che doveva essere inizialmente perché è stato creato con l’intenzione di garantire l’accesso ad Internet in modo anonimo, ma purtroppo in molti utilizzato queste funzionalità per attività illegali.


Tutto ciò è deludente poiché alcuni esperti classificano questo spazio “oscuro” come il novanta per cento dell’intera rete Internet. Detto in altre parole, tutto quello che non è indicizzato, per lo più indicizzazione a pagamento, rimane sommerso.


Ciò significa che quasi l’intero Web è nascosto ad occhio nudo perché non indicizzato dai big dei motori di ricerca, e a differenza della normale Web (la cosiddetta “Surface Web”), non è possibile accedervi tramite un normale browser come Chrome o Firefox.


Per accedere in forma anonima è necessario un browser apposito, uno speciale portale che collega o reindirizza gli utenti al Dark Web proteggendo l’identità dell’utente, o altri sistemi per reti VPN o sistemi p2p di accesso speciale come vedremo più avanti. Queste ultime sono le Darknet.


È grazie a questo anonimato che il Dark Web è diventato un rifugio per attività illegali, dove le persone possono acquistare malware, droghe, armi o addirittura assoldare un sicario. Visitando il sito privacyaffairs.com si illustra quali sono i prodotti più popolari in vendita nella Dark Web e quanto costano e viene indicato che possiamo trovare carte di credito, documenti contraffatti e informazioni compromesse.


Come funziona il mercato nero del Dark Web


Uno degli elementi più costosi inclusi nel set di dati è il malware premium, che costa circa 5.500 dollari USA per mille installazioni. Dall’altra parte ci sono dettagli per l’accesso agli account PayPal (molte volte non funzionanti grazie all’autenticazione a due fattori), gli accessi Netflix o i dettagli di carte di credito rubate, tutti disponibili per meno di venti euro.


A dire il vero, possiamo estrapolare tre macro categorie del “materiale disponibile” nei siti non indicizzati del Dark Web:


  1. la prima è relativa alla classica truffa in cui le persone pagano per l’acquisto di un determinato bene che mai arriverà nelle proprie mani;
  2. la seconda riguarda il pagamento per l’acquisto di materiale che, alle fotografie esposte sembra perfetto ma una volta giunto a destinazione rivelano, ad esempio nel caso di documenti falsi, che sono stati realizzati con manifattura grottesca ed evidentemente inutilizzabili;
  3. la terza categoria, infine, riguarda la truffa in cui si paga una cifra esagerata per degli articoli che è possibile accaparrarsi anche grazie a tanta fortuna, ma poi arriva a destinazione del materiale di fatto inutilizzabile.


Ovviamente, stiamo parlando sempre di materiale truffaldino, illegale, talvolta rubato, senza garanzia inviato senza la possibilità di recesso ne di restituzione.


Tuttavia, è sorprendente che le guide alle frodi e all’hacking siano alcuni degli articoli più venduti, tutorial con l’obiettivo di insegnare alle persone come tentare di compromettere PayPal o diversi siti Web.


Quando sentiamo la parola Deep Web, ci viene in mente un grande mercato di droghe e armi da fuoco, ma non è solo questo, c’è molto altro. Terbium Labs, una società di protezione dai rischi digitali, ha voluto sfatare questa visione e per l’anno 2021 ha pubblicato un rapporto che suddivide le presunte attività in sei categorie per fornire una visione delle tendenze degli articoli più venduti. Hanno analizzato tre mercati: “The Canadian HeadQuarters”, “Empire Market” e “White House Market”.


Le guide pratiche sulle truffe che includono tutorial su come eseguire attività dannose sono state le più vendute per il cinquanta per cento. Un esempio: “Come aprire un conto fraudolento presso uno specifico istituto finanziario”. La maggior parte ha un prezzo medio di otto euro. I dati personali occupano il sedici per cento e comprendono nomi, numeri di telefono, indirizzi, indirizzi e-mail e codici fiscali, con un prezzo medio di nove euro.


Inoltre, troviamo anche diversi account e credenziali non finanziari, per una percentuale dell’otto per cento, che includono account per servizi come Netflix, Amazon o altri. Altri da società finanziarie, come PayPal, Stripe, Kraken e altri media bancari e di cripto valuta, che raggiungono un’altra fetta di mercato dell’otto per cento.


Infine, strumenti e modelli di frode possono essere trovati per un prezzo medio di cinquanta euro e includono applicazioni false che possono essere utilizzate come trojan per hackerare determinati sistemi, o modelli di siti Web che possono essere utilizzati per imitare pagine legittime esistenti per eseguire attacchi di phishing.


Tra i prodotti più richiesti ci sono le carte di pagamento che possono dar luogo ad addebiti non autorizzati e che solitamente hanno un range di prezzo all’acquisto dai diciotto ai duecento euro, che possono infliggere danni finanziari sostanziali a qualsiasi persona o entità.


Quali sono i principali mercati neri del Dark Web


Uno dei più longevi dei mercati è conosciuto come “Tor Market”, è attivo da marzo 2018 ed è sopravvissuto a diversi rivali più grandi come “Empire”, “Hydra Market” e “Dream Market”. La longevità di Tor Market è sorprendente, dato che risulta essere uno dei più longevi della storia del Dark Web.


Ciò non significa come detto prima che si è in grado di trovare tutto facilmente. La darknet, per esempio, è una porzione crittografata di Internet non indicizzata dai motori di ricerca. Per l’accesso richiede un browser specifico per l’anonimizzazione, in genere un software tipo I2P, Freenet o anche lo stesso Tor.


Molte darknet vendono droghe illegali in modo anonimo, con consegna tramite posta tradizionale o corriere, e assomigliano a siti di e-commerce legali come Amazon.


Un’analisi di oltre cento mercati darknet tra il 2010 e il 2017 ha rilevato che i siti erano attivi per una media di poco più di otto mesi. Degli oltre centodieci mercati della droga attivi dal 2010 al 2019, solo dieci sono rimasti pienamente operativi fino al 2019.


Mentre le vendite totali su tutti i mercati dentro la darknet sono aumentate nel 2020, e di nuovo nel primo trimestre del 2021, i dati per il quarto trimestre del 2021 suggeriscono che le vendite sono diminuite fino al cinquanta per cento.


Ciò rende la performance di Tor Market nello stesso periodo ancora più notevole. I suoi elenchi sono cresciuti da meno di dieci prodotti nei mesi precedenti la chiusura di “Dream Market” all’inizio del 2019 a oltre cento prodotti entro luglio dello stesso anno.


Dopo un periodo stabile in cui c’erano, in media, duecento cinquanta inserzioni nel 2020 e trecento ottanta nel 2021, un altro periodo di crescita si è verificato all’inizio del 2022. Questo ha visto oltre un migliaio di prodotti quotati su Tor Market entro la metà del 2022.


Questa espansione è stata guidata da un costante aumento delle vendite internazionali, che sono cresciute fino a superare le vendite nazionali della Nuova Zelanda all’inizio del 2022. La Nuova Zelanda rimane comunque il più fiorito mercato del Dark Web.


I “punti vendita” illegali del Dark Web


A prima vista, per esempio la Nuova Zelanda può sembrare un luogo improbabile per un crescente mercato internazionale della droga nelle darknet. Il suo isolamento geografico dai grandi mercati della droga europei e statunitensi, la piccola popolazione e l’assenza storica di qualsiasi fornitura sostanziale di cocaina ed eroina dovrebbero scagionarla, eppure questi fattori potrebbero essere esattamente ciò che ha guidato li questa innovazione di mercato emergente.


Le darknet forniscono un accesso anonimo e diretto ai venditori di droga internazionali che vendono MDMA anche conosciuta come Ecstasy, cocaina e oppioidi, tipi di droga non facilmente accessibili nei mercati della droga fisica in Nuova Zelanda. È improbabile che questi venditori internazionali abbiano interesse a rifornire un mercato così piccolo e distante.


Fornendo offerte da dozzine di venditori di droga internazionali e un forum centralizzato per gli acquirenti, Tor Market risolve il vero problema economico dei “mercati sottili” nella scena della droga neozelandese, dove semplicemente non ci sono abbastanza acquirenti per sostenere i venditori per alcuni tipi di droga.


Di solito, acquirenti e venditori avrebbero difficoltà a connettersi e quindi a giustificare il traffico internazionale su larga scala. Le darknet risolvono questo problema offrendo quantità al dettaglio di tipi di droghe tradizionalmente difficili da reperire come la MDMA direttamente a domicilio.


I neozelandesi hanno una storia di soluzioni innovative alla cosiddetta “tirannia della distanza”. Hanno anche un livello relativamente alto di coinvolgimento digitale e massicce abitudini di acquisto online rispetto agli standard internazionali. Forse le darknet offrono un’esperienza di shopping online familiare per questo tipo di mercato.


Da parte loro, gli amministratori di Tor Market affermano (sulla base del manuale di aiuto del proprio sito) di offrire una gamma di innovazioni e funzionalità di design che garantiscono la sicurezza di Tor Market.


Questo tipo di vanto non è raro tra gli operatori delle darknet come strategia di marketing per attirare nuovi fornitori su un sito. E non è chiaro se Tor Market offra davvero funzionalità di sicurezza o infrastrutture di codifica superiori rispetto ad altri siti.

Più credibile è la presunta strategia aziendale di Tor Market di cercare intenzionalmente di mantenere un profilo basso rispetto ai siti internazionali più grandi. In effetti, molti dei venditori su Tor Market nei primi giorni avevano sede in Nuova Zelanda e vendevano solo ad acquirenti locali.


L’aumento degli elenchi internazionali su Tor Market può riflettere problemi più ampi nell’ecosistema delle darknet, inclusa la chiusura di alcuni mercati delle darknet precedentemente dominanti e l’inaffidabilità di molti siti a causa di attacchi Denial of Service (DoS).


Alla fine, il successo di Tor Market potrebbe essere la sua rovina, resta da vedere se può sostenere la sua crescita internazionale e operare con un profilo internazionale più elevato, dato il relativo rischio per loro che si facciano strada le forze dell’ordine internazionali.


Alcuni miti sul Dark Web


C’è un’aura di misticismo intorno al Dark Web, come un Internet separato dove si possono trovare molti segreti malvagi e nascosti. Ma se si ha intenzione di approfondire, la prima cosa che si dovrebbe sapere è che non è un grosso problema navigarci, e si trova poco più di quanto c’è dentro la Surface Web.


La caratteristica principale di questo sottoinsieme di Internet è la privacy teorica che offre, sebbene ciò non impedisca lo smantellamento anche delle pagine illegali che vi si trovano. Per i paesi europei medi, questa rete offre pochi vantaggi oltre alla curiosità e avere un’esperienza di navigazione simile a quella di Internet degli Anni 90.


Tuttavia, la privacy è essenziale nei paesi in cui esiste una grande censura istituzionale e la libertà di espressione è amputata, tanto che anche alcuni media come la BBC sono interessati a metterci le loro informazioni per renderle più accessibili. In questi casi, queste reti possono essere utilizzate per trasmettere liberamente le varie opinioni.


È verissimo che la libertà può avere una doppia valenza e questo servizio viene utilizzato anche per scopi meno nobili, ma ciò non significa che non sia altrettanto importante.


Ma l’idea principale che si deve tenere in considerazione è che si vedranno poche cose che già non si trovano sulla Surface Web o dentro la Deep Web, contando su quest’ultimo con pagine e forum nascosti dai motori di ricerca dove simili contenuti possono essere pubblicati, ma non sono più ospitati sulla Surface Web.


Conclusioni


Tutto è internet, alcune parti sono più accessibili e sponsorizzate che altre, alcune parti invece sono all’interno di sistemi p2p o all’interno di grandi VPN.


Questa mancanza di accessibilità e di visibilità fanno la differenza e rendono alcuni settori della rete più ospitali per la malvivenza.

Non bisogna farsi in alcun modo intimidire, basta tenere conto che la maggior parte dei ransomware e attacchi virus si fa all’interno della Surface Web.


Sempre protetti da un ottimo sistema antivirus, si deve evitare di navigare con privilegi di amministrazione del proprio computer o meglio ancora, usare una macchina virtuale per le navigazioni di determinati settori della rete, senza acquisire nulla di illegale potrebbe bastare per una esperienza senza sorprese in queste zone di Internet.


© ๐—ฏ๐˜† ๐—”๐—ป๐˜๐—ผ๐—ป๐—ฒ๐—น๐—น๐—ผ ๐—–๐—ฎ๐—บ๐—ถ๐—น๐—ผ๐˜๐˜๐—ผ

Tutti i diritti riservati | All rights reserved

๏ปฟ

Informazioni Legali

I testi, le informazioni e gli altri dati pubblicati in questo sito nonché i link ad altri siti presenti sul web hanno esclusivamente scopo informativo e non assumono alcun carattere di ufficialità.

Non si assume alcuna responsabilità per eventuali errori od omissioni di qualsiasi tipo e per qualunque tipo di danno diretto, indiretto o accidentale derivante dalla lettura o dall'impiego delle informazioni pubblicate, o di qualsiasi forma di contenuto presente nel sito o per l'accesso o l'uso del materiale contenuto in altri siti.


Autore: by Antonello Camilotto 30 agosto 2025
Il termine wetware è utilizzato in diversi ambiti per indicare l’insieme degli elementi biologici e cognitivi che interagiscono con la tecnologia. Se l’hardware è la parte fisica delle macchine e il software è l’insieme delle istruzioni digitali che le guidano, il wetware rappresenta la dimensione “umida”, organica, legata alla biologia e al cervello umano. Origini del termine La parola compare nella letteratura informatica e cyberpunk a partire dagli anni ’80, quando autori come Rudy Rucker e altri scrittori di fantascienza immaginano mondi in cui computer e sistemi biologici si intrecciano. Da allora, il termine è stato adottato anche in contesti accademici e tecnologici per descrivere l’interazione diretta fra sistemi viventi e macchine digitali. Wetware come metafora biologica Nell’informatica teorica, il wetware è spesso inteso come il cervello umano: il “processore biologico” che elabora informazioni tramite reti neurali naturali. In questo senso, parlare di wetware significa riconoscere che l’essere umano stesso è un sistema informativo, dove neuroni e sinapsi funzionano in modo analogo a transistor e circuiti. Applicazioni scientifiche e tecnologiche Il concetto di wetware trova applicazioni concrete in diversi campi: Neuroscienze e intelligenza artificiale: lo studio del cervello come sistema di elaborazione ispira modelli di reti neurali artificiali. Biocomputing: sperimentazioni con materiali organici (DNA, proteine, cellule) per realizzare calcolatori biologici capaci di risolvere problemi complessi. Brain-computer interfaces (BCI): tecnologie che permettono la comunicazione diretta tra cervello e macchina, come i sistemi di controllo neurale per protesi robotiche. Ingegneria bioibrida: la combinazione di tessuti viventi e componenti elettronici per sviluppare nuove forme di interazione uomo-macchina. Implicazioni culturali ed etiche Oltre alla scienza, il wetware porta con sé un immaginario culturale potente: la fusione tra organico e digitale solleva interrogativi sulla natura dell’identità, sulla possibilità di aumentare le capacità cognitive e sul rischio di ridurre l’essere umano a un “modulo” di calcolo. Le questioni etiche riguardano la privacy dei dati cerebrali, i limiti dell’ibridazione e la definizione stessa di “umano”. Il wetware non è solo una parola suggestiva, ma un concetto che si colloca al confine tra biologia, informatica e filosofia. Indica una frontiera in cui la tecnologia non si limita più a estendere il corpo umano, ma si intreccia con esso, ridefinendo i confini del possibile.
Autore: by Antonello Camilotto 28 agosto 2025
Nel vasto e mutevole panorama dei sistemi operativi, Linux si erge come una maestosa alternativa all'egemonia di Windows e macOS. Creato nel 1991 da Linus Torvalds, Linux ha guadagnato una reputazione ineguagliabile come sistema operativo open source, affascinando programmatori, sviluppatori e appassionati di tecnologia di tutto il mondo. In questo articolo, esploreremo il mondo affascinante e potente di Linux, scoprendo le sue origini, le sue caratteristiche distintive e il suo impatto sulla società moderna. Le Origini di Linux La storia di Linux inizia con un giovane programmatore finlandese di nome Linus Torvalds. Nel 1991, Torvalds, studente all'Università di Helsinki, decise di creare un sistema operativo che fosse simile a UNIX ma accessibile e modificabile da chiunque. Questa ambizione portò alla nascita del kernel di Linux, il cuore del sistema operativo. Una delle caratteristiche chiave di Linux è la sua natura open source. Questo significa che il codice sorgente del sistema operativo è disponibile pubblicamente e può essere modificato e distribuito liberamente. Questa filosofia ha ispirato una vasta comunità di sviluppatori in tutto il mondo, che hanno contribuito a migliorare e personalizzare il sistema operativo nel corso degli anni. Caratteristiche Distintive di Linux 1. Varietà di Distribuzioni: Una delle caratteristiche più affascinanti di Linux è la sua varietà di distribuzioni. Una distribuzione Linux, o "distro", è una versione specifica del sistema operativo che include il kernel di Linux insieme a una selezione di software e strumenti. Alcune distro popolari includono Ubuntu, Fedora, Debian e CentOS. Ogni distro ha il proprio stile e obiettivi specifici, che variano dalla facilità d'uso alla robustezza per l'uso in ambienti aziendali. 2. Personalizzazione: Linux è rinomato per la sua capacità di essere altamente personalizzabile. Gli utenti possono scegliere tra diverse interfacce grafiche, temi e applicazioni per adattare il sistema alle proprie preferenze. Questa flessibilità è particolarmente attraente per gli utenti esperti che desiderano creare un'esperienza su misura. 3. Stabilità e Sicurezza: Linux è noto per la sua stabilità e sicurezza. Grazie alla sua architettura solida e alla natura open source, gli sviluppatori possono individuare e risolvere rapidamente le vulnerabilità di sicurezza. Ciò ha reso Linux una scelta popolare per server, dispositivi integrati e supercomputer. 4. Linguaggio di Linea di Comando (CLI): Linux offre un potente linguaggio di linea di comando che consente agli utenti di interagire direttamente con il sistema operativo. Questa caratteristica è particolarmente amata dagli sviluppatori e dagli amministratori di sistema, poiché consente di eseguire compiti avanzati in modo più efficiente. Impatto sulla Società Moderna Linux ha avuto un impatto significativo sulla società moderna, sia nel mondo della tecnologia che al di fuori di esso. Ecco alcuni modi in cui Linux ha influenzato la nostra vita: 1. Server e Cloud Computing: Molte aziende utilizzano Linux come sistema operativo per i loro server e servizi di cloud computing. La sua affidabilità, sicurezza e scalabilità lo rendono una scelta ideale per gestire carichi di lavoro critici. 2. Android: Il sistema operativo Android, ampiamente utilizzato su smartphone e tablet, è basato su Linux. Questo ha contribuito a rendere Linux parte integrante della vita quotidiana di miliardi di persone in tutto il mondo. 3. Sviluppo Software: Linux è una piattaforma preferita da sviluppatori di software e programmatori. Le sue potenti funzionalità di sviluppo, combinata con la vasta gamma di strumenti disponibili, rendono Linux un'opzione attraente per la creazione di applicazioni. 4. Comunità Open Source: Linux ha contribuito a promuovere la cultura dell'open source, dove il condividere il codice e la collaborazione sono fondamentali. Questa filosofia ha ispirato la creazione di numerosi progetti software open source in tutto il mondo. Linux è molto più di un semplice sistema operativo; è una filosofia che ha dato forma al modo in cui concepiamo la tecnologia. Con la sua natura open source, la sua flessibilità e la sua stabilità, Linux si è affermato come una forza potente e positiva nell'ambito della tecnologia moderna. Mentre continuiamo a esplorare nuovi orizzonti digitali, è probabile che Linux continuerà a svolgere un ruolo cruciale nell'evoluzione tecnologica e nella definizione del nostro futuro digitale.
Autore: by Antonello Camilotto 28 agosto 2025
Dennis MacAlistair Ritchie (1941 – 2011) è stato uno degli ingegneri e scienziati informatici più influenti della storia. Sebbene il suo nome non sia noto al grande pubblico quanto quello di figure come Steve Jobs o Bill Gates, il suo contributo è stato fondamentale per lo sviluppo dell’informatica moderna. Senza il suo lavoro, gran parte delle tecnologie su cui si basano i computer, gli smartphone e persino Internet non esisterebbero nella forma che conosciamo oggi. Gli inizi e la formazione Nato a Bronxville, New York, Ritchie studiò fisica e matematica applicata all’Università di Harvard, dove sviluppò un forte interesse per i calcolatori. Negli anni Sessanta entrò nei Bell Labs, uno dei centri di ricerca più innovativi del Novecento, che fu la culla di invenzioni decisive come il transistor e il linguaggio C. La nascita del linguaggio C Il contributo più noto di Ritchie fu la creazione del linguaggio di programmazione C all’inizio degli anni Settanta. Sviluppato come evoluzione del linguaggio B (a sua volta derivato dal BCPL), C si distinse per la sua efficienza e portabilità. Permetteva di scrivere programmi di basso livello, vicini al linguaggio macchina, mantenendo però un alto grado di astrazione e leggibilità. C divenne rapidamente lo standard per la programmazione di sistemi operativi e applicazioni, influenzando in seguito linguaggi come C++, Java, C#, e persino Python e Go. Il sistema operativo Unix Parallelamente alla creazione di C, Ritchie lavorò insieme a Ken Thompson alla realizzazione di Unix, un sistema operativo rivoluzionario. Unix si distingueva per semplicità, modularità e capacità di essere eseguito su diverse macchine, caratteristiche che lo resero la base di molti sistemi operativi moderni. Dalle sue idee nacquero varianti e discendenti diretti: BSD, Linux, macOS, Android e iOS devono molto a Unix. Oggi, l’eredità di questo sistema operativo è ovunque, dai server web agli smartphone. Riconoscimenti Per il suo contributo, Dennis Ritchie ricevette nel 1983 il Premio Turing, considerato il “Nobel dell’informatica”, insieme a Ken Thompson. Nel 1999 fu insignito della National Medal of Technology dagli Stati Uniti. Tuttavia, non cercò mai i riflettori, preferendo lavorare dietro le quinte. L’eredità Dennis Ritchie morì nel 2011, pochi giorni dopo Steve Jobs, ma la sua scomparsa passò in gran parte inosservata al di fuori della comunità informatica. Eppure, il suo impatto è incalcolabile: ogni volta che utilizziamo un computer, un telefono o navighiamo online, stiamo beneficiando indirettamente delle sue invenzioni. ๏ปฟ Il linguaggio C e Unix rappresentano ancora oggi colonne portanti della programmazione e dei sistemi operativi, dimostrando la visione lungimirante di Ritchie.
Autore: by Antonello Camilotto 28 agosto 2025
Kathleen Booth (nata Britten, 1922 – 2022) è stata una delle figure pionieristiche dell’informatica. Matematica e ricercatrice britannica, viene ricordata soprattutto come colei che sviluppò uno dei primi linguaggi Assembly, aprendo la strada alla programmazione moderna. Negli anni Quaranta lavorò al Birkbeck College di Londra, in un contesto in cui i computer erano ancora macchine sperimentali, ingombranti e complessi da utilizzare. Con il marito, Andrew Booth, progettò alcuni tra i primi calcolatori elettronici britannici, come l’Automatic Relay Calculator e successivamente l’Automatic Computing Engine. La sua intuizione principale fu quella di creare un linguaggio intermedio tra il codice macchina e il pensiero logico del programmatore. Fino ad allora, infatti, per istruire un computer era necessario inserire sequenze di numeri binari o esadecimali, un compito lungo e soggetto a errori. L’Assembly introdusse invece simboli e abbreviazioni che semplificavano la scrittura delle istruzioni, rendendo la programmazione più accessibile e riducendo drasticamente il margine di errore. Il lavoro di Kathleen Booth non si fermò qui: contribuì alla definizione di metodi per la costruzione dei compilatori e si interessò anche all’intelligenza artificiale, anticipando temi che sarebbero esplosi decenni più tardi. La sua carriera proseguì come docente e ricercatrice, lasciando un’impronta profonda nel campo dell’informatica teorica e applicata. Nonostante il suo ruolo fondamentale, per molto tempo la sua figura è rimasta in secondo piano rispetto ad altri pionieri maschili. Solo negli ultimi anni la comunità scientifica e storica le ha restituito il giusto riconoscimento come una delle madri della programmazione moderna. Kathleen Booth è oggi ricordata come l’inventrice del linguaggio Assembly e come una delle menti che hanno reso possibile l’evoluzione dei computer da strumenti sperimentali a macchine universali.
Autore: by Antonello Camilotto 14 agosto 2025
Il divario digitale indica la distanza tra chi ha accesso e competenze nell’uso delle tecnologie digitali e chi, invece, ne è escluso o limitato. Non si tratta solo di possedere un dispositivo o una connessione internet, ma anche di saper utilizzare efficacemente tali strumenti per informarsi, lavorare, studiare o partecipare alla vita sociale. Le cause del divario digitale sono molteplici: differenze economiche, geografiche, culturali e generazionali giocano un ruolo importante. Ad esempio, aree rurali con infrastrutture carenti, famiglie a basso reddito che non possono permettersi dispositivi adeguati, o persone che non hanno ricevuto una formazione digitale di base, rischiano di restare indietro. Le conseguenze possono essere significative: Esclusione sociale e culturale, con minori opportunità di accesso a servizi pubblici e informazione. Svantaggi economici, poiché molte professioni richiedono competenze digitali sempre più avanzate. Limitazioni educative, soprattutto per studenti che non dispongono di strumenti e connessione per seguire la didattica online. Ridurre il divario digitale richiede un approccio integrato. Alcune azioni possibili includono: Potenziamento delle infrastrutture, garantendo connessioni veloci anche nelle zone remote. Accessibilità economica, con agevolazioni per dispositivi e abbonamenti internet. Formazione diffusa, per fornire competenze digitali a tutte le fasce di popolazione, con particolare attenzione a anziani e persone svantaggiate. Colmare questa distanza non significa solo fornire tecnologia, ma anche assicurare che tutti possano usarla in modo consapevole e sicuro. In un mondo sempre più interconnesso, l’inclusione digitale è una condizione essenziale per garantire pari opportunità e partecipazione attiva nella società.
Autore: by Antonello Camilotto 14 agosto 2025
Quando Neil Armstrong e Buzz Aldrin misero piede sulla superficie lunare nel 1969, la missione Apollo 11 era sostenuta da un’impressionante quantità di ingegneria, calcoli e tecnologia. Tuttavia, ciò che oggi sorprende di più non è tanto la complessità della missione, quanto il fatto che la potenza di calcolo del computer di bordo dell’Apollo Guidance Computer (AGC) fosse nettamente inferiore a quella di uno smartphone moderno. Il cervello della missione Apollo: l’AGC L’AGC, sviluppato dal MIT Instrumentation Laboratory, aveva specifiche che oggi sembrano quasi comiche: Processore: 1 MHz di clock Memoria: 2 KB di RAM e 36 KB di memoria a sola lettura (ROM) Prestazioni: circa 85.000 operazioni al secondo Eppure, quell’hardware limitato era sufficiente per guidare un’astronave dalla Terra alla Luna e ritorno, grazie a un software ottimizzato e a un utilizzo estremamente mirato delle risorse. Uno smartphone di oggi: un supercomputer in tasca Prendiamo ad esempio un comune smartphone di fascia media del 2025: Processore: multi-core a oltre 2,5 GHz RAM: 6-12 GB Memoria interna: 128-512 GB Prestazioni: miliardi di operazioni al secondo In termini puramente numerici, un moderno smartphone è milioni di volte più potente dell’AGC in velocità di calcolo, capacità di memoria e larghezza di banda. Perché allora è stato possibile andare sulla Luna con così poca potenza? La risposta sta nella differenza tra potenza grezza e progettazione ottimizzata: Gli ingegneri dell’epoca scrivevano codice estremamente efficiente, privo di sprechi. L’AGC eseguiva solo funzioni essenziali: calcoli di traiettoria, gestione dei sensori, correzioni di rotta. Gran parte del “lavoro” era affidata all’intelligenza umana, non a calcoli automatici continui. Oggi, invece, la potenza di calcolo dei nostri dispositivi è in gran parte usata per elaborazioni grafiche, interfacce complesse, app sempre in esecuzione e funzioni multimediali. Una riflessione finale Dire che “il nostro smartphone è più potente del computer della missione Apollo” è vero, ma rischia di essere fuorviante. La conquista della Luna non è stata una sfida di hardware, ma di ingegno, pianificazione e coraggio. Forse, la vera domanda non è “quanta potenza abbiamo in tasca?”, ma “cosa facciamo con essa?”.
Mostra Altri