Floppy disk e MS-DOS, due storie opposte di tecnologia vintage

by Antonello Camilotto

Negli anni '80 e '90, il mondo della tecnologia ha vissuto un'epoca di straordinarie innovazioni e cambiamenti. Tra i protagonisti di questo periodo vi sono stati due elementi fondamentali: il floppy disk e il sistema operativo MS-DOS. Sebbene abbiano avuto percorsi molto diversi, entrambi hanno lasciato un'impronta indelebile nel panorama tecnologico.


Il Floppy Disk: La Rivoluzione del Supporto di Memorizzazione


Il floppy disk, inventato da IBM nel 1967, ha rivoluzionato il modo in cui i dati venivano memorizzati e trasferiti. Originariamente da 8 pollici, fu poi ridotto a 5,25 pollici e infine a 3,5 pollici, il formato più noto. Questi dischetti erano capaci di contenere da pochi kilobyte a 1,44 megabyte di dati, un'enormità per l'epoca.


La portabilità del floppy disk rappresentava una svolta. Consentiva agli utenti di trasferire facilmente file da un computer all'altro, fare copie di backup e distribuire software. Per molti, il floppy disk fu il primo supporto di memorizzazione rimovibile. Era sinonimo di libertà e convenienza in un'era in cui internet era ancora agli albori.


Tuttavia, con l'avvento di supporti più capienti e affidabili come i CD-ROM, i DVD e le chiavette USB, il floppy disk iniziò il suo declino. La sua capacità limitata e la vulnerabilità ai danni fisici lo resero obsoleto. Negli anni 2000, i computer iniziarono a essere venduti senza unità floppy, segnando la fine di un'era.


MS-DOS: Il Sistema Operativo che Ha Definito una Generazione


MS-DOS (Microsoft Disk Operating System) nacque nel 1981 quando Microsoft acquistò un sistema operativo chiamato 86-DOS, lo adattò e lo rivendette a IBM per il suo primo PC. MS-DOS divenne rapidamente il sistema operativo standard per i personal computer IBM e i loro cloni.


A differenza del floppy disk, che era un supporto fisico, MS-DOS era un software, il cervello che gestiva le operazioni del computer. Era un'interfaccia a riga di comando, senza grafica, dove gli utenti dovevano digitare comandi testuali per eseguire programmi, gestire file e configurare hardware. Per molti, imparare a usare MS-DOS fu il primo passo verso la comprensione dei computer.


MS-DOS dominò il mercato dei sistemi operativi per oltre un decennio, fino all'arrivo delle interfacce grafiche come Windows. Nonostante la sua semplicità e la mancanza di interfaccia grafica, MS-DOS era potente e flessibile, permettendo agli utenti di avere un controllo diretto sul sistema.


Con il passare del tempo, i sistemi operativi divennero sempre più sofisticati e orientati all'utente finale, riducendo la necessità di conoscenze tecniche approfondite. Microsoft introdusse Windows, che progressivamente sostituì MS-DOS come sistema operativo principale, portando con sé un'interfaccia grafica più user-friendly.


Due Percorsi di Innovazione


Mentre il floppy disk e MS-DOS rappresentano due aspetti diversi della tecnologia vintage, entrambi hanno avuto un ruolo cruciale nello sviluppo dei computer personali. Il floppy disk, con la sua portabilità e praticità, ha cambiato il modo di gestire e trasferire i dati. MS-DOS, con la sua semplicità e potenza, ha introdotto milioni di persone all'uso dei computer.


Oggi, entrambi sono considerati obsoleti, ma il loro impatto sulla tecnologia e sulla cultura informatica è innegabile. Hanno gettato le basi per le innovazioni future e rimangono icone di un'era passata, ricordate con nostalgia da chi ha vissuto quei primi giorni dell'informatica.


© ๐—ฏ๐˜† ๐—”๐—ป๐˜๐—ผ๐—ป๐—ฒ๐—น๐—น๐—ผ ๐—–๐—ฎ๐—บ๐—ถ๐—น๐—ผ๐˜๐˜๐—ผ

Tutti i diritti riservati | All rights reserved

๏ปฟ

Informazioni Legali

I testi, le informazioni e gli altri dati pubblicati in questo sito nonché i link ad altri siti presenti sul web hanno esclusivamente scopo informativo e non assumono alcun carattere di ufficialità.

Non si assume alcuna responsabilità per eventuali errori od omissioni di qualsiasi tipo e per qualunque tipo di danno diretto, indiretto o accidentale derivante dalla lettura o dall'impiego delle informazioni pubblicate, o di qualsiasi forma di contenuto presente nel sito o per l'accesso o l'uso del materiale contenuto in altri siti.


Autore: by Antonello Camilotto 16 settembre 2025
Lawrence Joseph “Larry” Ellison, nato a New York nel 1944, è una delle figure più influenti nella storia dell’informatica e dell’imprenditoria tecnologica. Fondatore e leader di Oracle Corporation, Ellison ha trasformato il modo in cui le aziende gestiscono i dati, contribuendo in maniera determinante allo sviluppo dei moderni sistemi di database e dell’infrastruttura IT globale. Gli inizi Ellison crebbe a Chicago, adottato da parenti della madre. Non completò mai gli studi universitari, ma sviluppò una passione per l’informatica che lo portò in California, nel cuore della Silicon Valley nascente. Negli anni Settanta iniziò a lavorare su progetti di database per il governo americano, ispirandosi alle ricerche di Edgar F. Codd sull’organizzazione relazionale dei dati. La nascita di Oracle Nel 1977, insieme a Bob Miner e Ed Oates, fondò Software Development Laboratories, che nel 1982 cambiò nome in Oracle Systems Corporation, dal nome del loro principale prodotto: un database relazionale destinato a rivoluzionare la gestione delle informazioni. L’intuizione vincente di Ellison fu anticipare il mercato, proponendo soluzioni avanzate quando la maggior parte delle aziende non ne percepiva ancora la necessità. Oracle crebbe rapidamente, imponendosi come punto di riferimento per sistemi database ad alte prestazioni. Stile di leadership e visione Ellison è noto per la sua personalità carismatica, competitiva e talvolta controversa. Ha costruito Oracle attraverso acquisizioni strategiche, tra cui PeopleSoft, Siebel, BEA Systems e soprattutto Sun Microsystems, che portò in casa Java e il sistema operativo Solaris. Sotto la sua guida, Oracle è passata da software house a colosso del cloud computing, affrontando rivali come Microsoft, Amazon e Google. La vita oltre Oracle Oltre alla carriera imprenditoriale, Ellison è famoso per il suo stile di vita lussuoso: possiede yacht spettacolari, collezioni d’arte, proprietà immobiliari e perfino l’isola hawaiana di Lanai, che intende trasformare in un modello di sostenibilità. È anche un appassionato velista e ha sponsorizzato più volte la America’s Cup con il team Oracle. L’eredità Larry Ellison è oggi una delle persone più ricche del mondo e continua a influenzare il settore tecnologico. La sua storia incarna il mito della Silicon Valley: da giovane senza laurea a imprenditore miliardario, spinto da una visione chiara e dall’ambizione di cambiare il futuro dell’informatica.
Autore: by Antonello Camilotto 13 settembre 2025
Quando si parla di trasparenza digitale e di libertà d’informazione sul web, un nome spicca tra i pionieri: John Young (1935-2025), architetto newyorkese e attivista, noto soprattutto come fondatore di Cryptome, uno dei primi archivi online dedicati alla diffusione di documenti riservati, tecnici e governativi. La sua figura è spesso descritta come quella di un precursore di ciò che oggi conosciamo come “whistleblowing digitale”. Le origini di Cryptome Cryptome nasce nel 1996, in un’epoca in cui internet stava ancora definendo i propri confini. L’obiettivo del sito era chiaro: rendere pubbliche informazioni ritenute di interesse collettivo, spesso celate dietro il velo della segretezza governativa o aziendale. Da manuali su tecniche di sorveglianza a documenti sulle agenzie di intelligence, Cryptome si impose rapidamente come una piattaforma di rottura, in netto contrasto con le logiche di controllo e censura. Una filosofia radicale di trasparenza A differenza di altre realtà simili, John Young non ha mai cercato di trarre profitto dal progetto né di costruire un’organizzazione strutturata. La sua era – ed è – una missione personale, guidata da una convinzione semplice ma radicale: la conoscenza appartiene a tutti, senza eccezioni. Cryptome non operava filtri etici o giornalistici come invece avrebbero fatto in seguito piattaforme come WikiLeaks. Tutto ciò che poteva contribuire a scardinare il potere dell’opacità veniva pubblicato, senza compromessi. Il rapporto con WikiLeaks e Julian Assange Con la nascita di WikiLeaks, nel 2006, molti individuarono in Cryptome il suo diretto predecessore. Lo stesso Julian Assange collaborò inizialmente con John Young, che però si distaccò dal progetto criticandone la centralizzazione e l’approccio sempre più mediatico. Young vedeva in WikiLeaks un rischio di personalizzazione eccessiva, laddove Cryptome era rimasto volutamente spoglio, privo di protagonismi e gestito con rigore minimalista. Critiche e controversie La radicalità di Young ha spesso generato controversie. Pubblicare documenti sensibili, senza selezione né mediazione, ha attirato accuse di irresponsabilità e persino di mettere in pericolo vite umane. Eppure, la sua visione rimane coerente: la segretezza, secondo lui, è un’arma del potere che serve a sottrarre ai cittadini il diritto di conoscere. Un’eredità duratura Oggi, in un’epoca segnata da whistleblower come Edward Snowden e da battaglie globali per la protezione dei dati, la figura di John Young appare quasi profetica. Cryptome continua a esistere, pur restando una nicchia rispetto ai colossi dell’informazione digitale, ma la sua influenza è innegabile. È stato tra i primi a dimostrare che internet poteva diventare un archivio permanente della verità scomoda, capace di sfidare governi e multinazionali. John Young non è stato un personaggio mediatico, né un leader carismatico, ma piuttosto un uomo che ha fatto della coerenza la propria arma, costruendo un luogo digitale dove la trasparenza assoluta diventa strumento di libertà. Se oggi discutiamo di open data, di whistleblowing e di diritto all’informazione, è anche grazie al seme piantato da Cryptome più di venticinque anni fa.
Autore: by Antonello Camilotto 13 settembre 2025
Le scuole italiane affrontano una delle sfide più urgenti e decisive del nostro tempo: l’integrazione efficace delle tecnologie digitali nel sistema educativo. Dopo anni di investimenti frammentati, sperimentazioni isolate e progetti pilota, esperti, docenti e studenti concordano su un punto: serve una riforma strutturale, profonda e duratura. Il mondo cambia velocemente, trascinato dalla rivoluzione digitale, ma l’istruzione in Italia rischia di restare indietro. Se da un lato la pandemia ha accelerato l’adozione di strumenti digitali — basti pensare alla didattica a distanza — dall’altro ha evidenziato le profonde disuguaglianze tra scuole del nord e del sud, tra centri urbani e zone periferiche, tra istituti ben attrezzati e altri ancora legati a una didattica analogica. Secondo i dati del Ministero dell’Istruzione, meno del 30% delle scuole italiane dispone di infrastrutture digitali adeguate, con connessioni veloci, dispositivi aggiornati e personale formato. Il Piano Scuola 4.0, inserito nel PNRR, ha promesso investimenti per trasformare 100.000 aule tradizionali in ambienti di apprendimento innovativi, ma la realizzazione procede a rilento, rallentata da burocrazia, carenza di competenze gestionali e assenza di una visione strategica condivisa. Il nodo della formazione dei docenti Una delle criticità principali è la formazione del personale scolastico. “Non basta dotare le scuole di tablet o lavagne digitali se gli insegnanti non sono messi in condizione di usarli in modo efficace e critico,” spiega la professoressa Marta Bellini, dirigente scolastica in provincia di Milano. “Serve una cultura digitale condivisa, non solo una competenza tecnica.” Al momento, la formazione digitale è ancora facoltativa o affidata alla buona volontà delle singole scuole. Occorre un piano nazionale obbligatorio, continuo e integrato, che accompagni gli insegnanti nella transizione, valorizzando anche le esperienze già in corso. Gli studenti chiedono di più Anche le nuove generazioni, paradossalmente, non sono del tutto digitali. Usano dispositivi e app, ma raramente sviluppano un pensiero critico o una reale alfabetizzazione digitale. “Ci insegnano a usare Word o PowerPoint, ma nessuno ci spiega cosa sia un algoritmo, come funziona l’intelligenza artificiale o quali rischi comporta il cyberbullismo,” racconta Luca, 17 anni, studente a Roma. Una riforma digitale deve quindi partire dai curricula: servono nuove materie, nuovi approcci interdisciplinari e una maggiore attenzione all’etica digitale, alla sicurezza online e alla cittadinanza digitale. Un’occasione da non perdere Il 2026, data di scadenza del PNRR, rappresenta un bivio: o si avvia un cambiamento radicale o si perde un’occasione storica. Non bastano proclami o fondi spot. Serve un’azione coordinata tra ministeri, enti locali, scuole, università e imprese. Una riforma che non si limiti alla tecnologia, ma che ripensi il modello educativo nel suo complesso. L’Italia ha le competenze, le risorse e le intelligenze per guidare questo cambiamento. Quello che manca, ancora, è la volontà politica di trasformare le promesse in realtà. Il futuro della scuola passa dal digitale. Ma il tempo per agire è adesso!
Autore: by Antonello Camilotto 11 settembre 2025
Il futuro del digitale non è più soltanto sulla Terra. Con il progetto Lunar Vault, il primo datacenter lunare, l’umanità compie un passo che fino a pochi anni fa apparteneva solo alla fantascienza. Un’infrastruttura tecnologica costruita direttamente sul nostro satellite naturale, capace di custodire e gestire dati in un ambiente estremo e affascinante. Perché portare i dati sulla Luna? Dietro questa impresa c’è un’idea semplice ma visionaria: liberare la Terra da parte del peso energetico e ambientale dei datacenter tradizionali. Lunar Vault sfrutta i poli lunari, dove la luce del Sole è presente quasi tutto l’anno, garantendo un flusso costante di energia solare. Inoltre, il vuoto spaziale e le basse temperature offrono condizioni naturali che possono essere utilizzate per il raffreddamento dei server. Un altro aspetto non trascurabile è la sicurezza: un datacenter sulla Luna è praticamente al riparo da disastri naturali, attacchi fisici o sabotaggi, diventando un luogo ideale per ospitare i dati più sensibili del pianeta. Le sfide di Lunar Vault La realizzazione del progetto non è stata priva di ostacoli. I tecnici hanno dovuto affrontare il problema delle radiazioni cosmiche, che minacciano i componenti elettronici, e sviluppare sistemi robotici autonomi capaci di costruire la struttura senza la presenza costante di astronauti. Anche le comunicazioni richiedono tecnologie avanzate: la trasmissione dei dati avviene tramite collegamenti laser ad altissima velocità, con un ritardo minimo di circa 1,3 secondi tra Terra e Luna. Un simbolo di progresso e potere Lunar Vault non è solo un’infrastruttura tecnologica: è anche un simbolo geopolitico. Avere il controllo di un datacenter nello spazio significa conquistare un vantaggio strategico, aprendo la strada a un’economia digitale interplanetaria. Allo stesso tempo, sarà una risorsa per la ricerca scientifica, offrendo supporto immediato alle missioni spaziali e alla gestione dei dati provenienti da esperimenti lunari e futuri viaggi verso Marte. Un nuovo orizzonte Con Lunar Vault si apre una nuova pagina della storia digitale. La Luna diventa non solo un luogo da esplorare, ma anche un nodo vitale per le reti del futuro. Oggi custodire i dati tra le stelle può sembrare un’idea visionaria, ma domani potrebbe diventare la normalità. Il cielo non è più il limite: ora i nostri file viaggiano oltre l’atmosfera, trovando rifugio in una cassaforte di dati sospesa nello spazio. Vuoi che ti proponga anche una versione più breve, da quotidiano online, con un taglio da notizia flash?
Autore: by Antonello Camilotto 11 settembre 2025
Dal 2019, la Russia sta sviluppando il progetto Runet, una rete Internet nazionale con l'obiettivo di ridurre la dipendenza dal web globale e rafforzare il controllo sulle informazioni all'interno dei confini nazionali. Questo progetto mira a incanalare il traffico web attraverso nodi controllati dallo Stato e a implementare sistemi avanzati di filtraggio e sorveglianza, simili al "Great Firewall" cinese. Nonostante gli sforzi del governo russo, la completa disconnessione dalla rete Internet globale non è ancora avvenuta. Il Paese continua a dipendere in larga misura da tecnologie e infrastrutture estere. Tuttavia, il controllo sulle attività online è aumentato significativamente: negli ultimi anni, Mosca ha bloccato o limitato l'accesso a piattaforme occidentali come Facebook e X (precedentemente Twitter) e ha intensificato le restrizioni sull'uso delle VPN, strumenti utilizzati dai cittadini per aggirare i blocchi. La legge sull'Internet sovrano, entrata in vigore il 1° novembre 2019, impone agli operatori di telecomunicazioni l'installazione di apparecchiature statali per analizzare e filtrare il traffico, consentendo al Roskomnadzor, l'ente federale russo per la supervisione delle telecomunicazioni, di gestire centralmente il traffico Internet e limitare l'accesso ai siti vietati. Nonostante questi sviluppi, la realizzazione completa di un Runet autonomo presenta sfide significative. La Russia ospita migliaia di provider Internet, rendendo complessa l'implementazione di un controllo centralizzato. Inoltre, la dipendenza da tecnologie e software stranieri complica ulteriormente l'obiettivo di una rete completamente sovrana. In sintesi, mentre la Russia ha compiuto passi significativi verso la creazione di un Internet "sovrano", il processo è ancora in corso e presenta numerose sfide tecniche e politiche. Il controllo sulle informazioni online è aumentato, ma la completa indipendenza dalla rete globale rimane un obiettivo non ancora raggiunto.
Autore: by Antonello Camilotto 11 settembre 2025
Nell'epoca dell'iperconnessione e della comunicazione istantanea, la persuasione ha subito una profonda trasformazione. Oggi si parla sempre più spesso di Persuasione 2.0, un'evoluzione della classica arte del convincere che si muove tra algoritmi, social media, intelligenza artificiale e nuovi linguaggi digitali. Ma cosa significa esattamente? E in che modo influisce sulle nostre decisioni quotidiane? Cos’è la Persuasione 2.0? La Persuasione 2.0 è l’insieme di strategie, tecnologie e dinamiche psicologiche che mirano a orientare pensieri, comportamenti e decisioni nell’ambiente digitale. A differenza della persuasione tradizionale — basata sul rapporto diretto, sull’oratoria o sul marketing classico — quella 2.0 si fonda su: Big data e profilazione: ogni nostra azione online lascia tracce. Queste informazioni vengono raccolte e analizzate per costruire messaggi personalizzati, capaci di parlare al singolo utente con una precisione mai vista prima. Automazione e IA: chatbot, sistemi di raccomandazione, intelligenze artificiali generative. Tutti strumenti in grado di veicolare contenuti persuasivi su larga scala e in tempo reale. Social proof digitale: like, commenti, recensioni e follower sono diventati metriche persuasive, simboli di approvazione sociale che influenzano le scelte degli utenti. Design comportamentale (nudge design): interfacce e user experience sono progettate per orientare l’utente verso determinate azioni, sfruttando bias cognitivi e microinterazioni. Le tecniche persuasive nell’ambiente digitale Nel contesto della Persuasione 2.0, le tecniche classiche vengono adattate e potenziate: Storytelling algoritmico: i contenuti narrativi vengono costruiti (o selezionati) in base agli interessi dell’utente. Netflix, TikTok e Spotify usano la personalizzazione narrativa per fidelizzare. FOMO (Fear of Missing Out): notifiche push, offerte a tempo limitato e “ultimi pezzi disponibili” stimolano l’urgenza e il desiderio di non restare esclusi. Retargeting pubblicitario: un annuncio che ci segue ovunque non è un caso. È una strategia mirata a rafforzare l’impatto persuasivo ripetendo il messaggio nel tempo e nei contesti più rilevanti. Influencer marketing: le figure pubbliche digitali diventano canali persuasivi potenti, grazie alla fiducia e al senso di vicinanza che instaurano con i follower. Implicazioni etiche e sociali La potenza della Persuasione 2.0 solleva interrogativi rilevanti. Quando la persuasione diventa manipolazione? Dove si colloca il confine tra coinvolgimento e condizionamento? La personalizzazione estrema può rafforzare le bolle informative, limitando l’esposizione a idee differenti. Inoltre, la capacità delle piattaforme di anticipare e influenzare i desideri degli utenti pone questioni su libertà di scelta, autonomia cognitiva e responsabilità degli attori digitali. Serve una nuova consapevolezza? La Persuasione 2.0 non è né buona né cattiva di per sé. È uno strumento potente, e come tale richiede competenza e coscienza critica da parte sia di chi la utilizza sia di chi la subisce. Per affrontarla serve un’educazione digitale che vada oltre la tecnica, abbracciando anche l’etica, la psicologia e la sociologia. Nel mondo della persuasione digitale, chi sa leggere i meccanismi è anche chi può scegliere davvero.
Mostra Altri