I pionieri dell'informatica: Alan Turing

by antonellocamilotto.com


Il metodo di Turing ha avuto un profondo significato per la scienza emergente dell’informatica.


Alan Turing, per esteso Alan Mathison Turing, nasce il 23 giugno 1912 a Londra, in Inghilterra.

Matematico e logico, ha dato importanti contributi alla matematica, alla crittoanalisi, alla logica, alla filosofia e alla matematica biologia e anche alle nuove aree chiamate in seguito informatica, scienze cognitive, intelligenza artificiale e vita artificiale.

Figlio di un funzionario statale, Turing ha studiato in una delle migliori scuole private per poi entrare all’Università di Cambridge per studiare matematica nel 1931.

Dopo la laurea nel 1934, gli fu riconosciuta una borsa di studio al King’s College (il suo college dal 1931) in grazie alle sue ricerche sulla teoria della probabilità.

Nel 1936 l’articolo seminale di Turing “On Computable Numbers, with an Application to the Entscheidungsproblem” fu raccomandato per la pubblicazione dal logico matematico americano Alonzo Church, che aveva appena pubblicato un documento con il quale raggiungeva le stesse conclusioni di Turing, sebbene da un metodo diverso.

Nello stesso anno Turing si trasferì alla Princeton University per studiare per un dottorato di ricerca. in logica matematica sotto la direzione di Church (completato nel 1938).


La Macchina di Turing


Le “macchine di Turing”, descritte per la prima volta dal matematico nel 1936-37, sono semplici dispositivi computazionali astratti il cui obiettivo è indagare sull’estensione e sui limiti di ciò che può essere calcolato.

Le “macchine automatiche” di Turing, come le chiamò nel 1936, furono appositamente ideate per il calcolo dei numeri reali.
Furono nominate per la prima volta “macchine di Turing” da Alonzo Church in una recensione dell’articolo di Turing nel 1937.

Oggi sono considerati uno dei modelli fondamentali della computabilità e dell’informatica teorica.

Turing ha introdotto le macchine sue omonime nel contesto della ricerca sui fondamenti della matematica e, più in particolare, ha usato questi dispositivi astratti per dimostrare che non esiste un metodo o una procedura generale efficace per risolvere, calcolare o calcolare ogni istanza del seguente problema.

Problema decisionale (Entscheidungsproblem): Il problema di decidere per ogni affermazione in logica di primo ordine, il cosiddetto calcolo funzionale ristretto, se è derivabile o meno in quella logica.

Si noti che nella sua forma originale (Hilbert & Ackermann 1928), il problema era posto in termini di validità piuttosto che di derivabilità.
Dato il 
Teorema di Completezza di Kurt Gödel (1929), dimostrare che esiste una procedura efficace (o meno) per la derivabilità è anche una soluzione del problema nella sua validità.

Per affrontare questo problema, è necessaria una nozione formalizzata di “procedura efficace” e le macchine di Turing avevano lo scopo di fare esattamente questo.

Il Problema Decisionale (Entscheidungsproblem): quello che i matematici chiamavano un “procedura efficace” per risolvere tale problema era semplicemente un metodo che poteva essere paragonato a quello di un impiegato matematico umano che lavorava a memoria.

Ai tempi di Turing, questi lavoratori meccanici erano infatti chiamati “computer” e i computer umani svolgevano alcune mansioni poi svolte in seguito dai computer elettronici. L’Entscheidungsproblem ha cercato un metodo efficace per risolvere il problema matematico fondamentale di determinare esattamente quali affermazioni matematiche sono dimostrabili all’interno di un dato sistema matematico formale e quali no.

Un metodo per determinarlo è chiamato “metodo decisionale”.

Nel 1936 Turing e Church dimostrarono per vie parallele che, in generale, il problema dell’Entscheidungsproblem non ha soluzione, dimostrando che nessun sistema formale coerente di aritmetica ha un metodo decisionale efficace e di conseguenza, anche i sistemi puramente logici, notevolmente più deboli dell’aritmetica, non lo possiedono.

Questo risultato e altri – in particolare i Teoremi di Incompletezza del matematico-logico Kurt Gödel – hanno deluso le speranze, nutrite da alcuni matematici, di scoprire un sistema formale che riducesse l’intera matematica a metodi che i computer (umani) potrebbero eseguire.

Fu nel corso del suo lavoro sull’Entscheidungsproblem che il matematico londinese inventò la macchina universale di Turing, un sistema informatico astratto che incapsula i principi logici fondamentali del computer digitale.


La Tesi Church-Turing


Un passo importante nell’argomentazione di Turing sul problema della decisione è stata l’affermazione, ora chiamata tesi di Church-Turing, che tutto ciò che è umanamente calcolabile può essere calcolato anche dalla macchina universale di Turing.

L’affermazione è importante perché segna i limiti del calcolo umano.

Church nella sua opera utilizzò invece la tesi che tutte le funzioni umanamente calcolabili sono identiche a quelle che chiamò funzioni definibili lambda (funzioni sugli interi positivi i cui valori possono essere calcolati mediante un processo di sostituzione ripetuta).

Turing dimostrò nel 1936 che la tesi di Church era equivalente alla sua, dimostrando che ogni funzione definibile lambda è calcolabile dalla macchina universale di Turing e viceversa.

In una revisione del lavoro di Turing, Church ha riconosciuto la superiorità della formulazione della tesi di Turing sulla propria (che non faceva alcun riferimento alle macchine informatiche), affermando che il concetto di calcolabilità da parte di una macchina di Turing “ha il vantaggio di rendere con efficacia evidente immediatamente tale identificazione”.


Il Problema Filosofico della Computazione


Nel suo contesto originale, l’identificazione di Turing tra i numeri calcolabili e le macchine di Turing mirava a dimostrare che il problema decisionale non è un problema calcolabile e quindi non un cosiddetto problema di “processo generale”.

L’assunto di base da fare per questo risultato è che la nostra nozione “intuitiva” di computabilità può essere formalmente definita come computabilità di Turing e quindi che non ci sono problemi “calcolabili” che non siano computabili da Turing.

Ma qual era la nozione “intuitiva” di calcolabilità di Turing e come possiamo essere sicuri che copra davvero tutti i problemi calcolabili e, più in generale, tutti i tipi di calcoli? Questa è una domanda fondamentale nella filosofia dell’informatica.

Al momento in cui Turing stava scrivendo il suo articolo, il computer moderno non era ancora stato sviluppato e quindi le riformulazioni della tesi che identificano la computabilità di Turing con la computabilità di un computer moderno sono interpretazioni piuttosto che affermazioni storicamente corrette della tesi del matematico britannico.

Le macchine informatiche esistenti all’epoca in cui Turing scrisse il suo articolo, come l’analizzatore differenziale o le calcolatrici da tavolo, erano piuttosto limitate in ciò che potevano calcolare e venivano utilizzate in un contesto di pratiche computazionali umane.
Non sorprende quindi che Turing non abbia tentato di formalizzare il calcolo automatico, ma piuttosto il calcolo umano e quindi i problemi calcolabili nell’articolo di Turing diventano calcolabili con mezzi umani.

Questo è diviene esplicito dove è possibile dimostrare che le macchine di Turing sono un modello “naturale” di computazione umana.
L’analisi si traduce in una sorta di calcolatore umano astratto che soddisfa una serie di condizioni diverse che sono radicate nel riconoscimento di Turing di una serie di limitazioni umane che delimitano ciò che possiamo calcolare (del nostro apparato sensoriale ma anche del nostro apparato mentale).


Risolvere l'Enigma


Tornato dagli Stati Uniti alla sua borsa di studio al King’s College nell’estate del 1938, Turing si iscrisse alla Government Code and Cypher School e, allo scoppio della guerra con la Germania nel settembre 1939, si trasferì al quartier generale dell’organizzazione in tempo di guerra. a Bletchley Park, Buckinghamshire.

Poche settimane prima, il governo polacco aveva fornito a Gran Bretagna e Francia i dettagli dei successi polacchi contro Enigma, la principale macchina di cifratura utilizzata dall’esercito tedesco per crittografare le comunicazioni radio.

Già nel 1932, un piccolo team di matematici-crittoanalisti polacchi, guidato da Marian Rejewski, era riuscito a dedurre il cablaggio interno di Enigma, e nel 1938 il team di Rejewski aveva ideato una macchina per la decodifica del codice chiamata “Bomba” (la parola polacca per una specie di gelato).

Il funzionamento della “Bomba” dipendeva dalle procedure operative tedesche, e un cambiamento di tali procedure nel maggio 1940 la rese inutile.

Durante l’autunno del 1939 e la primavera del 1940, Turing e altri progettarono una macchina per decifrare tali codici. Per il resto della guerra, questa nuova “Bomba” fornì agli alleati grandi quantità di informazioni militari.

All’inizio del 1942 i crittoanalisti di Bletchley Park stavano decodificando circa 39.000 messaggi intercettati ogni mese, una cifra che in seguito salì a più di 84.000 al mese – due messaggi al minuto, giorno e notte.
Nel 1942 Turing ideò anche il primo metodo sistematico per violare i messaggi crittografati dalla sofisticata macchina cifratrice tedesca che gli inglesi chiamavano “Tunny”.

Alla fine della guerra, Turing fu nominato Ufficiale dell’Eccellentissimo Ordine dell’Impero Britannico (OBE) per il suo lavoro di decrittazione.


Lo Sviluppo del Computer


Nel 1945, finita la guerra, Turing fu reclutato al National Physical Laboratory (NPL) di Londra per creare un computer elettronico.
Il suo progetto per l’Automatic Computing Engine (ACE) è stata 
la prima specifica completa di un computer digitale multiuso elettronico a programma memorizzato.

Se l’ACE di Turing fosse stato costruito come aveva pianificato, avrebbe avuto molta più memoria di tutti gli altri primi computer, oltre ad essere più veloce.

Tuttavia, i suoi colleghi della NPL ritennero che l’ingegneria fosse troppo difficile da tentare e fu costruita una macchina molto più piccola, il Pilot Model ACE (1950).

NPL perse la corsa per costruire il primo computer digitale a programma memorizzato elettronico funzionante al mondo – un onore che andò al Royal Society Computing Machine Laboratory dell’Università di Manchester nel giugno 1948.

Scoraggiato dai ritardi di NPL, Turing assunse la carica di vicedirettore del Computing Machine Laboratory in quell’anno.
Dopo l’arrivo di Turing a Manchester, i suoi principali contributi allo sviluppo del computer furono la progettazione di un sistema di input-output, utilizzando la tecnologia di Bletchley Park, e la progettazione del suo sistema di programmazione.

Ha anche scritto il primo manuale di programmazione e il suo sistema è stato utilizzato nel Ferranti Mark I, il primo calcolatore elettronico digitale commercializzabile (1951).


Pioniere dell'Intelligenza Artificiale


Turing è stato uno dei padri fondatori dell’intelligenza artificiale e della moderna scienza cognitiva, nonché uno dei primi esponenti dell’ipotesi che il cervello umano sia in gran parte una macchina informatica digitale. Ha teorizzato che la corteccia alla nascita è una “macchina non organizzata” che attraverso “l’allenamento” si organizza “in una macchina universale”. Turing propose quello che in seguito divenne noto come il “test di Turing” come criterio per stabilire se un computer artificiale sta pensando (1950).


Gli Ultimi Anni


Turing fu eletto membro della Royal Society di Londra nel marzo 1951.

Nel marzo 1952 fu condannato per “gravi atti osceni” – vale a dire, l’omosessualità, un crimine in Gran Bretagna a quel tempo – e fu condannato a 12 mesi di “terapia” ormonale.

Con dei precedenti penali, non sarebbe mai più stato in grado di lavorare per il Government Communications Headquarters (GCHQ), il centro di decodifica del dopoguerra del governo britannico.

Turing trascorse il resto della sua breve ma monumentale carriera a Manchester, dove nel maggio 1953 fu assegnato a un gruppo di lettori creato appositamente per la teoria dell’informatica.

Dal 1951 Turing aveva lavorato su quella che oggi è conosciuta come “vita artificiale”.

Ha pubblicato “The Chemical Basis of Morphogenesis” nel 1952, descrivendo aspetti della sua ricerca sullo sviluppo della forma e del modello negli organismi viventi.

Turing ha utilizzato il computer Ferranti Mark I di Manchester per modellare il suo ipotetico meccanismo chimico per la generazione della struttura anatomica negli animali e nelle piante.

Nel bel mezzo di questo lavoro pionieristico, Turing fu scoperto morto nel suo letto, avvelenato dal cianuro.
Il verdetto ufficiale fu suicidio, ma nessun movente fu stabilito all’inchiesta del 1954.

La sua morte è spesso attribuita al “trattamento” ormonale che ha ricevuto per mano delle autorità dopo il suo processo per la sua omosessualità.

Eppure morì più di un anno dopo che le dosi ormonali erano terminate e, in ogni caso, il resiliente Turing aveva sopportato quel trattamento crudele con quella che il suo caro amico Peter Hilton chiamava “noncuranza”.

Inoltre, a giudicare dai verbali dell’inchiesta, non è stata presentata alcuna prova per indicare che Turing intendesse togliersi la vita, né che l’equilibrio della sua mente fosse disturbato (come sosteneva il coroner).

In effetti, il suo stato mentale sembra essere stato irrilevante in quel momento.

Sebbene non si possa escludere il suicidio, è anche possibile che la sua morte sia stata semplicemente un incidente, il risultato dell’inalazione di fumi di cianuro da un esperimento nel piccolo laboratorio adiacente alla sua camera da letto.

Non si può nemmeno del tutto escludere l’omicidio da parte dei servizi segreti britannici o alleati, dato che Turing possedeva una conoscenza sterminata in termini di crittoanalisi, in un’epoca dominata dalla paranoia dettata dall’incombente Guerra Fredda.


© ๐—ฏ๐˜† ๐—”๐—ป๐˜๐—ผ๐—ป๐—ฒ๐—น๐—น๐—ผ ๐—–๐—ฎ๐—บ๐—ถ๐—น๐—ผ๐˜๐˜๐—ผ

Tutti i diritti riservati | All rights reserved

๏ปฟ

Informazioni Legali

I testi, le informazioni e gli altri dati pubblicati in questo sito nonché i link ad altri siti presenti sul web hanno esclusivamente scopo informativo e non assumono alcun carattere di ufficialità.

Non si assume alcuna responsabilità per eventuali errori od omissioni di qualsiasi tipo e per qualunque tipo di danno diretto, indiretto o accidentale derivante dalla lettura o dall'impiego delle informazioni pubblicate, o di qualsiasi forma di contenuto presente nel sito o per l'accesso o l'uso del materiale contenuto in altri siti.


Autore: by Antonello Camilotto 24 aprile 2025
A sei anni, sanno già scrivere le prime righe di codice. A dieci, costruiscono robot con sensori e intelligenza artificiale di base. A dodici, partecipano a competizioni nazionali di programmazione. In Cina, il futuro non è domani: è oggi, ed è scritto nel linguaggio dell’algoritmo. Il governo cinese ha scelto una rotta chiara: rendere l’intelligenza artificiale una materia fondante del percorso scolastico fin dalle elementari. Una decisione che riflette un’ambizione precisa: fare della Cina il leader globale dell’IA entro il 2030. E per farlo, serve iniziare dai banchi di scuola. L’IA entra nei programmi scolastici Dal 2018, il Ministero dell’Istruzione cinese ha cominciato a introdurre corsi di IA in centinaia di scuole elementari e medie, in un progetto pilota poi esteso a livello nazionale. Nelle aule, tra lavagne digitali e tablet, gli studenti non solo imparano cos’è un’intelligenza artificiale, ma la mettono in pratica. Si cimentano con il coding, costruiscono piccoli robot, apprendono le basi del deep learning. I libri di testo dedicati all’IA sono già una realtà per milioni di studenti. Le lezioni, spesso condotte da insegnanti formati in collaborazione con aziende tech, mirano a sviluppare il pensiero logico, la creatività e l’abilità di risolvere problemi complessi: competenze chiave per il mondo del lavoro che verrà. L’alleanza tra Stato e big tech Il progetto non è solo scolastico: è sistemico. Colossi come Baidu, Tencent e Alibaba sono partner attivi di questo grande esperimento educativo. Offrono piattaforme, software educativi, kit didattici e organizzano competizioni su scala nazionale. Ogni anno si svolgono centinaia di gare di robotica e coding nelle scuole, dove migliaia di giovani mettono alla prova le proprie abilità in scenari sempre più realistici. Alcuni vincono borse di studio, altri entrano nei radar delle aziende prima ancora di diplomarsi. Educazione o pressione? Il modello, però, non è privo di critiche. Alcuni esperti sottolineano come questa spinta verso l’innovazione tecnologica rischi di aumentare lo stress sui bambini e limitare l’apprendimento umanistico. “Il rischio è che si crei una generazione tecnicamente brillante ma poco abituata al pensiero critico indipendente”, avverte un docente universitario di Pechino. Altri, invece, vedono in questa strategia un esempio da seguire. In Occidente, l’educazione all’IA è ancora frammentaria e spesso relegata a iniziative extracurricolari. In Cina, è parte integrante del piano educativo nazionale. Il futuro in miniatura Guardando questi bambini cinesi mentre programmano e creano, si ha la sensazione che stiano già vivendo in un tempo che altrove è ancora immaginato. Per la Cina, il futuro dell’intelligenza artificiale non è solo una questione economica o geopolitica: è una sfida educativa. E si gioca oggi, tra i banchi di scuola. Una cosa è certa: nella corsa globale all’intelligenza artificiale, Pechino ha messo il turbo. E ha deciso di partire dai più piccoli.
Autore: by Antonello Camilotto 23 aprile 2025
In un periodo in cui la conoscenza sembra essere a portata di click, spesso ci dimentichiamo di chi, dietro le quinte, lavora instancabilmente per costruire, correggere e arricchire le fonti da cui attingiamo quotidianamente. Uno di questi custodi della conoscenza è Steven Pruitt, definito da molti come l’eroe silenzioso di Wikipedia. Chi è Steven Pruitt? Nato nel 1984 a San Antonio, Texas, e cresciuto a Virginia Beach, Steven Pruitt è un archivista americano e soprattutto un prolifico editor di Wikipedia. Conosciuto online con lo pseudonimo Ser Amantio di Nicolao (nome ispirato a un personaggio dell'opera "Gianni Schicchi" di Puccini), Pruitt è stato riconosciuto come l’utente più attivo nella storia dell’enciclopedia libera. Nel corso degli anni, ha effettuato oltre 5 milioni di modifiche e ha creato più di 35.000 voci. Una cifra impressionante, soprattutto se si considera che lo fa volontariamente, mosso unicamente dalla passione per la conoscenza e la condivisione del sapere. Il suo impatto sulla conoscenza globale Il contributo di Pruitt va ben oltre la quantità: la qualità e l’approccio delle sue modifiche rivelano un impegno autentico verso l’accuratezza, l’inclusività e la diffusione di contenuti storici spesso trascurati. È stato un pioniere nel promuovere la rappresentazione femminile su Wikipedia, contribuendo ad aumentare la percentuale di voci dedicate a donne, scienziate, artiste e figure storiche dimenticate. ๏ปฟ Una delle sue battaglie personali è proprio quella contro i vuoti sistemici nella conoscenza online: il rischio che alcuni argomenti, culture o persone vengano esclusi semplicemente perché meno documentati. Il suo lavoro è diventato quindi anche un atto di giustizia culturale. Un riconoscimento (quasi) inaspettato Nel 2017, Time Magazine lo ha inserito nella lista delle 25 persone più influenti su Internet, accanto a nomi come J.K. Rowling e Kim Kardashian. Un riconoscimento che ha sorpreso lo stesso Pruitt, abituato a lavorare lontano dai riflettori, con umiltà e discrezione. Nonostante il successo, continua a condurre una vita semplice, lavorando come impiegato presso la US Customs and Border Protection, e modificando Wikipedia durante il tempo libero. Per lui, contribuire all’enciclopedia è un modo per lasciare un’eredità di conoscenza e fare la differenza nel mondo, una modifica alla volta. Un esempio per tutti Steven Pruitt incarna ciò che c’è di più puro nello spirito di Internet: la collaborazione, la condivisione libera del sapere, e la volontà di costruire qualcosa di utile per gli altri. In un'epoca spesso dominata dall’apparenza e dall’autocelebrazione, la sua dedizione silenziosa ci ricorda che anche i gesti più discreti possono avere un impatto enorme. In fondo, ogni volta che consultiamo Wikipedia, c’è una buona probabilità che dietro una voce ci sia passato lui. E forse, senza nemmeno saperlo, gli dobbiamo molto più di quanto immaginiamo.
Autore: by Antonello Camilotto 23 aprile 2025
Margaret Heafield Hamilton (nata il 17 agosto 1936 a Paoli, Indiana) è una pioniera dell’informatica, celebre per aver diretto lo sviluppo del software di bordo delle missioni Apollo della NASA. La sua visione, il rigore scientifico e l’invenzione del concetto moderno di "ingegneria del software" hanno avuto un impatto cruciale sulla riuscita dello sbarco lunare del 1969. ๏ปฟ Gli Inizi: dal MIT alla NASA Hamilton si laurea in matematica al Earlham College nel 1958. In un periodo in cui pochissime donne lavoravano nella tecnologia, lei comincia a lavorare al MIT (Massachusetts Institute of Technology), inizialmente su progetti meteorologici per il Dipartimento della Difesa. Nel 1961 entra a far parte del Lincoln Laboratory del MIT, dove sviluppa software per rilevare aerei nemici nel contesto della Guerra Fredda. Ma il suo vero salto arriva quando viene coinvolta nel progetto Apollo: il MIT era stato incaricato di costruire il software per il computer di bordo dell'Apollo Guidance Computer (AGC), e Hamilton ne diventa la responsabile. Il Software che ha Salvato la Missione Apollo 11 Durante la missione Apollo 11, pochi minuti prima dell’allunaggio, il sistema di bordo cominciò a segnalare errori (famosi "errori 1202 e 1201"). In quel momento cruciale, il software progettato dal team di Hamilton si dimostrò all’altezza: il sistema era stato programmato per gestire le priorità, e scartò in automatico i compiti non essenziali per concentrarsi sull’allunaggio, permettendo a Neil Armstrong e Buzz Aldrin di completare la missione con successo. Questa decisione del software di non collassare ma di ricalibrarsi in tempo reale è oggi considerata uno dei primi esempi di sistemi resilienti e a tolleranza di errore. Hamilton aveva insistito sull’importanza di questi meccanismi, spesso in controtendenza rispetto alle priorità degli ingegneri hardware. Conio del Termine "Ingegneria del Software" Hamilton è anche accreditata per aver coniato l’espressione "software engineering", un termine oggi standard, ma che all’epoca veniva guardato con scetticismo. Il suo uso del termine voleva sottolineare l’importanza del software come disciplina ingegneristica a tutti gli effetti, dotata di rigore, metodologia e responsabilità critica, soprattutto in ambiti dove un errore poteva costare vite umane. Dopo l’Apollo: Hamilton Technologies Nel 1986 fonda Hamilton Technologies, Inc., un’azienda focalizzata sullo sviluppo di sistemi software altamente affidabili. Qui introduce il concetto di Universal Systems Language (USL) e la metodologia Development Before the Fact, mirata a prevenire errori prima ancora che possano essere introdotti nel codice. Riconoscimenti Margaret Hamilton ha ricevuto numerosi premi per il suo contributo alla scienza e alla tecnologia: Presidential Medal of Freedom nel 2016, conferita da Barack Obama Computer History Museum Fellow Award Citata in numerose opere e mostre sull’esplorazione spaziale Una delle immagini più celebri di Hamilton la ritrae accanto a una pila di libri: sono le stampe del codice del software Apollo, alte quanto lei. Un’immagine iconica che simboleggia quanto fosse fondamentale il software in quella che fu una delle imprese più straordinarie dell’umanità. Margaret Hamilton è oggi riconosciuta come una delle menti più brillanti nella storia della tecnologia. Ha aperto la strada a milioni di donne nella scienza e nella tecnologia, dimostrando con i fatti che il software è scienza, ed è anche arte, responsabilità e visione.
Autore: by Antonello Camilotto 23 aprile 2025
La navigazione in incognito, o "modalità privata", è una funzione disponibile in quasi tutti i browser moderni, da Google Chrome a Firefox, Safari e Microsoft Edge. Viene spesso percepita come uno scudo contro la sorveglianza digitale, ma è importante capire esattamente cosa fa e, soprattutto, cosa non fa questa modalità. A cosa serve la modalità in incognito? Non salva la cronologia Quando navighi in incognito, il browser non memorizza le pagine visitate nella cronologia. Questo è utile se stai cercando un regalo a sorpresa, facendo ricerche personali o usando un computer condiviso. Non salva cookie e dati di sessione I cookie (che ricordano preferenze e login) vengono eliminati al termine della sessione. Quindi, se accedi a un sito, chiudi la finestra e riapri, dovrai accedere di nuovo. Non memorizza moduli o ricerche Tutto ciò che scrivi nei campi di ricerca o nei form non verrà salvato nella memoria del browser. Permette login multipli Puoi accedere a più account dello stesso sito in parallelo (es. due Gmail aperti contemporaneamente: uno in incognito, uno in finestra normale). A cosa non serve la modalità in incognito? Non nasconde la tua attività al tuo provider internet o alla rete Wi-Fi Il tuo ISP (provider) può comunque vedere quali siti visiti, così come può farlo chi gestisce la rete (es. scuola, ufficio, hotel). Non ti rende anonimo su internet I siti che visiti possono comunque raccogliere informazioni su di te (come l’indirizzo IP) e monitorare la tua attività, soprattutto se effettui il login. Non blocca tracker, pubblicità o fingerprinting Anche se i cookie vengono cancellati, molti siti usano tecniche avanzate per tracciarti, come il browser fingerprinting (identificare il tuo dispositivo in base alle sue caratteristiche uniche). Non protegge da malware o phishing La modalità in incognito non offre nessuna protezione extra contro siti malevoli, virus, o attacchi informatici. Quindi ... è inutile? Assolutamente no. La navigazione in incognito è utile per mantenere una certa privacy locale, cioè sul dispositivo che stai usando. È una funzione comoda per: Evitare di salvare cronologia e ricerche Accedere temporaneamente ad account Navigare su computer pubblici o condivisi senza lasciare tracce Ma non è una modalità anonima. Se cerchi anonimato reale o protezione della privacy a livello di rete, dovresti usare strumenti più avanzati, come VPN, Tor o browser focalizzati sulla privacy (es. Brave, Firefox con estensioni mirate). Navigare in incognito è come scrivere con l'inchiostro simpatico: nessuno lo legge subito, ma lascia comunque tracce che altri strumenti possono vedere. Usala consapevolmente, ma non pensare che basti per diventare invisibile online.
Autore: by Antonello Camilotto 23 aprile 2025
Il 23 aprile 2005, un giovane di nome Jawed Karim — uno dei tre fondatori di YouTube — caricava un breve video di 18 secondi intitolato “Me at the zoo”. Nella clip, Karim si trova davanti all’area degli elefanti allo zoo di San Diego e, con tono casuale, osserva quanto siano “interessanti” gli animali, soprattutto per le loro “veramente, veramente, veramente lunghe proboscidi”. Quel momento, apparentemente banale, ha segnato l’inizio di una rivoluzione culturale e mediatica. Oggi, nel 2025, quel video compie 20 anni. ๏ปฟ Un gesto semplice, un impatto immenso All’epoca, YouTube era ancora un’idea in fase embrionale, concepita come piattaforma per condividere facilmente video online — un’operazione che, fino a quel momento, era complicata, lenta e limitata a pochi utenti esperti. Nessuno, nemmeno i suoi fondatori, avrebbe potuto prevedere quanto YouTube avrebbe trasformato la comunicazione globale, l’informazione, l’intrattenimento e perfino la politica. Con oltre 3 miliardi di utenti attivi al mese nel 2025, YouTube è oggi uno dei siti più visitati al mondo, disponibile in oltre 100 Paesi e tradotto in più di 80 lingue. Ma tutto è iniziato con quella clip tremolante di un ragazzo e degli elefanti. Dall’amatoriale al professionale In 20 anni, YouTube è passato dall’essere un rifugio per contenuti amatoriali a una piattaforma sofisticata che ospita produzioni di alta qualità, programmi originali, documentari, film, concerti, corsi universitari, podcast e dirette streaming. Ha lanciato la carriera di milioni di creatori di contenuti — gli “YouTuber” — diventati a loro volta veri e propri brand, con milioni di follower e contratti milionari. La piattaforma ha anche influenzato profondamente il giornalismo partecipativo, permettendo a chiunque di documentare eventi in tempo reale, dando voce a proteste, denunce e movimenti globali. Un’eredità culturale Il video “Me at the zoo” è oggi un pezzo da museo digitale. Non solo è ancora visibile sul canale originale di Jawed, ma è stato studiato da storici, sociologi e studiosi dei media come punto di partenza per l’evoluzione della cultura online. È diventato simbolo di un’era in cui chiunque può diventare creatore di contenuti, in cui la democratizzazione della comunicazione è diventata una realtà. Uno sguardo al futuro Mentre celebriamo questo anniversario, vale la pena chiedersi: quale sarà il prossimo passo per YouTube? Tra intelligenza artificiale, realtà aumentata, contenuti immersivi e nuove forme di monetizzazione, la piattaforma è destinata a evolversi ancora. Ma una cosa è certa: tutto è cominciato con un video di 18 secondi, un ragazzo con una felpa e degli elefanti. E per quanto il mondo cambi, “Me at the zoo” resterà per sempre il primo capitolo di una delle storie digitali più significative del nostro tempo.
Autore: by Antonello Camilotto 15 aprile 2025
Nel panorama in continua evoluzione della cybersecurity, una nuova e subdola minaccia si sta affacciando all’orizzonte: lo slopsquatting. Questo termine, ancora poco noto al grande pubblico, descrive una tecnica sempre più sfruttata dai cybercriminali per ingannare utenti e sistemi sfruttando un fenomeno molto specifico: le allucinazioni delle intelligenze artificiali. Cos’è lo Slopsquatting? Il termine “slopsquatting” nasce dalla fusione tra sloppy (trasandato, impreciso) e typosquatting (una tecnica nota per registrare domini simili a quelli legittimi ma con errori di battitura). Nel caso dello slopsquatting, però, il focus non è su errori degli utenti, ma su errori delle AI generative. Molti modelli linguistici, chatbot e assistenti AI — anche i più avanzati — possono “allucinare”, ovvero generare dati inesatti o del tutto inventati. Quando, ad esempio, un utente chiede a un’AI il sito ufficiale di un'azienda minore o un tool poco noto, può capitare che l’AI risponda con un URL inesistente ma plausibile. I cybercriminali hanno fiutato l’occasione: registrano preventivamente questi domini inventati, rendendoli operativi come trappole. Se l’utente clicca su uno di questi link sbagliati generati dall’AI, finisce su siti malevoli pronti a rubare dati, infettare con malware o mettere in atto truffe. Come funziona nella pratica Allucinazione dell’AI: Un modello linguistico, rispondendo a una richiesta, genera un nome di dominio errato ma credibile. Registrazione del dominio: I criminali monitorano le allucinazioni più comuni o testano sistemi AI per stimolarle, e registrano in massa i domini che ne derivano. Distribuzione: Quando gli utenti si fidano del risultato dell’AI e cliccano sul link, vengono indirizzati verso un sito truffaldino. Un esempio concreto potrebbe essere: - L’utente chiede: “Qual è il sito ufficiale di SoftLight PDF Tools?” (un software poco noto). - L’AI risponde con www.softlightpdf.com , ma il sito ufficiale in realtà è www.softlight-tools.org . - Il primo dominio, inventato, è stato però registrato da un cybercriminale che lo usa per distribuire malware. Perché è così insidioso? Lo slopsquatting è particolarmente pericoloso perché: Sfrutta la fiducia nell’AI: Gli utenti tendono a fidarsi ciecamente delle risposte fornite dalle intelligenze artificiali. È difficile da individuare: Non è un errore umano, ma una falla nell’affidabilità della generazione testuale. Si adatta velocemente: I criminali possono testare le AI in modo massivo, generando centinaia di nuovi target ogni giorno. Difendersi è possibile? Sì, ma servono consapevolezza e strumenti adatti. Alcuni suggerimenti: Verificare sempre le fonti: Prima di cliccare su un link, controllare se il dominio è quello ufficiale. Usare motori di ricerca per confermare. Protezione DNS e filtraggio web: Le aziende possono implementare sistemi che bloccano domini sospetti o appena registrati. Responsabilità dei provider AI: Le aziende che sviluppano modelli linguistici dovrebbero inserire meccanismi per segnalare link generati e verificare se esistono o se sono stati recentemente registrati. Lo slopsquatting rappresenta una nuova frontiera del cybercrime, dove la creatività dei criminali si fonde con le vulnerabilità emergenti delle tecnologie AI. È una minaccia insidiosa perché sfrutta non la debolezza dell’utente, ma quella dell’intelligenza artificiale stessa. In un mondo sempre più guidato dall’AI, è fondamentale restare vigili, informati e pronti ad adattarsi — perché anche le macchine possono sbagliare, e i criminali sanno esattamente come approfittarsene.
Mostra Altri