Passa al contenuto

Quando l'AI smette di fare notizia

Dall’entusiasmo tecnologico all’infrastruttura invisibile del nostro tempo

Ogni grande tecnologia attraversa una fase di entusiasmo, poi di saturazione, infine di silenzio. Quando smette di fare notizia, non è perché ha fallito, ma perché è diventata struttura. L’intelligenza artificiale si trova oggi esattamente in questo passaggio.


C’è una strana sensazione che accompagna ogni grande passaggio tecnologico: all’inizio sembra tutto lontano, quasi astratto, confinato a poche élite o a laboratori pieni di schermi e formule. Poi, senza un momento preciso che possiamo indicare, quella tecnologia smette di stupire e diventa quotidiana. Entra negli oggetti, nei gesti, nelle abitudini. 

Dalla novità all’infrastruttura

Ricordo quando lanciammo i primi telefoni mobili in SIP, basati sulla tecnologia analogica E-TACS: anche allora sembrava un evento straordinario, qualcosa di nuovo e quasi incredibile, destinato a pochi. Poi, nel giro di pochi anni, tutto è diventato normale, invisibile, parte dell’aria che respiriamo. Oggi non ci facciamo più caso. Eppure, ogni volta che vedo una persona anziana usare con naturalezza uno smartphone, quell’emozione torna: è il segno silenzioso di come l’entusiasmo tecnologico si trasformi, senza rumore, in infrastruttura del nostro tempo.

Quando la tecnologia diventa invisibile

L’intelligenza artificiale sta vivendo esattamente questo momento. Non è più un tema da conferenze specialistiche o da articoli per addetti ai lavori: è entrata nel linguaggio, negli strumenti che usiamo ogni giorno, nelle aspettative che abbiamo verso il lavoro, la creatività, perfino verso noi stessi. E forse, senza che ce ne accorgessimo davvero, ha iniziato a insinuarsi anche nel nostro modo di pensare.

Quando negli anni Cinquanta Alan Turing si interrogava sulla possibilità che una macchina potesse “pensare”, non stava immaginando assistenti virtuali né sistemi capaci di generare testi o immagini. Stava ponendo una domanda molto più scomoda e radicale: dove finisce l’intelligenza umana e dove inizia qualcos’altro? Era una domanda filosofica prima ancora che tecnologica, una linea tracciata sulla sabbia più che un progetto ingegneristico. Da allora l’AI ha camminato a lungo, spesso inciampando. Ha attraversato stagioni di entusiasmo sfrenato e lunghi periodi di disillusione, promesse roboanti e silenzi imbarazzati. Le reti neurali, il deep learning, la capacità di riconoscere immagini, voci, testi: ogni avanzamento sembrava definitivo, ogni volta si scopriva che era solo una tappa, necessaria ma non conclusiva.

Oggi ci troviamo davanti a sistemi che sanno combinare linguaggi diversi, che parlano, vedono, ascoltano, rispondono con una naturalezza sorprendente. È affascinante, a tratti persino commovente, perché richiama il nostro modo di stare nel mondo, di mettere insieme segnali diversi per dare senso alla realtà. Ma sarebbe un errore confondere questa somiglianza con una vera comprensione. L’intelligenza artificiale non “capisce” come noi: riconosce pattern, correla segnali, anticipa probabilità. Non ha esperienza, non ha dubbio, non ha esitazione. Eppure funziona. Funziona così bene da spingerci a fidarci, a delegare, a smettere talvolta di fare domande. Ed è proprio in questo slittamento, quasi impercettibile, che si nasconde il cambiamento più profondo.

Il rischio dell’adozione senza consapevolezza

È un’evoluzione silenziosa, meno spettacolare dei grandi annunci ma forse più importante di tutti i salti precedenti. Dopo anni di corsa alla potenza, ai modelli sempre più grandi, più costosi, più affamati di dati ed energia, qualcosa si sta riequilibrando. L’intelligenza artificiale sta diventando più leggera, più mirata, più distribuita. Non più un unico cervello gigantesco che promette di fare tutto, ma molti strumenti intelligenti, specializzati, integrabili ovunque. È un passaggio che ricorda quello delle infrastrutture: quando smettono di farsi notare, quando non fanno più notizia, ma diventano indispensabili. Nessuno si entusiasma per una rete elettrica, di una rete di telecomunicazioni mobili, finché non manca.

Questa trasformazione rende l’AI meno mitologica e più concreta. Entra nei processi aziendali, nelle decisioni operative, nella creatività quotidiana. Aiuta a progettare, a prevedere scenari. Non promette miracoli, ma migliora l’efficienza. Non sostituisce il pensiero umano, ma lo affianca, lo accelera, talvolta lo mette in discussione. Ed è proprio qui che si gioca la partita più delicata: nel confine sottile tra supporto e dipendenza, tra automazione e rinuncia alla complessità, tra comodità e perdita di consapevolezza.

Si parla molto di democratizzazione dell’intelligenza artificiale, e a ragione. Strumenti sempre più accessibili permettono a chiunque di costruire soluzioni sofisticate senza competenze tecniche profonde. È una grande opportunità, perché abbassa le barriere e moltiplica le possibilità di innovazione. Ma non è neutra. Ogni tecnologia che si semplifica rischia di diventare opaca. Quando tutto funziona “facilmente”, quando basta un’interfaccia amichevole o una frase ben formulata, diventa più difficile capire cosa stia realmente accadendo sotto la superficie. E senza comprensione non c’è controllo; senza controllo non c’è responsabilità.

Nel frattempo l’AI sta cambiando anche il modo in cui le organizzazioni funzionano. Si sta passando da sistemi unici e monolitici a insiemi di agenti che collaborano, ciascuno con un compito preciso. Un’intelligenza diffusa, pragmatica, adattiva. Meno ambizione filosofica, più operatività concreta. È un modello che assomiglia sorprendentemente alle strutture umane migliori: divisione del lavoro, coordinamento, apprendimento continuo. Un’idea di intelligenza che non pretende di sapere tutto, ma di funzionare bene nel contesto.

Esiste poi un tema di cui si parla ancora troppo poco, ma che diventerà centrale nei prossimi anni: il costo fisico dell’intelligenza artificiale. Energia, hardware, materiali, infrastrutture. L’AI non è immateriale, non vive in una nuvola eterea. Consuma risorse, produce impatti, incontra limiti che non sono solo algoritmici. Per questo si stanno esplorando nuove strade, nuovi modelli di calcolo, nuove architetture. Non tanto per rendere l’AI “più intelligente”, quanto per renderla sostenibile. 

È un ritorno alla realtà, salutare e necessario, che ridimensiona molte narrazioni troppo facili.

Governare ciò che non fa più rumore

In questo scenario, regolazione ed etica non sono un freno all’innovazione, ma una forma di maturità collettiva. E noi europei lo sappiamo bene.... Dare regole a una tecnologia significa riconoscerne la potenza. Significa accettare che non tutto ciò che è possibile è automaticamente desiderabile. Serviranno norme, certamente, ma servirà soprattutto una cultura condivisa, capace di tenere insieme progresso e responsabilità, velocità e riflessione, efficienza e diritti.

Alla fine, l’intelligenza artificiale non è il vero centro del discorso. Il centro siamo noi. Le nostre scelte quotidiane, il nostro modo di usare gli strumenti, la nostra capacità di restare presenti mentre deleghiamo. L’AI non è una promessa salvifica né una minaccia da demonizzare. È un amplificatore. Rende più evidenti le nostre qualità e le nostre fragilità, le nostre intenzioni e le nostre distrazioni.

Forse per questo ci affascina e ci inquieta allo stesso tempo. Non perché sia troppo simile all’uomo, ma perché ci costringe a guardarci senza filtri. E a chiederci, con un filo di emozione e un po’ di responsabilità in più, che tipo di futuro vogliamo davvero costruire, mentre il presente, silenziosamente, sta già cambiando.

Queste riflessioni si inseriscono nel percorso di ricerca e divulgazione che porto avanti da anni. Visita la mia biografia.

Luca Tomassini 22 dicembre 2025
Condividi articolo
Archivio
L'Europa deve tornare a immaginare, non solo a regolamentare.
È una differenza culturale prima ancora che economica.