C’è un motivo per il quale “Something Big Is Happening” di Matt Shumer sull’AI è diventato virale

Un testo potente che mette in scena urgenza e paura sull’intelligenza artificiale, ma non per le ragioni che pensi

Febbraio 14, 2026 - 13:25
Febbraio 14, 2026 - 15:35
C’è un motivo per il quale “Something Big Is Happening” di Matt Shumer sull’AI è diventato virale
@AI generated image

C’è una ragione semplice per cui il post di Matt Shumer, CEO e co-fondatore di OthersideAI/ HyperWrite, ha fatto il giro del mondo: è una rara occasione in cui qualcuno non si limita a spiegare l’intelligenza artificiale ma prova a farla sentire, e per farlo usa un artificio narrativo impeccabile che rimanda ad un'emozione molto forte con una data precisa: febbraio 2020, l’ultima normalità prima dello strappo. Da lì in poi mette in scena un’esperienza emotiva condivisibile, la sensazione che “stia succedendo qualcosa” mentre quasi tutti continuano a vivere come se nulla stesse cambiando.

La viralità nasce da questa promessa: non sei davanti all’ennesimo articolo sull’AI, sei davanti a un avvertimento. Chi lo legge ha l’impressione di ricevere un messaggio riservato: “noi l’abbiamo già visto accadere, ora tocca a voi”.

Il testo crea un corto circuito tra capacità tecnologiche, percezione sociale e decisioni economiche. 

«Se hai provato ChatGPT nel 2023 o a inizio 2024 e hai pensato “si inventa le cose” o “non è così impressionante”, avevi ragione. Quelle prime versioni erano davvero limitate. Allucinavano. Dicevano con sicurezza assurdità. - afferma Shumer - Ma quello era due anni fa. Nel tempo dell’AI, è preistoria».

La cosa più importante che Shumer dice (senza dirlo esplicitamente)

Shumer descrive un passaggio dell’intelligenza artificiale da “strumento utile” a “sostituto operativo” dove lui dà istruzioni, si allontana dal computer e torna a lavoro finito, testato, iterato, “rifinito” da un modello che sembra avere persino una forma di gusto. 

È un racconto che parla di workflow: come si lavora, quanto tempo serve, quanta intermediazione umana resta.

Quello che spaventa è l’idea banale e materialissima della macchina che porta a termine.

Oltre ogni romanticismo, qui c’è un fatto che spesso ci sfugge: nella storia delle tecnologie non è mai servita la perfezione, l’impatto nasce quando diventa abbastanza buono da cambiare perché conviene, accelera,  riduce costi, e quindi “si può provare”. Abbiamo ormai superato la soglia del giocattolo. 

Il limite del racconto

La parte più discutibile del testo è sulla capacità dei modelli che possono migliorare a scatti rispetto all’impatto reale sul lavoro e sulle professioni.

Esistono attriti enormi: responsabilità legali, compliance, reputazione, integrazione nei sistemi, qualità dei dati, governance, regole interne, assicurazioni, contenziosi. In altre parole: un modello può saper fare qualcosa molto prima che un’organizzazione decida di fidarsi a sufficienza da metterlo in produzione.

L’impatto più probabile

Se guardiamo alla realtà con un minimo di freddezza, l’effetto più verosimile nel breve non è “spariscono i lavori”, è “cambia la struttura del lavoro”.

La parola chiave è compressione: dei tempi (ciò che richiedeva giorni “deve” richiederne ore); dei team (meno persone per lo stesso output); dei ruoli junior (meno apprendistato, meno “rampe di ingresso”); delle retribuzioni (soprattutto per freelance e attività standardizzabili).

È una trasformazione che non fa rumore come un licenziamento di massa annunciato in conferenza stampa, ma che nel tempo può erodere pezzi interi di filiere: redazioni, traduzioni, produzione di contenuti, back office, customer care, analisi di base, contabilità “di routine”, document review.

Il post di Shumer, quando parla di “entry-level white collar” colpisce un nervo scoperto: se l’AI diventa il tuo collega instancabile e a basso costo, la prima cosa che salta è l’idea stessa di fare esperienza. 

Perché è diventato virale proprio adesso

Il ragionamento arriva in un momento in cui la percezione pubblica è spaccata: molti hanno provato strumenti gratuiti e li ricordano come imprecisi, altri usano modelli più avanzati nel lavoro quotidiano e vedono un salto. Shumer costruisce tutta la sua tesi su questo divario: la distanza tra “ho provato e non mi ha impressionato” e “lo uso e mi sta cambiando il modo di lavorare”.

Questo divario è reale perché le decisioni aziendali e politiche si prendono spesso su percezioni. Se il pubblico sottovaluta, arriva impreparato. Se i vertici sopravvalutano, tagliano e automatizzano male, producendo danni di qualità e di fiducia.

L’Italia e il doppio rischio: ritardo e scorciatoia

In un Paese in cui la digitalizzazione procede a macchie di leopardo, la reazione più comune si divide in due. Da un lato la minimizzazione: “non ci riguarda”, “qui è diverso”, “non può funzionare nella complessità italiana”, “convincimi che sia necessario”. Dall’altro la scorciatoia: “tagliamo, sostituiamo, facciamo in fretta”, adottando strumenti e decisioni per inseguire l’efficienza senza regole e senza responsabilità chiare.

Entrambe portano allo stesso risultato: una transizione gestita male, con conflitti che generano più precarietà e disuguaglianze. Perché l’AI, quando entra come leva di produttività, redistribuisce potere, lo toglie a chi esegue senza approfondire e lo concentra in chi controlla processi e budget.

Le domande da porsi 

Shumer chiude con consigli individuali: abbonati, usa il modello migliore, sperimenta un’ora al giorno, sii “early”. Sono indicazioni pragmatiche e non inutili, ma non bastano per un motivo semplice: non possiamo pensare che una trasformazione sistemica si risolva solo con una strategia personale.

La domanda vera è collettiva: chi governa questa transizione?

Chi stabilisce quando è lecito usare l’AI in una procedura? Chi risponde dell’errore? Chi firma? Chi controlla bias e qualità? Chi tutela i percorsi di ingresso? Chi paga la formazione? Chi protegge i settori dove la fiducia è parte indispensabile del servizio come la sanità, la giustizia e l’informazione?

Perché se la risposta resta “ognuno si arrangi”, l’esito è già scritto: chi ha capitale culturale e tempo si adatta, chi è più esposto paga il prezzo. E l’AI da promessa di efficienza, diventa acceleratore di fratture.

L’AI non è un meteorite, è un’infrastruttura

Il post di Shumer è virale perché mette paura in modo efficace ma  il suo valore, per noi, non è la paura: è l’urgenza di spostare la discussione dal crederci o deriderla a una domanda più adulta: quali tutele e responsabilità.

L’intelligenza artificiale non è un meteorite che cade dal cielo ma un’infrastruttura che stiamo installando in tempo reale dentro lavoro, servizi, media e istituzioni. Le infrastrutture fanno sempre la stessa cosa: o le governi, o ti governano.

Gli occhi, ora, devono restare puntati sulla formazione.

Nei report ufficiali della Commissione europea sul Digital Decade l’Italia resta ferma a 45,8% di popolazione con almeno competenze digitali di base, ben sotto la media UE (55,6%) e intanto l’AI Act ha già introdotto un obbligo esplicito di AI literacy per chi sviluppa o utilizza sistemi di intelligenza artificiale (in vigore dal 2 febbraio 2025, art. 4), cioè formazione adeguata e contestualizzata per chi lavora con questi strumenti.

In parallelo, la partecipazione degli adulti all’apprendimento continua (lifelong learning) in Italia nel 2023 è indicata da fonti europee attorno all’11,6%, segnale che la riqualificazione c’è ma non è ancora la “massa critica” necessaria per reggere un cambio di paradigma.

È necessario parlarne in tutte le sedi e con prospettive multidisciplinari: il medico deve parlare con l’informatico, che a sua volta ha bisogno del filosofo per mettere a fuoco implicazioni, limiti e responsabilità; e poi, perché tutto questo sia comprensibile e visibile fuori dalle stanze degli addetti ai lavori, serve un giornalismo di qualità che conosca le implicazioni dell’uso di questi strumenti e li sappia usare in modo efficace, controllando le fonti, dichiarando i metodi e sviluppando nuove tecniche di analisi. Il silenzio e la paura non terranno fuori dalla porta un cambiamento che sta già entrando nei processi, nelle decisioni e nel lavoro quotidiano.

Il futuro è già qui, scrive Shumer, forse sì. Ma la parte decisiva non è che stia già bussando alla porta: è chi gli apre.

SOMETHING BIG IS HAPPENING

Qual è la tua reazione?

Mi piace Mi piace 0
Antipatia Antipatia 0
Amore Amore 0
Divertente Divertente 0
Arrabbiato Arrabbiato 0
Triste Triste 0
Oh Oh 0
Rossella Guido Giornalista scientifica, Direttore responsabile di Italia 24. Comunicatrice con una solida esperienza nella divulgazione accademica e istituzionale. Dal 2025 è direttrice responsabile di "Italia 24", testata giornalistica digitale che coniuga scienza e attualità, promuovendo un’informazione autorevole e orientata alla comprensione critica del presente. Scrive regolarmente interviste e articoli per “Bnews”, testata giornalistica dell’Università degli Studi di Milano-Bicocca. Nel corso della sua carriera ha intervistato figure di spicco come Randi Zuckerberg, Reshma Saujani e Federico Faggin affrontando temi quali l’Intelligenza Artificiale, il ruolo etico della tecnologia, l’educazione per il cambiamento sociale e la finanza sostenibile. È co-ideatrice di "Asclepio AI", un ecosistema che comprende clinica, ricerca e comunicazione, con l’obiettivo di costruire un dialogo concreto tra Intelligenza Artificiale, salute e società, facilitando la collaborazione tra strutture cliniche, centri di ricerca, università, aziende e territorio.