L’illusione del controllo

Psicologia, fiducia e paura nell’era dei sistemi autonomi

Novembre 10, 2025 - 16:11
Novembre 10, 2025 - 16:42
L’illusione del controllo

L’umanità ha sempre costruito strumenti per estendere i propri sensi, ma oggi la tecnologia estende qualcosa di più profondo: la capacità di decidere.

Nei centri di ricerca e nelle aziende, gli algoritmi pianificano percorsi, allocano risorse, scelgono investimenti, interpretano sintomi. L’uomo resta nella catena decisionale, ma in posizione diversa.
Le macchine non eseguono più: interpretano.

Questo cambiamento produce un effetto psicologico che non riguarda solo l’efficienza, ma la percezione di sé. In un articolo apparso su Neuron, Chris Frith e Uta Frith mostrano che le aree cerebrali coinvolte nella socialità si attivano per leggere le intenzioni altrui: la mente umana è predisposta all’interpretazione degli scopi, più che all’elaborazione di regole.

L’autonomia artificiale ci disorienta proprio per questo: un sistema che agisce sembra dotato di intenzione, anche se non ne possiede.
Gli psicologi Adam Waytz, Kurt Gray e Nicholas Epley, in un celebre studio del 2010 apparso sul Psychological Bulletin, dimostrano che l’essere umano tende a percepire mente e volontà in qualsiasi entità che mostri coerenza e capacità di risposta. È un meccanismo di sopravvivenza evolutivo, un’estensione della nostra teoria della mente.

L’intelligenza artificiale sfrutta, forse involontariamente, lo stesso circuito percettivo. Ogni volta che un sistema prevede, risponde o si adatta, il cervello umano riconosce un’intenzione. Da lì nasce la fiducia, ma anche la paura.

L’autonomia come frattura cognitiva

Negli anni ’90, gli psicologi Clifford Nass e Byron Reeves dimostrarono, nel volume The Media Equation, che le persone reagiscono ai computer come a partner sociali.

L’arrivo dell’intelligenza artificiale amplifica quel meccanismo. L’IA non si limita a simulare risposte: produce decisioni coerenti, adatta il linguaggio, anticipa le richieste. Il risultato è un’illusione cognitiva di “presenza mentale”.

Il filosofo Daniel Dennett, nel volume From Bacteria to Bach and Back (2017), descrive questa sensazione come “illusione progettata”. L’agency apparente delle macchine è un effetto del design: prevedibilità, fluidità e scopo comunicano vita.

Ma il nostro cervello non distingue la simulazione dalla volontà. Un esperimento condotto da Sebastian Krach e colleghi, pubblicato su PLoS ONE nel 2008, mostra che osservare un robot che agisce in modo autonomo attiva nel cervello umano le stesse aree coinvolte nell’attribuzione di intenzioni. Le regioni temporo-parietali si accendono come durante un’interazione con una persona.

In pratica, la mente reagisce all’autonomia artificiale come a un segnale di soggettività. Non serve credere che la macchina pensi: basta percepire coerenza nelle sue azioni perché diventi, ai nostri occhi, un agente.

La fiducia cieca

La psicologia dell’automazione ha studiato a lungo gli effetti della delega alle macchine. Nel 1997 Raja Parasuraman e Victor Riley, in un articolo pubblicato su Human Factors, descrissero il fenomeno chiamato automation bias: la tendenza a fidarsi delle decisioni automatiche anche contro l’evidenza.

In aviazione, in medicina e nella finanza, gli operatori umani spesso seguono le indicazioni del sistema anche di fronte a dati contraddittori. Non per pigrizia, ma per un meccanismo di fiducia appresa. L’efficienza ripetuta del sistema genera deferenza cognitiva.

Una revisione sistematica condotta da K. Goddard e colleghi, pubblicata sul Journal of the American Medical Informatics Association (JAMIA) nel 2012, mostra che la fiducia cieca aumenta quando il sistema comunica sicurezza e coerenza. L’interfaccia diventa un segnale di autorevolezza.

La paura dell’autonomia

Alla fiducia cieca si oppone una forma di inquietudine altrettanto potente: la paura di perdere il controllo. Gli psicologi la definiscono agency anxiety, ansia da perdita di agency.

Lo stesso studio di Sebastian Krach e colleghi, pubblicato su PLoS ONE nel 2008, che documenta l’attivazione neuronale durante l’interazione con robot autonomi, mostra anche un’attività emotiva elevata nelle aree limbiche. Il cervello vive la presenza autonoma come ambigua: alleata e minaccia allo stesso tempo.

Da qui nasce l’ambivalenza: le persone si affidano ai sistemi autonomi per la loro efficienza, ma provano disagio di fronte alla loro indipendenza. Non si tratta di paura della tecnologia, ma di una reazione cognitiva all’imprevedibilità di un’intelligenza non umana.

La responsabilità smarrita

L’autonomia dei sistemi solleva una domanda che tocca il cuore della morale: chi risponde delle azioni della macchina? Già nel 1966 lo psicologo Julian Rotter, con la teoria del locus of control, mostrò che la percezione del controllo influenza direttamente il comportamento umano. Attribuire un evento a cause esterne riduce il senso di responsabilità personale.

Nel mondo dell’intelligenza artificiale la stessa dinamica assume una forma nuova. Il filosofo Luciano Floridi, nel volume The Ethics of Artificial Intelligence (2023), osserva che l’autonomia tecnica frammenta la catena della responsabilità. Le decisioni non appartengono più a un unico agente umano, ma emergono da reti di progettisti, dati e algoritmi.

Non tutti condividono questa visione. Gli studiosi Jeffrey Borenstein e Ronald Arkin, in un saggio pubblicato su Science and Engineering Ethics (2020), confutano l’idea di un’“agency morale” delle macchine: un sistema può agire in modo autonomo, ma non può essere moralmente responsabile. L’intenzionalità morale, ricordano, è prerogativa della coscienza.

La perdita di controllo è quindi più psicologica che reale. L’essere umano resta il centro del sistema etico, anche se la sua responsabilità si diluisce nella complessità tecnologica. La vera sfida è mantenere viva la percezione del controllo, non soltanto la sua forma legale.

L’attaccamento emotivo

Il rapporto con l’autonomia artificiale non si esaurisce nella fiducia o nella paura. Esiste anche una dimensione affettiva, meno discussa ma altrettanto profonda: l’attaccamento emotivo verso le macchine.

La sociologa e psicologa Sherry Turkle, nel saggio Alone Together (2011), racconta come le persone stabiliscano legami reali con dispositivi digitali che mostrano ascolto e disponibilità. La semplice risposta empatica, anche simulata, genera conforto. La tecnologia che risponde crea l’illusione di una relazione reciproca.

La ricercatrice Kate Darling, in The New Breed (2021), paragona i robot agli animali domestici: esseri artificiali che attivano nel cervello umano lo stesso circuito empatico riservato agli esseri viventi. L’interazione sociale con macchine dotate di movimenti o linguaggio credibili produce reazioni emotive autentiche.

Esperimenti condotti all’Università di Duisburg da Friederike Eyssel e Dirk Kuchenbrandt (2012) mostrano che un robot con nome e voce personale suscita livelli di fiducia simili a quelli di un interlocutore umano. Lo studio, pubblicato sul British Journal of Social Psychology, dimostra che la socialità percepita basta per attivare meccanismi di appartenenza.

Il filosofo David Gunkel, in Robot Rights (MIT Press, 2018), invita però alla cautela: l’empatia verso la macchina è unidirezionale. La reciprocità emotiva è un’illusione cognitiva, non una realtà affettiva. Più la macchina sembra umana, più rivela la nostra solitudine.

Il patto psicologico

L’equilibrio tra fiducia, paura e attaccamento richiede una nuova alfabetizzazione psicologica. Non basta regolare l’intelligenza artificiale con norme e leggi: serve una cultura della co-decisione, capace di integrare la tecnologia nel perimetro della consapevolezza umana.

Il progettista e informatico Ben Shneiderman propone una visione centrata sull’uomo. Nel volume Human-Centered AI (2022), afferma che la tecnologia deve rendere visibili i propri processi decisionali. La trasparenza non è un dettaglio tecnico, ma una forma di rispetto cognitivo verso chi la utilizza.

Le grandi aziende tecnologiche si muovono in questa direzione. I laboratori di IBM Research hanno pubblicato nel 2024 un rapporto dedicato alla Explainable AI: sistemi progettati per spiegare le proprie scelte e rendere tracciabile la logica interna delle decisioni. L’obiettivo è ristabilire equilibrio tra potenza algoritmica e comprensione umana.

Non tutti gli studiosi condividono però l’ottimismo della piena trasparenza. Emily Bender, Timnit Gebru, Angelina McMillan-Major e Margaret Mitchell, nel saggio On the Dangers of Stochastic Parrots (2021), mettono in dubbio la possibilità stessa di spiegare in modo completo i modelli linguistici di grandi dimensioni. La complessità delle reti neurali, sostengono, è tale da rendere opaca la relazione tra input e risposta.

La filosofa e informatica Joanna Bryson, nel paper The Misguided Ethics of Moral Machines (2019), invita a un approccio pragmatico: le macchine devono restare strumenti, anche se agiscono come agenti. Il controllo non consiste nel limitare la tecnologia, ma nel mantenere chiara la distinzione dei ruoli. L’autonomia operativa non equivale a indipendenza morale.

La convivenza con l’intelligenza artificiale non sarà una resa né una guerra. Sarà una negoziazione continua tra chiarezza e mistero, tra efficienza e significato. Il patto psicologico del futuro si giocherà sulla capacità di comprendere senza dominare.

L’intelligenza come specchio

Ogni epoca ha proiettato se stessa nella tecnologia che ha inventato. Il vapore rappresentava la forza, l’elettricità la connessione, l’informatica la memoria. L’intelligenza artificiale rappresenta la decisione.

Ogni volta che un sistema autonomo sceglie, l’umanità si osserva riflessa in quell’atto. Non si tratta di costruire macchine che pensano, ma di riconoscere nella loro logica la nostra stessa mente in forma diversa. L’autonomia artificiale ci costringe a ridefinire cosa intendiamo per libertà.

La fiducia cieca, la paura e l’attaccamento non sono deviazioni patologiche, ma risposte psicologiche a una presenza nuova: un’intelligenza che agisce. Le emozioni che proiettiamo sull’IA raccontano la nostra esigenza di riconoscimento. Nel vedere la macchina decidere, misuriamo la nostra stessa capacità di comprendere il mondo che abbiamo costruito.

Il controllo non si perde, si trasforma. Da dominio unilaterale diventa consapevolezza condivisa. L’equilibrio psicologico del futuro dipenderà dalla capacità di convivere con sistemi che apprendono, senza rinunciare alla responsabilità di decidere chi siamo.

L’autonomia delle macchine è, in ultima analisi, uno specchio della nostra. Riflette le nostre virtù e le nostre paure. Guardarla con diffidenza significa non riconoscere che ogni intelligenza che creiamo è un’estensione della nostra stessa coscienza.

Qual è la tua reazione?

Mi piace Mi piace 1
Antipatia Antipatia 0
Amore Amore 1
Divertente Divertente 0
Arrabbiato Arrabbiato 0
Triste Triste 0
Oh Oh 1
Redazione Italia24 News