I rischi dell'Artificial Intelligence
- Algopolio
- 8 dic 2025
- Tempo di lettura: 3 min
Fonte: Corriere della Sera – «Se l’AI indebolisce il cervello», di Paolo Benanti e Sebastiano Maffettone, 3 dicembre 2025
L’emergenza cognitiva nell’era dell’AI
L’articolo del Corriere solleva una questione cruciale: l’uso crescente di strumenti di intelligenza artificiale — in particolare i modelli linguistici generativi come ChatGPT — potrebbe indebolire alcune capacità cognitive fondamentali, soprattutto nei giovani. L’AI, infatti, accelera processi, ottimizza attività, fornisce soluzioni immediate. Ma questa apparente facilitazione porta con sé un rischio: la riduzione dell’esercizio mentale necessario a costruire competenze profonde. Il digitale, per sua natura, non allena la mente: la sostituisce.
Il test universitario: quando il cervello smette di “fare fatica”
Lo studio citato dagli autori — condotto dal MIT di Cambridge — ha diviso i partecipanti in tre gruppi:
gruppo LLM, che ha usato AI generativa;
gruppo Solo-cervello, che ha lavorato senza supporti digitali;
gruppo Misto, che ha utilizzato strumenti elettronici in modo intermedio.
I risultati mostrano dinamiche sorprendenti:
chi ha fatto un uso continuo di AI ha registrato un calo della connettività neurale, segno di un minor coinvolgimento cognitivo;
chi invece è passato dagli LLM al lavoro autonomo ha mostrato un recupero parziale, ma con una connettività più debole;
il gruppo Solo-cervello ha presentato le performance cognitive più solide, soprattutto in richiamo della memoria e profondità dell’elaborazione.
Il dato inquietante è che l’esposizione ripetuta alla AI rende alcuni processi mentali più “pigri”, favorendo scorciatoie cognitive.
Quando la delega diventa dipendenza
Il cuore dell’analisi è semplice ma decisivo: l’efficienza promessa dall’AI non è gratuita. Ogni volta che deleghiamo un compito — trovare un’idea, sintetizzare un testo, formulare un ragionamento — rinunciamo a un pezzo del nostro allenamento cognitivo. L’articolo parla di “emergenza cognitiva” proprio perché questa rinuncia non è visibile nell’immediato, ma agisce come un’atrofia progressiva, simile al muscolo che smette di essere usato.
È un rischio che riguarda:
la capacità di analizzare criticamente le informazioni,
la robustezza del pensiero creativo,
la formazione universitaria, già sotto pressione,
la costruzione di autonomia intellettuale.
La mente, per crescere, ha bisogno di resistenza. L’AI — se mal utilizzata — la rimuove.
Il paradosso educativo: più AI = meno pensiero?
Gli autori sottolineano che l’attuale entusiasmo per l’AI nei contesti accademici rischia di oscurare il problema reale: se l’università si limita a integrare strumenti digitali, senza ripensare le strategie didattiche, produce una generazione di studenti capaci di ottenere risultati, ma non di generare significato. Non basta apprendere come usare gli strumenti: bisogna chiedersi cosa si perde affidando loro processi che, per natura, definiscono identità, conoscenza e autonomia.
Il problema non è l’AI. Il problema è un sistema educativo che accoglie la tecnologia senza accompagnare la crescita della mente che la usa.
L’illusione dell’intelligenza: l’AI non pensa, completa
Benanti e Maffettone ricordano che, nonostante la potenza apparente, gli LLM non possiedono intuizione, intenzionalità, visione. Sono macchine di completamento statistico, non menti pensanti. Confondere la loro abilità con una forma di intelligenza superiore produce un duplice rischio:
attribuire all’AI un’autorità epistemica indebita,
sottovalutare la responsabilità umana nel processo decisionale.
L’AI può generare risposte plausibili, ma non giudizi affidabili. La facoltà di discernimento — la più umana delle capacità — non può essere delegata.
Abituarsi a pensare: una responsabilità politica e civile
La conclusione dell’articolo è un invito a riconsiderare il nostro rapporto con l’intelligenza artificiale. Serve una nuova alfabetizzazione cognitiva, che aiuti studenti e cittadini a:
riconoscere i limiti dello strumento;
preservare la capacità di concentrazione;
coltivare creatività e immaginazione;
allenare le proprie competenze indipendentemente dalle macchine.
L’AI può essere un supporto straordinario, ma non deve diventare il nostro pilota automatico.
Il ruolo di Algopolio: proteggere la sovranità cognitiva
Il tema affrontato dal Corriere tocca una delle preoccupazioni centrali di Algopolio: la vulnerabilità cognitiva generata dalla dipendenza tecnologica. La missione dell’associazione è proprio questa:
aiutare cittadini, studenti e professionisti a riconoscere i rischi dell’automazione mentale;
sostenere chi subisce effetti negativi da tecnologie opache o invasive;
promuovere una cultura della consapevolezza contro l’uso inconsapevole degli strumenti digitali;
opporsi alle dinamiche che trasformano l’AI da supporto a sostituto.
Perché la libertà, nel XXI secolo, non è solo protezione dei dati: è protezione della mente.

Commenti