top of page

Hinton e la superAI: il rischio non è la macchina, ma la logica della competizione

Fonte: Corriere della Sera, 8 aprile 2026

La paura del fondatore

Geoffrey Hinton non teme solo l’intelligenza artificiale.Teme la direzione che sta prendendo il sistema che la sviluppa.

La “guerra tra tribù di superAI” non è una metafora tecnologica, ma geopolitica ed economica.

La corsa senza freni

Il punto centrale è la competizione: aziende e Stati che accelerano contemporaneamente, senza un coordinamento reale.

In questo scenario, la sicurezza diventa un costo, non una priorità.

Il paradosso dell’innovazione

Più i sistemi diventano potenti, meno è chiaro chi ne controlla gli effetti.

Non perché manchino le competenze, ma perché manca una governance all’altezza della scala tecnologica.

Il rischio sistemico

Hinton individua rischi concreti: disinformazione, perdita di controllo, uso militare.

Ma questi rischi non sono indipendenti.Sono effetti di un ecosistema costruito sulla velocità e sull’incentivo a superare il concorrente.

Oltre la narrazione apocalittica

Il dibattito oscilla tra entusiasmo e catastrofismo.

Entrambe le posizioni rischiano di oscurare il punto centrale: l’AI non è autonoma nel determinare il proprio impatto.

È il contesto economico e politico a orientarne l’uso.

La questione di fondo

Algopolio individua una linea chiara: il problema non è solo “quanto sarà potente l’AI”, ma “chi decide come e perché svilupparla”.

Senza una governance capace di intervenire sugli incentivi,la traiettoria non sarà guidata dalla sicurezza, ma dalla competizione.

E in quel contesto, il rischio non è un errore tecnologico.È una scelta sistemica.

 
 
 

Commenti


bottom of page