top of page

Google nel mirino europeo: l’addestramento dell’AI come nuovo fronte antitrust

Fonte: Corriere della Sera – «Google nel mirino di Bruxelles per l’addestramento dell’AI», 10 dicembre 2025.

L’indagine europea e il cuore del conflitto

La Commissione europea ha aperto una nuova indagine antitrust su Google, focalizzata sull’utilizzo di contenuti editoriali per l’addestramento dei modelli di intelligenza artificiale. Al centro dell’accusa c’è il sospetto che il colosso di Mountain View abbia sfruttato materiali prodotti da editori e creatori senza un’adeguata compensazione, rafforzando così la propria posizione dominante nel mercato emergente dell’AI generativa. Non si tratta di una disputa marginale: è il punto in cui convergono concorrenza, diritto d’autore e controllo delle infrastrutture informative.

Dalla ricerca all’AI: il controllo dell’intera filiera

Secondo Bruxelles, il rischio non riguarda solo l’uso dei contenuti, ma la struttura del potere che ne deriva. Google non è soltanto un motore di ricerca: controlla l’accesso al traffico, ospita i contenuti, li indicizza e ora li utilizza per alimentare sistemi di intelligenza artificiale che restituiscono risposte sintetiche agli utenti. In questo scenario, editori e produttori di contenuti rischiano di diventare fornitori invisibili di valore, mentre l’AI assorbe informazione, attenzione e ricavi, ridisegnando l’intero equilibrio economico del settore.

L’argomento dell’innovazione come scudo

La difesa di Google segue una linea ormai consolidata: limitare l’uso dei contenuti per l’addestramento dell’AI equivarrebbe a frenare l’innovazione e penalizzare lo sviluppo tecnologico europeo. Ma l’Unione ribalta il ragionamento: senza regole chiare, l’innovazione rischia di trasformarsi in appropriazione sistemica, dove chi controlla l’infrastruttura decide unilateralmente come e a quali condizioni il valore viene redistribuito. La questione non è se l’AI debba svilupparsi, ma chi paga il prezzo del suo sviluppo.

Un precedente che va oltre Google

Questa indagine non riguarda solo un’azienda. Rappresenta un test cruciale per la capacità dell’Europa di intervenire quando l’intelligenza artificiale diventa uno strumento di concentrazione del potere. Se l’addestramento dei modelli avviene attingendo a contenuti altrui senza compensazione né trasparenza, il rischio è la creazione di un ecosistema chiuso, in cui pochi attori accumulano dati, conoscenza e influenza informativa. È un passaggio che segna il passaggio dall’antitrust classico all’antitrust dell’algoritmo.

Perché questo tema riguarda i cittadini

Quando l’AI sintetizza, riordina e restituisce informazioni, non sta solo “aiutando” l’utente: sta mediando la realtà. Se questa mediazione è controllata da pochi soggetti privati, senza contrappesi effettivi, il rischio è una perdita di pluralismo, autonomia informativa e possibilità di scelta. La posta in gioco non è solo economica, ma democratica.

Il ruolo di Algopolio

Algopolio nasce proprio per presidiare questi snodi critici del potere digitale. L’uso dei contenuti per addestrare l’AI, la concentrazione delle infrastrutture informative e l’asimmetria tra piattaforme e cittadini sono temi centrali della sua azione. Chi produce contenuti, chi subisce decisioni algoritmiche opache o chi ritiene che i propri diritti digitali siano stati compressi ha bisogno di strumenti di comprensione e tutela.

Perché l’intelligenza artificiale non è neutra. E senza regole, rischia di diventare l’ennesima leva di dominio invisibile.

 
 
 

Commenti


bottom of page