Le allucinazioni da AI e i rischi legati
- Algopolio
- 10 dic 2025
- Tempo di lettura: 3 min
Fonte: Il Sole 24 Ore – «“Allucinazione da AI”: il legale rischia la sanzione disciplinare», 3 dicembre 2025
Quando l’AI entra nelle aule di giustizia: l’emergere di un nuovo rischio professionale
L’articolo del Sole 24 Ore racconta un caso che segna un punto di svolta nella relazione tra professioni legali e strumenti di intelligenza artificiale. Un avvocato, per predisporre una memoria difensiva, ha utilizzato contenuti generati da AI senza verificarne l’accuratezza, immettendo nel procedimento informazioni inesatte o non pertinenti. Il Tar Lombardia ha ravvisato una possibile violazione del dovere di lealtà e ha coinvolto l’Ordine per un’eventuale sanzione disciplinare. Il messaggio è chiaro: l’AI non può sostituire il controllo umano nei contesti decisionali ad alta responsabilità.
L’allucinazione algoritmica come minaccia alla qualità del diritto
Il fenomeno delle hallucinations — risposte plausibili ma false generate dai modelli linguistici — non è un problema tecnico isolato, ma un rischio epistemico. Nelle professioni legali, basate sulla precisione, sul rigore argomentativo e sulla correttezza delle fonti, l’inserimento di informazioni errate può compromettere l’intero procedimento. L’articolo ricorda che l’AI, in queste circostanze, non solo fallisce come strumento, ma diventa fattore di distorsione del giudizio, introducendo errori che solo un controllo umano può prevenire.
Il confine tra supporto digitale e delega impropria diventa così cruciale da ridefinire gli obblighi professionali.
Il ruolo centrale dell’avvocato: vigilanza, non delega
Il Tar sottolinea un principio fondamentale: l’avvocato rimane il garante della correttezza degli atti che firma. Affidarsi alla tecnologia non esonera dalla responsabilità, anzi la rende più complessa. Il professionista deve:
verificare ogni elemento fornito dall’AI,
mantenere il proprio controllo critico,
assicurarsi che il documento rifletta standard deontologici e normativi.
L’uso dell’AI non è vietato, ma richiede un nuovo modello di diligenza, dove la capacità di discernere tra suggerimento utile ed errore algoritmico diventa parte della competenza professionale.
Una questione culturale oltre che tecnica
Il problema sollevato dall’articolo non riguarda solo l’affidabilità dell’AI, ma il rischio di un cambiamento culturale: la tendenza a considerare la tecnologia come fonte autorevole di verità. Nel mondo del diritto, questo spostamento è particolarmente pericoloso:
altera il rapporto tra interpretazione e applicazione del giudizio;
riduce la responsabilità personale;
può introdurre automatismi nel ragionamento giuridico che erodono la complessità del diritto.
La qualità dell’argomentazione legale non può essere compressa in un output generativo: dipende dall’esercizio umano del senso critico.
L’evoluzione delle regole professionali nell’era dell’AI
Il caso esaminato spinge inevitabilmente verso una riflessione più ampia: quali regole disciplinari servono per un’epoca in cui l’AI è integrata nelle attività quotidiane degli studi legali? Gli Ordini professionali dovranno definire nuovi standard, che includano:
trasparenza nell’uso degli strumenti generativi,
obbligo di verifica delle informazioni,
responsabilità chiara per errori introdotti dall’AI,
limiti nell’utilizzo di contenuti non verificabili.
Il diritto, come disciplina, deve adattarsi alle tecnologie senza snaturarsi.
Il significato per Algopolio: proteggere i cittadini da decisioni influenzate dall’AI
Questo caso dimostra quanto profondamente l’AI possa incidere su diritti e garanzie fondamentali. Un errore algoritmico in un atto giudiziario può alterare decisioni che influiscono su vita, reputazione e libertà di una persona.
Algopolio agisce proprio dove la tecnologia entra in collisione con diritti e responsabilità:
supportando cittadini che hanno subito danni da uso improprio dell’AI;
aiutando professionisti e utenti a comprendere rischi, limiti e implicazioni normative;
promuovendo trasparenza e responsabilità nella gestione degli strumenti digitali;
contrastando ogni opacità che possa mettere in pericolo l’equità delle decisioni.
Chiunque ritenga di essere stato danneggiato da errori generati dall’AI — in un atto legale, amministrativo o professionale — può rivolgersi ad Algopolio per tutela, orientamento e verifica tecnica. Perché l’AI può assistere, ma non deve mai compromettere la giustizia.


Commenti