Discrezionalità e processo alla prova dell’intelligenza artificiale

Discrezionalità e processo alla prova dell’intelligenza artificiale

Oggi ho avuto il piacere di partecipare presso il TAR Sicilia a un evento di grande interesse dal titolo “Discrezionalità e processo alla prova dell’intelligenza artificiale”. Un confronto stimolante, arricchito da relazioni di alto livello che hanno offerto spunti di riflessione estremamente attuali e che testimoniano quanto il tema dell’AI sia ormai centrale nel dibattito giuridico e tecnico.

Tra gli interventi, ho trovato particolarmente incisivi quelli del Consigliere di Stato Brunella Bruno e dell’Avvocato Gaetana Natale, docente di Intelligenza Artificiale presso la European School of Economics. Tuttavia, ritengo che il dibattito non abbia pienamente centrato il cuore della questione.

Faccio mia una riflessione dell’Avv. Giovanni Immordino che, nella sua introduzione, ha definito con precisione un ordine gerarchico imprescindibile: Uomo – Algoritmo – Strumento. L’Intelligenza Artificiale, infatti, non è altro che un mezzo, un supporto che, attraverso l’elaborazione algoritmica, propone soluzioni. Né più né meno di quanto già avviene con strumenti come il CAD, il BIM o i software di calcolo.

Ma cosa significa esattamente questo? Per comprendere a fondo il tema della responsabilità, è necessario chiarire cosa sia davvero l’Intelligenza Artificiale. Oggi si tende a mitizzarla, attribuendole un’aura quasi magica, come se fosse dotata di una volontà propria. In realtà, l’AI è semplicemente il risultato di modelli matematici complessi, costruiti e addestrati attraverso enormi quantità di dati. È un sistema che, tramite algoritmi probabilistici, riconosce schemi e genera risposte, ma non “pensa” né “decide” in senso proprio.

Ciò che rende l’AI potente è la capacità di elaborare informazioni con velocità e precisione superiori a quelle umane in determinati ambiti, ma il suo funzionamento dipende interamente dalle regole con cui è stata programmata. E qui sta il punto fondamentale: chi definisce questi algoritmi? Quali dati vengono utilizzati per il loro addestramento? Chi stabilisce i parametri in base ai quali l’AI formula le sue risposte? Sono domande cruciali, perché ogni intelligenza artificiale riflette le scelte (e talvolta i pregiudizi) di chi la progetta.

La sua applicazione nel mondo giuridico, tecnico ed economico offre opportunità straordinarie, ma non può mai sostituire la capacità critica e la responsabilità dell’essere umano. L’AI non è infallibile e, soprattutto, non può assumersi oneri decisionali. L’ultimo anello della catena decisionale deve sempre essere l’uomo.

In questo senso, è pericoloso pensare che si possa delegare ciecamente all’Intelligenza Artificiale decisioni che incidono su diritti, doveri e responsabilità. Nessun professionista, che si tratti di un giudice, di un ingegnere o di un amministratore pubblico, potrà mai giustificare un atto dicendo: “l’ha detto l’AI”. L’Intelligenza Artificiale può suggerire, supportare, ottimizzare, ma la responsabilità ultima rimane sempre in capo a chi la utilizza.

E proprio per questo motivo, pensare di regolamentare l’AI in modo rigido e prescrittivo è non solo inutile, ma persino fuorviante. Regolamentare uno strumento significa ignorare il vero nodo del problema: la responsabilità di chi lo usa. Non si regolamenta il CAD, il BIM o un software di calcolo, perché la questione non è lo strumento, ma il suo utilizzo. L’AI non è una persona, non è un’entità autonoma con una volontà propria: è un codice, un sistema che elabora dati secondo modelli predefiniti. Cercare di normarla come se fosse un soggetto di diritto significa distogliere l’attenzione dal vero punto cruciale, ovvero il dovere di chi decide.

Invece di inseguire l’illusione di incasellare l’AI in regolamenti rigidi che non potranno mai stare al passo con il suo sviluppo tecnologico, sarebbe più sensato concentrarsi sulla formazione, sulla trasparenza degli algoritmi e, soprattutto, sulla responsabilità individuale e professionale di chi utilizza questi strumenti. Perché l’errore non sarà mai dell’Intelligenza Artificiale, ma di chi sceglie di affidarsi ad essa senza comprenderne i limiti e le implicazioni.

Studio Legale Armao

Avvocati a Palermo e Roma dal 1881 - diritto Amministrativo, Urbanistica ed Appalti pubblici, Servizi pubblici, Espropriazioni

6 mesi

Concordo, un fenomeno totalmente nuovo impone forme di regolazione flessibilità ed innovative basate su moral suasion, soft law etc

Per visualizzare o aggiungere un commento, accedi

Altre pagine consultate