Il rapporto tra intelligenza artificiale e pubbliche amministrazioni | The relationship between artificial intelligence and public administrations

La Cattedra Jean Monnet on EU Approach to Better Regulation prosegue la ricerca sul rapporto tra intelligenza artificiale e pubbliche amministrazioni.

La titolare della Cattedra, prof.ssa Nicoletta Rangone, ha infatti recentemente contributo con i seguenti tre articoli:


L’impiego di sistemi di intelligenza artificiale nelle pubbliche amministrazioni italiane: prove generali


Tale contributo, autorato insieme ai prof.ri Chiti e Marchetti, mira a fotografare e analizzare l’affacciarsi delle amministrazioni italiane sul mondo dell’IA, per individuare i processi in corso e alcune tendenze generali. Si affrontano tre diversi problemi. Il primo riguarda la governance del processo e il quadro normativo di riferimento, il secondo è relativo al quomodo e il terzo concerne la fase di controllo.
Al fine di raccogliere elementi utili per rispondere a tali quesiti, gli autori interrogano le stesse pubbliche amministrazioni: le autorità indipendenti, le smart cities e le amministrazioni centrali.
Per ciascun gruppo di amministrazioni l’interlocuzione diretta (nel contesto di quattro seminari) è contraddistinta dalla risposta alle seguenti domande: chi decide, all’interno dell’amministrazione, di ricorrere all’IA? Quali sono i tipi di sistemi che le amministrazioni stanno concretamente sperimentando o utilizzando? Per quali compiti e con quali obiettivi? E chi assicura la sorveglianza della macchina, correggendone gli eventuali difetti di funzionamento?
Gli autori, nel loro contributo, partono dai modi di acquisizione dei sistemi di IA (es. collaborazione inter-funzionale vs ricorso all’in-house e il problema delle competenze), passando per il loro utilizzo nell’esercizio delle attività amministrative (es. il ruolo degli incentivi all’impiego dell’IA, dei bandi di gara e la trasparenza e accountability dell’amministrazione verso i privati), sino alla sorveglianza sul loro funzionamento (human out of the loop).


Intelligenza artificiale e pubbliche amministrazioni: affrontare i numerosi rischi per trarne tutti i vantaggi


Lo scritto analizza l’uso dell’IA come strumento per l’effettività dell’organizzazione e dell’azione amministrativa, mettendo in luce i vantaggi (es. comprimere i tempi di decisione, razionalizzare l’impegno di risorse umane, evitare errori umani e limitare le occasioni di corruzione) e rischi (es. opacità, errore e discriminazione). Il paragrafo 2 è dedicato all’uso dell’intelligenza artificiale per il miglioramento delle prestazioni al pubblico e l’organizzazione interna (tra applicazioni volte a facilitare il rapporto con i cittadini e i servizi al pubblico, ottimizzazioni della distribuzione del lavoro tra uffici e il caso della razionalizzazione di attività che comportano la raccolta di informazioni prodromiche all’avvio di un procedimento di controllo, regolatorio o decisionale);  il paragrafo 3 alle nuove tecnologie per il rule-making (uso del marchine learning per le consultazioni, per l’attività di drafting e adeguamento delle regole al mutamento del quadro di riferimento); il paragrafo 4 all’attuazione amministrativa (limitata trasparenza e spiegabilità, tra automation bias e algorithm aversion nella non esclusività della decisione algoritmica). Nelle conclusioni si solleva l’esigenza di un inquadramento normativo generale e di discipline procedurali delle singole amministrazioni, tali da assicurare reale accessibilità, comprensibilità e non discriminazione, oltre a meccanismi di controllo che consentano di verificare l’adeguatezza del ricorso all’intelligenza artificiale in luogo dell’intelligenza umana in un’ottica di in ultima analisi di un diritto amministrativo effettivo che sia osservato, attuato e foriero di risultati coerenti con gli obiettivi per cui è stato previsto.


Intelligenza artificiale e intelligenza umana a supporto di una buona amministrazione


Il contributo parte dall’analisi dell’utilizzo degli algoritmi da parte delle pubbliche amministrazioni (es. nell’attribuzione delle sedi lavorative, al calcolo delle tariffe, all’e-procurement) come supporto all’obiettivo di una buona amministrazione.
Tuttavia, nell’affrontare i rischi (tra cui, i sistemi di IA che si alimentano di dati che possono essere il frutto di ambiguità e incoerenze connesse all’intervento umano), occorre evitare agevoli soluzioni formali che minano una già in crisi fiducia nell’amministrazione e nell’IA. Inoltre, per alimentare la fiducia nelle amministrazioni che usano l’IA è rilevante anche la fiducia del funzionario pubblico nell’IA.
Trasparenza, spiegabilità, non discriminazione e non esclusività̀ delle decisioni basate sull’IA sono le garanzie procedurali che vanno assicurate anche nell’ambito di un procedimento amministrativo.
L’autore suggerisce una comparazione tra i vantaggi e svantaggi nella decisione relativa all’affidamento all’IA oppure all’intelligenza umana supportata dall’IA connessi con la sola decisione umana. In aggiunta, tali decisioni dovranno poi essere riviste alla luce del monitoraggio, delle segnalazioni e dei ricorsi presentati nei confronti degli esiti di decisioni parzialmente o completamente automatizzate.


ENG


The Jean Monnet Chair on EU Approach to Better Regulation continues its research on the relationship between artificial intelligence and public administrations.

Indeed, prof. Nicoletta Rangone has recently contributed with the following three articles:

  • The use of artificial intelligence systems in Italian public administrations: general evidence, in BioLaw Journal – Rivista di BioDiritto, n. 2/2022.
  • Artificial intelligence and public administrations: addressing the many risks to reap the benefits, in BioLaw Journal – Rivista di BioDiritto, n. 2/2022.
  • Artificial intelligence and human intelligence supporting good administration, in Munera, n. 2/2022.

The use of artificial intelligence systems in Italian public administrations: general evidence


This contribution, co-authored with Professors Chiti and Marchetti, aims to take a snapshot and analyse the outlook of Italian administrations on the world of AI to identify ongoing processes and some general trends. Three different problems are addressed. The first concerns the governance of the process and the regulatory framework of reference, the second relates to the quomodo and the third concerns the control phase.
To gather useful elements to answer these questions, the authors question the public administrations: independent authorities, smart cities and central administrations.
For each group of administrations, the direct dialogue (in the context of four seminars) is characterised by answers to the following questions: Who within the administration decides to use AI? What types of systems are administrations actually experimenting with or using? For what tasks and with what objectives? And who ensures the oversight of the machine, correcting any malfunctions?
In their contribution, the authors start from how AI systems are acquired (e.g. inter-functional collaboration vs. the use of in-house and the problem of competencies), their use in the performance of administrative activities (e.g. the role of incentives for the use of AI, calls for tenders and the administration's transparency and accountability towards private parties), and finally to the supervision of their operation (human out of the loop).


Artificial intelligence and public administrations: addressing the many risks to reap the benefits


The paper analyses the use of AI as a tool for the effectiveness of organisation and administrative action, highlighting the advantages (e.g., compressing decision-making times, rationalising the commitment of human resources, avoiding human error and limiting opportunities for corruption) and risks (e.g., opacity, error and discrimination). Paragraph 2 is devoted to the use of artificial intelligence for the improvement of services to the public and internal organisation (including applications aimed at facilitating relations with citizens and services to the public, optimisation of the distribution of work between offices and the case of the rationalisation of activities involving the collection of information prodromal to the initiation of control, regulatory or decision-making procedure);  paragraph 3 to new technologies for rule-making (use of machine learning for consultations, for drafting activities and adaptation of rules to the changing framework); paragraph 4 to administrative implementation (limited transparency and explainability, between automation bias and algorithm aversion in the non-exclusivity of algorithmic decision-making). The conclusions raise the need for a general regulatory framework and procedural disciplines of individual administrations, such as to ensure real accessibility, comprehensibility and non-discrimination, as well as control mechanisms to verify the appropriateness of the use of artificial intelligence instead of human intelligence with a view to ultimately effective administrative law that is observed, implemented and harbours results consistent with the objectives for which it was intended.


Artificial intelligence and human intelligence in support of good administration


The contribution starts with analysing the use of algorithms by public administrations (e.g., in the allocation of work locations, calculation of fees, e-procurement) as support for the goal of good administration.
However, in dealing with risks (including AI systems feeding on data that may result from ambiguities and inconsistencies related to human intervention), easy formal solutions that undermine an already shaky trust in the administration and AI should be avoided. In addition, the public official's trust in the administration using AI is also relevant to nurturing trust in AI.
Transparency, explainability, non-discrimination and non-exclusivitỳ of AI-based decisions are the procedural guarantees that must also be ensured in an administrative procedure.
The author suggests a comparison of the advantages and disadvantages in deciding whether to rely on AI or AI-supported human intelligence associated with human decision-making alone.
In addition, such decisions will then have to be reviewed in the light of monitoring, reports and appeals lodged against the outcomes of partially or fully automated decisions.