Torna a Eventi FPA

News

daniel-chen-546446-unsplash.jpg

Intelligenza artificiale nella PA: la consapevolezza prima di tutto

di Michela Stentella.

Come abbiamo evidenziato in un recente articolo, diversi enti centrali e locali stanno cominciando a sperimentare applicazioni di intelligenza artificiale (per esempio i chatbot come servizio di assistenza ai cittadini, messi a disposizione dal Mipaaf e dal Mef) e l’IA potrebbe diventare sempre più fattore abilitante per una PA sostenibile, moderna, innovativa ed efficiente. Questo scenario apre però, naturalmente, riflessioni impensate fino a qualche anno fa, questioni nuove di tipo tecnologico, etico, normativo. Ed emerge una grande esigenza di formazione e sensibilizzazione (dei dipendenti pubblici, ma anche dei cittadini) affinché queste soluzioni vengano adottate ed utilizzate in maniera consapevole, al fine di evitare sia atteggiamenti difensivi che sperimentazioni approssimative. Ne abbiamo parlato con Fernanda Faini che il 17 ottobre a ICity Lab 2018 approfondirà questi temi in una Academy dal titolo “Intelligenza artificiale e pubblica amministrazione: le sfide giuridiche”.

Il tema dell’intelligenza artificiale applicata al mondo pubblico è un tema caldo: nel marzo scorso è uscito il Libro Bianco “Intelligenza Artificiale al servizio del cittadino”, di recente è stata creata una task force a livello europeo che si interroga sull’intelligenza artificiale e in particolar modo sul profilo etico e infine, recentissima, è uscita una call per designare da parte del MISE 30 esperti che si occuperanno proprio di intelligenza artificiale. Date queste premesse Fernanda Faini sottolinea che “l’Italia nel contesto internazionale si sta ponendo come uno dei Paesi intenzionati ad affrontare in modo sinergico e integrato i profili che possono emergere nell’impiego di soluzioni di intelligenza artificiale. Chiaramente uno degli ambiti di elezione è proprio il settore pubblico. Gli enti e le istituzioni potrebbero, grazie a queste soluzioni, erogare servizi ai cittadini in modo più efficiente, più veloce, migliorando la soddisfazione dell’utenza. Ma ci sono delle questioni aperte e all’interno dell’Academy vorrei affrontare soprattutto i profili giuridici, perché è evidente che se ci muoviamo in un contesto pubblico si dovrà, prima di tutto, rispettare la normativa prevista per la pubblica amministrazioni e i principi che guidano l’agire pubblico. Vorrei quindi evidenziare quali sono gli aspetti a cui prestare maggiore attenzione, sottolineare i rischi, ma anche far emergere le opportunità e alcune soluzioni”.

Il cuore del problema sono naturalmente i dati e gli algoritmi. “Il cittadino deve sapere come i suoi dati verranno utilizzati da parte della soluzione di intelligenza artificiale e quindi dell’istituzione, dovrà anche capire qual è la logica degli algoritmi che animano quella soluzione e quale è il processo di funzionamento del servizio. Quindi va prestata particolare attenzione alla gestione dei dati, di cui si nutre l’intelligenza artificiale, ma anche agli algoritmi, il “motore” che anima questi dati. Si deve prestare attenzione a non arrivare a conclusioni imprecise o errori, soprattutto nell’erogazione un servizio. Il rischio è che laddove il percorso non sia trasparente e non si instauri lealtà tra chi fornisce il servizio, avvalendosi di intelligenza artificiale, e chi ne fruisce, si possa scivolare in un’asimmetria, in una percezione di controllo e di sfruttamento dei dati da parte delle istituzioni. Inoltre uno degli aspetti più problematici è la responsabilità in caso di errori tecnici. Last but not least, anche alla luce del regolamento europeo, devono essere osservati una serie di principi per la protezione dei dati personali (principio di finalità, minimizzazione dei dati, esattezza) che può essere difficile rispettare in questo contesto e per farlo sarà necessario dare vita a una sorta di “privacy tecnica” capace by default e by design di integrare il rispetto di questi principi in queste soluzioni”.

“Dovranno esserci policy e regolamentazioni specifiche che garantiscano questi aspetti – sottolinea Faini -. Se una città per essere smart vuole intraprendere la strada dell’IA dovrà farlo con un’attenzione particolare agli aspetti giuridici, perché è lì che si nascondono le insidie, e dovrà evidentemente prestare attenzione anche alla governance in materia, dal momento che oltre alle norme ci sono autorità che se ne occupano e se ne occuperanno in diverso modo e che possono fornire indicazioni e linee guida al riguardo, come l’Agenzia per l’Italia Digitale e il Garante per la protezione dei dati personali”.

In conclusione, l’applicazione delle norme in un contesto di intelligenza artificiale può essere complesso in ambito pubblico. Chi si occupa di queste soluzioni dovrà possedere una serie di competenze di ordine tecnico, giuridico e organizzativo che necessitano di una formazione specifica e puntuale; sarà necessario il lavoro in team al fine di integrare le diverse competenze necessarie. A questa esigenza di formazione all’interno delle amministrazioni si affianca la necessità, come dicevamo all’inizio, di costruire consapevolezza, anche giuridica, nei cittadini, affinché riescano a comprendere cosa stanno utilizzando, i principi di funzionamento e le policy di accompagnamento. Nell’Academy vedremo come alcuni strade da intraprendere nell’utilizzo di tali soluzioni afferiscono proprio alla trasparenza e al dovere di lealtà verso la collettività. Emerge un’esigenza di accountability per le amministrazioni: non solo responsabilità (ed eventuali sanzioni), ma responsabilizzazione e un approccio etico a queste tematiche. Per non dimenticare mai che la tecnologia è uno strumento ed il fine ultimo è il benessere della collettività, il miglioramento della qualità di vita dei cittadini.

Photo by Daniel Chen on Unsplash