IA. CONVEGNO A TS: PER GLI ESPERTI NECESSARIO UN APPROCCIO COORDINATO
(ACON) Trieste, 11 mar - Fare un uso consapevole e ragionato
dell'intelligenza artificiale, cogliendone le opportunità, ma
allo stesso tempo non dimenticare i rischi e i limiti connessi al
suo utilizzo. È stato questo il filo conduttore alla base di
alcune delle riflessioni emerse durante il convegno, tenutosi
oggi nell'aula del Consiglio regionale a Trieste e avente come
focus l'Ia.
Diversi esperti in materia, intervenuti nel dibattito, hanno
cercato di far luce su alcuni quesiti, in primis come poter
utilizzare l'intelligenza artificiale nella Pubblica
amministrazione.
E tre, in particolar modo, sarebbero i possibili casi di impiego
dell'Ia secondo l'avvocato Ernesto Belisario. "Per migliorare la
produttività e la trasparenza delle attività di documentazione di
alcuni uffici, per supportare l'attività dei parlamentari
attraverso l'individuazione dei punti da abrogare per la modifica
delle normative e, infine, l'uso di chatbot ad hoc per agevolare
ai cittadini la comprensione di emendamenti o provvedimenti
amministrativi", ha spiegato l'esperto legale di Ia che ha
illustrato il report "Utilizzare l'intelligenza artificiale a
supporto dei parlamentari" realizzato dal Comitato di vigilanza
della Camera dei deputati.
"Non si deve pensare di sostituire il lavoro dei legislatori con
dei bot - ha tenuto a sottolineare Belisario - ma semplicemente
supportarli nelle loro attività dopo un'adeguata formazione e
competenza".
Di governance dell'intelligenza artificiale ha parlato anche Luca
Tangi, esperto dell'Ia observatory della Commissione Ue, che ha
portato alcuni esempi di utilizzo di intelligenza artificiale in
ambito pubblico, già sperimentata in altre nazioni: ad esempio la
chatbot utilizzata dal Registro delle imprese della Lettonia per
supportare i cittadini nelle presentazione della documentazione
inoltrata agli uffici di competenza, così come l'algoritmo
Verypol utilizzato dalla polizia spagnola per distinguere le
false denunce da quelle vere.
Tangi ha anche spiegato che nell'ambito della "Procurement of Ai
community" della Commissione europea sono state pubblicate alcune
clausole standard per l'acquisto da parte delle organizzazioni
pubbliche di sistemi di intelligenza artificiale. "Abbiamo
raccolto migliaia di esempi di utilizzo dell'Ia - ha concluso il
project officer della Ue -. Sta a noi capire come utilizzarla per
migliorare il servizio pubblico offerto ai cittadini".
Molteplici le opportunità, dunque, ma diverse anche le insidie
che si nascondono dietro l'Ia. "Sistemi di intelligenza
artificiale come chat Gpt - ha spiegato Luca Bortolussi, docente
dell'Università di Trieste - sono addestrati per funzionare su
una grandissima quantità di dati in base a un singolo task. La
sfida, però, è quella di rendere spiegabili, a livello umano, le
decisioni basate su una rete neurale di 1800 miliardi di
parametri. Un sistema questo - ha evidenziato Bortolussi - che
mostra ancora molti limiti e non è esente dal commettere errori".
Errori che possono assumere un peso rilevante anche a livello
giuridico - come è emerso dal dibattito - e che rende necessaria
un governance più specifica sul tema anche per i giuristi. "L'uso
dell'Ia - hanno evidenziato Federica Giovanella e Federico
Costantini, docenti dell'Università di Udine, illustrando l'Ai
Act che sarà approvato definitivamente a fine marzo dal
Parlamento europeo - potrebbe creare dei problemi o delle
allucinazioni legali causate dalla risposta non pertinente o non
corrispondente alla realtà data dagli applicativi di Ia".
Infine, ma non meno importante, da non dimenticare l'impatto
etico che l'intelligenza artificiale può avere sulla vita delle
persone. "Gli algoritmi di machine learning - ha spiegato Teresa
Scantamburlo, docente dell'Università Ca' Foscari di Venezia -
prendono decisioni sulla base di un processo di ottimizzazione
che è molto diverso da quello decisionale umano e che, quindi,
può essere utilizzato per fare delle classificazioni, anche sulle
persone, in modo eticamente errato".
La sfida, dunque, è quella di far fronte ai rischi legati all'uso
dell'intelligenza artificiale attraverso - come hanno rilevato in
conclusione gli esperti - un coordinamento a livello regionale,
nazionale e europeo, con un approccio interdiscplinare al fine di
garantire una maggiore formazione e consapevolezza.
ACON/SM-fc