Minsait e l’etica dell’intelligenza artificiale

L’importanza e la necessità di discutere su una tecnologia che influenza ora e in futuro la nostra vita.

intelligenza artificiale

Pedro Garcia, Amministratore Delegato di Minsait in Italia, si interroga sulla necessità di una discussione etica sull’intelligenza artificiale in vista di una legge europea.

La discussione etica sull’intelligenza artificiale è più che mai necessaria oggi che siamo alle porte della prima legge europea in materia. Interrogarsi criticamente sull’IA, sulle sue potenzialità e sulle sue sfide, significa indagare il funzionamento, le sfumature, i limiti, le complessità e le contraddizioni del pensiero umano. Significa discutere della tecnologia che sta influenzando maggiormente il nostro presente e il nostro futuro. E significa, in fin dei conti, discutere del futuro che vogliamo costruire.

Discussione etica sull’intelligenza artificiale

Il futuro regolamento europeo, l’AI Act, attualmente in discussione a Bruxelles, è stato preceduto da numerosi codici di autoregolamentazione, linee guida di buone pratiche, libri bianchi, ecc. Già nel 2020, l’AI Ethics Guidelines Global Index ha identificato 160 proposte di principi etici. Anche l’Italia ha compiuto progressi significativi con il Programma strategico per l’intelligenza artificiale. Esso prevede 24 politiche da attuare nei prossimi tre anni per rafforzare il sistema nel Paese.

Il regolamento europeo sull’intelligenza artificiale

Tutte queste linee guida, raccomandazioni e codici di autoregolamentazione sono necessarie e utili. Anche se un’eccessiva proliferazione può portare a problemi di ridondanza e confusione. Luciano Floridi ha riassunto le diverse proposte in cinque principi.

I cinque principi

(I) la beneficenza, intesa come orientamento dei sistemi a promuovere il benessere, preservare la dignità e preservare il pianeta. (II) la non-maleficenza, attraverso il rispetto della privacy e della sicurezza. (III) l’autonomia decisionale (senza dimenticare, in ogni caso, che la nostra IA “debole” avrebbe solo un’autonomia programmata o delegata nelle sue decisioni; e non godrebbe, quindi, di una piena agency morale).

(IV) l’equità, articolata su prosperità, solidarietà e non iniquità, che comprende l’imparzialità o l’assenza di pregiudizi e preconcetti che possano portare l’algoritmo a prendere decisioni ingiuste. (V) l’”esplicabilità”, intesa come trasparenza del processo interno che gli algoritmi seguono per l’elaborazione dei dati, l’identificazione dei modelli e il processo decisionale.

La necessità di una discussione etica sull’intelligenza artificiale

Floridi traccia così un quadro sintetico di principi che sono attraversati da due domande chiave. La prima delle quali è “un’intelligenza artificiale, perché?”; “a quale scopo?”. La questione della finalità dei sistemi è spesso trascurata. Poiché si presuppongono vantaggi economici e politici che offuscano qualsiasi altra considerazione. Distogliendo l’attenzione da altri usi orientati al bene comune che vanno oltre l’interesse commerciale, la riduzione dei costi o il miglioramento della sicurezza.

La seconda domanda

La questione dello scopo sarebbe seguita da un’altra domanda, non meno importante: si tratta di un sistema il cui uso è per il bene comune? Non mancano esempi di sistemi progettati per uno scopo lodevole, ma utilizzati in modo iniquo o potenzialmente pericoloso. Microsoft, ad esempio, ha appena annunciato limitazioni all’uso del suo strumento Custom Neural Voice. Esso è in grado di imitare una voce da un discorso registrato. Lo strumento ha un grande potenziale, ma ci sono anche evidenti rischi di uso fraudolento.

Una base solida per regolamentare la materia

I cinque principi riassunti da Floridi costituiscono senza dubbio una solida base per la regolamentazione della materia. Tuttavia, ci si potrebbe chiedere se questi principi siano validi in tutti i tempi e in tutti i luoghi. Inoltre se l’analisi etica dei sistemi di IA non possa essere arricchita guardando all’esterno dei sistemi. Tenendo conto anche del contesto in cui i sistemi vengono progettati, implementati e valutati. E questo nella misura in cui la nostra intelligenza artificiale costruisce l’ordine sociale. Ma è anche, allo stesso tempo, una conseguenza dell’ordine sociale in cui nasce: è madre e figlia del quadro materiale e ideologico in cui è concepita e opera.

Cosa significa una discussione etica sull’intelligenza artificiale

Infatti, per alcuni autori come la ricercatrice ed esperta di IA etica Lorena Jaume-Palasí, la creazione di principi orizzontali, validi per tutti i settori e senza tenere conto dei contesti particolari dei sistemi, non sono altro che iniziative di facciata. Come se dovessimo creare, spiega Jaume-Palasí, delle regole per le statistiche che siano utili a un ginecologo come a un militare… Solo che non ci basiamo sulle statistiche della nostra cartella clinica e diciamo al nostro banchiere di interpretarle per noi.

Non si tratta di cadere nel relativismo. Piuttosto di arricchire la valutazione dell’“esplicabilità”, dell’autonomia o dell’imparzialità dei nostri sistemi con uno sguardo al contesto in cui gli algoritmi sono stati progettati e che hanno contribuito a plasmare. Un’interrogazione critica proiettata verso l’interno e verso l’esterno dell’algoritmo per cementare la base etica che sostiene la necessaria regolamentazione della materia e guida la governance della sua applicazione.