“Ci sono problemi etici che possono emergere riguardo allo sviluppo dell’intelligenza artificiale? Come viene utilizzata? In quali particolari settori? Quale può essere l’impatto negativo?”. Così Virginia Ghiara, eticista dell’Intelligenza Artificiale e membro dei comitati scientifici di AI4People Institute, dell’Istituto Britannico di Standardizzazione e dell’Information Technology Industry Council degli Stati Uniti, ha aperto l’incontro tenutosi nell’ambito del progetto PopolX.
Ma di cosa si occupa un eticista dell’IA? Si tratta di una figura che ne analizza le problematiche etiche che emergono durante lo sviluppo e l’utilizzo. Ciò include l’identificazione di potenziali impatti negativi come la discriminazione, la disuguaglianza e la compromissione di posti di lavoro. La comunità degli eticisti dell’IA è multidisciplinare e include esperti di ambiti scientifici (informatici, scienziati dei dati) e umanistici (filosofi, psicologi e sociologi), le cui attività vanno dalla ricerca e sviluppo alla valutazione di impatto etico.
L’etica dell’IA è un settore sempre più importante: i sistemi sono basati su sequenze di parole che simulano la conversazione, ma non capiscono il significato o le implicazioni etiche di ciò che dicono. Stiamo andando incontro a un’antropomorfizzazione dell’IA. Si usano termini e concetti propri dell’essere umano per descrivere sistemi non-umani. “Parliamo addirittura di allucinazioni: situazioni in cui tu chiedi qualcosa a ChatGpt che non sa come rispondere e, anziché dirti che non sa la risposta, se la inventa.”
La supervisione umana è fondamentale per garantire un operato etico da parte dell’IA e avviene a livello tecnico, con la creazione di modelli equi e non discriminatori, e a livello di impatto, con la valutazione delle conseguenze dell’uso dell’IA in diversi contesti. Vi è, purtroppo, un grande divario sull’etica dell’IA. In Europa la regolamentazione è basata su principi etici e diritti fondamentali dell’uomo. Esiste addirittura un Ufficio dell’Intelligenza Artificiale all’interno della Commissione Europea. Negli Stati Uniti la priorità è data al progresso e alla competitività, non esistono ancora leggi federali ma solo codici di condotta volontari e discussioni sulla sicurezza nazionale.
Sono molti gli esempi di ingiustizie perpetrate dall’IA nei più svariati settori, dalla sanità all’istruzione, fino ai modelli linguistici che incoraggiano comportamenti pericolosi. A questo si aggiunge il caso dei deepfake (immagini e video manipolati) che rappresentano un rischio per la percezione della realtà e la fiducia nei media.
Quale impatto sta avendo l’uso dell’IA sulle competenze umane? E sull’ambiente? Sicuramente l’IA sta cambiando le competenze richieste nel mondo del lavoro e, per questo, l’etica dell’IA deve fare in modo che le abilità cognitive delle persone non vengano danneggiate. “L’idea è che si va a ad approfittare di quelli che sono i punti di forza dell’umano e della macchina”.
Per quanto riguarda l’impatto ambientale, l’uso dell’IA prevede un enorme consumo di energia e risorse idriche. “Se prendiamo il nuovo modello di ChatGpt, per l’interazione c’è bisogno di tre o quattro bottigliette d’acqua; quindi, immaginate che ogni volta che fate una domanda a ChatGpt va utilizzata una bottiglietta di acqua”. La consapevolezza di questo aspetto è fondamentale per valutare se e come utilizzare l’IA.
A livello normativo non esiste ancora una regolamentazione chiara su chi è responsabile in caso di incidenti causati dall’IA. Si tratta di una questione aperta e in continua evoluzione. Il coinvolgimento delle no-profit è fondamentale per sensibilizzare i policy-maker e tutelare le persone.
In conclusione, l’incontro ha evidenziato le complessità delle questioni etiche legate all’IA evidenziando l’importanza della multidisciplinarità e l’urgenza di una regolamentazione solida. Nonostante i molti rischi però l’IA ha il potenziale per apportare significativi benefici ma è fondamentale uno sviluppo e, soprattutto, un utilizzo guidato da principi etici e di equità.