C’è un’ipotesi forte e una debole per l’intelligenza artificiale. La prima era inizialmente un concetto filosofico che prevedeva di ricostruire la mente in maniera artificiale anche se non sappiano bene come funziona. Negli esseri umani c’è infatti autocoscienza mentre un programma non può averla. Secondo l’ipotesi debole, quando abbiamo problemi difficili per i quali serve un essere umano molto esperto nel settore, si studia una sistema esperto per risolverli. In un campo molto ristretto, per compiti ripetitivi e noiosi con un certo investimento cognitivo, possiamo usare un programma facendo sempre in modo che noi umani possiamo avere l’ultima parola.

Al Caffè Scienza Luigi Portinale, professore ordinario di Informatica all’Università del Piemonte Orientale, dove insegna ai corsi di Intelligenza Artificiale e supporto alle decisioni e Apprendimento automatico, e Virginia Ghiara, ricercatrice che si occupa di etica dell’intelligenza artificiale al Fujitsu Research of America, hanno compiuto un viaggio nell’intelligenza artificiale ripercorrendone la storia ed esaminandone l’evoluzione e le sfide.

“Chapgpt appare intelligente ma è stupido, non sa cosa sta dicendo, non ha conoscenza semantica, fa manipolazioni statistico-sintattiche. Gli studiosi lo definiscono un pappagallo probabilistico” ha spiegato Portinale. Il professore ha illustrato le fasi che ha attraversato il settore dell’Ai (intelligenza artificiale). Negli anni 65-70 del secolo scorso c’è stato un periodo iperottimistico durante il quale si pensava che nel giro di pochi anni sarebbero stati creati sistemi in grado di fare cose come gli umani. Negli anni 70 si pensava a programmi per compiti molti sofisticati ma che in realtà non potevano avere le capacità di un bambino di un anno nel gestire problematiche di percezione o movimento.

Successivamente l’ipotesi della strong Ai ha lasciato il posto all’era dei sistemi esperti che risolvono compiti molto complicati ma in settori specifici. Ma negli anni 80 le conoscenze si dovevano inserire a mano. Nel giro di qualche anno è nato il machine learning (apprendimento automatico) e dal 1993 questo è un modo per costruire sistemi di Ai. Oggi in particolare abbiamo a disposizione il deep learning, basato su modelli inventati negli anni 40 con la cibernetica.

“Le reti neurali sono un modello astratto del funzionamento del nostro cervello. I neuroni si scambiano segnali che ci permettono di ragionare. In una rete neurale, i neuroni artificiali fanno addizioni e moltiplicazioni – ha spiegato Portinale – Se a una rete neurale si fanno vedere foto di auto e di altre cose, dopo l’addestramento riconosce un’auto ma non sa perché: è una black box, entra un input ed esce un output”.

Anche tra gli studiosi non c’è concordanza di idee sui rischi dell’intelligenza artificiale. Sono comunque moltissime le applicazioni. Ibm Watson ha vinto a un gioco a quiz ma poi è stato utilizzato con lo stesso metodo anche in oncologia e in ambito legale. Alphago ha battuto il campione del mondo alla dama cinese, una dei giochi più difficili, e ora è usato per predire la struttura tridimensionale di una proteina, uno dei maggiori problemi della bioinformatica.

Il professore ha ricordato anche gli enormi investimenti nel settore di aziende quali Google, Facebook, Amazon, Microsoft, nvidia e Ibm, molto più grandi di quelli che possono fare le università.

Quali sono i problemi che possono nascere dall’uso dell’Intelligenza artificiale? Nella generazione di testi possono diffondersi informazioni false o errate ma percepite come vere (allucinazioni o fake news), risposte apparentemente intelligenti e sorprendenti in senso positivo su questioni complicate ma sbagliate su cose molto semplici, violazioni del copyright o della proprietà intellettuale, risposte eticamente scorrette (razzismo, incitamento all’odio). Possiamo ottenere immagini iperrealistiche per supportare tesi inesistenti o di persone reali usate in contesti difformi dalla realtà.

Portinale ha citato Pedro Domingos, professore emerito di informatica alla University of Washington che dice che il problema non è l’uomo contro la macchina ma l’uomo contro l’uomo che ha la macchina.

Virginia Ghiara ha ricordato che l’uso delle nuove tecnologie ha sempre fatto emergere domande sulla sicurezza e su come regolamentarle. “Ci deve essere un equilibrio tra innovazione e diritti umani. Quando utilizziamo l’intelligenza artificiale per la ricerca scientifica c’è un impatto positivo. Le immagini false possono avere invece un impatto negativo sulla società, addirittura sulla geopolitica degli stati o sui comportamenti elettorali”.

I rischi sono legati infatti all’uso improprio o non etico. Le discriminazioni spesso non sono intenzionali e sono difficili da predire e identificare. Per esempio, in ambito sanitario c’era un software che discriminava le persone di colore, un altro che effettuava screening di curriculum preferiva gli uomini. Altri algoritmi discriminavano alcune categorie di persone nell’assegnazione di sussidi sociali.

“I sistemi di intelligenza artificiale sono informati o neutrali quanto lo sono le persone che li sviluppano e i dati che vengono incorporati – ha spiegato la ricercatrice – tutti abbiamo dei bias, uno stereotipo o una opinione inconscia e involontaria che influenza le azioni e le decisioni quotidiane poi sono inserite nei sistemi di Ai. Le discriminazioni esistono nella società, i dati le includono e i sistemi di Ai imparano dai dati”.

Ma chi è responsabile quanto l’intelligenza artificiale sbaglia? È l’intelligenza artificiale a sbagliare o è lo sviluppatore? Il problema principale è dato dalla quantità di contributi diversi, umani e non, alla realizzazione dei sistemi. Le discussioni etiche hanno portato allo sviluppo di nuove normative e standard per tutelare i diritti umani e la privacy. Nell’Unione europea è utilizzato un approccio basato sul rischio: gli studiosi di etica hanno discusso molto dei settori in cui è elevato, come l’educazione e il monitoraggio dei dipendenti. È stato posto il divieto all’uso di programmi di riconoscimento biometrico in luoghi pubblici.

Entrambi i relatori hanno parlato anche delle ripercussioni dell’intelligenza artificiale sul mondo del lavoro. Serviranno molte più persone che controllano i risultati e meno per i lavori ripetitivi. Ci sarà necessità di software developer, di esperti legali in ambito Ai e di professionisti in grado di analizzare dati e di specialisti nell’ambito della certificazione. “Esisteranno sempre più esigenze interdisciplinari tra gli ambiti tecnico e umanistico e persone che sappiano valutare e gestire l’impatto dell’intelligenza artificiale sulla nostra vita”.



https://youtu.be/glJLuEQGlhk