Agente AI: Licenza di Fallire

Per gli addetti ai lavori, in poche settimane, si sono concentrati due eventi di notevole importanza per chi si occupa della concreta applicazione, possibilmente con un ROI, delle tecnologie legate allo sviluppo dell'Intelligenza Artificiale (in inglese Artificial Intelligence:AI).

A Bruxelles e' stato presentato il codice etico dell'UE per l'applicazione dell'AI, un testo che ha coinvolto oltre 52 esperti selezionati dal mondo accademico, dell’industria e della società civile per un totale di oltre 500 contribuiti inviati. "Al centro si trova l'uomo, è l'uomo che domanda, questo è l'approccio europeo", così la commissaria Ue Maryia Gabriel.

A breve distanza di tempo a Milano si e' svolto l'AI-FORUM, promosso dall'Associazione Italiana per l'Intelligenza Artificiale (AIxIA), gli stati dell'Unione Europea sono considerati indietro sull'adozione a livello commerciale dell'IA rispetto a Stati Uniti e Cina.

Codice Etico Europeo

Le due parole d'ordine per indirizzare lo sviluppo dell'AI sono etica e trasparenza. Con questo codice etico si vuole mettere al centro l'uomo e il suo controllo per poter generare fiducia da parte degli utenti nei confronti queste tecnologie. Per fare questo sono stati redatti 4 principi base.

Come gia' anticipato l'AI deve essere al servizio dell'uomo, ossia sempre sotto il controllo umano per migliorarne l'agire, garantendo la sua l'autonomia e i suoi diritti (principio I).

Per migliorare le attivita' umane, le diverse fasi dell'intero ciclo di vita dello sviluppo di sistemi basati su AI devono avere l'obiettivo di rendere gli algoritmi il piu' possibile sicuri e affidabili (principio II).

Per garantire l'autonomia e i diritti, i dati personali utilizzati devono essere sempre sotto il controllo dei cittadini di modo che ne siano utilizzati contro di loro (principio III), line di principio gia' applicata con la nuova legge sulla tutela della privacy denominata GDPR.

Per aiutare le capacita' umane, ma garantirne l'autonomia, i sistemi basati su AI dovranno puntare ad essere trasparenti, ossia esplicare le "ragioni" delle scelte operate e fornire meccanismi per il ricorso umano contro le decisioni fornite dagli algoritmi, assicurando sempre la responsabilita' di chi gestisce i sistemi di calcolo (principio IV).

Questo ultimo aspetto non e' certamente l'ultimo in termini di importanza, non solo per generare fiducia da parte dell'utente, ma anche per evitare un utilizzo cieco e senza controllo, come avviene con le tecnologie attuali dove questi algoritmi sono di fatto delle scatole chiuse (black box), dove e' impossibile capire il processo decisionale.

AI-FORUM

A Milano si e' potuto saggiare con mano molte applicazioni di sistemi basati su AI e dagli interventi e' stato possibile capire che si e' raggiunto un buon livello di affidabilita' nel fornire alla macchina doti di base di percezione.

Le macchine di calcolo ora sono in grado non solo di sentire i suoni, ma di ascoltare i discorsi degli esseri umani ed elaborarli. Non solo vedere, ma osservare immagini ed estrarne informazioni utili in diversi ambiti aziendali, dal controllo di processo al controllo accessi, dai chat-bot ai piu' evoluti assistenti virtuali.

Ma c'e' ancora una cosa che la ricerca non e' stata in grado di sviluppare ed integrale con questi algoritmi, la loro capacita' di esplicare i loro processi interni in una forma comprensibile all'uomo. Questo sara' uno dei fattori cardine per la vera diffusione di tecnologie basate su AI.

Cosi' il vecchio continente ha aumentato gli investimenti con almeno 20 miliardi di euro nella ricerca delle tecnologie di AI entro il 2020 e la stessa quantità all'anno nel decennio successivo.

Chi rompe paga...

Indubbiamente all'Europa mancano piattaforme digitali del calibro di quelle americane o cinesi, ma questo non vuol dire che le esperienze d'oltre oceano o nel lontano oriente siano indolori.

Come non citare lo scandalo che ha coinvolto Facebook, con la vendita dei dati personali degli utenti a Cambridge Analytica, e che rischia di costare al colosso americano una multa di 5 miliardi di dollari. E che dire degli algoritmi che impongono all'utente del social network alcuni contenuti piuttosto di altri.

Ha fatto discutere il caso interno a Google, dove l'azienda statunitense ha sciolto il proprio comitato etico interno. In questo ultimo caso i dipendenti del colosso americano hanno accusato il comitato di discriminazione verso la comunità Lgbt. Segno che dimostra quanto siano sensibile l'approccio di queste tecnologie.

Ancora piu' emblematico e' il caso del tycoon di Hong Kong, Samathur Li Kin-ka, che ha citato in giudizio l'azienda londinese Tyndaris Investments perche' il "robot" che doveva eseguire remunerativi investimenti, basandosi sulle informazioni presenti sui media digitali (anche social), in un solo giorno e' stato capace di mandare in fumo 20 milioni di dollari.

Questo ultimo caso e' la diretta conseguenza di questa mancata capacita' esplicativa degli algoritmi di dare le ragioni delle loro decisioni cosi' che gli analisti di Tyndaris Investments non hanno modo di farsi dare dal "robot" l'ipotesi esplicita sul comportamento del mercato.

Per questa ragione la nuova frontiera della ricerca e' quella che viene definita Explainable Artificial Intelligence (XAI), ossia una nuova classe di algoritmi di AI che tengano traccia del precorso che i dati fanno al loro interno e fornire una spiegazione dei processi decisionali.

Comments are closed.

NON seguire questo link o sarai bannato dal sito!

Questo sito o gli strumenti terzi da questo utilizzati si avvalgono di cookie necessari al funzionamento ed utili alle finalità illustrate nella cookie policy. Se vuoi saperne di più o negare il consenso a tutti o ad alcuni cookie, consulta la <a href="http://www.enricobilli.com/cookie-policy">cookie policy</a>. Chiudendo questo banner, scorrendo questa pagina, cliccando su un link o proseguendo la navigazione in altra maniera, acconsenti all’uso dei cookie. Maggiori informazioni

Questo sito utilizza i cookie per fornire la migliore esperienza di navigazione possibile. Continuando a utilizzare questo sito senza modificare le impostazioni dei cookie o cliccando su "Accetta" permetti il loro utilizzo.

Chiudi