Innovazione e tecnologia

«Non siamo una polizia dell’etica digitale»

Come si insegna a un’intelligenza artificiale (IA) a comportarsi in modo etico? L’esperta della Posta in fatto di etica digitale e IA è Sophia Ding. L’abbiamo intervistata facendole qualche domanda sull’innovazione, l’intelligenza artificiale maschilista e la libertà di scegliere.

Mischa Stünzi

Sezione Rich Content

Creato con Copilot (IA)
Creato con Copilot (IA)

Cos’è l’etica digitale e perché la Posta se ne occupa?

In che modo la Posta può sfruttare le opportunità della digitalizzazione, garantendo al contempo il rispetto di valori fondamentali come l’autonomia, la trasparenza e l’equità? L’etica digitale ci aiuta a rispondere a queste domande, anche quando non esistono ancora disposizioni di legge (ad esempio in merito all’utilizzo di nuove tecnologie). Maggiori informazioni sull’etica digitale presso la Posta sono disponibili sulla pagina Etica digitale presso la PostaTarget not accessible

Leggere di intelligenze artificiali con atteggiamenti razzisti o maschilisti deve essere un vero incubo per te come specialista di etica digitale. È così? 

Sì. È un problema grave, che può avere ripercussioni pesanti sulla vita delle persone. Amazon, ad esempio, ha sviluppato una IA per il processo di reclutamento che è stata addestrata con dati del passato, quando la presenza di donne nel settore tecnologico era ancora molto rara, e che favorisce quindi gli uomini rispetto alle candidate donne.

Come possiamo impedire che si verifichino situazioni simili alla Posta? 

Noi specialiste e specialisti di etica digitale ci impegniamo attivamente in azienda proprio in questo senso. Per farlo, abbiamo bisogno del sostegno di tutti e tutte, perché solo riflettendo insieme e per tempo su questo tema riusciremo a evitare situazioni analoghe. Proprio anche per via di questi rischi la Posta supera le disposizioni di legge per quanto concerne l’uso dell’IA.

Ma è davvero possibile evitare che accada? In fondo ogni intelligenza artificiale viene addestrata con dati del passato. 

L’IA impara da modelli preesistenti e questo è un aspetto che dobbiamo considerare quando scegliamo di usarla oppure quando, in certi casi, decidiamo consapevolmente di farne a meno. Da un punto di vista tecnico è teoricamente possibile identificare e appianare le discriminazioni. Nella pratica, però, è un processo molto complicato che non può dipendere solo dai mezzi tecnici. Se capiamo che una IA genera dei risultati discriminatori potremmo anche sfruttare queste informazioni a nostro vantaggio per combattere la discriminazione. Però, come hai detto tu all’inizio, la discriminazione è lo scenario peggiore possibile. Molti sistemi di IA, in uso anche presso la Posta, non presentano questi problemi perché non si basano su dati di persone. Ciononostante, noi responsabili dell’etica digitale dobbiamo monitorare anche queste applicazioni, perché hanno un impatto sulla clientela, ma anche sul personale in azienda.

Ci sono attività o ambiti in cui generalmente sconsigliate di usare l’intelligenza artificiale? 

Non siamo una polizia dell’etica digitale che si aggira per l’azienda controllando cosa fanno le persone. Noi vogliamo favorire e sostenere l’innovazione, identificare tempestivamente potenziali rischi e contribuire al miglioramento di prodotti e prestazioni. Discutendo con diverse e diversi responsabili, abbiamo constatato che non sarebbe opportuno proibire del tutto l’uso dell’intelligenza artificiale in determinati ambiti. L’IA nasconde sempre rischi e opportunità. Tuttavia vorremmo che, nei settori ad alto rischio, fosse obbligatorio farsi affiancare da noi specialiste e specialisti di etica digitale nell’utilizzo di queste tecnologie.

Hai un esempio di come le riflessioni sull’etica digitale hanno contribuito allo sviluppo di un’applicazione dell’IA della Posta? 

Di recente la trasmissione televisiva Eco della SRFTarget not accessible ha parlato dell’uso dell’IA per lo sdoganamento di determinati pacchi dall’estero. Dall’anno scorso questa applicazione, sviluppata proprio dalla Posta, classifica i pacchi in «soggetti a dazi» e «esenti da dazi». Il personale verifica se quanto proposto è corretto e alla fine prende la decisione definitiva.

E qual è il ruolo dell’etica digitale in questo contesto?  

L’uso dell’IA era finalizzato a ridurre al minimo il rischio che il personale prendesse una decisione sbagliata nel processo di sdoganamento. L’applicazione è stata sviluppata secondo il principio «Ethics by Design». La tracciabilità delle proposte dell’IA è una caratteristica che contraddistingue i sistemi di intelligenza artificiale affidabili ed era un aspetto fondamentale in questo ambito. Le e i responsabili di progetto hanno quindi deciso di sviluppare internamente l’intelligenza artificiale scartando la soluzione offerta da un fornitore: si trattava di una scatola chiusa e non avrebbe quindi garantito l’affidabilità richiesta. I team di sviluppo interni della Posta hanno utilizzato ad esempio metodi tecnici che consentono di ottenere la maggiore tracciabilità possibile. Inoltre hanno dato grande importanza alla formazione del personale e illustrato in modo trasparente i limiti dei suggerimenti proposti dall’IA. Un altro fattore importante per garantire l’affidabilità è stato il principio «Human in the Loop».

Cosa significa?  

Significa che l’IA si limita a fare proposte. Sta poi al personale valutarle e prendere la decisione finale. Le riflessioni sull’etica digitale servono quindi a sviluppare sistemi di IA affidabili e a far sì che vengano utilizzati in modo responsabile.

L’IA è uno strumento. A differenza di un martello, però, è una scatola chiusa. L’utente dà all’IA un’istruzione senza sapere esattamente come si arrivi a un certo risultato e perché. Dal punto di vista dell’etica digitale, questa imprevedibilità non è rischiosa, poiché così noi esseri umani cediamo parte del nostro controllo? 

L’intelligenza artificiale è un concetto generale, un intero spettro di modelli, dai più tracciabili a quelli impossibili da spiegare. Il livello di criticità dipende in particolare dall’attività per cui vengono usati. Se un filtro per lo spam funziona, ci interessa relativamente poco sapere il perché. Se però, nel peggiore dei casi, i risultati di una IA generano conseguenze molto negative, allora la tracciabilità diventa estremamente importante. In tutti questi casi bisogna valutare se si preferisce acquistare l’IA oppure svilupparla in house, così da poterne influenzare la tracciabilità. È questo che rende il mio lavoro così interessante: raramente la risposta è un chiaro «sì» o «no», spesso è il frutto di una lunga e attenta valutazione.

Al momento l’intelligenza artificiale appartiene soprattutto al mondo digitale. Presto, però, potrebbe essere utilizzata per le auto senza conducente o per i robot autonomi e quindi entrare anche nel mondo fisico. Cosa cambierebbe in termini etici? 

Penso che i nostri processi e le domande che ci poniamo rimangano uguali: su chi potrebbe ripercuotersi questo sviluppo? Quali valori vengono potenzialmente colpiti? Come possiamo fare in modo che i sistemi siano affidabili e sicuri? Forse si aggiungeranno degli aspetti nuovi ma in linea di massima abbiamo la preparazione necessaria.

Nel mondo fisico emergono altre domande etiche: come possono le macchine prendere decisioni corrette dal punto di vista morale? Ad esempio: due persone attraversano la strada davanti a un’auto senza conducente, che non riesce più a frenare. L’auto dovrebbe investire i pedoni oppure schivarli e ferire una terza persona sul marciapiede? 

Nel 2016, negli Stati Uniti, il Massachusetts Institute of Technology ha lanciato il progetto «Moral Machine», in cui alcune persone hanno valutato come avrebbe dovuto reagire un’auto senza conducente in varie situazioni. Si tratta di domande complesse sul piano etico, a cui ogni cultura dà un peso diverso. In Asia, ad esempio, si presta molta attenzione alle persone anziane, mentre in Occidente si tutelano per lo più donne e bambini. Senza sapere cosa ci riserva il futuro, suppongo che dovranno essere innanzitutto i produttori di auto a rispondere a queste domande e non la Posta come utente.

Finora abbiamo parlato del comportamento etico dell’intelligenza artificiale. Qual è invece la prospettiva inversa, ossia il nostro comportamento nei confronti dell’IA? Dobbiamo rispettare anche noi degli standard etici nei suoi confronti? 

Oggi e, azzardo una previsione, anche nel futuro prossimo, l’IA non è una reale intelligenza in termini di consapevolezza. Si basa su metodi e algoritmi statistici che, grazie a un calcolo delle probabilità, prevedono ad esempio quale sarà la parola successiva in una frase. Un comportamento che dà l’impressione di intelligenza. È una domanda interessante che però si allontana un po’ dalle attuali sfide legate all’intelligenza artificiale.

scritto da

Mischa Stünzi

«Nuove opportunità sia per chi attacca che per chi si difende»

Innovazione e tecnologia
Maggiori informazioni
Creato con Copilot (IA)

«Ogni mese respingiamo un centinaio di ciberattacchi»

Innovazione e tecnologia
Maggiori informazioni
Portrait Marcel Zumbühl

«Alexa, chiedi alla Posta quando arriva il mio invio?»

Innovazione e tecnologia
Maggiori informazioni