fbpx

Un’intelligenza artificiale più etica

da | 15 Feb 2021 | Blog

Da quando l’intelligenza artificiale ha cominciato ad attraversare una seconda giovinezza, ci si è subito preoccupati dei problemi che questa avrebbe potuto avere sull’umanità. Nell’immaginario collettivo il timore che le macchine possano estinguere la nostra vita o ridurla in schiavitù è stranamente ancora presente, complice sicuramente la cinematografia hollywoodiana.

Se non conosci il film del video o sei troppo giovane o non ami questo genere: in tutti e due i casi è una mancanza assolutamente da colmare!

Come avrete intuito dall’articolo di Salvatore e dal tantissimo materiale presente in rete, non è sicuramente questo l’aspetto che ci deve preoccupare, ma piuttosto la seria possibilità di sviluppare e usare questa tecnologia senza avere dei principi etici che facciano da guida.

In che senso “etici”?

Penso che gli appassionati di fantascienza come il sottoscritto associno involontariamente la frase “etica dell’intelligenza artificiale” alle tre leggi della robotica di Isaac Asimov, in particolare alla prima:

Un robot non può recar danno a un essere umano né può permettere che, a causa del suo mancato intervento, un essere umano riceva danno.

La cosa divertente è che, allargando il significato di “recar danno”, questa regola può effettivamente riassumere il contenuto del documento degli “Orientamenti etici per un’IA affidabile”, pubblicato dall’Unione Europea nel 2019 come risultato del lavoro di una commissione di 52 esperti tra cittadini, ricercatori e istituzioni.

Da questo documento vengono fuori quattro principi:

  • Rispetto dell’autonomia umana: I sistemi di IA non devono subordinare, costringere, ingannare, manipolare, condizionare o aggregare in modo ingiustificato gli esseri umani.
  • Prevenzione dei danni: I sistemi di IA non devono causare danni, né aggravarli e neppure influenzare negativamente gli esseri umani, per cui occorre tutelare la dignità umana nonché l’integrità fisica e psichica.
  • Equità: Lo sviluppo, la distribuzione e l’utilizzo dei sistemi di IA devono essere equi. L’utilizzo dei sistemi di IA, inoltre, non deve mai ingannare gli utenti (finali) né ostacolarne la libertà di scelta.
  • Esplicabilità: i processi devono essere trasparenti, le capacità e lo scopo dei sistemi di IA devono essere comunicati apertamente e le decisioni, per quanto possibile, devono poter essere spiegate a coloro che ne sono direttamente o indirettamente interessati.

Il documento completo è molto interessante e semplice da leggere, spingendosi anche nel fornire linee guida per implementare i principi di cui parla, dategli una lettura.

Quali sono i pericoli?

Sicuramente ricorderete il successo del documentario di Netflix “The social dilemma”, che ha fatto molto discutere per l’impatto che gli algoritmi di intelligenza artificiale hanno avuto sul controllo dell’attenzione del pubblico dei social network al fine di ottimizzare la vendita di pubblicità.

Ma i pericoli possono essere tanti, pensate ad esempio al riconoscimento facciale e all’uso che se ne può fare per scopi poco nobili, spesso non intenzionali ma basati su bias cognitivi dovuti ai dati con cui vengono addestrati gli algoritmi, che possono essere influenzati dal pregiudizio umano.

Un altro aspetto importante è quello della privacy, soprattutto con l’utilizzo degli assistenti virtuali, in cui i flussi vocali degli utenti dovrebbero essere utilizzati solo per rispondere alle richieste fatte e non per tracciare profili degli utenti per la pubblicità mirata. In varie occasioni purtroppo c’è stato il sospetto che le registrazioni fossero utilizzate non per migliorare il servizio, aspetto a cui l’utente può aderire o meno, ma per veicolare messaggi pubblicitari.

Le big company si sono comunque attivate per avere un proprio codice etico sull’intelligenza artificiale, come Microsoft ad esempio, che declina questi principi su sei punti: equità, affidabilità e sicurezza, privacy, inclusività, trasparenza e responsabilità. Google non è da meno, ponendo l’attenzione sui benefici per la società, la sicurezza e la privacy. Era giusto per citarne qualcuno, ma anche AWS, Apple, Facebook si sono mosse nella stessa direzione, spinte sicuramente anche dall’opinione pubblica e dalle istituzioni.

Cosa possiamo fare?

Come in tutte le questione etiche, un passo fondamentale è parlarne. Questo possiamo farlo tutti e può essere un primo contributo. Un ulteriore passo per le aziende del settore è lavorare tenendo sempre questi principi in mente, collaborando solo con aziende e servizi che fanno altrettanto.

In Ellycode, essendo poi impegnati nella realizzazione di un prodotto che ha proprio il focus di migliorare l’interazione tra intelligenza artificiale e essere umani, questi principi sono una vera e propria guida: non vediamo l’ora di mostrarvi come!

Continuate a seguirci.

Scritto da

Scritto da

Michele Aponte