LinkedIn

Principi etici nell'utilizzo dell'IA

Principi etici nell'utilizzo dell'IA

L’intelligenza artificiale (IA) comporta una serie di rischi potenziali, quali meccanismi decisionali opachi, discriminazioni (o “bias”) basate sul genere o sulla posizione geografica, intrusioni nelle informazioni private o utilizzi per scopi criminali.

Per questo motivo, e per la responsabilità che ne consegue la disponibilità, è arrivato il momento che le miglori aziende, quelle che affiancano agli obiettivi di lucro nuovi obiettivi a lungo termine e di impatto positivo, si dotino di principi che possano guidare l’utilizzo etico delle nuove tecnologie.

Negli ultimi anni molte aziende si sono dotate di un Codice Etico e di condotta o Manifesti di Sostenibilità, è il momento di definire nuovi principi, che siano in grado di stabilire i confini (tecnici, etici e morali) che delimitino chiaramente il rischio ed il comportamento, sia quello ritenuto giusto che quello sbagliato.

L’intelligenza artificiale possiede un enorme potenziale e può supportare in modo efficace i processi decisionali aziendali ma un uso non presidiato (o distorto) della tecnologia espone le aziende ai rischi potenziali connessi.


Un sistema AI potrebbe

Consolidare il divario economico tra zone

Decidendo di non finanziare un’iniziativa solo perché “storicamente” le iniziative in quella determinata regione del paese non hanno ottenuto il giusto rendimento. 

Consolidare le disparità o ridurre la diversità

Decidere di non assumere (o premiare) una persona perché “storicamente” i talenti emersi in passato appartengono ad un determinato genere, oppure hanno studiato in una determinata università oppure appartengono ad una determinata fascia di età

Discriminare per appartenenza e non per merito

Decidere di proporre un prodotto particolarmente vantaggioso solo ad alcune classi di clienti basandosi non sul merito del singolo ma sul “cluster” di appartenenza (genere, di età o geografico).

La disponibilità di un nuovo strumento espone ad un rischio di utilizzo distorto per trarne vantaggi.

Le aziende dovrebbero impegnarsi, indicare come intendono comportarsi e quali sono i confini etici che non intendono superare per nessun motivo.

Ora che dispongono di una tecnologia “teoricamente” pericolosa le aziende dovranno esporsi, con maturità, coraggio e trasparenza, e garantire un comportamento in linea con i propri valori e nuovi principi di azione.

Principi guida T-R-I-O

  1. Trasparenza
  2. Responsabilità
  3. Imparzialità
  4. Onestà

Trasparenza

Dichiarare quando un sistema (o una decisione) utilizza sistemi di IA e assicurarsi che il metodo decisionale sia comprensibile ad un essere umano

Responsabilità

L’IA può supportare le decisioni ma quelle importanti saranno prese sempre da umani e la decisione umana può sempre “sostituire” una decisione presa da un sistema di IA

Imparzialità

I sistemi valutano i comportamenti in specifiche situazioni ma non le appartenenze ed é necessario assicurarsi dell’assenza di discriminazioni (o “bias”) nei modelli decisionali

Onestà

Lo sviluppo e l’utilizzo sarà sempre in linea con le regole e le leggi esistenti, non utilizzare l’IA per manipolare segretamente le persone rispettando sempre la privacy

L’adozione di un codice etico di IA non sarebbe un semplice esercizio di stile o operazione di marketing, incrementerebbe in modo efficace l’affidabilità e la reputazione dell’organizzazione nei confronti dei propri Clienti e Stakeholders.

Allo stesso tempo si attuerebbero nuovi presidi su categorie di rischi esistenti e sarebbe un esempio di auto-regolamentazione delle corporate e del mercato nei confronti di un argomento ed una materia ancora non completamente regolamentata stimolando tutti a contribuire in modo attivo ad un approccio, libero, sicuro e condiviso dei limiti e delle potenzialità delle tecnologie esistenti e future.

Discussione