RECRUITMENT CON L’AI:  E IL GDPR?

ALGORITMO DI RECRUITING E GDPR

È prassi di alcune aziende, utilizzare l’intelligenza artificiale per la selezione dei candidati e dei relativi CV.

Si pensi alla mappatura delle soft skills del candidato tramite lo screening dei social network…è un’attività che non deve essere effettuata senza pensare alle implicazioni in quanto integra un’attività di profilazione ai sensi dell’articolo 4 del GDPR. Si tratta infatti di un “trattamento automatizzato di dati personali consistente nell’utilizzo di tali dati personali per valutare determinati aspetti personali relativi a una persona fisica, in particolare per analizzare o prevedere aspetti riguardanti il rendimento professionale, la situazione economica, la salute, le preferenze personali, gli interessi, l’affidabilità, il comportamento, l’ubicazione o gli spostamenti di detta persona fisica”.

Molte delle funzioni svolte dall’algoritmo di recruiting implicano il trattamento di dati personali dei candidati, sicché la relativa tecnologia deve essere implementata tenendo conto delle disposizioni vigenti in materia di protezione dei dati.

L’impresa o la società dovranno pertanto fornire al candidato un’adeguata informativa che faccia riferimento anche all’utilizzo dell’algoritmo di recruiting per finalità di profilazione.

Ai sensi dell’articolo 22 GDPR, il candidato ha diritto a non essere sottoposto a una decisione basata unicamente sul trattamento automatizzato, potendo richiedere la revisione umana dei risultati ottenuti dal calcolatore, salva l’ipotesi di consenso esplicito reso dall’interessato.

Gli interessati inoltre, hanno diritto a ottenere una spiegazione circa la decisione conseguita (considerando 71 GDPR) e hanno il diritto di contestare la stessa (articolo 22, paragrafo 3 GDPR).

Diventa quindi necessario per l’azienda titolare del trattamento progettare sin dall’inizio una strategia basata sull’utilizzo di un algoritmo di recruiting o di altri sistemi di IA orientata alla protezione dei dati personali dei candidati (cd. privacy by design). Inoltre, tale approccio “privacy-oriented” deve costituire la regola da seguire in ogni ambito (cd. privacy by default).

Il Consiglio di Stato, Sez. VI, il 13 dicembre 2019, con la pronuncia n. 08472/2019 ha stabilito: «La conoscibilità dell’algoritmo deve essere garantita in tutti gli aspetti: dai suoi autori al procedimento usato per la sua elaborazione, al meccanismo di decisione, comprensivo delle priorità assegnate nella procedura valutativa e decisionale e dei dati selezionati come rilevanti».

VALUTAZIONE D’IMPATTO

Da sapere che queste tipologie di trattamento sono basate sull’utilizzo di nuove tecnologie e potrebbero presentare un rischio elevato per i diritti e le libertà dei candidati. L’azienda titolare del trattamento deve quindi interrogarsi sugli effetti prodotti dall’utilizzo di un algoritmo di recruiting o dalla lettura automatizzata dei CV sul punto ed effettuare una valutazione d’impatto (cd. DPIA).

EFFETTO “BLACK BOX” DELL’ALGORITMO DI RECRUITING

Mentre gli esiti del processo di elaborazione svolto dall’intelligenza artificiale, frutto dell’auto-apprendimento, sono noti, le modalità attraverso cui essa giunge a un dato risultato rimangono oscure (cd. effetto “black box”).

Qualora l’algoritmo svolga attività che implicano il trattamento di dati personali, tale mancanza di trasparenza nell’ottenimento dei risultati confligge con il principio di trasparenza sancito dal GDPR.

L’azienda deve quindi evitare a tutti i costi il verificarsi di questo criticabile effetto, attivandosi affinché l’algoritmo utilizzato garantisca sempre la trasparenza e l’intelligibilità dei processi svolti.

ERRORI E DISTORSIONI

Il titolare del trattamento dovrebbe effettuare valutazioni frequenti degli insiemi di dati che tratta, in maniera da rilevare eventuali distorsioni e bias dell’algoritmo, e sviluppare metodi per affrontare eventuali elementi pregiudizievoli, compreso un eccessivo affidamento sulle correlazioni.

Queste misure dovrebbero essere attuate ciclicamente, non soltanto in fase di progettazione.

È per questi motivi che si è sviluppato il termine “HITL – human in the loop”: per ottenere un risultato o una decisione corretta e significativa, è necessario che la macchina interagisca con l’essere umano.

0 commenti

Lascia un Commento

Vuoi partecipare alla discussione?
Fornisci il tuo contributo!

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *