(Adnkronos) - L’Intelligenza artificiale sta ridefinendo in modo sempre più strutturale i confini dei processi della selezione del personale, introducendo nuove opportunità di efficienza e innovazione ma anche sollevando interrogativi rilevanti sul piano della trasparenza, dell’equità e della responsabilità. Se non adeguatamente governata, l’Ia rischia di rafforzare e amplificare discriminazioni già presenti, in particolare quelle di genere. Non si tratta solo di un’evoluzione tecnologica: l’Ia può essere considerata una vera e propria 'infrastruttura civile' in grado di influire sul capitale di fiducia del patto sociale. In un contesto in cui il lavoro resta la soglia decisiva della cittadinanza, l’ingresso degli algoritmi nei processi di selezione può consolidare asimmetrie esistenti o, al contrario, contribuire ad abbattere barriere storiche.
E' quanto emerge dallo studio 'Intelligenza artificiale e bias di genere nel reclutamento del personale', curato dall’Università della Calabria e dal Politecnico di Bari, con il coordinamento del professore Salvatore Ammirato, e promosso dalla Fondazione Magna Grecia. I risultati sono stati presentati oggi a Roma durante il convegno 'Ia nella selezione del personale. La nuova sfida della leadership inclusiva', organizzato da Federmanager in collaborazione con la stessa Fondazione e con il Gruppo Ferrovie dello Stato Italiane, che ha visto manager hr (risorse umane), imprenditori e accademici discutere delle implicazioni etiche e operative dell’uso dell’Ia nei processi di recruitment.
Il rapporto costituisce una delle tappe del progetto nazionale 'Privacy Tour', promosso da un ampio partenariato che coinvolge istituzioni, imprese e centri di ricerca. E rimanda istantanee significative dimostrando che l’Ia applicata alla selezione del personale rischia, se non ben governata, di riprodurre e amplificare i pregiudizi (bias) già presenti nei dataset e nei processi organizzativi. Spiega Salvatore Ammirato, responsabile scientifico della ricerca: “l’Intelligenza artificiale non è un decisore neutrale, ma uno strumento che riflette le scelte di chi lo progetta e lo utilizza. Non è l’Ia a decidere al posto delle persone ma sono le persone a decidere come l’Ia prende decisioni”. Da qui l’importanza di una leadership consapevole e inclusiva, capace di governare gli algoritmi affinché diventino un’opportunità di equità e non un fattore di nuove discriminazioni.
Per Pierpaolo Pontrandolfo, professore presso il Politecnico di Bari e attuale presidente dell’Associazione italiana di ingegneria gestionale, “è necessario che qualunque innovazione tecnologica sia principalmente finalizzata a migliorare il benessere delle persone e della società. A tal fine occorre grande responsabilità e consapevolezza da parte di chi la usa. Questo è particolarmente vero per l’Ia perché, da un lato è un’innovazione radicale e pervasiva, quindi estremamente impattante, dall’altro è connotata da una grande semplicità di utilizzo, che aumenta il rischio di un uso improprio”.
Un dato particolarmente significativo dello studio riguarda il livello di consapevolezza sull’uso dell’Intelligenza artificiale: solo il 13% dei partecipanti al sondaggio infatti, dichiara di utilizzare concretamente strumenti di Ia nei processi di selezione, dimostrando la scarsa percezione della presenza di algoritmi già oggi integrati nei software Hr. Non stupisce allora che la ricerca evidenzi ancora un altro aspetto interessante da tenere in considerazione nelle decisioni future e che viene chiamato 'bias blind spot': ovvero la tendenza, da parte dei selezionatori, a riconoscere l’esistenza di pregiudizi nei processi di valutazione, senza però individuarli nelle proprie scelte.
Se da un lato si ammette dunque l’esistenza di discriminazioni di genere, dall’altro risulta più difficile riconoscere come elementi quali l’aspetto fisico, tono di voce o rigidità biografiche continuino a influenzare, anche in modo indiretto, le decisioni di selezione. Lo studio propone infine un percorso metodologico volto allo sviluppo di tecnologie più sicure, trasparenti e inclusive, in linea con il quadro normativo italiano ed europeo.
“E' quantomai necessario - dichiara Nino Foti, presidente della Fondazione Magna Grecia - immaginare percorsi di governance e trasparenza, puntando a modelli che consentano ai professionisti di comprendere le motivazioni dietro ogni decisione automatizzata, mantenendo però sempre una supervisione umana. L’innovazione per essere davvero tale, deve essere adottabile perché verificabile, e verificabile perché governata. Non si tratta di nutrire una fiducia acritica nella presunta neutralità della tecnologia, ma di contribuire alla costruzione di criteri minimi di trasparenza e pratiche di controllo che permettano a imprese e istituzioni di usare questi strumenti senza scaricare i rischi sulle persone. In questo equilibrio tra tecnologia e responsabilità si gioca il futuro del lavoro”.
“L’Intelligenza artificiale - spiega dice Valter Quercioli, presidente di Federmanager - rappresenta un’opportunità concreta per migliorare la qualità dei processi di selezione e rendere le organizzazioni più evolute. Perché questo potenziale si realizzi pienamente, è fondamentale che i manager guidino l’innovazione, integrando responsabilmente queste tecnologie nei processi decisionali con competenze e visione. Attraverso il lavoro della Commissione Intelligenza artificiale e del Gruppo Federmanager Minerva, Federmanager è impegnata a rafforzare la cultura manageriale e ad accompagnare le organizzazioni verso un utilizzo dell’Ia capace di generare valore, inclusione e sviluppo per il lavoro e per il sistema produttivo”.
“Per il Gruppo Ferrovie dello Stato Italiane l’Intelligenza artificiale rappresenta una leva strategica di trasformazione, che può contribuire a rendere i processi di selezione più efficaci solo se accompagnata da una solida governance, da competenze adeguate e da una forte responsabilità organizzativa. In FS siamo impegnati a promuovere modelli di utilizzo dell’IA fondati su trasparenza, supervisione umana e inclusione, affinché l’innovazione tecnologica diventi uno strumento di equità e valorizzazione dei talenti”, aggiunge Valeria Rizzo, group learning & integration office del Gruppo Ferrovie dello Stato Italiane. Il convegno si è concluso con un richiamo all’importanza della formazione continua e dell’adozione di politiche inclusive. Contrastare i bias di genere non è solo un imperativo etico, ma una strategia vincente per la crescita delle imprese: le aziende inclusive registrano migliori performance finanziarie e maggiore capacità di innovazione. La sfida futura, in linea con l’AI act europeo, è garantire che l’Intelligenza artificiale diventi una leva di equità, supportando la leadership umana senza mai sostituirla integralmente nelle decisioni che riguardano dignità e talento delle persone.
Il Giornale del Piemonte e della Liguria
Il quotidiano on line "Il Giornale del Piemonte e della Liguria web" è il nuovo media della galassia del gruppo Polo Grafico Spa, editore da oltre 25 anni nei territori di Piemonte, Liguria e Regione Paça (Costa Azzurra). Il gruppo edita da oltre vent'anni il quotidiano nella versione cartacea "Il Giornale del Piemonte e della Liguria".