Les recruteurs peuvent dorénavant utiliser des systèmes de filtrage alimentés par l’intelligence artificielle (IA) et pratiqueraient une « discrimination algorithmique » à l’encontre des personnes en fonction de leur race, de leur sexe, de leur langue et de leur religion.

Yeliz Bozkurt Gumrukcuoglu, professeure de droit privé à l’université Ibn Haldun d’Istanbul, a affirmé à Anadolu que les géants de la technologie tels que Meta, Google et Amazon sont connus pour utiliser des outils de filtrage automatique qui leur permettent de gagner du temps.

La « discrimination algorithmique » se produit, explique-t-elle, lorsque les données sur lesquelles l’IA est entraînée comportent déjà des préjugés défavorables à certains groupes, ce qui entraîne des décisions défavorables à leur égard.

Les préjugés portés par ceux qui développent ces outils contribuent également à l’injustice du recrutement quand l’IA est de la partie, ce qui fait que beaucoup moins de personnes de couleur et de femmes peuvent passer à travers le filtre de l’IA, a-t-elle fait remarquer. .

Cette question a fait l’objet de multiples actions en justice dans de nombreux pays jusqu’à présent, et est apparue pour la première fois dans une affaire concernant Amazon.

« Amazon a mis au point son propre algorithme de recrutement à partir des données recueillies auprès des candidats acceptés au cours de la dernière décennie, dont la plupart étaient des hommes. Lorsqu’il a été mis en œuvre, le filtrage a directement éliminé les candidates », a-t-elle noté.

« De la même manière, Facebook a mis en place son propre filtrage discriminatoire, ce qui a donné lieu à une action en justice aux États-Unis en 2018, ainsi qu’une amende administrative par le gouvernement danois à l’encontre de la plateforme de médias sociaux pour la même raison », a-t-elle ajouté.

Dr. Yeliz Bozkurt Gumrukcuoglu, professeure de droit privé à l’université Ibn Haldun d’Istanbul

Cela ne s’arrête pas là, poursuit Mme Gumrukcuoglu qui a relevé que certains candidats ont été refusés par les algorithmes de recrutement parce qu’ils avaient des coiffures traditionnellement noires, vivaient dans des régions prétendument à forte concentration d’immigrants, ou même écoutaient certains artistes et genres de musique.

Tant que nos données ne sont pas correctement protégées, notre empreinte numérique atterrit dans les mains des entreprises et peut donc être utilisée pour nous évaluer, car nous ne sommes plus jugés uniquement sur nos CV

Yeliz Bozkurt Gumrukcuoglu

Selon elle, les développeurs et les entreprises qui utilisent ces outils de filtrage du recrutement devraient être amenés à respecter les principes des droits humains et les autorités compétentes et les gouvernements devraient surveiller de près les violations de l’éthique. « Par exemple, l’UE a décidé de mettre en œuvre un règlement sur le risque d’utilisation de l’IA dans ce domaine », a-t-elle déclaré.

La juriste turque a appelé à la mise en place d’un régulateur mondial sur l’utilisation de l’IA dans le recrutement pour prévenir la discrimination. « Tant que nos données ne sont pas correctement protégées, notre empreinte numérique atterrit dans les mains des entreprises et peut donc être utilisée pour nous évaluer, car nous ne sommes plus jugés uniquement sur nos CV”, a-t-elle conclu.

AA