Meta (anciennement Facebook) et le gouvernement américain ont convenu de régler un procès qui accusait le réseau social de se livrer à des publicités discriminatoires pour le logement.

Le procès pour discrimination en matière de logement, intenté par le gouvernement en 2019, a accusé Meta d’avoir permis et encouragé les annonceurs à cibler leurs annonces de logement en s’appuyant sur la race, la couleur, la religion, le sexe, le handicap, la situation familiale et l’origine nationale pour décider quels utilisateurs de Facebook seront éligibles et inéligibles pour recevoir un logement annonces.

En vertu du règlement, Meta cessera d’utiliser un outil publicitaire pour les annonces immobilières qui s’appuie sur un algorithme discriminatoire pour trouver des utilisateurs qui”ressemblent”à d’autres utilisateurs sur la base du Fair Housing Act (FHA)-caractéristiques protégées.

Meta prévoit également de développer un nouveau système au cours des six prochains mois pour lutter contre les disparités raciales et autres causées par son utilisation d’algorithmes de personnalisation dans son système de diffusion d’annonces immobilières, a déclaré le ministère américain de la Justice dans un communiqué.

Si les États-Unis concluent que le nouveau système résout de manière adéquate la diffusion discriminatoire d’annonces immobilières, alors Meta mettra en œuvre le système, qui sera soumis à l’approbation du ministère de la Justice et à la surveillance des tribunaux.

Cependant , si le gouvernement constate que le nouveau système est insuffisant pour lutter contre la discrimination algorithmique dans la diffusion des annonces immobilières, l’accord de règlement sera résilié. la première fois-changer son système de diffusion d’annonces pour lutter contre la discrimination algorithmique”, a déclaré l’avocat américain Damian Williams.

“Mais si Meta ne parvient pas à démontrer qu’il a suffisamment modifié son système de diffusion pour se prémunir contre les biais algorithmiques, ce bureau pr régler le litige”, a ajouté Williams.

Le système de diffusion d’annonces de Meta a utilisé des algorithmes d’apprentissage automatique qui s’appuient en partie sur des caractéristiques protégées par la FHA, telles que la race, l’origine nationale et le sexe, pour aider à déterminer quel sous-ensemble de l’audience ciblée d’un annonceur recevra réellement une annonce immobilière.

“Comme la technologie évolue rapidement, des entreprises comme Meta ont la responsabilité de s’assurer que leurs outils algorithmiques ne sont pas utilisés de manière discriminatoire”, a déclaré l’avocat adjoint Général, Kristen Clarke.

Ce règlement est historique, marquant la première fois que Meta accepte de mettre fin à l’un de ses outils de ciblage algorithmique et de modifier ses algorithmes de diffusion pour les annonces immobilières en réponse à une action en justice pour droits civils.

“Le ministère de la Justice s’engage à tenir Meta et d’autres entreprises technologiques responsables lorsqu’elles abusent des algorithmes de manière à nuire illégalement aux communautés marginalisées”, a ajouté Clarke.

FacebookTwitterLinkedin

Categories: IT Info