Meta (ex Facebook) e il governo degli Stati Uniti hanno concordato di risolvere una causa che accusava il social network di impegnarsi in pubblicità discriminatoria per gli alloggi.
La causa per discriminazione abitativa, intentata dal governo nel 2019, ha accusato che Meta ha consentito e incoraggiato gli inserzionisti a indirizzare i propri annunci immobiliari facendo affidamento su razza, colore, religione, sesso, disabilità, stato familiare e origine nazionale per decidere quali utenti di Facebook saranno idonei e non idonei a ricevere un alloggio annunci.
In base all’accordo, Meta smetterà di utilizzare uno strumento pubblicitario per annunci immobiliari che si basa su un algoritmo discriminatorio per trovare utenti che”assomigliano”ad altri utenti in base al Fair Housing Act (FHA)-caratteristiche protette.
Meta prevede inoltre di sviluppare un nuovo sistema nei prossimi sei mesi per affrontare le disparità razziali e di altro tipo causate dall’uso di algoritmi di personalizzazione nel suo sistema di pubblicazione degli annunci per gli annunci immobiliari, ha affermato il Dipartimento di giustizia degli Stati Uniti in una dichiarazione.
Se gli Stati Uniti concluderanno che il nuovo sistema affronta adeguatamente la pubblicazione discriminatoria di annunci immobiliari, Meta implementerà il sistema, che sarà soggetto all’approvazione del Dipartimento di Giustizia e alla supervisione del tribunale.
Tuttavia. , se il governo ritiene che il nuovo sistema non sia sufficiente per affrontare la discriminazione algoritmica nella pubblicazione di annunci immobiliari, l’accordo transattivo verrà risolto.
“A causa di questa causa rivoluzionaria, Meta, per la prima volta–cambia il suo sistema di pubblicazione degli annunci per affrontare la discriminazione algoritmica”, ha affermato il procuratore degli Stati Uniti Damian Williams.
“Ma se Meta non riesce a dimostrare di aver modificato a sufficienza il suo sistema di pubblicazione per evitare distorsioni algoritmiche, questo ufficio sarà pr affrontare il contenzioso”, ha aggiunto Williams.
Il sistema di pubblicazione degli annunci di Meta ha utilizzato algoritmi di apprendimento automatico che si basano in parte su caratteristiche protette da FHA, come razza, origine nazionale e sesso, per aiutare a determinare quale sottoinsieme del pubblico di destinazione di un inserzionista riceverà effettivamente un annuncio immobiliare.
“Con la rapida evoluzione della tecnologia, aziende come Meta hanno la responsabilità di garantire che i loro strumenti algoritmici non vengano utilizzati in modo discriminatorio”, ha affermato il procuratore aggiunto Generale, Kristen Clarke.
Questo accordo è storico, segnando la prima volta che Meta ha accettato di chiudere uno dei suoi strumenti di targeting algoritmico e modificare i suoi algoritmi di consegna per annunci immobiliari in risposta a una causa sui diritti civili.
“Il Dipartimento di Giustizia si impegna a ritenere Meta e altre società tecnologiche responsabili quando abusano di algoritmi in modi che danneggiano illegalmente le comunità emarginate”, ha aggiunto Clarke.
FacebookTwitterLinkedin