Seu Crédito Digital
O Seu Crédito Digital é um portal de conteúdo em finanças, com atualizações sobre crédito, cartões de crédito, bancos e fintechs.

Racismo faz deputada tomar decisão severa

Uma deputada federal eleita pelo munícipio de São Paulo alertou, nas redes sociais, sua oposição a um edital. Entenda!

Erika Hilton, a deputada federal eleita pelo munícipio de São Paulo, relatou nas redes sociais sua oposição a um edital lançado pela prefeitura de São Paulo que pode estimular e aumentar a discriminação racial. 

O edital diz respeito à contratação de um sistema de monitoramento através de câmeras de reconhecimento facial para encontrar suspeitos de acordo com algumas características, como a cor de pele.

Edital do Smart Sampa e a acusação de racismo

A prefeitura de São Paulo propôs através do Smart Sampa a integração de mais de 20 mil câmeras até 2024 com um monitoramento modernizado na capital. 

Um trecho do edital do Smart Sampa expõe que as câmeras devem utilizar dados analíticos que permitam o rastreio de “uma pessoa suspeita”, com o monitoramento de todos os movimentos e atividades. A pesquisa deve ser realizada por diferentes tipos de características como rosto, cor da pele, entre outras. 

Além do rosto das pessoas suspeitas, o sistema prevê a detecção de movimentos para apontar atividades suspeitas, objetos perdidos, pessoas procuradas, entre outros. 

Além da deputada federal Erika Hilton, outros ativistas, como o advogado especializado em tecnologia Ronaldo Lemos e a Coalização Direitos na Rede também se manifestaram publicamente sobre como tecnologias desse tipo têm cometido injustiças graves, acusando inocentes, aumentando a desigualdade, perseguindo principalmente pessoas negras. 

Ademais, Lemos alertou, em sua coluna na Folha de S. Paulo, que “a construção desse sistema complexo têm erros graves e inaceitáveis”.

Tecnologias também discriminam 

Não é de agora que as tecnologias e os sistemas de inteligência artificial são acusados de discriminação racial. Pesquisadores desta área e ativistas de direitos nas redes fortalecem que essas ferramentas não são neutras. 

Dessa forma, esses sistemas são produzidos e alimentados sob a perspectiva humana e podem replicar comportamentos discriminatórios da sociedade de diferentes maneiras.

Por fim, o problema dessas tecnologias não se prende apenas aos algoritmos no reconhecimento facial. Plataformas de galeria de imagens já categorizaram fotos de pessoas negras como gorilas.

Além disso, nas redes sociais, filtros para fotos costumam clarear a pele e afinar o nariz, por compreenderem que esse é o padrão de beleza ideal. 

Imagem: Diego Grandi/ Shutterstock