VIESES ALGORÍTMICOS, ALVOS PREDETERMINADOS



Nos últimos anos, os dados biométricos roubaram a cena como novas preocupações sociais. Ao redor do mundo, diversas iniciativas levantaram-se contra a implementação indiscriminada de sistemas de reconhecimento facial e a sua utilização pela polícia. Elas apontam, entre outros problemas, a quase completa ausência de regulamentação das novas tecnologias e dos limites e diretrizes da sua incorporação às políticas de segurança pública. Deixando de lado a enorme discussão sobre a coleta e o processamento de dados pessoais e as potenciais violações do direito à privacidade, existe antes um problema elementar que torna imperdoável o uso do reconhecimento facial como acontece hoje: o enviesamento algorítmico. Poderia a disseminação indiscriminada da tecnologia ser discriminatória?


Chama-se "falso-positivo" o resultado do reconhecimento facial que identifica uma pessoa como sendo uma outra, objetivamente, quando se atribui ao indivíduo um rosto alheio. A contabilização dessas identificações incorretas soma às taxas de erro do sistema, parâmetro usado para mensurar o desempenho do software. A reflexão sobre os impactos sociais da ferramenta une dados obtidos por meio de testes empíricos realizados pelo Instituto de Tecnologia de Massachusetts (M.I.T.) às crescentes notícias sobre abordagens policiais equivocadas e prisões injustas motivadas por falhas no reconhecimento facial, demonstrando a perturbante discrepância entre as taxas de erro da tecnologia quando usada no reconhecimento de pessoas brancas e negras e posicionando o enviesamento algorítmico no centro do debate.


Simplificadamente, a explicação para o enviesamento dos algoritmos está na maneira como são treinados. Como levantado por Joy Buolamwini, mulher negra e pesquisadora do Media Lab do M.I.T., os programadores dos softwares de reconhecimento facial são, em sua esmagadora maioria, homens brancos. Buolamwini conta a sua trajetória no ativismo pela regulamentação do uso de sistemas de reconhecimento facial no documentário Coded Bias, adicionado ao catálogo da Netflix em 2021. Tudo começou quando a pesquisadora percebeu que os algoritmos com os quais trabalhava à época eram incapazes de identificar o seu rosto — a não ser que ela usasse uma máscara branca.


Acontece que a sobrerrepresentação dessa parcela específica da população no desenvolvimento do sistema reflete diretamente no banco de imagens usado para o treinamento, composto por fotos e vídeos de indivíduos cujas características fenotípicas assemelham-se às de seus operadores. Assim, o viés inconsciente dos programadores acaba incorporado aos algoritmos utilizados na tecnologia de reconhecimento facial, altamente precisos na identificação de rostos brancos e masculinos, com uma taxa de erro aproximada de 0.8%. Enquanto isso, a mesma taxa chega a 34,7% quando se trata da identificação de rostos de mulheres negras, que compõem a menor parcela das imagens que alimentam a base de dados. A pesquisadora demonstra como ao ficarem "de fora" dos bancos de imagens que operam o treinamento massivo, as pessoas negras, em especial as mulheres, não têm o seu fenótipo representado e tornam-se as maiores vítimas das falhas do reconhecimento facial.


O enviesamento dos algoritmos explica as falhas na identificação dos indivíduos, e dos falsos-positivos é possível depreender os custos sociais que acompanham a implementação da tecnologia. Mas é preciso dar alguns passos atrás para entender a dimensão do problema que temos nas mãos, e para isso, devemos atentar à intersecção entre vigilância e racismo, o elemento indispensável ao desenvolvimento de tecnologias de repressão. Michel Foucault descreveu a vigilância como uma engrenagem específica da disciplina de poder, e nesse sentido, os sistemas de videomonitoramento podem ser comparados ao que o filósofo denominou "aparelho disciplinar perfeito", a partir do qual um único olhar seria capaz de tudo ver permanentemente, especificando a vigilância e tornando-a funcional. Nas suas considerações sobre o exercício do poder estatal, o autor defende que o funcionamento do Estado passa inevitavelmente pelo racismo, na medida em que a dominação sobre os corpos só é possível a partir da diferenciação entre aqueles que devem viver e os que devem morrer.


Tanto quanto a especialização da vigilância, o desenvolvimento tecnológico também se dá inserido no contexto de um projeto de dominação racial. Assim, sistemas excludentes e direcionados a fins punitivistas atuam renovando as formas como a discriminação é institucionalizada, e têm o seu potencial danoso agravado em países como o Brasil, em que 54% da população se autodeclara negra. Nesse sentido, Achille Mbembe afirma que a reativação da lógica da raça é indispensável ao fortalecimento da ideologia securitária, e com o avanço da tecnologia, os dados biométricos entram em cena servindo à instrumentalização da violência direcionada a essa população — as impressões digitais, da voz e da forma do rosto permitem medir e arquivar a unicidade os indivíduos, tornando as partes imutáveis do corpo humano a essência de inéditos sistemas de identificação, vigilância e repressão.


Interseccional à questão racial, outro problema a ser considerado ao tratar da implementação do sistema é a territorialidade, isto é, os locais onde as câmeras dotadas da inteligência para realizar o reconhecimento estão instaladas. O sistema de reconhecimento facial foi instalado na Linha 4 do Metrô de São Paulo em abril de 2018, e no dia 18 de maio de 2021, o governador da Bahia, Rui Costa, anunciou a instalação de câmeras dotadas do sistema de reconhecimento facial em ônibus de 70 cidades do Estado — o que esses e outros vários exemplos demonstram é a tecnologia estrategicamente posicionada no transporte público, centros comerciais e nos locais com maior circulação de pessoas. Nesse sentido, o professor do Instituto das Cidades da Unifesp, Kazuo Nakano, cita o mais recente estudo "Origem e Destino" do Metrô da capital de São Paulo para demonstrar que são os trabalhadores periféricos e de baixa renda — população composta majoritariamente de pessoas negras — os que dependem do uso de ônibus, trem e metrô para a sua locomoção. Considerando as condições precárias do transporte público brasileiro que fazem com que as classes mais altas recorram, via de regra, ao transporte particular, é possível enxergar o delineamento de um perfil específico da população que se interessa vigiar.


Simultaneamente, a gradual disseminação do sistema pelos espaços ocupados majoritariamente pelas classes privilegiadas cria a falsa impressão de democratização da vigilância. Em fevereiro deste ano, a prefeitura de Salvador anunciou a instalação de câmeras de reconhecimento facial no Pelourinho, centro histórico e um dos principais pontos turísticos da capital baiana. Além disso, em junho, os aeroportos de Congonhas, em São Paulo, e Santos Dumont, no Rio de Janeiro, anunciaram a primeira ponte aérea biométrica do mundo. Entretanto, dando a devida atenção às intenções por trás da implementação, é possível perceber que ela assume um racional diferente daquela que se presta à repressão de uma população discriminada. Seguindo a tese da antropóloga Teresa Caldeiras, a aproximação de grupos sociais heterogêneos ao longo da década de 1990 tornou as desigualdades mais explícitas e violentas, aumentando as tensões e levando as classes mais altas a abandonarem os espaços públicos e recolherem-se a espaços privatizados, fechados e monitorados, os chamados "enclaves fortificados". Nesse cenário, quando o sistema de vigilância é implementado nos locais de circulação de turistas e da parcela privilegiada da população, presta-se justamente a incrementar a sensação de segurança entre a elite, que teme o compartilhamento dos espaços públicos com as classes marginalizadas.


Conforme demonstrado, os elementos racial e de classe estão, por vezes, sobrepostos na construção da parcela populacional que se pretende vigiar com os sistemas de monitoramento extensivo. Assim, enquanto no transporte público e bairros periféricos o reconhecimento facial atua presumindo a criminalidade da camada mais vulnerável da população, nas regiões abastadas das cidades, ele é usado como um guardião do bem estar dos seus habitantes, com o objetivo de evitar os inconvenientes causados pelos supostos "invasores". Nesse cenário, a discriminação racial une-se à estratificação social como os critérios que ensejam a supervigilância das pessoas negras e pobres, tornando-as alvos predeterminados do sistema de reconhecimento facial.


Que um treinamento inclusivo dos algoritmos de reconhecimento que garantisse a proporcionalidade de imagens de diferentes fenótipos acabaria com os problemas que envolvem a implementação do sistema é pouco provável. Ainda assim haveria outras questões a serem enfrentadas, como a coleta e armazenamento de dados biométricos e o direito à privacidade. A regulamentação é um caminho longo, que no caso brasileiro ainda engatinha com a Lei Geral de Proteção de Dados. No entanto, fica evidente que nenhuma política pública que tenha como instrumento os sistemas de reconhecimento facial pode ser implementada enquanto o enviesamento algorítmico for regra entre os softwares utilizados. Enquanto for discriminatório, que não se reconheça.

Por Glendha Visani




Revisão: Guilherme Caruso e Letícia Fagundes

Imagem de capa: © Coded Bias (2020), 7th Empire Media

_______________________________________

Fontes:


AUGUSTO, Maria Helena Oliva. Segregação social e violência urbana. Revista brasileira de ciências sociais. Vol. 17, N. 48. 2002.


‘BBB no Pelô’: Prefeitura vai implantar reconhecimento facial no Centro Histórico. Correio 24 horas, 02 fev. 2021. Disponível em: <https://www.correio24horas.com.br/noticia/nid/bbb-no-pelo-prefeitura-vai-implantar-reconhecimento-facial-no-centro-historico>/.


BUOLAMWINI, Joy. & GEBRU, Timnit. Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification. In: Algorithmic Justice League.


Covid mata mais entre trabalhadores que dependem do transporte coletivo. Brasil de fato, 18 ago. 2020. Disponível em: <https://www.brasildefato.com.br/2020/08/18/covid-mata-mais-entre-trabalhadores-que-dependem-do-transporte-coletivo>.


Desigualdades sociais por cor ou raça no Brasil. IBGE - Instituto Brasileiro de Geografia e Estatística. Rio de Janeiro, 2019. Disponível em: </https://biblioteca.ibge.gov.br/visualizacao/livros/liv101681_informativo.pdf/>.


FOUCAULT, Michel. Em defesa da sociedade. 4. ed. São Paulo: Martins Fontes, 2005. Aula de 21 de janeiro de 1976. p. 49 - 74.


FOUCAULT, Michel. Vigiar e punir: história da violência nas prisões. 27. ed. Petrópolis: Vozes, 1987. Terceira parte, Cap. II: os recursos para o bom adestramento. p. 143 - 161.


Governo da Bahia vai instalar câmeras com reconhecimento facial em ônibus de 70 cidades para combater assaltos. Diário do Transporte, 19 mai. 2021. Disponível em: <https://diariodotransporte.com.br/2021/05/19/governo-da-bahia-vai-instalar-cameras-com-reconhecimento-facial-em-onibus-de-70-cidades-para-combater-assaltos/>.


IBGE: negros são 17% dos mais ricos e três quartos da população mais pobre. Agência Brasil, 02 dez. 2016. Disponível em: https://agenciabrasil.ebc.com.br/geral/noticia/2016-12/ibge-negros-sao-17-dos-mais-ricos-e-tres-quartos-da-populacao-mais-pobre>.


MBEMBE. Achille. Crítica da razão negra. 1. ed. Lisboa: Antígona, 2014.


MBEMBE, Achille. Necropolítica. Arte & Ensaios, PPGAV, EBA, UFRJ, n.32, dez. 2016.


O algoritmo e racismo nosso de cada dia. Revista Piauí, 02 jan. 2021. Disponível em: <https://piaui.folha.uol.com.br/o-algoritmo-e-racismo-nosso-de-cada-dia/>.


Pesquisa origem e destino: 50 ANOS. Metrô de São Paulo, 2017. Disponível em: <http://www.metro.sp.gov.br/pesquisa-od/pesquisa-od-50-anos.aspx>.

83 visualizações