VIGILÂNCIA DIGITAL

Políticas públicas em âmbito municipal e estadual têm tentado implementar medidas de reconhecimento facial massiva


A legislação sobre proteção de dados pessoais tem sido tensionada por inúmeras decisões, tomadas no âmbito da administração pública, que procuram implementar ferramentas de vigilância digital massiva. Apenas em São Paulo, dois grandes projetos estão em andamento com o objetivo de promover reconhecimento facial indiscriminado da população.


O primeiro deles foi previsto em edital de licitação da Companhia do Metropolitano de São Paulo para instalação de um sistema de monitoramento eletrônico em diversas estações do metrô, habilitado a promover reconhecimento facial. O que faria este sistema?


A partir de imagens das câmeras de segurança, um software de reconhecimento facial capturaria a imagem do rosto das pessoas e transformaria os dados peculiares do rosto da pessoa em uma representação numérica que, por sua vez, serviria como parâmetro para comparação com outras imagens de quaisquer bancos de dados.


As características peculiares de nosso rosto são únicas, exclusivas e, muitas vezes, insubstituíveis – assim como nossas impressões digitais e a nossa forma de falar e andar; são chamados de dados biométricos, dados pessoais sensíveis para os quais se exige maior proteção.


Estima-se que dados biométricos de 2 milhões de usuários do metrô seriam captados pelas câmeras de vigilância e tratados pelo metrô.


Além da implementação de reconhecimento facial pelo metrô, outro projeto recente na cidade de São Paulo pretende integrar 20 mil câmeras instaladas nas ruas e equipamentos públicos com a funcionalidade de reconhecimento facial. Chamado de “Smart Sampa”, está em processo de consulta pública antes de sua adoção pela Secretaria Municipal de Segurança Urbana.


Ambos os projetos preveem o uso indiscriminado da tecnologia de reconhecimento facial e, por isso, são tidos como ferramentas de vigilância massiva.


Sob a perspectiva jurídica, medidas de vigilância massiva desafiam o alcance da Lei Geral de Proteção de Dados e os contornos do mais recente direito constitucional (incluído como inciso LXXIX no rol do artigo 5º da Constituição Federal pela emenda constitucional 115/22): o direito fundamental à proteção de dados pessoais.


A legislação sobre proteção de dados traz princípios que devem reger a proteção de dados, indicando-os como parâmetros para aplicação e interpretação da lei: reafirmam o respeito à privacidade e a inviolabilidade da intimidade.


Traz, também, princípios que devem orientar especificamente a atividade de tratamento de dados pessoais, com acentuada exigência para a sua proporcionalidade. Por lei, o tratamento de dados pessoais deve ser comprovadamente adequado e necessário, limitado “ao mínimo necessário para a realização de suas finalidades, com abrangência dos dados pertinentes, proporcionais e não excessivos”. Também por força de lei, o tratamento de dados pessoais não pode ser feito com fins discriminatórios, ilícitos ou abusivos.


Levando em conta esses princípios, seria possível afirmar que medidas de vigilância massiva, como as que preveem o uso indiscriminado de reconhecimento facial no metrô ou nas ruas da cidade de São Paulo, seriam desproporcionais e com alto potencial discriminatório.


De fato, ainda que estas tecnologias estejam cada vez mais precisas, a alta incidência de falsos positivos e o enviesamento algorítmico baseado em raça e gênero são constatações inescapáveis. Os casos de erros dos sistemas de reconhecimento facial envolvendo pessoas negras, aqui e no exterior, são tantos, e tão graves, que se descobriu uma forma particular de discriminação: a discriminação algorítmica, que além de afetar a população negra, afeta também as pessoas trans.


Na ausência de respostas efetivas das autoridades administrativas, estes projetos de vigilância massiva e uso de tecnologias de reconhecimento facial começam a ser questionados nos tribunais. A implementação do sistema de monitoramento por reconhecimento facial pelo metrô, por exemplo, está suspensa por força de decisão liminar proferida em ação civil pública proposta por diversas entidades. A decisão que suspendeu o reconhecimento facial no metrô ressaltou a ausência de “qualquer informação sobre os critérios, condições, propósitos da implementação do sistema de reconhecimento facial” e destacou “a potencialidade de se atingir direitos fundamentais dos cidadãos com a implantação do sistema”, aliando-se ao movimento global que pede, senão o banimento, a moratória das políticas de vigilância massiva.


No mesmo sentido, há notícias de processos judiciais questionando o uso massivo de tecnologias de reconhecimento facial na Bahia e no Espírito Santo, sempre com esse duplo argumento: de um lado, a violação à proteção de dados e à privacidade; de outro, o potencial discriminatório. Afinal, a vigilância digital massiva afeta todos, mas certamente trará impactos negativos desproporcionais às populações negra e trans.


Tudo indica que será papel dos tribunais reafirmar que a proteção de dados é, de fato, um direito fundamental. E, mais do que isso: se é legítima, em uma sociedade que se pretende democrática, a promoção de vigilância massiva dos cidadãos.


***

A este respeito (e outros mais), vale ler o excelente trabalho dos discentes de projeto interdisciplinar da FGV sobre proteção de dados, fruto de parceria entre a Data Privacy Brasil e a FGV Direito SP: a obra “Dados, privacidade e persecução penal: cinco estudos” contribui com a pesquisa e a disseminação de conhecimento na intersecção entre a proteção de dados pessoais e o direito penal (https://bibliotecadigital.fgv.br/dspace/handle/10438/31784).


Autoria: Eloísa Machado de Almeida - Professora da FGV Direito SP e advogada em direitos humanos

Imagem: TicTank