A polêmica do reconhecimento facial

IBM envia carta ao Congresso Nacional dos Estados Unidos expondo os riscos e levantando questões éticas acerca da utilização da tecnologia de reconhecimento facial

Nesta semana, uma carta escrita pela IBM ao Congresso dos EUA, assinada por seu CEO Arvind Krishna, aqueceu polêmicas e reflexões éticas pelo mundo.

Na carta, a multinacional de tecnologia declarou que encerrou sua área de pesquisas nesse setor, e que não oferecerá mais como produto sua tecnologia de reconhecimento facial. Apontou como principal motivo o risco de lesão aos direitos fundamentais dos cidadãos.

A empresa declarou ainda que se opõe ao uso dessa tecnologia com a finalidade de vigilância em massa e identificação de perfil, sob o argumento de que, previamente a qualquer uso desse tipo de tecnologia, o Congresso Americano deveria estabelecer regras para responsabilização das autoridades em caso de mau uso.

Na carta, o CEO declarou que “A IBM opõe-se firmemente e não tolerará o uso de qualquer tecnologia, incluindo tecnologia de reconhecimento facial oferecida por outros fornecedores, para vigilância em massa, criação de perfis raciais, violações de direitos humanos e liberdades básicas, ou qualquer propósito que não seja consistente com nossos valores e Princípios de Confiança e Transparência. Acreditamos que agora é o momento de iniciarmos um diálogo nacional sobre se e como a tecnologia de reconhecimento facial deve ser empregada pelos órgãos nacionais de aplicação da lei.”

Krishna frisou o fato de que ainda é necessário que as empresas de tecnologia e seus clientes criem algoritmos que não sejam tendenciosos para que não apontem para populações que já sofrem preconceitos.

Para compreendermos um pouco melhor os riscos que o reconhecimento facial apresenta para a sociedade, é necessário entender como funciona o algoritmo por trás dessa tecnologia.

De maneira bem simplificada, funciona assim: são identificados inúmeros elementos milimetricamente detalhados do rosto de uma pessoa (distância exata entre os olhos, contorno das maçãs do rosto, o tamanho e o ângulo do contorno do maxilar, etc.). Todos esses dados são armazenados em enormes bases de dados, a partir das quais o algoritmo busca o reconhecimento da pessoa que detém aquela fisionomia.

Porém, até que ponto esse algoritmo pode ser assertivo? E quando o algoritmo comete um erro, em que consequências sociais ele implica?

Um projeto de estudos desenvolvido pelo MIT* intitulado “Gender Shades”, focado na avaliação da classificação de gênero como exemplo a fim de mostrar a necessidade de transparência em produtos de Inteligência Artificial voltados para seres Humanos* demonstrou que o maior número de erros de identificação de algoritmos de reconhecimento facial se dá entre negros, mulheres e minorias étnicas, e o principal motivo identificado foi o fato de haver menos imagens desses grupos nas bases de dados, ocasionando algoritmos enviesados, e também os vieses daqueles (humanos) que detêm a tecnologia.

A carta da IBM não foi a primeira manifestação de preocupação de empresas do setor de tecnologia quanto aos impactos sociais do uso do reconhecimento facial. A Microsoft já havia reivindicado a governos por regulamentação e o Google no início deste ano pediu à EU para que o uso da tecnologia fosse restringido.

No Brasil, a discussão sobre o reconhecimento facial passou a ter mais destaque em 2018 em razão da implantação de sistema de reconhecimento facial no metrô de São Paulo – que, além de identificar idade e sexo, alterava os anúncios exibidos no metrô de acordo com as expressões faciais dos passageiros. Porém o debate ainda é muito embrionário.

A tecnologia já é utilizada pelo poder público brasileiro como instrumento de segurança e combate à criminalidade em alguns Estados, porém já foram reportados erros por parte da polícia na detenção de pessoas inocentes (num teste no Metrô do Rio de Janeiro em julho de 2019, por exemplo, a tecnologia falhou no segundo dia, ao apontar uma mulher como uma criminosa, que foi levada à delegacia em Copacabana).

Outras ocorrências discriminatórias foram reportadas pelo mundo pelo uso da tecnologia (um dos mais famosos deles é o caso do ativista Jacky Alcinéé que foi nomeado automaticamente como “gorila” pelo Google).

Por que estamos tão habituados a questionar apenas a iniciativa privada no uso da tecnologia, porém quando se trata do poder público permanecemos resignados?

É claro que quando se fala no uso do algoritmo pelo poder público, a primeira coisa que vem em mente é a identificação de criminosos, uma ferramenta que pode auxiliar no combate à criminalidade, reforçar nossa segurança, contribuir para a sociedade como um todo. Porém, para que seu uso seja positivo, é necessário que fiquem claros vários fatores, como se houve consentimento da pessoa cuja imagem consta no banco de dados, de onde vem essa base de dados, como ela foi formada, quem está por trás dos algoritmos, etc., para que, além da nossa privacidade, seu uso não nos custe também outros valores.

Isadora Savazzi Rizzi

*http://gendershades.org/overview.html?utm_campaign=newsletterIdEA&utm_medium=email&utm_source=Revue%20newsletter