Um advogado de direitos humanos responde a “ Parabéns pela sua perda ” de Catherine Lacey .
Há alguns anos, participei de uma reunião para litigantes em uma conferência de direitos digitais. Ao entrar na sala, vi muitos rostos familiares e alguns que não eram familiares. Quando me apresentei a uma das mulheres que nunca tinha visto antes, uma mulher branca, ela reagiu da maneira mais ofendida. “Sim, nós nos encontramos esta manhã em seu escritório”, ela retrucou para mim. Visto que eu não tinha estado em nenhum lugar perto do meu escritório naquela manhã, eu tinha certeza de que ela estava enganada. No decorrer dessa conversa constrangedora, percebi que ela estava me confundindo com meu chefe: também uma mulher de cor, mas de forma alguma se parecia comigo. “Ah, sim, todos somos parecidos”, suspirei, revirando os olhos e segui em frente.
Com o passar dos anos, disseram que me pareço ” exatamente ” com outras mulheres negras, de Naomi Campbell a Michelle Obama e a prima de alguém que já foi afastado e juram que poderia ser minha irmã gêmea. Muito pode ser dito sobre essas generalizações, mas nossa incapacidade de diferenciar as pessoas de origem étnica diferente da nossa é um fenômeno bem conhecido. Acredita-se que o “efeito entre raças” ou “preconceito da própria raça” contribua para as dificuldades na identificação entre raças e preconceito racial implícito, mas não há consenso entre os cientistas quanto à sua causa.
A tecnologia também tem dificuldade em nos distinguir uns dos outros: software de reconhecimento facial desenvolvido em países ocidentais geralmente falha em reconhecer corretamente rostos que não sejam de homens brancos , em parte devido à falta de diversidade nos bancos de dados usados para treinar a tecnologia (que tendem para refletir a composição da base do designer: principalmente homens brancos). No futuro, onde Catherine Lacey “ Congratulations on Your Loss”Ocorre, o reconhecimento facial é difundido e evoluiu a tal ponto que é confiável para conhecer melhor nossos rostos do que nós mesmos. Quando Enid recebe multa por transgressão, seu primeiro reflexo é pagá-la. Enquanto ela está preenchendo o cheque, porém, percebe que ela não poderia estar onde a foto dizia que ela estava. Lacey escreve: “Enid levou a fotografia para a janela para estudá-la mais de perto, pois era possível que ela não tivesse se reconhecido, mas não – esse rosto não era o rosto dela, e mesmo que possa ser difícil conhecer o seu rosto, como tantas vezes nos aparecem nos momentos mais monótonos, Enid tinha certeza de que essa pessoa não era sua pessoa. Além disso, ela não tinha uma bolsa azul. ” Quando Enid compartilha suas dúvidas com o parceiro, no entanto, ele fica convencido de que, se a foto dizia que era Enid, deve ter sido ela.
Embora (ainda) não estejamos vivendo em um estado de vigilância panóptico completo, cercados por reconhecimento facial onde quer que possamos ir, casos de identidade equivocada já estão ocorrendo. A história do que foi descrito como a primeira prisão injusta conhecidabaseado em um falso reconhecimento facial, quase parece o começo de um romance distópico. Depois de ser preso em seu gramado na frente de sua esposa e filhas em 2020, Robert Williams foi confrontado com uma imagem de um vídeo de vigilância mostrando outro homem negro. “É você?” Williams se lembra de um detetive perguntando. Depois de segurar a foto próxima ao rosto, Williams disse ao New York Times, um dos detetives concluiu: “Acho que o computador errou”. No entanto, Williams só foi dispensado horas depois. No total, ele passou 30 horas sob custódia policial. A ACLU desde então assumiu seu caso .
Embora o caso de Williams tenha recebido grande atenção, quase certamente não foi a primeira vez que alguém foi erroneamente implicado pela tecnologia de reconhecimento facial – e definitivamente não será a última. Embora notícias de outros casos tenham aparecido predominantemente nas notícias dos Estados Unidos, sabemos muito pouco sobre os erros que ocorrem em outros lugares, inclusive em lugares como a China, onde o reconhecimento facial é generalizado. As vítimas de tais erros têm empreendido ações legais para obter reparações por detenções falsas, prisão e, em geral, uma violação de seus direitos civis. Desafios mais sistêmicos de reconhecimento facial também estão ocorrendo: Recentemente, a organização de direitos humanos do Reino Unido, Liberty, teve sucesso em desafiar o uso de tecnologia de reconhecimento facial pela Polícia de Gales do Sul, um primeiro passo importante que, esperançosamente, estimulará muitos mais casos como esse em todo o mundo.
Na história, Enid decide contestar seu ingresso na rua. Ou ela tenta – mas o sistema automatizado no escritório público torna isso impossível. No início, isso realmente a deixa à vontade, porque “Quem conhecia o mundo melhor do que as câmeras, todas as câmeras apontadas para o alto, câmeras sem olhos humanos ou memórias humanas para prejudicá-las?” Mas quando recebe outra multa, e depois outra e mais outra, ela decide revidar. Ela compila um dossiê de seu recurso, que é avaliado por um júri de computadores “aproximando-se de uma dúzia de mentes humanas razoáveis. O veredicto … seria completo e final, indiscutivelmente perfeito. ”
Derrotado pelo sistema, Enid finalmente desiste e encontra conforto em sua aparente intercambialidade com outras pessoas. “De repente, ela teve certeza de que não ia ficar mais confusa por aí, de que é simplesmente verdade que todos nós nos equivocamos sobre quem somos e quem não somos”.
Se há uma coisa que devemos tirar da história, é que devemos evitar essa mentalidade a todo custo. O mundo de Enid certamente parece a progressão lógica da maneira como atualmente nos envolvemos com a tecnologia: uma fé cega em sua infalibilidade combinada com um descuido geral em atribuir a ela seu lugar apropriado – ou seja, como uma ferramenta para nos ajudar, não como algo que deveríamos automaticamentevalor mais alto do que nossas próprias observações e opiniões. Se cedermos a isso, acabaremos escravizados por sistemas de nossa própria criação. À medida que continuamos automatizando nossas vidas, confiando decisões importantes à tecnologia, não apenas em nosso sistema de justiça, mas também em bem-estar, saúde e escolaridade, precisamos parar continuamente e nos fazer perguntas críticas. Uma dessas perguntas deveria ser: Mesmo se pudermos fazer essa tecnologia funcionar quase perfeitamente, será que devemos querer? No caso da tecnologia de reconhecimento facial, a resposta é um não definitivo.