“Empresas tecnológicas estão a pôr tanta fé na Machine Learning Fairness (MLF) porque isto não só tira todo o processo de julgamento das mãos dos preconceituosos, deficientes e intolerantes seres humanos; fá-lo entregando esse julgamento a computadores que asseguramos que não podem aprender com os nossos preconceitos. Fá-lo introduzindo nos computadores um conjunto de atitudes e julgamentos que provavelmente nunca fizeram parte de qualquer assunto humano. É uma forma de justiça de que nenhum ser humano seria capaz. Contudo, só depois de os utilizadores começarem a reparar que algo estranho se passava com os resultados dos motores de busca é que as tecnológicas sentiram necessidade de explicar a MLF. Compreensivelmente, tentaram fazê-lo da maneira menos ameaçadora possível, como se não fosse nada de especial. No entanto, é. E muito.
Em qualquer número de buscas, o que se revela não é uma visão “justa” das coisas, mas uma visão que enviesa severamente a história e a apresenta com um preconceito do presente.
Consideremos os resultados de uma busca simples como “Arte Europeia”. Há uma enorme série de imagens que podem aparecer numa busca do Google por essas palavras. E poder-se-ia esperar que as primeiras fossem a Mona Lisa ou os Girassóis de Van Gogh, ou algo similar. De facto, a primeira imagem que surge é de Diego Velázquez. Isto pode não ser surpreendente, mas a pintura escolhida sim. Porque a primeira imagem que surge quando se pesquisa por “Arte Europeia” não são As Meninas nem o retrato do papa Inocêncio X. O retrato de Velázquez que aparece nesta busca é o que ele fez do seu ajudante, Juan de Pareja, que era negro.
É um retrato tremendo, mas talvez seja surpreendente que apareça em primeiro lugar. Se virmos a primeira fila de imagens, são todas do género que se esperaria encontrar ao teclar este título, incluindo a Mona Lisa. Depois temos a Senhora e o Menino (a primeira até agora), e é uma Senhora negra. A seguinte é uma mulher negra que vem de algo chamado “Pessoas de cor na história da arte europeia”. A coluna em que esta se encontra termina com um retrato de grupo de três homens negros. Segue-se outra fila com mais dois retratos de negros. E em seguida uma pintura de Vincent Van Gogh (a primeira até agora). E assim continua, cada fila apresenta a história da arte europeia como consistindo sobretudo de retratos de pessoas negras. Claro que é interessante, e é certamente “representativo” do que algumas pessoas hoje em dia podem gostar de ver. Mas não é, nem remotamente, representativo do passado.
A história da arte europeia não é um quinto, nem dois quintos, nem metade acerca da representação negra. Os retratos de ou por pessoas negras eram muito invulgares até às últimas décadas, quando as populações europeias começaram a mudar. E há algo, não apenas estranho mas sinistro nesta representação do passado. Consegue perceber-se como na mente de uma máquina ensinada a ser “justa” pode parecer que isto constitui uma representação adequada de grupos diferentes. Mas, simplesmente, não é uma representação de história, Europa ou arte.
Se dissermos ao Google que queremos ver imagens de “Homens negros” as imagens que surgem são todas retratos de homens negros. Passa-se mais de uma dúzia de filas de imagens antes de aparecer alguém que não seja negro. No entanto, uma busca por “Homens brancos” mostra-nos primeiro uma imagem de David Beckham – que é branco – mas a segunda é de um modelo negro. A partir daí, cada fila de cinco imagens tem um ou dois homens negros. Muitas das imagens de homens brancos são pessoas condenadas por crimes, com legendas como “Cuidado com o homem branco médio” e “Os homens brancos são maus”.
Se procurar no Google imagens de “Casal gay”, obterá fila após fila de fotos de felizes casais gays. São lindos. Na busca por “Casal heterossexual”, porém, pelo menos uma ou duas imagens de cada fila de cinco será de um casal lésbico ou de um casal de homens. Poucas filas depois, na busca por “Casal heterossexual” aparecem mais fotografias de casais homossexuais do que o contrário, que era o que a busca pedia.
Estas buscas foram feitas em inglês, mas se forem feitas noutras línguas e aplicadas a motores de busca do Google nos países onde estas predominam obteremos um conjunto diferente de resultados. Em geral, quanto mais nos afastamos das línguas europeias, mais aquilo que obtemos se assemelha ao que pedimos. É nas línguas europeias que aparecem estes resultados estranhos. E é em inglês que os resultados são mais descaradamente diferentes do que se pediu. De facto, a estranheza dos resultados para algumas destas buscas em inglês é tão extrema que é claro que não é apenas uma máquina a tentar mostrar uma certa diversidade. Não é simplesmente MLF.
O que parece que está a acontecer é que algo está a ser introduzido sobre uma quantidade de MLF: é MLF mais alguma deliberação humana. E esta deliberação humana decidiu “punir” as pessoas com quem os programadores da sua empresa estão zangados. Isto explicaria porque é que as buscas por casais negros ou gays nos oferecem o que pedimos, enquanto a busca por casais brancos ou heterossexuais são dominadas pelos seus opostos.
Parece que para erradicar dos computadores o género de enviesamento de que os seres humanos sofrem decidiram criar um novo tipo de “sem-enviesamento”. Contudo, o resultado é uma visão enviesada da história, adicionada de uma nova camada de preconceitos que foi deliberadamente injetada no sistema por pessoas decididas a atacar aqueles que consideram ter preconceitos particulares. No interesse de extirpar os preconceitos humanos, os humanos criaram um sistema inteiro com preconceitos.
Se houvesse uma oportunidade genuína de diminuir o racismo, o sexismo ou o sentimento de antigay, quem não desejaria aproveitá-la com todas as ferramentas e motores à sua disposição?
O grande problema com esta atitude é que sacrifica a verdade ao perseguir um objetivo político. Então, onde se entender que a diversidade e a representação foram inadequadas no passado, resolve-se o problema mudando o passado. Alguns utilizadores do motor de busca mais famoso do mundo terão reparado em algumas destas coisas. Outros terão reparado em todas. Mas a maioria das pessoas que faz uma utilização quotidiana, seja do Google ou de qualquer dos outros grandes produtos tecnológicos, pode ter apenas uma sensação de que algo estranho está a acontecer: que lhes estão a dar coisas que eles não pediram, alinhadas com um projeto que eles não encomendaram, na prossecução de um objetivo que eles podem não desejar.”
[Douglas Murray in “A Insanidade das Massas”, 2019]