(Omar Marques/SOPA Images/LightRocket/Getty Images)
Depois que usuários criticaram o Twitter por perceberem que postagens com imagens frequentemente focavam em outras partes do corpo quando se tratava de uma pessoa negra, a divisão de engenharia da rede social conduziu um estudo para verificar o que de fato ocorria com o algoritmo que não centralizava rostos de pessoas negras com a mesma frequência que fazia com o de pessoas brancas.
Publicado na quarta-feira, 19, a análise concluiu que algoritmo criava uma diferença de 8% em favor das mulheres e de 4% em relação a pessoas brancas. Entre as razões possíveis para o fenômeno, estão problemas com fundos de imagens e cor dos olhos. Mas no relatório os pesquisadores ponderaram que a falha não se justifica.
“O corte de imagem baseado em aprendizado de máquina é fundamentalmente falho porque remove a capacidade do usuário e restringe a expressão de sua identidade e seus valores, em vez de impor um olhar normativo sobre qual parte da imagem é considerada a mais interessante”, escreveram os pesquisadores.
Para solucionar a questão, o Twitter recentemente começou a mostrar fotos na íntegra – sem qualquer corte – em seus aplicativos móveis e está tentando ampliar esse esforço. Os pesquisadores também avaliaram se os cortes favoreciam os corpos das mulheres, refletindo o que é conhecido como “olhar masculino”. Mas para isso não houve evidências.
Assine a EXAME e acesse as notícias mais importante em tempo real.