Algoritmos não são adequados para tudo no Twitter
, Observa a rede social em uma postagem do blog na quarta-feira. É melhor para os internautas decidir como enquadrar a imagem.
A plataforma, que lançou o trabalho de tornar os sistemas de IA mais éticos, investigou os vieses percebidos pelos usuários.
O algoritmo, que entrou em serviço em 2018, tem como objetivo recortar as imagens de acordo com o que considerar mais importante, a fim de diminuir seu tamanho e, assim, diminuir a desordem de fios.
Viés racial e de gênero
As pessoas no Twitter perceberam casos em que nosso programa escolheu brancos em vez de negros
Roman Choudhury, diretor de software, explica.
Testamos nosso sistema em um grande banco de dados para determinar se havia um problema.
A equipe de pesquisa do grupo descobriu que havia uma diferença de 4% a favor dos brancos em geral e 7% a favor das mulheres brancas em comparação com as mulheres negras. A comparação entre homens e mulheres no geral mostrou uma lacuna de 8% a favor das mulheres.
A empresa sediada em São Francisco também procurou o potencial para o chamado viés Caras encaram
Ou seja, o algoritmo escolherá o peito ou as pernas da mulher em vez de seu rosto. Mas apenas 3% das imagens testadas foram cortadas fora da cabeça das pessoas e em itens não físicos, como um número em uma camisa esporte.
Não encontramos nenhuma evidência de viés de objetividade.
A rede social testou uma nova maneira de exibir fotos sem cortá-las em março e, em seguida, lançou a ferramenta em todo o mundo para permitir que as pessoas vissem como eram seus tweets antes de postar.
Isso reduz nossa dependência do aprendizado de máquina para uma tarefa que os usuários são capazes de realizar.
, Ela adicionou.