(San Francisco) Um algoritmo de recomendação do Facebook perguntou aos usuários se eles queriam ver mais “vídeos de primatas” em um vídeo do deserto do Reino Unido mostrando negros, O jornal New York Times Sexta-feira.
Vídeo Correio diário, há mais de um ano, intitulado “Homem Branco Chama Policiais Contra Homens Negros na Marina”. Mostra apenas pessoas, não macacos.
Abaixo, a pergunta “Você vê mais vídeos sobre primatas?” Com as opções “Sim / Rejeitar” exibidas na tela de alguns usuários, de acordo com uma imagem postada no Twitter por Darci Groves, ex-designer do gigante das redes sociais.
E ela comentou sobre isso dizendo: “É escandaloso”, convocando seus ex-colegas do Facebook para escalar o assunto.
“Este é claramente um erro inaceitável”, respondeu um porta-voz do Facebook, a pedido da AFP. “Pedimos desculpas a todos que se depararam com essas recomendações insultuosas.”
Segundo ela, o grupo da Califórnia desativou a ferramenta de recomendação sobre o tema “assim que percebemos o que estava acontecendo, para investigar as causas do problema e evitar sua recorrência”.
Ela continuou: “Como dissemos, embora tenhamos aprimorado nossos sistemas de IA, sabemos que não é perfeito e que temos algum progresso a fazer.”
O caso destaca os limites das tecnologias de IA, que a plataforma destaca regularmente em seus esforços para construir um feed personalizado para cada um de seus 3 bilhões de usuários mensais.
Também é amplamente utilizado na moderação de conteúdo para identificar e bloquear mensagens e fotos problemáticas antes mesmo de serem vistas.
Mas o Facebook, como seus concorrentes, é regularmente acusado de não combater o racismo e outras formas de ódio e discriminação.
O tema aumenta a tensão à medida que várias organizações da sociedade civil acusam as redes sociais e seus algoritmos de contribuir para a divisão da sociedade americana, no contexto das manifestações do movimento Black Lives Matter (Black Lives Matter).