“Diversidade Artificial”: precisamos falar do racismo algorítmico
Seguindo a linha da nossa última edição da CoolBox, na qual falamos do impacto das redes sociais em nossa atenção, hoje vamos refletir sobre como as plataformas digitais influenciam a percepção que temos sobre nós e sobre as outras pessoas.
Pois é, é triste e revoltante perceber que, mesmo com tantos avanços tecnológicos, problemas antigos ainda nos afetam. Entre eles, o racismo, que há tempos tem sido reproduzido também no âmbito digital, recebendo até um nome específico. Você já tinha ouvido falar em racismo algorítmico?
A gente te explica!
O recente caso da deputada Renata Souza
Antes de mais, precisamos dizer que esta edição foi motivada por uma publicação recente da deputada Renata Souza (PSOL-RJ) em suas redes sociais. Para quem não está a par da história, um resumo:
No final de outubro, Renata fez uma denúncia contra a Disney Pixar alegando ter sofrido racismo algorítmico. O que aconteceu foi que, ao tentar participar de uma trend do estúdio de animação envolvendo Inteligência Artificial nas redes, a deputada se viu retratada de uma forma diversa do comando que disse ter fornecido. Em vez de receber a animação de uma mulher negra da favela, ela recebeu a animação de uma mulher negra com uma arma na mão.
Em seu post no Twitter/X, Renata fez um alerta:
A postagem da deputada recebeu diversos comentários que questionavam a sua veracidade, já que as imagens são geradas conforme comando dado pelo usuário. Verdade ou não, o fato é que não se trata de um caso isolado quanto o assunto é Inteligência Artificial e, logo, os algoritmos.
A culpa é dos algoritmos?
Você já se perguntou como os conteúdos na internet são organizados e classificados? Pois essa é a função dos algoritmos. E o que são eles? São instruções ou regras dadas a um certo sistema para que o mesmo realize ações determinadas, ajudando a processar um grande volume de informações e a otimizar e personalizar a experiência da pessoa que está do outro lado da tela, muitas vezes chamada “usuário”.
Nas redes sociais, por exemplo, os algoritmos decidem como ranquear os resultados de um feed a partir do grau de relevância daquele conteúdo para cada pessoa, com base em conteúdos que a própria pessoa já consumiu. E é assim, conforme as nossas interações, que vamos recebendo novas recomendações de conteúdos, posts, publicidade, etc.
Acontece que até mesmo os algoritmos são programados por… pessoas. E é exatamente por isso que eles podem ser carregados de vieses bastante problemáticos, reproduzindo desafios do mundo real também no mundo online (mas a gente ainda volta nesse assunto).
Algoritmos e racismo
Nesta matéria da rádio Brasil de Fato, o pesquisador Tarcízio Silva, autor do livro "Racismo Algorítmico: Inteligência Artificial e Redes Digitais", defende que a tecnologia não é neutra e impacta negativamente as minorias raciais, sejam elas de quaisquer lugares do mundo.
O autor define o racismo algorítmico como um “termo utilizado globalmente por estudiosos que tentam entender como tecnologias podem intensificar práticas discriminatórias nos diversos aplicativos presentes no nosso dia a dia, na comunicação, no trabalho, nos serviços, na paquera e no atendimento de saúde”.
As práticas discriminatórias se manifestam de diferentes maneiras, como na utilização de filtros e apps de IA que alteram a tonalidade da pele, textura do cabelo ou formato do nariz, ou na predominância de imagens de pessoas brancas em bancos de fotos.
O caso da modelo americana tawanesa Sheeran Wu, que se revoltou a ver as transformações da Inteligência Artificial em uma foto sua no desfile do designer Michael Costello
O tema tem ganhado cada vez mais relevância e abordagem em diversas pesquisas. O estudo “Algoritmos racistas: a hiper-ritualização da solidão da mulher negra em bancos de imagens digitais”, é um dos exemplos de trabalho de investigação desse viés racista em meios digitais.
A pesquisa analisou 2512 fotos e ilustrações dos bancos de imagem online Getty Images, Shutterstock e Stockphotos, buscando perceber se a perspectiva imagética de família (mulher, homem, filho e filha) se aplicava também para contexto negro ou se apenas endossava a ideia da “solidão da muher negra”.
Os resultados demonstraram que mulheres negras eram mais representadas sozinhas com seus filhos que mulheres brancas. As buscas com a palavra-chave “family” também filtraram uma maioria expressiva de famílias brancas, representando um indício de racialização da pesquisa para o algoritmo de busca.
Voltando ao caso da deputada Renata Souza e supondo que a animação que ela recebeu da Disney Pixar não tivesse mesmo qualquer palavra-chave relacionada a “arma” ou “arma de fogo” no comando, podemos deduzir que o algoritmo da inteligência artificial gerou uma imagem com base em uma visão estereotipada da favela e de quem vive nela. E bem, a gente nem precisa dizer o tanto que isso é problemático, né?!
No especial “Como as big techs mudam nossa visão de mundo para pior”, do Tilt Uol, a autora Safiya Noble explica os riscos dessa distorção de imagem. “É muito perigoso deturpar a representação das pessoas de forma racista, homofóbica, islamofóbica, porque as narrativas que circulam são desumanizadoras. Quando há desumanização dessas pessoas, elas ficam mais suscetíveis a violência e a políticas públicas ruins” diz.
Diante disso, a gente precisa, sim, entender o papel e a importância de todas essas plataformas em nossa sociedade.
*O documentário Code Bias, disponível na Netflix, investiga o viés nos algoritmos depois que a pesquisadora Joy Buolamwini, do MIT, descobriu falhas na tecnologia de reconhecimento facial. Já assistiu?
Mas por que isso acontece?
Então, lembra que dissemos que os algoritmos são programados por pessoas? Pois é, em um outro artigo, dessa vez da Folha de São Paulo, Tarcízio Silva, atribui o racismo algorítmico à falta de diversidade na indústria de tecnologia. Ou seja, temos a maioria de um mesmo perfil de pessoas - homens, brancos, com acesso à educação formal - também na tecnologia.
Buscando entender o cenário brasileiro, lá em 2017 a pesquisa #QUEMCODABR, promovida pelo PretaLab em parceria com a Thoughtworks, trouxe dados relevantes que comprovam a falta de diversidade no mercado de tecnologia. Segundo a pesquisa, as pessoas que trabalhavam em tecnologia no país eram, principalmente: homens, brancos, jovens de classe socioeconômica média e alta que começaram a sua trajetória nos centros formais de ensino.
6 anos e uma pandemia depois, pouca coisa mudou. De acordo com o relatório Panorama de Talentos em Tecnologia 2023/ Google, além de enxergarem barreiras de entrada, 57% das startups entrevistadas enxergam o mercado de tecnologia atual como excludente para mulheres e 55% o veem como excludente para pessoas negras.
Leia também: Grupos de afinidade: um caminho para a diversidade, equidade e inclusão
Pergunta do milhão: como isso impacta minha marca, carreira ou negócio
Para além do impacto sobre a forma como nos enxergamos e enxergamos as outras pessoas, tudo isso que abordamos também tem influência direta sobre diferentes indústrias. Filtros que clareiam tons de pele e afinam o nariz são reprodutores e perpetuadores de padrões estéticos contra os quais lutamos há anos, mas que ainda assim colocam o Brasil no topo do ranking de cirurgias plásticas, por exemplo.
Como vislumbrar outros cenários possíveis para a nossa sociedade se as imagens que são reproduzidas pela tecnologia estão sempre a repetir um mesmo viés imaginário? Algoritmos tendenciosos podem ter implicações sérias para pessoas e comunidades marginalizadas, resultando em tratamento injusto e exclusão. Portanto, é fundamental que sejam promovidas mais iniciativas que promovam a diversidade e a inclusão no mercado de tecnologia.
E para sermos, também, portadores de boas notícias, enumeramos alguns projetos brasileiros que estão focadas em trazer diversidade para o mercado de tecnologia:
educaTRANSforma: oferece capacitação gratuita em TI para pessoas transgênero;
Minas Programam: promove oportunidades de aprendizado sobre programação para meninas e mulheres, priorizando negras ou indígenas;
UX para minas pretas: Edtech feita por e para mulheres negras que através do impacto social amplia empregabilidade no mercado digital;
Toti: plataforma brasileira de ensino e inclusão de pessoas refugiadas e migrantes no mercado de trabalho de tecnologia;
Deficiência Tech: comunidade de inclusão de pessoas com deficiência no mercado de tecnologia no Brasil.
Trazendo o assunto para o ambiente corporativo, é importante refletirmos sobre a responsabilidade e o papel social das empresas dentro desse contexto. E uma estratégia fundamental para ajudar as empresas a serem ambientes mais diversos e inclusivos é o investimento em educação.
Aqui na CoolHow, nós entendemos que as empresas devem ser agentes que contribuam com a transformação desse cenário, independentemente do seu tamanho ou ramo de atuação. Por meio do design de aprendizagem, acreditamos que é possível construir ambientes organizacionais mais diversos, seguros e acolhedores, onde as pessoas tenham condições justas para evoluir em suas trajetórias pessoais e profissionais.
Ficou com interesse e com vontade de saber mais sobre o nosso trabalho, vamos conversar!
Para emoldurar e colocar na parede
“Racismo algorítmico não é uma questão de programação ou engenharia. Mais importante que as linhas de código é saber quais são as relações de poder e quais decisões são habilitadas pela implementação de alguma tecnologia.”
Tarcízio Silva, pesquisador
Radar do Futuro-Presente
Não existe internet grátis. Grupo Consumoteca fala sobre a “gentrificação digital” e a transformação das plataformas digitais em espaços nos quais têm mais direito aqueles que podem pagar CaosCast
Ser profissional na vida pessoal. Em meio a um conteúdo especial sobre “Imagem”, artigo informa que recrutadores e gestores de empresas também fazem pesquisas sobre candidatos e pessoas das equipes em suas redes sociais pessoais. Até aí, nada de novo, além do fato de que optar por não ter redes sociais é correr o risco de esquecimento Gama Revista
Ser pessoal na vida profissional. A vulnerabilidade chegou ao LinkedIn. E está se espalhando bem rápido. Quem usa a plataforma já percebeu que o compartilhamento pessoal está crescendo devido às mudanças nas normas sociais e no mercado de mídia social (EN) Business Insider
Apoio sim, mas com limites. Os avós que não querem ser explorados: 'Cuidar dos netos ocasionalmente é diferente de virar cuidador principal'. BBC
O perfil de consumo das favelas brasileiras. “Uma pesquisa realizada pelo NÓS Inteligência e Inovação Social com os dados das quinze maiores favelas do Brasil mostrou que com uma renda média de R$ 3.036,23, as comunidades brasileiras geram um potencial de consumo de R$ 167 bilhões ao ano” Uol Economia.
Ei, queremos te ouvir!
Você tem um minutinho para dar o seu feedback sobre a CoolBox? Também estamos aceitando sugestões: quais temas você gostaria de ver por aqui?