arrow_backVoltar

SXSW 2024

‘Poeta de código’ expõe IA que não reconhece mulheres negras

14.03.24

Computação, ciência, arte e ativismo combinados em uma única pessoa. É o que pode ser dito da canadense Joy Buolamwini, cientista da computação, especialista de inteligência artificial, artista, autora do livro “Unmasking AI: My Mission to Protect What Is Human in a World of Machines”, lançado em outubro passado, e fundadora da Algorithmic Justice League (AJL), movimento que defende um ecossistema de IA equitativo e responsável. Joy gosta de se apresentar também como “Poeta de código”, conceito que criou para usar poemas como meio de estimular reflexões a respeito das implicações sociais da tecnologia.

Keynote do SXSW 2024, Joy abriu o painel com um vídeo do poema “AI, Ain’t I a woman (confira mais abaixo), que toma por base uma poesia do século 19 da abolicionista estadunidense Sojourner Truth e os resultados de um experimento com a IA para identificar o gênero de mulheres icônicas como Oprah Winfrey, Serena Williams e Michelle Obama a partir de fotos. As máquinas as apontaram como homens. A proposta do poema em vídeo é mostrar a necessidade de tornar os direitos das mulheres mais inclusivos.

Como dizemos, as máquinas são muito neutras”, ironizou Joy. A partir disso, ela explicou por que vem combatendo os vieses da IA. O resultado da experiência com as fotos de mulheres - entre elas, algumas que são referências mundiais - é reflexo de algo que Joy chama de olhar codificado ("coded gaze"). Que também pode ser visto como “olhar masculino”, “olhar branco” e “olhar pós-colonial”, emendou a cientista.

O olhar codificado está relacionado ao poder. “Quem tem o poder de moldar as tecnologias com base nas suas preferências, nas suas prioridades e, por vezes, nos seus preconceitos?”, questionou.

O primeiro momento em que se deu conta desse olhar ocorreu quando ela era estudante do MIT. “Estava trabalhando em um projeto, que não ia bem”, lembrou. Ela utilizou uma foto sua e a analisou em várias demos de IA de reconhecimento facial. Algumas delas não detectaram seu rosto. Outras detectaram, mas indicaram que era masculino. Para que sua face fosse captada, ela resolveu usar uma máscara branca. Aí, ela passou a aparecer para a máquina.

Na época, IA não era um assunto em voga, ao menos não como hoje. Mas os sistemas de reconhecimento facial estavam começando a se expandir. “Fiquei ainda mais preocupada quando percebi que esse tipo de tecnologia está entrando no mundo real e bagunçando muito a vida das pessoas”, declarou.

Com a proliferação de ferramentas poderosas de IA, qualquer pessoa que tenha uma foto publicada nas redes sociais “provavelmente está em um banco de dados da Clearview AI, disse. A empresa citada é especializada em reconhecimento facial e coletou informações de mais de 30 bilhões de fotos online, segundo Joy. A companhia fornece software para agências policiais.

As falhas dos sistemas de reconhecimento facial não se restringem ao mero risco de ser identificado incorretamente ou de ter dados combinados com o de outra pessoa. A cientista alertou que a imagem das pessoas pode ser usada em deep fakes.Vimos isso com Tom Hanks 'anunciando' um plano odontológico que você nunca conheceu. Vimos isso com Taylor Swift tendo seu rosto usado em cenas explícitas e falsas. Ninguém está imune a ser ‘excoded’. Esse é o meu termo usado para designar qualquer pessoa que tenha sido prejudicada por sistemas de IA”, contou.

Uma pessoa “excoded” foi Porcha Woodruff, presa pela polícia de Detroit quando estava grávida de oito meses por suposto roubo de carro. “Ninguém rouba carro aos oito meses de gravidez. Ela relatou ter tido contrações quando estava presa. Teve de ser levada às pressas para o pronto-socorro ao sair. Então, eles colocaram duas vidas em perigo”, observou a cientista. Porcha tinha sido “reconhecida” pela IA que analisou um vídeo que mostrava o roubo.

Vale notar que Porcha foi presa três anos depois que Robert Williams foi preso erroneamente , na mesma cidade, devido aos “algoritmos de discriminação”, ressaltou a pesquisadora. Ambos são negros. Williams processou a polícia de Detroit.

Com humor, Joy declarou que ninguém imagina que um dia será procurado pela polícia. Mas o problema é que tecnologias de reconhecimento facial estão espalhadas por aí. Estão em aeroportos, escolas, hospitais.

Foi com base nessas descobertas e percepções que surgiu a Algorithmic Justice League (AJL) e as pesquisas que nortearam sua trajetória como cientista, dando material também para que ela se expresse na forma de arte, sobretudo de poemas falados. “Eu explorei minha experiência com o uso da máscara branca para meu rosto ser detectado. Não apenas com meu chapéu de pesquisadora, mas meu chapéu humano também”, disse.

A tese de doutorado de Joy no MIT, “Gender Shades” - feita com a cientista da computação Timnit Gebru - é fruto de um trabalho que investigou a acurácia dos sistemas de reconhecimento facial tendo como foco o gênero e a cor da pele. E isso envolveu tecnologias empregadas por grandes companhias como Microsoft, IBM e Amazon. O resultado é que as mulheres negras de pele mais escura eram menos identificadas.

Além de conduzir pesquisas, Joy contou que procura alertar a sociedade a respeito dessas disparidades, por meio de campanhas de direitos a privacidade e direitos biométricos (as pessoas podem se recusar a se submeter a tecnologias de reconhecimento facial) e por meio de projetos artísticos. Em sua apresentação, ela também falou do respeito ao direito autoral de artistas nesta era em que a IA generativa explodiu.

Parte de suas pesquisas e de seu ativismo pode ser conferido no documentário “Coded Bias”, disponível na Netflix (veja o trailer no final da página). Por sinal, ela revelou estar colaborando no desenvolvimento de um novo doc.

Entrevista

O painel continuou com uma entrevista com a cientista feita pela jornalista Mackenzie Sigalos, da CNBC. Joy falou de seu pai, cientista, e sua mãe, artista, ambos de Gana, que a influenciaram em sua jornada. Desde sua infância, portanto, ela via seu mundo em uma mistura de computação e arte.

Questionada sobre sua missão em um mundo pós-ChatGPT, quando a IA generativa chegou às massas, Joy respondeu que já mencionava a tecnologia em sua dissertação de doutorado. Ou seja, os especialistas na área já previam problemas de vieses antes da popularização da IA.

Penso que o trabalho da AJL é atual, especialmente agora com a adoção generalizada de tecnologias biométricas, que estão entrando em muitos espaços. Temos feito pesquisas há anos, coletado histórias de pessoas e visto as maneiras pelas quais essas tecnologias podem ser prejudiciais. Fazemos recomendações apoiadas por pesquisas para empresas e governos de todo o mundo”, contou.

A entrevista passou por polêmicas recentes, como o caso do Gemini, a IA generativa do Google (que cometeu erros históricos em imagens e teve essa área suspensa pela big tech até ser feita a correção do modelo), os riscos de deep fakes em processos eleitorais que vão ocorrer em vários países neste ano até a imagem de Kate Middleton que foi distribuída oficialmente com claras modificações feitas pelo Photoshop.

Joy manifestou ainda preocupações sobre o impacto ambiental da IA, sobre a adoção acrítica da tecnologia e a necessidade de regulamentação para haver justiça algorítmica. Mas, por outro lado, reconheceu o potencial da inteligência artificial para impulsionar projetos artísticos.

A cobertura do SXSW 2024 pelo Clubeonline é um oferecimento exclusivo da Corazon Filmes (@corazonfilmes). 

SXSW 2024

/