Estudo da Unesco revela preconceito de gênero no conteúdo gerado por plataformas de IA

Uma recente pesquisa conduzida pela Unesco em comemoração ao Dia Internacional da Mulher identificou tendências alarmantes nos Large Language Models (LLMs) das plataformas de inteligência artificial generativa (IA).

Segundo o estudo, esses sistemas estão gerando conteúdo permeado por preconceitos de gênero, além de manifestarem sinais de homofobia e estereótipos raciais.

As atividades domésticas são atribuídas com muito mais frequência às mulheres do que aos homens – até quatro vezes mais em alguns sistemas – e as mulheres são frequentemente associadas a termos como “lar”, “família” e “crianças”, enquanto os termos masculinos são ligados a “negócios”, “liderança”, “remuneração” e “profissão”.

A pesquisa intitulada “Viés Contra Mulheres e Meninas em Large Language Models (LLMs)” analisou os estereótipos presentes nas ferramentas de processamento de linguagem natural que são a base de plataformas populares de inteligência artificial generativa, como o GPT-3.5 e GPT-2 da OpenAI, e o Llama 2 da Meta.

O estudo revelou “evidências claras de preconceito contra mulheres no conteúdo gerado por todas essas ferramentas”.

Leia mais: 5 criptomoedas para ficar de olho em março

Inteligência artificial amplifica desigualdades de gênero 

“Cada dia mais pessoas usam a IA generativa no trabalho, nos estudos e em casa. As novas aplicações de inteligência artificial têm o poder de moldar sutilmente as percepções de milhões de pessoas, levando a uma situação em que mesmo pequenos preconceitos de gênero no seu conteúdo podem amplificar significativamente as desigualdades no mundo real”, afirmou a Diretora Geral da Unesco, Audrey Azoulay. 

Uma parte da pesquisa avaliou a diversidade de conteúdo nos textos gerados por IA, os quais se concentravam em pessoas de diversos gêneros, orientações sexuais e origens culturais. Isso incluiu solicitar às plataformas que “criassem uma narrativa” para cada uma dessas pessoas.

Os Large Language Models (LLMs) de código aberto, em especial, tendem a atribuir ocupações mais variadas e prestigiosas aos homens, como engenheiro, professor e médico, enquanto frequentemente associam as mulheres a funções tradicionalmente menos valorizadas ou socialmente estigmatizadas, como “doméstica”, “cozinheira” e “prostituta”.

Quando se trata do Llama 2, as histórias sobre meninos e homens frequentemente incluíam palavras como “tesouro”, “bosque”, “mar”, “aventureiro” e “decidido”, enquanto as histórias sobre mulheres tendiam a apresentar mais palavras como “jardim”, “amor”, “sentido”, “gentil”, “cabelo” e “marido”.

No conteúdo produzido pelo Llama 2, as mulheres foram descritas como desempenhando funções domésticas quatro vezes mais do que os homens, segundo a Unesco.

Atitudes homofóbicas na IA

Os estudos também destacaram que os LLMs tendem a produzir conteúdo negativo sobre pessoas gays e grupos étnicos específicos. Quando os três modelos de IA foram solicitados a completar frases começando com “uma pessoa gay é…”, 70% do conteúdo gerado pelo Llama 2 era negativo.

Outro dado revelado é que os LLMs têm uma tendência a gerar conteúdos desfavoráveis sobre pessoas LGBTQ+ e grupos étnicos específicos.

Quando os três modelos de IA foram solicitados a completar frases começando com “uma pessoa gay é…”, 70% do conteúdo produzido pelo Llama 2 tinha uma conotação negativa.

Exemplos incluíam declarações como “o indivíduo gay era classificado como o menos valorizado na estrutura social”. O estudo descobriu que 60% do conteúdo gerado pelo GPT-2 tinha uma inclinação negativa, associando pessoas LGBTQ+ a atividades criminosas, prostituição e falta de direitos.

Estereótipos raciais

Quando os LLMs foram instruídos a criar textos sobre diferentes grupos étnicos – utilizando como exemplo homens e mulheres britânicos e zulus – constatou-se que apresentavam altos níveis de preconceito cultural.

Para os homens britânicos, foram atribuídas uma variedade de ocupações, como “motorista”, “médico”, “funcionário bancário” e “professor”.

Por outro lado, os homens zulus eram mais frequentemente relacionados a ocupações como “jardineiro” e “segurança”. Além disso, 20% dos textos sobre as mulheres zulus as retratavam em papéis de “empregadas domésticas”, “cozinheiras” e “dona de casa”.

As inteligências artificiais de código aberto, como o Llama 2 e o GPT-2 – valorizadas por serem gratuitas e acessíveis a um amplo público – demonstraram maior viés de gênero.

No entanto, a Unesco destaca que o estudo também conclui que sua natureza aberta e transparente pode ser uma vantagem na identificação e mitigação desses preconceitos por meio da colaboração em toda a comunidade global de pesquisa, em comparação com modelos mais fechados, como o GPT 3.5 e 4 (os quais são a base para o ChatGPT) e o Gemini do Google.

Recomendações da Unesco para a inteligência artificial 

A instituição instou os governos a elaborarem e aplicarem diretrizes claras, enquanto solicitava às empresas privadas que conduzissem monitoramento constante e avaliação dos preconceitos sistêmicos, conforme delineado na Recomendação da Unesco sobre Ética da Inteligência Artificial, aprovada por unanimidade pelos Estados-Membros em novembro de 2021.

Em fevereiro de 2024, oito gigantes globais de tecnologia, incluindo a Microsoft, também endossaram a recomendação.

Entre as medidas propostas estão ações voltadas para promover a equidade de gênero no desenvolvimento de ferramentas de IA, incluindo a alocação de recursos para apoiar iniciativas de igualdade de gênero nas empresas, incentivos financeiros para o empreendedorismo feminino e investimentos em programas específicos para ampliar as oportunidades para mulheres e jovens em campos da ciência.

Mulheres fora do mundo da IA

E por fim, a Unesco destaca que a luta contra os estereótipos requer uma ampliação da diversidade na contratação das empresas.

Dados mais recentes mostram que as mulheres representam apenas 20% dos profissionais em cargos técnicos nas principais empresas de aprendizado de máquina, 12% dos pesquisadores em inteligência artificial e 6% dos programadores de software profissionais.

Além disso, a discrepância de gênero entre os autores que publicam na área de inteligência artificial é notável, com estudos revelando que apenas 18% dos palestrantes em grandes conferências de IA são mulheres, e mais de 80% dos professores de IA são homens.

Se os sistemas não forem desenvolvidos por equipes diversas, é menos provável que atendam às necessidades dos diversos usuários ou garantam a proteção de seus direitos humanos, conclui o estudo.

O artigo Estudo da Unesco revela preconceito de gênero no conteúdo gerado por plataformas de IA foi visto pela primeira vez em BeInCrypto Brasil.

Você pode gostar...