Um novo estudo publicado na revista Nature evidenciou que os principais algoritmos de inteligência artificial, incluindo o ChatGPT e o mecanismo de busca do Google, reforçam estereótipos femininos e de idade. Conduzida por cientistas de Stanford, Berkeley e Oxford, a pesquisa demonstra que mulheres são sistematicamente representadas como mais jovens e com menos experiência que os homens, mesmo em contextos profissionais de alto prestígio. Saiba mais!
Como funcionou o estudo?
Os pesquisadores analisaram como a IA reforça vieses de gênero e idade no trabalho. Para isso, pediram ao ChatGPT que criasse mais de 34 mil currículos para 54 profissões, variando apenas o nome, masculino ou feminino. Mesmo com informações idênticas, os currículos das mulheres mostravam menor experiência e idade mais baixa.
Em seguida, ao avaliar esses currículos, o próprio ChatGPT considerou os homens como candidatos superiores. O experimento evidenciou um padrão de favorecimento aos homens e prejuízo às mulheres mais velhas, mesmo quando tinham o mesmo nível de qualificação.
A análise abrangeu mais de 1,4 milhão de imagens e vídeos de plataformas como Google, YouTube, Wikipedia, IMDb e Flickr, além de textos de nove modelos de linguagem. Em todas as fontes, foi identificado um padrão claro: mulheres são associadas à juventude, enquanto homens são retratados como mais velhos, experientes e ocupando posições de maior status e remuneração.

Imagem: Freepik
A distorção digital: Mulheres mais jovens, homens mais maduros
O levantamento identificou uma discrepância consistente na representação de idade. Em plataformas como Google e IMDb, a diferença de idade percebida entre homens e mulheres chegou a ser de 5,3 e 6,5 anos, respectivamente. Os pesquisadores apontam que “a internet constrói um mundo em que as mulheres são sempre jovens e os homens sempre maduros”, uma distorção que alimenta desigualdades históricas.
Essa diferença se acentua em ocupações de maior prestígio e remuneração. Ao comparar os dados digitais com as estatísticas do Censo dos Estados Unidos, a distorção ficou ainda mais clara. Enquanto os dados oficiais mostram idades equivalentes entre trabalhadores de ambos os sexos, o conteúdo online retrata mulheres mais novas e homens mais velhos, especialmente em cargos de liderança.
O impacto do viés algorítmico em ferramentas populares
Para medir o efeito prático desses vieses, os cientistas realizaram experimentos específicos. Em um deles, 459 participantes, ao buscarem imagens de profissões no Google, atribuíram idades menores às mulheres e maiores aos homens, confirmando que o sistema de busca influencia a percepção social.
No caso do ChatGPT, foram gerados e avaliados 40 mil currículos fictícios. Os resultados mostraram que:
- Currículos com nomes femininos apresentaram uma idade média 1,6 ano menor e quase um ano a menos de experiência profissional.
- Homens mais velhos receberam notas mais altas de competência, enquanto mulheres mais jovens foram consideradas menos qualificadas para cargos de liderança.
O modelo demonstrou um viés sistemático ao associar maturidade e mérito à masculinidade, mesmo sem receber instruções explícitas de gênero. Isso ocorre porque a IA aprende com vastos conjuntos de dados da internet, que já estão repletos de exemplos de sexismo e etarismo.
Desigualdade algorítmica e a necessidade de regulação
Os autores do estudo destacam que esses padrões reforçam o “etarismo de gênero”, um preconceito duplo que penaliza mulheres à medida que envelhecem, ao mesmo tempo que valoriza homens mais velhos. Esse ciclo de desvantagem pode influenciar diretamente decisões de contratação e políticas corporativas, já que milhões de empresas utilizam essas ferramentas.
A pesquisa, intitulada “Distorção de idade e gênero na mídia online e em grandes modelos de linguagem”, ressalta a urgência de uma regulação ética da inteligência artificial. Os pesquisadores defendem o desenvolvimento de auditorias que considerem a interseção de múltiplos fatores, como gênero, idade e raça, para corrigir essas distorções e garantir que a tecnologia sirva à sociedade de forma equitativa.
Continue acessando o portal do Sena Nutri para mais informações como essa.
Perguntas frequentes
O que é o viés de aprendizado de máquina?
É uma falha no sistema de IA que ocorre quando os dados usados para treinar o algoritmo refletem preconceitos humanos, levando a resultados distorcidos ou injustos.
A inteligência artificial é inerentemente preconceituosa?
Não. A IA aprende a partir dos dados que recebe. Se os dados contêm vieses, como o sexismo e o etarismo presentes na internet, o modelo os reproduzirá e ampliará.
Quais plataformas foram analisadas no estudo?
Foram analisados conteúdos de Google, YouTube, Wikipedia, IMDb, Flickr e textos de nove grandes modelos de linguagem, incluindo GPT-2 e ChatGPT.
Como o viés da IA pode afetar o mercado de trabalho?
Pode influenciar negativamente as decisões de recrutamento, favorecendo homens mais velhos em detrimento de mulheres igualmente ou mais qualificadas, e perpetuando a desigualdade salarial e de oportunidades.
Existem soluções para corrigir esses vieses?
Os pesquisadores sugerem maior transparência nos dados de treinamento, desenvolvimento de auditorias interseccionais e a criação de uma regulação ética mais robusta para a IA.











