Software de recrutamento de IA é 'pseudociência automatizada', segundo estudo de Cambridge

Nó Fonte: 1722666

As alegações de que o software de recrutamento com inteligência artificial pode aumentar a diversidade de novas contratações em um local de trabalho foram desmascaradas em um estudo publicado esta semana.

Defensores de algoritmos de aprendizado de máquina treinados para analisar a linguagem corporal e prever a inteligência emocional dos candidatos acreditam que o software oferece uma maneira mais justa de avaliar os trabalhadores se não considerar gênero e raça. Eles argumentam que as novas ferramentas podem remover preconceitos humanos e ajudar as empresas a atingir suas metas de diversidade, equidade e inclusão, contratando mais pessoas de grupos sub-representados.

Mas um papel publicado na revista Filosofia e tecnologia por uma dupla de pesquisadores da Universidade de Cambridge, no entanto, demonstra que o software é pouco mais que “pseudociência automatizada”. Seis estudantes de ciências da computação replicaram um modelo comercial usado na indústria para examinar como o software de recrutamento de IA prevê a personalidade das pessoas usando imagens de seus rostos. 

Apelidado de “Máquina da Personalidade”, o . procura os “cinco grandes” da personalidade: extroversão, amabilidade, abertura, consciência e neuroticismo. Eles descobriram que as previsões do software foram afetadas por mudanças nas expressões faciais, iluminação e planos de fundo das pessoas, bem como na escolha de roupas. Esses recursos não têm nada a ver com as habilidades de um candidato a emprego, portanto, usar a IA para fins de recrutamento é falho, argumentam os pesquisadores. 

“O fato de que mudanças na luz, saturação e contraste afetam sua pontuação de personalidade é prova disso”, disse Kerry Mackereth, pesquisadora associada de pós-doutorado do Centro de Estudos de Gênero da Universidade de Cambridge. O registro. Os resultados do artigo são apoiados por estudos anteriores, que mostrando como usar óculos e um lenço na cabeça em uma entrevista em vídeo ou adicionar uma estante de livros ao fundo pode diminuir as pontuações de um candidato em consciência e neuroticismo, observou ela. 

Mackereth também explicou que essas ferramentas provavelmente são treinadas para procurar atributos associados a candidatos anteriores bem-sucedidos e, portanto, são mais propensas a recrutar pessoas com aparência semelhante em vez de promover a diversidade. 

“Modelos de aprendizado de máquina são entendidos como preditivos; no entanto, como eles são treinados em dados passados, eles estão reiterando decisões tomadas no passado, não no futuro. À medida que as ferramentas aprendem com esse conjunto de dados pré-existente, um ciclo de feedback é criado entre o que as empresas percebem como um funcionário ideal e os critérios usados ​​por ferramentas automatizadas de recrutamento para selecionar candidatos”, disse ela.

Os pesquisadores acreditam que a tecnologia precisa ser regulamentada com mais rigor. “Estamos preocupados que alguns fornecedores estejam embrulhando produtos de 'óleo de cobra' em um pacote brilhante e vendendo-os para clientes desavisados”, dito co-autora Eleanor Drage, pesquisadora associada de pós-doutorado também no Centro de Estudos de Gênero. 

“Embora as empresas possam não estar agindo de má fé, há pouca responsabilidade sobre como esses produtos são construídos ou testados. Como tal, esta tecnologia, e a forma como é comercializada, podem acabar como fontes perigosas de desinformação sobre como o recrutamento pode ser 'imparcial' e mais justo”, acrescentou.

Mackereth disse que, embora a Lei de IA da União Européia classifique esse software de recrutamento como “alto risco”, não está claro quais regras estão sendo aplicadas para reduzir esses riscos. “Achamos que precisa haver um escrutínio muito mais sério dessas ferramentas e das alegações de marketing feitas sobre esses produtos, e que a regulamentação das ferramentas de RH com inteligência artificial deve desempenhar um papel muito mais proeminente na agenda política de IA”.

“Embora os danos das ferramentas de contratação baseadas em IA pareçam muito mais latentes e insidiosos do que instâncias mais importantes de discriminação algorítmica, elas possuem o potencial de ter efeitos duradouros no emprego e na mobilidade socioeconômica”, concluiu ela. ®

Carimbo de hora:

Mais de O registro