sábado, setembro 7

Se você está preocupado com a possibilidade de algoritmos de seleção de candidatos estarem entre você e o emprego dos seus sonhos, leia o livro de Hilke Schellmann O Algoritmo não vai aliviar sua mente. O novo livro do repórter investigativo e professor de jornalismo da NYU desmistifica como os departamentos de RH usam software de automação que não apenas propaga preconceitos, mas falha naquilo que afirmam fazer: encontrar o melhor candidato para o cargo.

Schellmann se fez passar por um possível caçador de empregos para testar alguns desses softwares, que vão desde rastreadores de currículos e testes baseados em videogames até avaliações de personalidade que analisam expressões faciais, entonações vocais e comportamento nas redes sociais. Uma ferramenta classificou-a como ideal para um emprego, embora ela falasse bobagens em alemão. Um algoritmo de avaliação de personalidade deu-lhe notas altas de “estabilidade” com base no uso do Twitter e uma classificação baixa com base em seu perfil no LinkedIn.

É o suficiente para fazer você querer excluir sua conta do LinkedIn e adotar a apropriação original, mas Schellmann também tem insights edificantes. Numa entrevista que foi editada para maior extensão e clareza, ela sugeriu como a sociedade poderia controlar a tecnologia tendenciosa de RH e ofereceu dicas práticas para quem procura emprego sobre como vencer os bots.

Caitlin Harrington: Você relatou sobre o uso de IA na contratação de Jornal de Wall Street, Revisão de tecnologia do MITv O guardião nos últimos anos. Em que momento você pensou, tenho um livro aqui?

Hilke Schellmann: Uma delas foi quando fui a uma das primeiras conferências de tecnologia de RH em 2018 e encontrei ferramentas de IA entrando no mercado. Eram cerca de 10 mil pessoas, centenas de fornecedores, muitos compradores e grandes empresas. Percebi que este era um mercado gigantesco e estava dominando o RH.

As empresas de software muitas vezes apresentam seus produtos como uma forma de eliminar o preconceito humano na contratação. Mas é claro que a IA pode absorver e reproduzir a tendência dos dados de treinamento que ingere. Você descobriu um analisador de currículo que ajustava as pontuações de um candidato ao detectar a frase “Afro-americano” em seu currículo.

Schellmann: É claro que as empresas dirão que as suas ferramentas não têm preconceitos, mas como foram testadas? Alguém já investigou isso e não trabalha na empresa? O manual de uma empresa afirmava que a IA de contratação foi treinada com dados de estudantes universitários de 18 a 25 anos. Eles podem ter encontrado algo muito específico para jovens de 18 a 25 anos que não se aplica a outros trabalhadores nos quais a ferramenta foi usada.

Os danos que um gerente de contratação humano pode causar são limitados e, obviamente, devemos tentar evitar isso. Mas um algoritmo utilizado para avaliar centenas de milhares de trabalhadores, se apresentar falhas, pode prejudicar muito mais pessoas do que qualquer ser humano.

Agora, obviamente, os fornecedores não querem que as pessoas olhem para as caixas pretas. Mas acho que os empregadores também evitam olhar porque então têm uma negação plausível. Se encontrarem algum problema, poderá haver 500.000 pessoas que se candidataram a um emprego e poderão ter uma reclamação. É por isso que precisamos exigir mais transparência e testes.

Certo, porque eles podem estar violando as leis trabalhistas. Mesmo quando os fornecedores realizam auditorias tendenciosas, você escreve que elas normalmente não incluem discriminação por deficiência. Existe alguma clareza sobre onde reside a responsabilidade quando a IA discrimina?

É uma questão em aberto porque não vimos litígios. Muitos advogados dizem que a empresa que contrata é a responsável final, porque é ela quem toma a decisão de contratação. Os fornecedores certamente sempre dizem: “Não somos nós que tomamos a decisão. As empresas tomam a decisão. A IA nunca rejeitaria ninguém.”

Isso pode estar certo em alguns casos, mas descobri que alguns fornecedores usam limites automáticos de rejeição para pessoas com pontuação abaixo de um determinado nível. Houve uma troca de e-mails entre um fornecedor e um distrito escolar que estipulou que as pessoas que obtivessem pontuação inferior a 33% em uma avaliação baseada em IA seriam rejeitadas.

Penso que todos os empregadores esperam que estas ferramentas encontrem os candidatos mais bem-sucedidos, mas não temos muitas provas de que isso aconteça. Vimos empregadores economizarem muito dinheiro em mão de obra. Acho que muitas vezes é tudo o que eles querem.

Pensei, talvez ingenuamente, que as pessoas estão se tornando mais conscientes de que não se pode confiar cegamente na IA e que muitas vezes precisa de intervenção humana. Mas, para muitas empresas, reconhecer isso quase anularia o objetivo do software de RH automatizado, que é economizar tempo.

Muitos fornecedores usam redes neurais profundas para construir esse software de IA, então muitas vezes não sabem exatamente em que a ferramenta está baseando suas previsões. Se um juiz lhes perguntasse por que rejeitaram alguém, muitas empresas provavelmente não saberiam responder. Esse é um problema na tomada de decisões de alto risco. Deveríamos ser capazes de verificar os fatos da ferramenta.

Se você está treinando algoritmos para funcionários atualmente bem-sucedidos e há preconceitos enraizados em decisões de contratação anteriores, parece uma receita para perpetuar esse preconceito.

Ouvi alguns denunciantes que descobriram exatamente isso. Num caso, um avaliador de currículos foi treinado com base nos currículos de pessoas que trabalharam na empresa. Ele analisou padrões estatísticos e descobriu que as pessoas que tinham as palavras “beisebol” e “basquete” em seus currículos eram bem-sucedidas, então ganharam alguns pontos extras. E as pessoas que tinham a palavra “softball” no currículo foram rebaixadas. E obviamente, nos EUA, as pessoas com “beisebol” no currículo geralmente são homens, e as pessoas que colocam “softball” geralmente são mulheres.

Eu estava ciente de alguns dos usos da IA ​​na contratação, mas estava menos ciente de seu uso em pessoas que já tinham empregos, para determinar demissões e promoções. O que preocupa você aí?

Uma empresa usou dados importantes, de quando as pessoas entraram em um escritório, para entender quem eram os trabalhadores mais produtivos. Obviamente, essa é uma métrica falha porque o número de horas que você passa no escritório não revela o quão produtivo você é. Mas eles analisaram esses dados em busca de promoções e, quando a empresa teve que fazer demissões durante a pandemia, analisaram os dados para determinar quem teve menos sucesso. Então, acho que uma vez que os dados estão disponíveis, torna-se realmente atraente para as empresas usá-los.

Você compara algumas dessas avaliações de personalidade baseadas em jogos e análises de expressões faciais com pseudociências antigas, como fisionomia e frenologia. O que fez essa conexão em sua mente?

Acho que tudo começou quando foi lançado o estudo “Gaydar”, que tentou descobrir a essência da aparência das pessoas que se identificam como gays ou heterossexuais usando um algoritmo e fotos de um aplicativo de namoro. Ainda existe uma crença profunda de que os sinais externos, as expressões faciais, a forma como o nosso corpo se move, a entonação das nossas vozes, carregam a nossa essência. Vimos isso no passado com a análise de expressões faciais no século XIX, alegando que os criminosos tinham rostos diferentes dos não-criminosos, ou com a análise de caligrafia. Não havia realmente nenhuma ciência por trás disso, mas o fascínio está aí. Agora temos a tecnologia para quantificar expressões faciais e outros sinais externos, mas o problema é que algumas empresas atribuem significado a isso quando na verdade não há significado.

Um computador pode quantificar um sorriso, mas não sabe se estou feliz por trás dele. Então a essência não se revela. Vemos isso nas ferramentas de análise de mídia social de IA. Essa ideia de Se eu olhar seu Twitter, encontrarei sua personalidade nua e crua.

É quase o suficiente para fazer com que um candidato a emprego sinta que as decisões tomadas sobre seu futuro são arbitrárias e estão fora de seu controle. O que uma pessoa pode fazer para recuperar algum arbítrio?

Na verdade, a IA generativa devolveu algum poder aos candidatos a empregos. Já vi muitas pessoas nas redes sociais falarem sobre como usaram o ChatGPT para construir um currículo melhor e escrever cartas de apresentação. Alguns candidatos o utilizam para treinar para responder às perguntas da entrevista. É colocar IA contra IA.

Existem analisadores de currículos on-line onde você pode fazer upload de uma descrição de cargo e seu currículo, e o computador tabula quanta sobreposição existe. Você não quer usar 100% das palavras-chave, porque seu currículo provavelmente seria sinalizado como uma cópia da descrição do cargo; você deseja estar na faixa de 60 a 80 por cento. O antigo mantra era “Você precisa se destacar”, mas isso não é mais aplicável, porque muito provavelmente seu currículo será avaliado por IA, que é mais sujeito a erros do que a maioria das pessoas pensa. Portanto, tenha uma coluna e seções claramente identificadas como “Experiência Profissional” e “Habilidades” para que o computador possa lê-las.

Outra coisa que pode ajudá-lo a ser notado é entrar em contato com recrutadores no LinkedIn depois de enviar uma inscrição. Também aprendi conversando com muitos recrutadores que você pode considerar enviar sua inscrição diretamente pelo site da empresa, porque é para lá que os recrutadores procuram primeiro. Em seguida, eles vão para plataformas de emprego como LinkedIn ou Even.

Estas são boas dicas. Sinto-me fortalecido novamente.

E eu acho que essa mudança é possível. Acho que é preciso haver uma organização sem fins lucrativos que comece a testar ferramentas de contratação de IA e disponibilize os resultados publicamente – na verdade, consegui algum financiamento inicial. Penso que muitas universidades compreendem que a tecnologia e a sociedade estão a mudar rapidamente e que precisamos de reunir pessoas que trabalham em problemas sociais e pessoas que trabalham em problemas técnicos. Mas também acho que há algo especial que os jornalistas podem trazer, porque estamos atentos. Podemos usar o jornalismo de dados para ajudar a encontrar respostas confiáveis ​​para essas questões mais amplas.

Que papel você acha que o governo deveria desempenhar na regulamentação dessas ferramentas?

Alguns especialistas dizem que deveríamos ter uma agência governamental de licenciamento que testasse ferramentas preditivas quando elas são usadas para tomar decisões de alto risco. Não tenho certeza se os governos têm capacidade para fazer isso, porque seria um empreendimento enorme. Espero que o governo imponha mais transparência e abra o acesso aos dados – o que permitiria aos investigadores, cientistas e jornalistas intervir e fazer nós próprios os testes. Esse seria um grande primeiro passo.

Compartilhe:

Comentários estão fechados.