O People Analytics, ou Análise de Pessoas, é a aplicação de métodos científicos e estatísticos a dados comportamentais. Com o avanço da tecnologia e a automação da coleta e análise de grandes volumes de dados, unido à uma análise feita por IA (Inteligência Artificial) e outras ferramentas automatizadas, as informações saem com maior qualidade para serem analisadas por profissionais de RH e líderes. Já trouxemos alguns explicando o que é o People Analytics e qual a origem do termo.
Em janeiro, a Harvard Business Review disponibilizou um artigo que mostra como usar o People Analytics para criar um local de trabalho mais equitativo. Trouxemos aqui os principais pontos abordados no artigo que podem ser aproveitados também por empresas brasileiras que buscam um ambiente mais diverso e igualitário.
A implementação de técnicas de People Analytics estão sendo usadas por empresas para identificar e eliminar as disparidades salariais entre gênero, raça ou outras categorias demográficas importantes. Os profissionais de RH usam rotineiramente ferramentas baseadas em IA para selecionar currículos para economizar tempo, melhorar a precisão e descobrir padrões ocultos nas qualificações associadas a um melhor (ou pior) desempenho futuro. Modelos baseados em IA podem até ser usados para sugerir quais funcionários podem sair em um futuro próximo.
Contudo, mesmo com um alto percentual de benefícios, algumas automações podem desviar do objetivo inicial e acentuar as disparidades sociais.
A Amazon teve que jogar fora uma ferramenta de triagem de currículo criada por seus engenheiros porque era tendencioso contra as mulheres. O LinkedIn, principal ferramenta usada em todo o mundo por profissionais para fazer contatos e procurar empregos e por profissionais de RH para recrutar, tinha um recurso de preenchimento automático da plataforma para sua barra de pesquisa que estava sugerindo alterar nomes femininos como “Stephanie” por nomes masculinos como “Stephen”. Finalmente, no lado do recrutamento, um anúncio de mídia social para oportunidades de campo de Ciência, Tecnologia, Engenharia e Matemática (STEM) que foi cuidadosamente projetado para ser neutro em termos de gênero foi mostrado de forma desproporcional aos homens por um algoritmo projetado para maximizar o valor para os orçamentos de anúncios dos recrutadores, porque as mulheres geralmente respondem a mais anúncios e, portanto, os anúncios exibidos a elas são mais caros.
Em cada um desses exemplos, uma quebra no processo analítico surgiu e produziu um viés não intencional – e às vezes severo – contra um grupo específico. No entanto, essas falhas podem e devem ser evitadas. Para perceber o potencial da análise de pessoas baseada em IA, as empresas devem entender as causas básicas do viés algorítmico e como elas funcionam em ferramentas comuns de análise de pessoas.
O processo analítico
Os dados não são neutros. As ferramentas de análise de pessoas geralmente são construídas a partir dos dados históricos de um empregador sobre recrutamento, retenção, promoção e remuneração de seus funcionários. Esses dados sempre refletirão as decisões e atitudes do passado. Portanto, ao tentarmos construir um “local de trabalho do futuro”, precisamos estar atentos a como nossos dados retrospectivos podem refletir antigos preconceitos que não queremos mais manter em um ambiente mais diversificado.
Os dados podem ter um viés explícito diretamente nele – por exemplo, as avaliações de desempenho em sua empresa podem ter sido historicamente tendenciosas em relação a um grupo específico. Ao longo dos anos, você corrigiu esse problema, mas se as avaliações tendenciosas forem usadas para treinar uma ferramenta de IA, o algoritmo herdará e propagará os vieses adiante.
Também existem fontes mais sutis de preconceito. Por exemplo, automatizar uma avaliação baseada nas notas da graduação de um candidato pode permear uma desigualdade social. Por exemplo, candidatos a emprego que tiveram que trabalhar durante a faculdade – que são mais propensos a vir de origens de baixa renda – podem ter obtido notas mais baixas, mas eles podem de fato ser os melhores candidatos a emprego porque demonstraram o impulso para superar obstáculos. Compreender possíveis incompatibilidades entre o que você deseja medir (por exemplo, inteligência ou capacidade de aprender) e o que você realmente mede (por exemplo, desempenho em testes escolares) é importante na construção de qualquer ferramenta de análise de pessoas, especialmente quando o objetivo é construir um local de trabalho mais diversificado.
O desempenho de uma ferramenta de análise de pessoas é um produto dos dados que ela alimenta e do algoritmo que usa. Aqui, oferecemos três dicas que você deve ter em mente ao gerenciar seu pessoal:
Primeiro, um modelo que maximize a qualidade geral da previsão – a abordagem mais comum – provavelmente terá melhor desempenho em relação aos indivíduos na maioria dos grupos demográficos, mas pior com grupos menos bem representados. Isso ocorre porque os algoritmos normalmente estão maximizando a precisão geral e, portanto, o desempenho para a população majoritária tem mais peso do que o desempenho da população minoritária na determinação dos parâmetros do algoritmo. Um exemplo pode ser um algoritmo usado em uma força de trabalho composta principalmente por pessoas casadas ou solteiras e sem filhos; o algoritmo pode determinar que um aumento repentino no uso de dias pessoais indica uma alta probabilidade de desistir, mas esta conclusão pode não se aplicar a pais solteiros que precisam tomar de vez em quando porque o filho está doente.
Segundo, não existe um modelo verdadeiramente “cego de raça” ou “cego de gênero”. De fato, omitir raça ou gênero explicitamente de um modelo pode até piorar as coisas.
Considere este exemplo: imagine que sua ferramenta de análise de pessoas baseada em IA, para a qual você evitou cuidadosamente fornecer informações sobre gênero, desenvolva um forte histórico de previsão de quais funcionários provavelmente sairão logo após serem contratados. Você não tem certeza exatamente no que o algoritmo se agarrou – a IA frequentemente funciona como uma caixa preta para os usuários – mas você evita contratar pessoas que o algoritmo marca como de alto risco e vê uma boa queda no número de novos contratados que desistiram logo após ingressar. Depois de alguns anos, no entanto, você é atingido por uma ação judicial por discriminar mulheres em seu processo de contratação. Acontece que o algoritmo estava separando desproporcionalmente as mulheres de um código postal específico que carece de uma creche, criando um fardo para mães solteiras. Se você soubesse, você poderia ter resolvido o problema oferecendo creche perto do trabalho, não apenas evitando o processo, mas até mesmo dando a si mesmo uma vantagem competitiva no recrutamento de mulheres dessa área.
Terceiro, se as categorias demográficas, como gênero e raça, estiverem desproporcionalmente distribuídas em sua organização, como é típico – por exemplo, se a maioria dos gerentes no passado era do sexo masculino, enquanto a maioria dos trabalhadores era do sexo feminino – mesmo modelos cuidadosamente construídos não levarão a resultados iguais entre os grupos. Isso porque, neste exemplo, um modelo que identifica futuros gerentes têm maior probabilidade de classificar erroneamente as mulheres como inadequado para a administração, mas classifica erroneamente os homens como adequado para a gestão, mesmo que o gênero não faça parte dos critérios do modelo. A razão, em uma palavra, é que os critérios de seleção do modelo provavelmente estão correlacionados com gênero e aptidão gerencial, então o modelo tenderá a ser “errado” de maneiras diferentes para mulheres e homens.
Como fazer a coisa certa
Pelas razões acima (e outras), precisamos estar especialmente cientes das limitações dos modelos baseados em IA e monitorar sua aplicação em grupos demográficos. Isso é especialmente importante para o RH, porque, em contraste com os aplicativos gerais de IA, os dados que as organizações usam para treinar ferramentas de IA provavelmente refletirão os desequilíbrios que o RH está trabalhando atualmente para corrigir. Como tal, as empresas devem prestar muita atenção a quem está representado nos dados ao criar e monitorar aplicativos de IA. Mais claramente, eles devem observar como a composição dos dados de treinamento pode estar distorcendo a recomendação da IA em uma direção ou outra.
Uma ferramenta que pode ser útil nesse aspecto é um painel de preconceito que analisa separadamente o desempenho de uma ferramenta de análise de pessoas em diferentes grupos (por exemplo, raça), permitindo a detecção precoce de possíveis vieses. Esse painel destaca, em diferentes grupos, tanto o desempenho estatístico quanto o impacto. Como exemplo, para um aplicativo de apoio à contratação, o painel pode resumir a precisão e o tipo de erros que o modelo comete, bem como a fração de cada grupo que conseguiu uma entrevista e acabou sendo contratado.
Além de monitorar as métricas de desempenho, os gerentes podem testar explicitamente o viés. Uma maneira de fazer isso é remover uma variável demográfica específica (por exemplo, gênero) no treinamento da ferramenta baseada em IA, mas explicitamente incluir essa variável em uma análise subsequente dos resultados. Se o gênero está altamente correlacionado com os resultados – por exemplo, se um gênero é desproporcionalmente provável de ser recomendado para um aumento – isso é um sinal de que a ferramenta de IA pode ser implicitamente incorporando gênero de forma indesejável. Pode ser que a ferramenta tenha identificado desproporcionalmente as mulheres como candidatas a aumentos porque as mulheres tendem a ser mal pagas em sua organização. Nesse caso, a ferramenta de IA está ajudando você a resolver um problema importante. Mas também pode ser que a ferramenta de IA esteja reforçando um viés existente. Uma investigação mais aprofundada será necessária para determinar a causa subjacente.
É importante lembrar que nenhum modelo está completo. Por exemplo, a personalidade de um funcionário provavelmente afeta seu sucesso em sua empresa sem necessariamente aparecer nos dados de RH desse funcionário. Os profissionais de RH precisam estar atentos a essas possibilidades e documentá-las na medida do possível. Embora os algoritmos possam ajudar a interpretar dados passados e identificar padrões, a análise de pessoas ainda é um campo centrado no ser humano e, em muitos casos, especialmente os difíceis, as decisões finais ainda serão tomadas por humanos, conforme refletido na frase popular atual “human-in-the-loop-analytics”.
Para serem eficazes, esses humanos precisam estar cientes do viés de aprendizado de máquina e das limitações do modelo, monitorar a implantação dos modelos em tempo real e estar preparados para tomar as medidas corretivas necessárias. Um processo com reconhecimento de preconceitos incorpora o julgamento humano em cada etapa analítica, incluindo a conscientização de como as ferramentas de IA podem amplificar preconceitos por meio de ciclos de feedback. Um exemplo concreto é quando as decisões de contratação são baseadas em “adequação cultural”, e cada ciclo de contratação traz mais funcionários semelhantes para a organização, o que, por sua vez, torna o ajuste cultural ainda mais restrito, potencialmente trabalhando contra metas de diversidade. Nesse caso, a ampliação dos critérios de contratação pode ser necessária, além de refinar a ferramenta de IA.
A análise de pessoas, especialmente baseada em IA, é uma ferramenta incrivelmente poderosa que se tornou indispensável no RH moderno. Mas os modelos quantitativos têm como objetivo auxiliar, não substituir, o julgamento humano. A Appus tem a ferramenta certa para te ajudar neste processo e em outros processos de HR Analytics. Entre em contato para saber mais.