Navegando pelo LinkedIn, quase diariamente observo críticas aos serviços de People Analytics focados em recrutamento, principalmente Gupy e Kenoby. As reclamações são de candidatos frustrados com processos seletivos longos, cheios de testes e sem feedback algum sobre o resultado.
Nas últimas semanas, em face ao aumento dessas reclamações, vejo que as plataformas estão ficando mais ativas em responder às reclamações nas redes sociais, porém na maioria das vezes apontando os clientes como os responsáveis pelas informações, feedbacks e configurações da plataforma.
Em um estudo recente de Harvard + Accenture (leia aqui), vê-se que isso é um problema que afeta trabalhadores em diversos mercados, deixando muitas pessoas em um limbo que não existiria quando os processos seletivos não eram gerenciados por algoritmos e sim por pessoas.
Mas a tecnologia veio para ficar e ajudar recrutadores a processar centenas de aplicações da maneira mais eficiente, selecionando os melhores candidatos para as vagas. Porém acredito que exista uma maneira de realizar essa façanha e ainda dar aos candidatos e candidatas uma experiência muito melhor.
Não existe apenas um cliente
Acreditar que apenas o cliente que paga a sua fatura é o que importa talvez seja o principal erro. Em um projeto de produto ou serviço deve-se envolver todos os tipos de clientes, conhecer suas histórias, seus desafios e a partir daí construir soluções. Vejamos um exemplo:
“Como candidata, gostaria de saber quais os pontos fortes – ou fracos – que me ajudariam a conseguir a vaga” .
Um time de desenvolvimento traduziria isso em um indicador ou insights para a candidata ter ideia de suas chances. Inovador? Nem tanto! O próprio LinkedIn já fornece esse tipo de informação para assinantes premium, do tipo “Você está entre os 25% melhores”.
Transparência
Há regras nas contratações – traduzidas para os algoritmos – que não são explícitas, seja por intenção (design) ou não.
O contratante pode ter uma vaga na cidade do Rio de Janeiro e receber aplicações de pessoas de todo o Brasil. Ele pode não dizer explicitamente que não aceita candidaturas de outras regiões, porém o sistema pode dar preferência aos candidatos geograficamente mais próximos e deixar alguém disposto a se realocar ao Rio de Janeiro no final da fila. Um exemplo que mostra que a máquina simplesmente reflete o que aconteceria numa análise manual.
Algo menos explícito seria preterir uma candidata por ter ficado 2 anos fora do mercado. O sistema não perguntará o motivo para isso – uma gravidez? problemas de saúde? período de estudo ou sabático? – ele simplesmente empurrará para o final da fila.
Essas regras não são transparentes para os candidatos mas são para os desenvolvedores de algoritmos e para os clientes. E qual o problema em dar transparência às regras?
O exemplo da SerasaExperian
Um exemplo interessante é o score de crédito da SerasaExperian. Além de mostrar qual seu score numa escala de 0-1000, ele mostra exatamente o que está levando seus números para cima ou para baixo. Insights do tipo “Você pagou 90% do seu último empréstimo e isso é bom para seu score” mostram o que você está fazendo certo ou não e que podem não ser óbvias para o usuário comum.
Para beneficiar as empresas de crédito (que são os principais clientes da SerasaExperian) eles investiram na experiência do cliente final, dando informação e transparência nas regras.
Quem sabe no futuro uma plataforma de People Analytics pode mostrar para o candidato do tipo: “Você ficou menos de 6 meses em seus últimos 2 empregos e isso é negativo para sua candidatura”.