Consertando o People Analytics

Não ouvir todos os clientes e falta de transparência pode ser fatal para o People Analytics

Navegando pelo LinkedIn, quase diariamente observo críticas aos serviços de People Analytics focados em recrutamento, principalmente Gupy e Kenoby. As reclamações são de candidatos frustrados com processos seletivos longos, cheios de testes e sem feedback algum sobre o resultado.

Nas últimas semanas, em face ao aumento dessas reclamações, vejo que as plataformas estão ficando mais ativas em responder às reclamações nas redes sociais, porém na maioria das vezes apontando os clientes como os responsáveis pelas informações, feedbacks e configurações da plataforma.

Em um estudo recente de Harvard + Accenture (leia aqui), vê-se que isso é um problema que afeta trabalhadores em diversos mercados, deixando muitas pessoas em um limbo que não existiria quando os processos seletivos não eram gerenciados por algoritmos e sim por pessoas.

Mas a tecnologia veio para ficar e ajudar recrutadores a processar centenas de aplicações da maneira mais eficiente, selecionando os melhores candidatos para as vagas. Porém acredito que exista uma maneira de realizar essa façanha e ainda dar aos candidatos e candidatas uma experiência muito melhor.

Não existe apenas um cliente

Acreditar que apenas o cliente que paga a sua fatura é o que importa talvez seja o principal erro. Em um projeto de produto ou serviço deve-se envolver todos os tipos de clientes, conhecer suas histórias, seus desafios e a partir daí construir soluções. Vejamos um exemplo:

“Como candidata, gostaria de saber quais os pontos fortes – ou fracos – que me ajudariam a conseguir a vaga” .

Um time de desenvolvimento traduziria isso em um indicador ou insights para a candidata ter ideia de suas chances. Inovador? Nem tanto! O próprio LinkedIn já fornece esse tipo de informação para assinantes premium, do tipo “Você está entre os 25% melhores”.

Transparência

Há regras nas contratações – traduzidas para os algoritmos – que não são explícitas, seja por intenção (design) ou não.

O contratante pode ter uma vaga na cidade do Rio de Janeiro e receber aplicações de pessoas de todo o Brasil. Ele pode não dizer explicitamente que não aceita candidaturas de outras regiões, porém o sistema pode dar preferência aos candidatos geograficamente mais próximos e deixar alguém disposto a se realocar ao Rio de Janeiro no final da fila. Um exemplo que mostra que a máquina simplesmente reflete o que aconteceria numa análise manual.

Algo menos explícito seria preterir uma candidata por ter ficado 2 anos fora do mercado. O sistema não perguntará o motivo para isso – uma gravidez? problemas de saúde? período de estudo ou sabático? – ele simplesmente empurrará para o final da fila.

Essas regras não são transparentes para os candidatos mas são para os desenvolvedores de algoritmos e para os clientes. E qual o problema em dar transparência às regras?

O exemplo da SerasaExperian

Um exemplo interessante é o score de crédito da SerasaExperian. Além de mostrar qual seu score numa escala de 0-1000, ele mostra exatamente o que está levando seus números para cima ou para baixo. Insights do tipo “Você pagou 90% do seu último empréstimo e isso é bom para seu score” mostram o que você está fazendo certo ou não e que podem não ser óbvias para o usuário comum.

Para beneficiar as empresas de crédito (que são os principais clientes da SerasaExperian) eles investiram na experiência do cliente final, dando informação e transparência nas regras.

Quem sabe no futuro uma plataforma de People Analytics pode mostrar para o candidato do tipo: “Você ficou menos de 6 meses em seus últimos 2 empregos e isso é negativo para sua candidatura”.

Entendendo o fracasso dos projetos de Data Analytics

Projetos morrem constantemente pois usuários simplesmente deixam de usá-los. Mas como aumentar o valor evitar que caiam no esquecimento?

O sucesso ou fracasso de um projeto de Analytics – aliás, de quase todos os projetos de tecnologia de produtos ou serviços – baseia-se na adoção do novo produto/serviços pelos clientes.

Sucesso é medido não apenas nas características do produto, e quando se fala da área de Analytics, há cemitérios cheios de dashboards com lindos gráficos interativos e serviços de insights automáticos que não são importantes para ninguém além dos seus criadores.

A adoção do produto de Analytics envolve vários fatores, tanto intrínsecos ao produto quanto extrínsecos. Vejamos alguns:

  • O produto só informa o óbvio: Ter um relatório que apenas mostra quais seus produtos mais vendidos, por exemplo, não será uma novidade para a maioria das pessoas. Seu José da expedição pode facilmente dar essa informação. Um produto de inteligência deve oferecer informações que estão muito além da superfície.
  • Os dados estão errados: Encontrar informações erradas, principalmente nas primeiras interações dos usuários finais com o produto, é o equivalente à um suicídio. Rapidamente cairá em descrédito e a primeira impressão de todos é que o produto não funciona. Analistas devem gastar tempo suficiente em analisar os resultados do modelo e criticá-los. Ter os “advogados do diabo” nessa fase é essencial.
  • Atualizações não são constantes: Assim como erro de dados, usuários que interagem com seu produto ou serviço de dados e enxergam sempre o mesmo resultado em breve vão simplesmente ignorá-lo. Será como um quadro ruim numa parede: depois de um tempo você nem lembra que está lá. Atualizar frequentemente as informações e o próprio modelo estatístico é essencial para que usuários percebam a dinâmica dos negócios.
  • As pessoas não entendem o conteúdo: Entender algoritmos, modelos estatísticos e gráficos complexos são assuntos para os Analistas e Engenheiros do produto. Usuários querem informações simples e mastigadas para que possam interpretar e tomar ações rapidamente. Se é necessário explicar muito ao usuário, então algo está sendo feito errado.
  • O serviço/produto não é importante para o cliente: Projetos já nascem mortos dessa maneira. Não levar em conta as reais necessidades do cliente e o que é valorizado pelos usuários invalida todo o trabalho. Há necessidades explícitas e implícitas das pessoas em um produto ou serviço. Entendê-las e transformá-las em algo útil deve ser a prioridade principal e indiscutível do projeto.

Há formas e metodologias práticas para evitar esses erros no desenvolvimento de produtos e serviços de Analytics. Utilizar as ferramentas de Design Thinking é uma ótima forma de traduzir o que as pessoas querem em algo realmente útil.

Metodologias de Gestão de Mudança também são importantes durante todo o ciclo de um projeto para ter certeza de que as pessoas conhecem, entendem e utilizam o projeto.

E, finalmente, é essencial colher o feedback dos usuários de forma constante e utilizar conceitos de Agilidade e Melhoria Contínua para fazer aperfeiçoamentos constantes no produto, utilizando o erro como uma forma de aprender e ficar mais forte, e não mais próximo da morte.

Comece agora: 10 Temas para Projetos de Melhoria Contínua

Precisando de inspiração para seu projeto? Veja essas dicas

O olhar crítico de Melhoria Contínua, como qualquer outra habilidade, fica cada vez melhor com a prática diária. E essa prática, juntamente com a oportunidade que tive de trafegar em diferentes tipos de indústria e serviços, me fez achar várias semelhanças entre elas.

Você pode mudar de segmento, mas os problemas estarão lá, sejam eles de tecnologia, processos ou pessoas. Às vezes eles estarão evidentes, outra vezes precisam ser procurados com maior cuidado.

Famílias felizes são parecidas; as infelizes são infelizes cada uma de um jeito.

(Anna Karenina)

Para acelerar a sua busca ou abrir novas frentes de trabalho, eu listei aqui 10 áreas que são fontes certeiras de problemas oportunidades de melhoria em virtualmente qualquer empresa. Servem como ponto de partida, e com certeza a cada descoberta virão outras mais para engrossar essa lista.

1. Reclamações de clientes

Melhorar a satisfação e trazer mais valor aos clientes é – ou deveria – ser a meta número 1 de qualquer organização. Verifique como estão os indicadores nessa área, e quais são as áreas críticas. Se não existem indicadores, que tal iniciar uma pesquisa? O NPS (Net Promoter Score) é a metodologia mais utilizada: você recomendaria o produto/serviços da empresa a um amigo/parente?

2. Cadastros e qualidade de informações

A má qualidade de dados afeta silenciosamente muitas empresas e traz prejuízos financeiros, retrabalhos e perdas a clientes, empregados e fornecedores. Imagine todas aquelas entregas que atrasaram pois o CEP estava incorreto, ou ter que pagar impostos pois um ativo da companhia foi cadastrado com um Zero a mais?!

Muitos dos erros acontecem por conta de entradas manuais de dados ou que não estão devidamente padronizadas.

3. (falta de) Integração entre sistemas

Ter sistemas que “conversam” uns com os outros é o sonho de 11 entre 10 administradores. Falta de integração significa que a informação que precisa navegar de um lado para outro de maneira pouco eficiente: manualmente, semi-automaticamente ou com auxílio de uma automação externa (robô). Essa falta de integração custa caro e é responsável por cadastros errados ou desatualizados. A integração por um serviço do tipo API (Application Programming Interface) é o ideal, mas opções de automação com robôs são boas alternativas desde que haja um esforço de padronização antes.

4. Recebimento de informações

Receber dados incorretos ou em um formato ruim para a utilização é o equivalente a receber um produto ruim em uma embalagem terrível para abrir. Um formulário organizado em excel é melhor que um texto livre no corpo de um email. Dados preenchidos em uma página web com validação dos campos (datas em formato correto, listas drop-down, botões de opção, etc.) são melhores ainda. Informação estruturada é melhor de visualizar, trabalhar, automatizar e analisar.

5. Controle de qualidade

Serviços e produtos deveriam passar por algum tipo de verificação antes de serem entregues ao seu cliente. Controle de qualidade, atualmente, existe em diversas maneiras. Não falo aqui de alguém vestido de branco fazendo inspeções (necessariamente), mas sim de etapas durante o processo de realização do produto ou serviço que verifiquem que as características chave para o cliente estão corretas. Esse controle pode ser automático, robotizado, manual, visual, usar um check-list, pode ser por amostragem ou 100%. O importante é que aconteça para garantir que as características mais críticas sejam efetivamente entregues.

6. Gestão de pessoas e equipes

Controles da produtividade e qualidade que está sendo entregue por indivíduos e equipes é o primeiro passo para obter melhoria com esses recursos. Com esses dados na mão – ou na tela – é possível identificar onde estão os pontos críticos e as melhores práticas. Nessa análise é comum verificar falta de um nivelamento adequado de atividades, com indivíduos/equipes sobrecarregados em comparação com outros ociosos. A boa gestão de pessoas deve trabalhar não só no treinamento e coaching daqueles que estão com baixa performance mas também do reconhecimento daqueles que entregam acima da média.

7. treinamento e desenvolvimento

Novos colaboradores, alterações de processo, novos projetos, sistemas novos, máquinas diferentes, novos clientes, falhas e reclamações. Todos esses eventos – e outros mais – são potenciais geradores de problemas e conflitos. Uma boa prática de planejamento e gestão de mudanças deve usar esses itens como gatilhos para treinamento e desenvolvimento de pessoas. Uma boa prática de treinamento deve entregar um bom conteúdo e verificar posteriormente que as pessoas absorveram e aplicam o conhecimento. Como Melhoria Contínua, podemos assegurar que todo esse ciclo existe e é efetivamente aplicado.

8. interrupções e paradas não programads

Uma indústria com manutenção bem planejada é atenta à qualquer parada não programada de suas máquinas, seja por falha, erro de operação, falta de energia ou desgaste. Essa disciplina também deveria acontecer no mundo administrativo, e não só com os sistemas principais mas também com sistemas secundários. Interrupções em comunicação, internet, lentidão de sistemas, falhas de aplicativos, serviços automáticos que não funcionam são exemplos de ralos de eficiência que podem estar passando despercebidos.

9. reuniões e relatórios

Reuniões e relatórios podem – na grande maioria das vezes – ser classificados como atividades que não geram valor, ou seja, o seu cliente não vai pagar mais para você por mais reuniões ou relatórios. Empresas desperdiçam seus recursos ao fazer com que pessoas estejam em reuniões que não precisavam participar, ou que estejam em reuniões mal estruturadas: sem agenda ou objetivo definidos. Relatórios, assim como reuniões, podem ter redundância com outros, ou inúteis – já que sua audiência não dá bola. Reuniões e relatórios devem ser objetivos, sucintos e destinados a quem realmente interessa.

10. pequenas melhorias

É comum que colaboradores de muitas organizações não se sintam ouvidos e consequentemente não são valorizados por sua liderança. Um programa de pequenas melhorias que envolve todos os colaboradores é uma maneira não só de obter eficiência operacional mas também como fator motivador. O kaizen – a melhoria pequena realizada continuamente – é peça fundamental da filosofia de Melhoria Contínua de uma empresa. Esse programa deve não só captar as ideias como também envolver as pessoas na execução. O poder dessa filosofia deve sempre ser considerado em escala e longo prazo. Uma equipe de 100 pessoas pode gerar – por exemplo – 200 ideias em um ano, que serão 1.000 em cinco anos.

para finalizar…

Melhorar continuamente não é apenas uma questão de redução de custo. As áreas de oportunidade acima foram analisadas criticamente sob a filosofia LeanMentalidade Enxuta, que preza pela redução de desperdícios mas também o equilíbrio no uso de recursos, envolvimento das pessoas e adição de valor ao cliente.

Top 5: Melhores de sites de visualização de dados

Para alguém que trabalha dia-a-dia analisando dados e construindo relatórios e dashboards para consumo de diferentes audiências da empresa, é muito fácil cair sempre nas mesmas soluções de visualização de dados, especialmente aquelas fórmulas prontas oferecidas pelos softwares de análise e visualização de dados.

Não que o básico não resolva o problema. Sou devoto de Pareto: um gráfico de barras resolve 80% dos problemas. Além do mais, creio que a maior parte das visualizações ruins que observamos todos os dias na empresa e nas diversas mídias disponíveis são porque não quiseram utilizar uma solução mais simples.

Mas existe o belo, que é aquele trabalho que além de demonstrar a frieza dos números atrai os olhos pela harmonia de cores, formas e composições. A lista de sites abaixo serve não só como fonte de inspiração para melhorar aquelas tarefas regulares mas também costumam ser boas fontes de aprendizado, dando dicas práticas de O QUÊ e COMO fazer.

1. Storytellyng with data

O site storytelling with data é a extensão do livro de mesmo nome, da autora e ex-Google Cole Nussbauer Knaflic. Rico em exemplos e guias práticos para transformar aqueles gráficos básicos de Excel em apresentações muito melhores.

2. FiveThirtyEight

Nate Silver, badalado estatístico das eleições americanas e autor de The Signal and The Noise (O Sinal e o Ruído) criou um blog jornalístico com visualização de dados acima da média. Particularmente adoro a seção de esportes.

3. flowing data

O FlowingData, além de demonstrar muita criatividade com infográficos, ele geralmente compartilha as bases de dados e os códigos (R/Python) para gerar as visualizações. Com uma assinatura premium é possível obter ainda mais guias e tutoriais.

4. the pudding

Mais na linha artística, The Pudding junta jornalismo e artes visuais. Infográficos são muito bem construídos ao redor de dados importantes. A seção How-To – já para experts em visualização de dados – mostra algumas dicas de criação.

5. makeover monday

Trazer desafios semanais entre a comunidade é a proposta do Makeover Monday. Além de trazer informações, publicações e guias para construção de gráficos melhores

O que não fazer

Para finalizar a lista (fora dos TOP 5), VIZ.WFT é um site divertido para observar maus exemplos da utilização de gráficos. Se você faz/fez algo parecido com o que está no site, melhor pensar em aprender mais sobre visualização.

People Analytics: faça você mesmo

Realizar análises sofisticadas sobre sua equipe não requer investimentos significativos em aplicações. Veja como dar os primeiros passos em People Analytics.

Identificar as pessoas com maior desempenho na companhia, buscar o perfil mais adequado à uma vaga entre milhares de candidatos e prever se alguém irá sair da empresa são algumas das informações que sistemas de People Analytics pretendem responder após analisar seus dados de Recursos Humanos.

Como o próprio nome diz, People Analytics refere-se às informações, insights, previsões e análises que são realizadas com dados de pessoas, ou que podem ser desdobrados em um nível individual. O resultado é utilizado tanto para tomada de ações específicas à um indivíduo quanto de equipes ou na definição de políticas internas.

Contratar Pedro, enviar a equipe de Contabilidade para um treinamento, promover Vanessa, mudar Carlos de equipe, alterar o valor do ticket-refeição são alguns exemplos do que um People Analytics pode sugerir para você.

Aplicações como Gupy, Kenoby, Qualtrics – para citar poucas – estão entre as mais conhecidas nesta arena. Mas o propósito desde post é explicar como iniciar com uma análise de People Analytics sem a necessidade de investir muito capital.

Como começar

Um projeto de Analytics inicia com dados. (Se quiser saber mais sobre o ciclo de um projeto veja esse outro post), portanto melhor arregaçar as mangas:

A quantidade e a variedade de dados faz uma diferença significativa, e isso não significa usar apenas dados muito recentes. Na tabela abaixo há exemplos do que pode ser obtido em diferentes áreas.

Fonte dos dadosCategoriaDados
OperaçõesResultados do indivíduoProdutividade, Qualidade, Erros, satisfação de cliente
RHFolha de pagamento e PontoSalário, Grupo Salarial, faltas e ausências
Desempenhoavaliações da chefia, medidas disciplinares, auto-avaliações, avaliação 360°, desligamentos, resultado de entrevista de desligamento
ComportamentalPerfil psicológico e comportamental, testes de aptidão, lógicos, etc.
DemográficosIdade, educação, estado civil, localização geográfica.

O segundo passo é fazer um ‘saneamento’ nos dados e organizá-los para a análise. Isso pode significar eliminar dados não-significativos ou extremos (outliers) e preencher dados faltantes baseado em premissas. Nessa etapa é essencial o envolvimento de alguém com conhecimento da área, para evitar tomar direções erradas.

Organizando para a análise

É nessa etapa que acontece o famoso ‘cruzamento de dados’: juntamos informações de origens diferentes em uma única tabela. Mas para isso acontecer os dados devem estar organizados de maneira individualizada, em uma escala de tempo similar – se aplicável – e as diferentes bases de dados devem possuir uma “chave” para cruzarmos umas com as outras. Esta chave, por exemplo, pode ser a matrícula ou CPF, que são dados únicos por indivíduo.

O resultado é uma grande tabela com todos esses dados juntos, agrupados por indivíduo e por período, que pode parecer com isso.

Esta tabela terá tantas colunas quanto as diferentes variáveis que estiverem disponíveis e o número de linhas será grande: no mínimo o número de pessoas X o número de períodos analisados. Ex.: Uma operação de 50 pessoas analisada durante um ano em períodos mensais terá 50 x 12 = 600 linhas.

Primeiro explorar os dados

Com dados devidamente organizados, pode-se iniciar uma análise exploratória da base. A Análise Exploratória procura mostrar o comportamento das variáveis que coletamos tanto de maneira isolada quanto associada à outras. Informações e insights desta análise são importantes para conhecimento do comportamento dos dados – e também das pessoas e processos – e também para o refinamento da base de dados. Pode-se desconsiderar, por exemplo, uma das variáveis pois ela tem um comportamento errático e não está influenciando nenhuma outra.

Para especialistas: Para um modelamento estatístico, é necessário muitas vezes recorrer à transformações de variáveis para que o algoritmo utilizado tenha melhor desempenho, e a Análise Exploratória é útil para identificar que tipo de transformações são necessárias

Agora o modelamento

O modelo estatístico é, simplificadamente, uma fórmula que foi construída baseada nos dados históricos que construímos. Há diferentes tipos de algoritmos para diferentes aplicações, mas em qualquer uma delas o resultado será tão bom quanto a qualidade dos dados que utilizados.

Há basicamente três tipos de algoritmos que podem ser aplicados à base de dados, e que baseiam-se no tipo de resultado pretendido:

Agrupamento ou Clustering: são algoritmos que irão separar seus dados em ‘famílias’, conforme similaridade entre os dados. Pode-se identificar, por exemplo, o que difere os grupos de pessoas de alto desempenho das demais.

Classificação: Quando é necessário separar ou prever o resultado de uma maneira categórica, geralmente obtendo uma resposta sim/não. Uma aplicação comum é prever se alguém irá deixar/permanecer na companhia.

Algoritmos de Regressão são usados para prever resultados numéricos. Prever qual será a produtividade de um indivíduo no próximo mês pode ser uma das aplicações.

Na tabela abaixo organizo alguns exemplo da aplicação dos algoritmos, conforme a necessidade:

O que descobrirTipo de decisãoAlgoritmos
– Alguém vai sair ou não da empresa
– Pessoa deve ou não ser promovida
– Contratar ou não contratar
Classificação
(Sim/Não)
Regressão logística, Árvores de decisão, Bayes, K-neareast nighbors
– Produtividade no próximo mês
– Quantas ausências terei na equipe
Regressão
(resultado é um número)
Regressão linear
– Comportamento de grupos por similaridade (alta performance, experientes, novatos, etc)Agrupamento
(Famílias)
k-means

Como seguir em frente

Posso fazer isso sem comprar uma solução? Sim, é possível. Contruir um protótipo utilizando uma base de dados de pequeno porte e Excel é uma opção viável. O Excel possui alguns poucos algoritmos de regressão/classificação que podem ser usados para começar.

Porém o Excel fica muito limitado para um desenvolvimento real, pois há limitações de velocidade, ferramentas e integração com outras aplicações.

Para um desenvolvimento completo, com uma base de dados extensa e flexibilidade para usar quaisquer algoritmos, pode-se usar uma construção em R ou Python, que são códigos abertos e possuem bibliotecas extensas para analisar, modelar e visualizar os resultados.

Na prática

Utilizar People Analytics na prática envolve alguns cuidados. Todo resultado proveniente de um modelo é baseado em um histórico passado e todo modelo tem uma margem de erro. Usar um resultado do modelo sem uma avaliação crítica é um risco muito grande.

Uma preocupação evidente é no aspecto ético. As variáveis utilizadas no modelo irão determinar o resultado, portanto selecionar as variáveis corretas passa por uma crítica ética. Para dar um exemplo prático: Mães com filhos pequenos e que moram longe do trabalho podem ter dificuldade em estar presente todos os dias do mês e sem atrasos. Utilizando o estado civil, distância do trabalho e número de filhos de uma funcionária e cruzando isso com outros dados de desempenho, o modelo pode classificá-la como um perfil de alto risco. Sem uma avaliação crítica o time de recrutamento rejeitará esses perfis sem nem se dar conta.

Selecionando a metodologia certa para o projeto

Comparando o ciclo de vida, segundo diferentes metodologias de projeto.

Diversas metodologias podem ser usadas no processo de melhoria, transformação, solução de problemas e inovação. Cada uma possui seu próprio ciclo de vida, mas teriam algo em comum? Ou haveria diferença significativa?

A seleção usualmente é baseada no objetivo do projeto, que pode ser resolver um problema trivial ou a criação de um produto inovador.

Para um mesmo objetivo, mais de uma ferramenta pode ser selecionada (por exemplo: PDCA x A3). Para outras situações, uma metodologia é evidentemente melhor e sem substituto.

Vale lembrar que nem todas são lineares. Muitas delas, como Design Thinking e Analytics envolvem um processo iterativo até chegar no objetivo final.

Compare no infográfico onde está cada uma delas em termos de início, meio e fim.

Você tem um fluxo de caixa dos benefícios do projeto?

Gerenciamento financeiro é parte essencial da administração de um projeto que gera benefícios.

Se ainda não tem, é melhor começar logo. O fluxo de caixa é uma ferramenta essencial desde o planejamento até a conclusão do seu projeto.

Iniciativas de transformação/melhoria contínua são construídos à partir das necessidades da organização, e documentados inicialmente com um business case: um documento que justifica a existência do projeto em termos de alinhamento com a estratégia da companhia, mostra sua estrutura de custos, viabilidade técnica, riscos, impactos e, principalmente, os benefícios gerados.

Eu diria que quase metade do conteúdo de um business case é financeiro, com as informações de investimento necessário, recursos utilizados, linha de base atual, benefícios gerados, savings, custos evitados, e assim por diante. E do ponto de vista financeiro, nada mais lógico e fácil de entendimento que um fluxo de caixa de um projeto.

Um fluxo de caixa mostra periodicamente (seja em semanas, meses ou anos) qual a variação de sua estrutura de receitas e custos ao longo do tempo.

Uma iniciativa que tenha influência no número de unidades vendidas, preço de venda ou criação de novas fontes de receita vai alterar o primeiro grupo de linhas de sua planilha de fluxo de caixa, ou como diriam em inglês, o impacto é em top line.

A estrutura de custos já costuma ser mais longa, porém a maior parte dos projetos de transformação ainda visa a mudança nessa estrutura para obter os benefícios de bottom line, ou seja, de economia de gastos.

Devem ser considerados os investimentos adicionais que o projeto necessita: recursos humanos, investimento em tecnologia, compra de suprimentos, serviços de terceiros, máquinas, equipamentos, e assim por diante. Um projeto bem estruturado deve possuir um cronograma físico-financeiro que mostra quando exatamente será necessário desembolsar um investimento.

Além desses, mas não menos importante, deve ser mostrado mês-a-mês quais as modificações na estrutura de custos atual da área que é impactada pelo projeto. As despesas correntes desta área serão alteradas para cima ou para baixo, já que alguns custos podem aumentar em uma área e reduzir em outra.

Em todos os casos as mudanças são medidas comparativamente com uma linha de base: uma referência de períodos passados para demonstrar que o projeto causa impacto efetivamente. Essa linha de base pode ser apenas uma média de resultados do mês/trimestre anterior, mas para empresas que são submetidas a variações sazonais é importante comparar os mesmos períodos anuais.

Ao estabelecer o fluxo de caixa para um período suficientemente longo que demonstre que os benefícios são consistentes (12 meses, por exemplo), é possível medir o retorno financeiro do projeto por meio da TIR (Taxa Interna de Retorno) ou Payback. Ambas as medidas vão justificar a importância e urgência de seu projeto na fase inicial de viabilidade e depois medir efetivamente o que foi obtido de resultado.

É importante ressaltar que o fluxo de caixa foca mais nas economias concretas (hard savings) obtidas, ou seja, aquelas que geram uma mudança líquida e certa no caixa da companhia. Os soft savings, ou economias mais ‘potenciais’, como reduzir o risco à multas, aumento de capacidade produtiva (sem necessariamente utilizar), não costumam entrar nesse planejamento.

Importante também para o portfolio

Para múltiplos projetos, é possível colocar linha a linha o impacto de cada um, consolidando os benefícios gerados mensalmente. Esse consolidado é um elemento importante do ponto de vista gerencial do PMO de melhoria contínua.

Quando o projeto é grande, sua visibilidade na organização é um tanto óbvia, assim como seus resultados esperados. Controlar os benefícios de um portfolio de projetos de pequena e média escala ajuda a dar visibilidade dos benefícios e da importância do PMO como um todo.

Como estruturar um programa de melhoria contínua em 2021

O que difere um programa de melhoria contínua de 2021 com aquele de 10 ou 20 anos atrás? Será que existe mudança na essência ou apenas na aparência?

Os saltos de tecnologia, especialmente ligados à exploração de big-data, redes sociais, inteligência artificial e comunicação em alta velocidade são as mais óbvias mudanças.

Mas existem outras na essência. Há mais demanda por velocidade e inovação hoje, o que deixou iniciativas como ISO 9000 e Six Sigma em segundo plano, enquanto Lean – também repaginado em metodologia ágil – e design thinking ganharam protagonismo. Na era da velocidade e da inovação é essencial errar logo, aprender e tentar novamente. Done is better than perfect.

A melhoria contínua saiu da responsabilidade de um time de Gestão da Qualidade, para todos os outros setores: Operações, Logística, Produção, Financeiro, Atendimento ao cliente, Vendas, e assim por diante. E hoje as iniciativas de melhoria ou transformação de processos tem uma estrutura descentralizada na execução, mas como um escritório central – chamado de PMO, VMO, Escritório de Processos, Centro de Excelência – que orienta as práticas e gerencia o portfólio de projetos.

Outros aspectos continuam na essência da filosofia: foco na satisfação do cliente, redução de desperdícios e do custo da má-qualidade, olho em indicadores, prevenção acima de correção, combinar melhorias incrementais com saltos de inovação.

Enxergo nesse contexto 6 componentes essenciais nessa estrutura de melhoria contínua de 2021. Podemos chamar também de pilares, mas creio que é outro termo saindo de moda!

A Organização que busca a melhoria contínua possui poucos objetivos, não porque não almeja grandes coisas, mas porque possui um foco centralizado em clientes, acionistas, empregados e na comunidade. Ela é capaz de investir e sacrificar o curto prazo para retornos consistentes no longo prazo. Ela incentiva a inovação e todas as falhas relacionadas ao processo de criação, porém demanda que isso aconteça em ciclos rápidos e a implementação mais rápida ainda. A melhoria contínua é parte dos seus valores. Não tolera falta de ética e atalhos que não sejam compliants.

O estilo de Gestão escolhido pela empresa – não só para a área de melhoria contínua – preza pelo empoderamento das pessoas para resolver os problemas e inovar. As barreiras hierárquicas são quebradas para uma gestão mais ágil de projetos. Equipes (ou squads) multi-funcionais estão executando projetos de uma maneira que silos e estruturas departamentais são facilmente quebradas. Os processos e projetos são realizados com uma visão de ponta-a-ponta, e monitorados com indicadores (OKRs, KPIs, e outros) gerenciados, por sua vez, de maneira pro-ativa.

Pessoas que compõe o time de melhoria contínua são treinadas nas técnicas e habilidades em diferentes níveis. Elas são reconhecidas e incentivadas a melhorar processos e a si mesmas. À medida que crescem na empresa são capazes de resolver problemas mais complexos. Indicadores individuais de desempenho são medidos e informados claramente em todos os níveis.

Processos são estruturados, com início, meio e fim. Enxutos para entregar o máximo de valor com mínimo desperdício, adaptáveis às mudanças necessárias. Controlados por indicadores que estão atrelados ao sucesso do negócio. Propriamente documentados para treinamento, auditoria, segurança de informação e compliance. Atividades repetitivas são automatizadas. Pessoas focam o trabalho em análise, solução de problemas e maximização dos resultados da empresa. Priorizam o resultado do negócio, e não apenas pequenos sucessos isolados.

A organização também deve estar bem munida de Tecnologias para alavancar seu desempenho e competir. Primeiramente deve conhecer quais as ferramentas estão disponíveis e podem ser usadas. Benchmarking dentro e fora de seu campo de atuação deve ser usado para identificar pontos de melhoria. Um roadmap deve ser criado para implementar ou expandir as tecnologias, sem deixar de lado uma análise criteriosa de ROI/business case para os projetos. Fazer parcerias é chave, e isso se aplica até com os competidores. O vocabulário básico de tecnologia inclui Digitalização, ChatBot, Analytics, APIs, IoT, Aplicativos Móveis, OCR, Machine Learning, Visão Computacional, Nuvem.

Técnicas e habilidades são, em parte, dependentes do que foi escolhido entre os demais itens explicados acima. Mas em regra geral a organização, através das pessoas, deve ter a capacidade de analisar e resolver problemas. Ferramentas de conhecimento e aplicação geral como Agile, Lean, Six Sigma, Analytics, Design Thinking, BPM, Gerenciamento de projetos, Kanban e Estatística básica sempre devem estar presentes. E claro, o conhecimento da indústria ou domínio específico que se está inserido é um diferencial importante para extrair o máximo das ferramentas.

Acredito que o nível de maturidade em cada um desses componentes – e não apenas em Tecnologia – deve demonstrar se o programa de melhoria está na velocidade de 2021 ou ainda correndo atrás do futuro.

Transformando perguntas em respostas usando dados

Em um post anterior eu descrevi como é o início do processo de tomada de decisão com dados, e da necessidade de ter dados confiáveis. Se fosse organizar um livro, talvez o artigo abaixo devesse ser um capítulo anterior, pois minha ideia é explicar o fluxo macro do processo de análise de dados.

O propósito da análise de analisar dados é transformar perguntas em respostas. Uma pergunta pode ser desde uma provocação, uma curiosidade científica ou uma necessidade de negócio. A resposta, da mesma maneira, pode variar desde uma declaração curta (mas embasada) até um produto físico ou virtual que responde ao questionamento inicial.

Podemos enxergar o trabalho analítico e de ciência de dados como um ciclo de ações que após algumas iterações nos dará um resultado. A figura abaixo demonstra esse fluxo de trabalho

Começamos, primeiramente, com perguntas do tipo “Por que….?”, “E se….?”, “Como …. ?”, que podem vir tanto de nossa curiosidade como de nossa necessidade. E essas perguntas podem ser vagas ou muito abertas, mas isso não as torna menos importantes.

Como analistas – não no sentido de nome de cargo, mas como indivíduo que irá fazer uma análise – temos que buscar respostas para essas perguntas. E isso pode incluir o detalhamento, refinamento ou releitura completa da pergunta original.

Com uma pergunta na cabeça, vamos à coleta de dados. Coletar dados também pode variar desde o aperto de um botão até um projeto complexo em si. A demanda tão grande por Engenheiros de Dados atualmente é parte desse contexto onde é necessário extrair dados e deixá-los acessíveis para as análises.

Se dados são o novo petróleo, vamos imaginar que primeiramente precisamos extrair o petróleo e refiná-lo para depois vendermos gasolina. Coletar dados, seja com pesquisa de campo, medições, formulários ou extrações de um banco, é dos primeiros e fundamentais passos para uma boa análise.

Mas dados brutos raramente podem ser usando sem um refinamento ou transformação prévia. É necessário organizá-los, filtrá-los, cruzá-los com outros dados, transformá-los para enfim poder utilizá-los.

O resultado desse processo de refinamento é uma base de dados organizada e pronta para a análise. Os dados aqui estão prontos para o que o analista quiser fazer: visualizar, testar hipóteses, criar modelos estatísticos, previsões, etc.

Normalmente você não terá sorte de ter todas as respostas com a base de dados que você montou (ou montaram para você). Você precisará de mais dados – ou talvez menos, transformações diferentes, categorizações diferentes, formatos diferentes. Assim você trabalha para ter uma nova base organizada para reiniciar sua análise.

A interpretação dos resultados é essencial para concluir a análise, ou fazer novas perguntas que reiniciarão o ciclo, até que você esteja satisfeito com os resultados.

Com o resultado completo, é hora de comunicar. Essa etapa, como comentei, também pode variar significativamente de tamanho. Pode ser um relatório ou pode ser um projeto em si, tornando sua análise e seu modelo de machine learning um produto.

Essa estrutura básica é o que forma hoje um ciclo de um projeto de Ciência de Dados, e que permeia tanto a abordagem científica de descoberta e teste de hipóteses quanto a aplicação e comunicação e ação prática que a realidade necessita.

Qual seu pipeline de projetos?

Um gestor de projetos de melhorias não deve só ter um controle dos projetos em andamento, mas também um pipeline razoável com aqueles projetos que entrarão no futuro ou quem sabe sejam apenas desejos.

Quando me refiro a um pipeline eu falo de uma lista de projetos a ser implementada. ( Nota: Pipeline é um termo que ao pé-da-letra significa tubulação – imaginando aqui que você tem um fluxo de entrada e saída – o que no mundo de negócios significa uma lista a ser trabalhada, como clientes, projetos, vendas, etc.)

Esses projetos podem ou não estar aprovados ou bem detalhados em um project charter, mas há detalhes suficientes para saber que eles são promissores.

O motivo de manter um pipeline é que listar projetos potenciais a todo momento é algo inerente ao cargo de um profissional de melhoria.

Seja um projeto que saiu do board da empresa, de uma conversa de corredor ou de uma visita à operação (gemba), as oportunidades devem ser capturadas, estudadas e então implementadas/descartadas. Seja lá que futuro que lhe aguarde.

Ao listar esses projetos você será capaz de saber quais as áreas mais promissoras para melhoria, ou qual merece a maior atenção da diretoria.

Com uma lista compreensiva, projetos são expandidos, fundidos e extrapolados para outras áreas. Caso haja recursos disponíveis que não foram planejados, você terá sempre um projeto na manga para implementar.

Também poderá implementar outras iniciativas de menor custo caso haja corte de orçamento daquele projeto grande que consumiu mais do que deveria.

Um pipeline bem estudado e detalhado pode revelar quanto benefício uma área pode trazer potencialmente. Ex.: “Tenho 100k reais de benefícios com projetos em andamento, mas a área tem potencial para outros 150k em médio prazo”

Há também projetos que à medida que o tempo passa são eliminados dessa lista. Projetos que se tornaram obsoletos ou que já não estão mais nos planos estratégicos da empresa podem ser deixados de lado permanentemente.

Fazer a manutenção dessa lista nos moldes que descrevi é um trabalho muitas vezes ingrato, pois coletar detalhes de um projeto que você não tem certeza que verá a luz do dia pode ser frustrante.

Ao fim do dia cada projeto tem suas chances de sucesso ou fracasso, assim como um investimento no mercado financeiro ou a abertura de um negócio. Ter um portfólio diversificado e bem estudado aumenta muito as chances de sucesso do negócio como um todo, e creio que essa é a visão que o gestor precisa ter, pois não se apega a este ou aquele projeto preferido.