Dados ruins acabam com a produtividade (e a sua empresa provavelmente está lotada deles).
Todo mundo pensava que, com o trabalho remoto e a adoção de tecnologias até então ignoradas, a produtividade (ou eficiência) deveria aumentar. Foi uma esperança generalizada, tendo em vista que a produtividade cresceu, na década de 2010, na metade do ritmo dos anos 2000, de acordo com dados de bancos como JP Morgan e Goldman Sachs.
Essa era a chance de investir em tecnologias inovadoras e modelos de trabalho mais confortáveis, visando melhorar a qualidade de vida e eficiência dos empregados, retornando a ritmos de crescimento de produtividade de décadas passadas.
Por que, então, a produtividade não aumentou? Existem muitas explicações possíveis pra isso. Mas uma que eu, muito pessoalmente, gosto e acredito é a maneira como a gente lida com dados.
Um primeiro ponto que deveria ser positivo mas que vem se provando uma grande barreira é a adoção justamente dessas tecnologias que deveriam facilitar a vida. Isso leva tempo e, até todo mundo dominar o uso delas, a gente ainda vai apanhar muito.
O outro é que todas essas ferramentas são, necessariamente, alimentadas por dados. Com o trabalho assíncrono tomando conta do nosso dia-a-dia, muitas vezes a gente acaba se perdendo nesses dados.
A chave, então, para eliminar esses ruídos e atritos, é entender quais dados são essenciais, quais são bons e quais são ruins e filtrar tudo isso. Pra isso, uma coisa que pode parecer muito básica mas na verdade exige muita experiência precisa acontecer:
Entender o que torna dados bons ou ruins.
Abre aí qualquer planilha em que você esteja trabalhando agora e faz o seguinte exercício: quais dados descritos nela são realmente bons? E quais são ruins? Muita gente, quando confrontada com uma pergunta dessas, demora pra achar uma resposta.
E a resposta é mais simples do que parece: Um dado é bom quando ele serve bem o uso proposto. Se um dado é útil em alguma tomada de decisão, planejamento, análise ou operação, ele é bom. Caso contrário, ele é ruído. Se estiver incompleto então, pior. Um dado importante e incompleto significa que ele deveria estar sendo usado, mas não vai ser.
O problema é que essa resposta simples abre muitos caminhos.
Pense agora num profissional de vendas, que depende diretamente de dados de leads (gerados pelo departamento de marketing). Ele precisa, necessariamente, de dados básicos, porém completos e corretos.
Sem dados de contato como e-mail, por exemplo, ele só tem duas opções: desqualificar o lead (e aí é uma venda potencial perdida, o que é inaceitável que aconteça por falta de dados) ou, no melhor dos cenários, perder muito tempo buscando e corrigindo essas informações.
Você pode substituir vendas, leads e marketing por quaisquer setores que dependem de informações vindas de outro, o resultado vai ser igualmente ruim.
O exemplo acima envolve uma única fonte de dados e um único receptor. A bagunça fica maior quando a gente tem duas fontes e nenhuma delas é de fato confiável na visão do usuário final.
Aqui o exemplo clássico é o setor operacional tentando definir orçamentos com base em dados de vendas e novos clientes adquiridos. São duas opções de fonte: o Financeiro, que só considera um negócio fechado quando entra a primeira mensalidade; ou o setor de Vendas, que considera dados do CRM, em que vendas fechadas são contabilizadas assim que o contrato é assinado.
Isso gera uma discrepância entre os dados que, se tudo der certo, é pequena e pode ser desconsiderada (mas não deveria). Quando a discrepância é grande, no entanto, geralmente sobra pro time operacional fazer um levantamento de tudo e os orçamentos acabam sendo definidos muito mais no feeling.
Se o orçamento for maior do que deveria, dinheiro foi desperdiçado. Se foi menor, oportunidades foram perdidas. De novo, substitua os nomes pelo que você quiser e você vai ver que isso acontece com frequência.
Achou que acabava aí? Não, as coisas podem ficar mais complicadas ainda.
Uma nova camada de erros é adicionada quando quem lida com os dados não é humano. Um algoritmo ou inteligência artificial não consegue ficar dando jeitinho ou maquiando os dados só pra entregar um relatório. O conjunto de dados que você insere precisa ser minimamente preciso e todas as fontes precisam se alinhar. Além disso, todos os inputs precisam ser livres de vieses, o que é especialmente complicado pra gente porque o ser humano tende a procurar padrões em tudo.
Geralmente, tratar e organizar tudo isso tem um custo (tanto de tempo quanto de dinheiro, mesmo) bem alto. Mas o custo de criar tudo isso pra, no fim, descobrir que todo o sistema foi inutilizado por dados ruins, é muito maior.
O custo real de dados ruins (e como mensurar isso)
Agora a gente sabe que dados ruins custam caro. Mas você tem ideia do quão caro? Quando eu comecei a pesquisar sobre como mensurar esses custos, encontrei esse artigo aqui que fala sobre um método chamado, numa tradução relativamente livre, “Avaliação de sexta à tarde”. O autor é conhecido como o ‘Doutor dos dados’, achei importante frisar isso.
O que ele propõe é que, com certa recorrência, o líder de um time se junte com quem mais tem contato com os KPIs e outros dados relevantes e eles façam um levantamento das 100 últimas ‘unidades de trabalho’ do time. Time de vendas? Leads. Time de design industrial? 100 últimos desenhos. E aí o foco é em 10 a 15 elementos ou atributos críticos dessas 100 unidades.
Separando cada unidade em linhas e os atributos em colunas, é hora de marcar, em destaque, os dados incompletos ou faltantes. E é aí que a mágica acontece: uma última coluna, de nome ‘registro perfeito’ deve ser preenchida mostrando quais unidades tinham todos os dados corretos e completos. Depois de preencher, conte quantos registros perfeitos seu time obteve. Isso vai resultar numa pontuação de 0 a 100.
O estudo realizado pelo autor obteve os seguintes resultados:
- Só 8% dos participantes obteve uma pontuação acima de 90.
- A maioria cai no campo entre 40 e 80, com uma mediana de 61.
O que isso significa? Bom, tudo tem um preço.
E, nesse caso, o preço é 10x maior. Em resumo, completar uma unidade de trabalho cujos dados são defeituosos ou incompletos, custa 10 vezes mais do que se todos os dados estivessem perfeitos.
Então, no caso de uma equipe cuja pontuação foi 61, como na mediana do estudo, os custos são quase quadruplicados para completar as mesmas 100 unidades de trabalho que num time com os dados completos.
Como corrigir esses defeitos
Antes de mais nada, deixe bem claro que esses custos são altos e não podem ser tolerados. Fazer esse exercício com recorrência e incentivar os responsáveis pela criação ou obtenção desses dados a melhorá-los deve ser constante.
Se possível, ataque o problema antes mesmo de ele existir. Criar um banco de dados otimizado, eficiente e limpo desde o começo evita dores de cabeça muito maiores no futuro.
Muitas vezes, quem cria os dados não sabe exatamente como eles vão ser usados posteriormente. Como consequência, o usuário final acaba se responsabilizando por tratar todos os dados que chegam até ele, onerando ainda mais o processo. Coloque essas pessoas em contato, para que todos se entendam.
Por fim, trabalhe para acabar com o estigma de que trabalhar com dados é chato. Isso simplesmente não é verdade. Quem trabalha com dados do jeito certo acha maravilhoso saber que está criando algo realmente valioso.
A produtividade não precisa, ou melhor, não pode estagnar. A conexão entre produtividade e qualidade é intrínseca, e dados com ruídos acabam com a produtividade.