7 dicas de ouro sobre Design de indicadores

7 dicas de ouro sobre Design de indicadores

No artigo sobre Indicadores de desempenho: de KPI dashboards a prescrições com IA apresentamos como surgiram os indicadores de desempenho, algumas áreas de aplicação e como a Inteligência Artificial pode ser utilizada na gestão destes. Neste artigo vamos falar um pouco sobre aquela que é considerada por alguns como arte e outros como ciência, o design de indicadores.

Peter Drucker já dizia:

“Se você não pode medir, não pode gerenciar”.

Responder a pergunta sobre o que mensurar é de extrema importância, o seu propósito definirá como conduzir o desenvolvimento do indicador, visto que, tem-se aqueles indicadores que medirão desvios da normalidade do cumprimento de seus objetivos (indicadores de monitoramento) ou se servirão como direcionadores para monitorar previamente se a estratégia adotada será cumprida (indicadores de preditivos).

Responder o quê e como medir são indubitavelmente condições essenciais, porém não são suficientes no design de indicadores. Embora extrair insights gerenciais e gerar vantagens competitivas com data analytics seja atualmente uma necessidade para aqueles que desejam se posicionar no cerne da Indústria 4.0 , muitas vezes é contra produtivo a alta gestão monitorar indicadores de cunho táticos ou operacionais, bem como, é inadequado o acesso a informações sensíveis por toda a organização.

Sendo assim, lembre-se de ter claro quem irá utilizar os indicadores desenvolvidos. Veja em nosso artigo, Aperfeiçoando a segurança pública com Data Analytics, um exemplo da utilização de análise de dados por gestores públicos que atuam nas camadas táticas e estratégicas.

O quê, como e por quê

No design de indicadores, além de responder o quê, como e por quê, é necessário responder onde. Afinal,  com cadeias produtivas cada vez mais dispersas, disseminação da telefonia móvel, popularização de sensores e crescentes aplicações de IoT, tornou-se difícil imaginar alguma informação do dia a dia sem algum componente geográfico.

E isso vai além de responder onde será aplicado o indicador, visto que, podemos mensurar a distribuição geográfica do consumo de determinado conteúdo, mapear deslocamentos de atividades produtivas, comportamento diário de clientes, rastreamento de frotas e locais com sinistros, entre outros. Saiba mais em nosso post sobre geointeligência e inteligência artificial.

Dicas de ouro

Esclarecido as perguntas dos parágrafos anteriores, vamos para o aspecto prático do design de indicadores. Carl Anderson no seu excelente livro Creating a Data-Driven Organization apresenta algumas dicas para o desenvolvimento de métricas, acompanhe a seguir uma compilação das 7 regras de ouro para o design de indicadores:

1) Simplicidade

Indicadores devem ser simples, mas não simplórios. Tenha em mente que um único indicador pode conter múltiplas métricas, portanto, parte de sua simplicidade reside na capacidade de condensar informações.

Sua descrição deve ser simples para evitar confusões na sua explicação e implementação. Além disso, é aconselhável que seja comparável entre equipes e diferentes organizações. Obviamente, quanto mais rebuscada a lógica de negócio que o indicador visa contemplar, mais complexo ele será. Cada caso tem suas particularidades, mas tenha em mente que a boa prática evita métricas desnecessariamente complexas.

2) Padronização

Muitas vezes queremos observar o comportamento de sistemas complexos, isso no entanto, envolve dados das mais variadas fontes, que por sua vez possuem diversas unidades de análise e ordens de grandeza díspares. Uma boa estratégia para contornar situações deste tipo, consiste em padronizar as métricas sempre que possível, além de gerar menos confusão, permite que seus processos sejam comparáveis com o de outras organizações e setores, ou seja, você pode utilizar como estratégia competitiva e ferramenta de benchmark.

Documentar, a centralização das informações sobre os indicadores utilizados permite a transmissão do conhecimento entre os setores da organização, o controle de versões e a replicabilidade do indicador. E caso precise utilizar métricas não padronizadas, a documentação permite explicar os motivos que levaram a utilização do referido indicador.

3) Acuracidade

Métricas devem possuir acuracidade, isto é, seu valor numérico médio deve representar a média dos dados sobre o processo de negócio a ser mensurado. Porém, atenção! No design de indicadores tenha cuidado com vieses nas fontes de dados a serem analisados e na própria métrica desenvolvida.

4) Precisão

Métricas devem ser precisas, isto é, devem retornar valores semelhantes quando aplicadas repetidamente nas mesmas condições. Para controlar a precisão tenha em mente o tamanho da amostra dos dados analisados. Quanto maior a amostra menor o erro padrão, ressalta-se, que esta não é uma relação linear, pois o erro padrão é igual ao desvio padrão dividido pela raiz quadrada do tamanho da amostra. Assim, se você quiser dividir pela metade o erro, precisaria quadruplicar o tamanho dessa mesma amostra.

Resumindo, preze pela acuracidade e precisão de suas métricas e, considere o trade-off custo x benefício de uma amostragem maior. Leia mais em nossos artigos sobre O que é amostragem e técnicas de amostragem de dados.

5) Relativo vs. Absoluto

Decidir pela utilização de métricas relativas ou absolutas é de grande importância e deve ser analisada com carinho, essa decisão pode gerar métricas que apresentem um cenário totalmente diferente da realidade.

Imagine um marketplace que possui uma estrutura de assinatura mensal, e 25% de seus clientes são caracterizados como prime (possuem frete grátis para qualquer valor de compra). Seis meses depois os clientes prime correspondem a apenas 15%, o que aconteceu?! Esses clientes cancelaram sua assinatura? Acontece que, se durante esse período o marketplace teve como objetivo aumentar o número total de clientes e o número de clientes prime permaneceu o mesmo, a proporção de prime será mais baixa. Aliás, é possível que a quantidade de clientes prime tenha aumentado enquanto registra-se uma queda na proporção. Resumindo, lembre-se escolha o indicador para ser absoluto ou relativo para que as mudanças sejam devidamente acompanhadas.

6) Robustez

Defina métricas que sejam estatisticamente robustas, isto é, que sejam insensíveis ao comportamento de valores extremos únicos (confira nosso artigo sobre outliers). Pode-se estimar ou visualizar a robustez de seu indicador por meio da re-amostragem. Pegue um subconjunto dos dados e calcule seu indicador, repita várias vezes (fazendo essa substituição) para registrar os valores da métrica e então desenhe um gráfico dessa distribuição obtida e pergunte-se: os resultados estão variando mais do que o esperado ou desejado?

Essa abordagem é o que chamamos análise exploratória de dados e, consiste na elaboração de histogramas, gráficos de dispersão e outras formas de representação gráfica que auxiliam na interpretação dos dados, e então utilize aqueles para guiar sua escolha por métricas e indicadores robustos.

7) Direto

Procure escolher métricas que medem diretamente o processo que você quer controlar. Isto é, nem sempre é possível medir ou quantificar tudo, e talvez você tenha que escolher variáveis proxy, ou métricas indiretas. Resumindo, sempre que possível instrumentalize seus sistemas e processos para registrar os dados no menor nível possível e tente evitar as variáveis proxy.

Bônus

Não reinvente a roda

Lembre-se que a literatura é farta no que diz respeito a indicadores, você não precisa reinventar a roda na elaboração de métricas para seu processo de negócio, repositórios crowd-sourced como kpilibrary.com não apenas listam inúmeros indicadores como também permitem interação entre usuários e compartilhamento de práticas e resultados.

Fazendo o melhor uso dos seus indicadores

Na Aquarela otimizamos processos e resolvemos problemas complexos. Com nosso produto, metodologia e algoritmos, elevamos os níveis de maturidade de Analytics e a competitividade dos negócios, clique aqui e solicite uma demonstração.

 

Indicadores de desempenho: de KPI dashboards a prescrições com IA

Indicadores de desempenho: de KPI dashboards a prescrições com IA

Um dos pontos mais importantes na gestão de empresas é avaliar se os objetivos estratégicos estão sendo atingidos. Para isso, é fundamental monitorar os indicadores de desempenho.

Com o advento da ciência de dados e do uso de inteligência artificial aplicada aos negócios, é possível obter ganhos disruptivos para a organização, capturando insights e relacionamentos entre os indicadores de uma forma que vai além da capacidade analítica humana. Acompanhe detalhes na sequência do artigo.

O que são indicadores de desempenho (KPI’s)?

Indicadores de desempenho (ou KPI’s, Key Performance Indicators) são métricas que quantificam a execução de ações dentro de uma organização, com o fim de monitorar o andamento da empresa na busca para alcançar seus objetivos estratégicos.

Indicadores de desempenho merecem cuidado em suas definições por parte da empresa. Os indicadores são criados para serem mensurados e monitorados por tempo indeterminado. Por isso, os indicadores geram dados históricos, que representam insumos valiosos em análises de dados. Sendo assim, seguem alguns pontos importantes a serem considerados na definição de indicadores de desempenho:

  • Não ter um número exagerado de indicadores. Focar na definição de indicadores que sejam essenciais.
  • Garantir a padronização na coleta de dados e cálculo dos indicadores, principalmente quando os mesmos indicadores são mensurados em diferentes unidades da empresa, ou por diferentes equipes..
  • Definir regras de negócio e ações a serem tomadas para níveis críticos dos indicadores.
  • Acompanhar se os objetivos estratégicos estão sendo atingidos.
  • Definir indicadores de desempenho para todos os níveis: estratégico, tático e operacional.

Como surgiram os indicadores de desempenho? Dos demonstrativos financeiros aos dashboards de BI.

Os indicadores de desempenho foram surgindo aos poucos na gestão das organizações. Tudo começou na área de gestão financeira, com o fim de facilitar para os gestores a análise de demonstrações contábeis tradicionais, como a DRE e o balanço patrimonial.

A área de Qualidade desempenhou muitos esforços na definição de indicadores, com forte influência do Toyotismo e a Gestão pela Qualidade Total.

Posteriormente, já na década de 1990, surgiu uma metodologia de gestão de empresas chamada de Balanced Scorecard (BSC), cujo foco é a definição de indicadores que vão além da esfera financeira..

O BSC trabalha com a definição de indicadores para as áreas de: finanças, aprendizado, processos internos e cliente. Todos os indicadores, ainda, devem estar alinhados com a visão e estratégia.

Com isso, a quantificação, a necessidade de coletar dados e uso de estatística passou a fazer parte da gestão das empresas. Mais recentemente, com o avanço dos computadores e da internet, surgiram os dashboards de KPI’s, dentro da área de Business Inteligence (BI).

Atualmente são tradicionais os painéis de BI espalhados em televisões e em sistemas online em algumas empresas. A ideia destes KPI dashboards é trazer a ideia das salas de controle de indústrias para acompanhar todas as esferas da organização.

Um dos pontos mais críticos no qual muitas empresas têm se deparado é com uma situação de excesso de gráficos e tabelas com highlights e uma baixa quantidade de insights data driven que de fato irão gerar valor para a empresa.

Áreas de aplicação e exemplos dos indicadores de desempenho

Alguns indicadores de desempenho que são utilizados são tradicionais e podem ser aplicados a praticamente todo tipo de organização. Este é o caso dos indicadores de desempenho financeiros, por exemplo.

Outros indicadores são mais recentes, e surgiram a partir de mudanças na forma como as vendas ocorrem no mercado. Este é o caso do indicador de churn – que mede o percentual de cancelamentos de serviços de assinatura – o que faz todo o sentido em produtos como Netflix ou Spotify, por exemplo.

Sendo assim, veja na sequência um detalhamento maior sobre algumas áreas de aplicação e exemplos dos indicadores de desempenho.

Indicadores de desempenho financeiros

Tradicionais na área financeira, os indicadores de desempenho neste contexto são geralmente fruto de divisões entre variáveis que constam nas demonstrações contábeis, como a DRE (em que o lucro das empresas é apurado) e o balanço patrimonial.

Entre os indicadores de desempenho financeiros estão: ticket médio, margem de contribuição, ponto de equilíbrio, índices de liquidez (geral, corrente, seca), índices de rentabilidade (ROI, ROA, ROE), indicadores de lucratividade (margens de lucro), entre outros.

Indicadores de desempenho na qualidade

A área de Qualidade teve forte impacto no desenvolvimento de uma cultura de gestão por indicadores dentro do campo de administração. Uma das grandes contribuições da área de Qualidade foi o uso de vasto ferramental estatístico para auxiliar a encontrar falhas de qualidade, principalmente em indústrias.

Alguns exemplos de indicadores de desempenho para a qualidade são métricas six-sigma, índices de produtividade e de perdas.

Indicadores de desempenho em marketing

Recentemente, a área de marketing foi completamente “repaginada” pelo marketing digital. Com isso, veio o advento de ferramentas como o Google Analytics e ferramentas para gestão de leads.

São ferramentas utilizadas para monitorar websites, criando metas de conversões (quando um internauta clica em um link desejado, por exemplo) e painéis de gerenciamento. Como os negócios hoje são cada vez mais digitais, esse tipo de ferramenta faz cada vez mais sentido.

Um exemplo de indicador de desempenho de marketing é a taxa de churn, que indica o percentual de clientes que cancelam serviços de assinaturas em um determinado período. Taxa de conversão e custo por lead são outros indicadores muito utilizados também.

Indicadores de desempenho de recursos humanos

Indicadores de desempenho na área de RH abriram caminho para a área chamada de People Analytics, ou HR Analytics. Entre os indicadores mais trabalhados estão: turnover (giro de colaboradores), clima organizacional, absenteísmo e avaliações de desempenho.

Indicadores de desempenho logísticos

A área de logística é muita rica quando o assunto é mensurar. Percentual de falhas em entregas, percentual de entregas efetuadas com atraso e nível de estoque são apenas alguns dos indicadores..

O problema dos KPI dashboards

Um dos principais problemas pelo qual os analistas de inteligência de negócio (BI) têm passado é: como obter insights a partir dos dados que realmente irão gerar valor de negócio?

Neste contexto que vivemos, em que é dito que o dado é o novo petróleo, temos uma enxurrada de dados vindos de diversas fontes e em diversos formatos (CSV, Excel, SQL, TXT, entre outros). O grande desafio hoje não está mais em mostrar dashboards elegantes e com gráficos chamativos, mas sim em gerar insights relevantes que irão conduzir decisões data driven.

KPI dashboards muitas vezes mostram muitos dados e gráficos, confundindo o processo de tomada de decisão, que é cada vez mais rápido dentro das empresas e também no serviço público.

Em nossos carros, por exemplo, temos apenas um dashboard (painel) com informações essenciais para nossa condução segura no trânsito. Imagine, que o carro tivesse 10 painéis (dashboards), isso tornaria a direção quase impossível.

Da mesma forma, dentro das organizações, é de suma importância manter as coisas simples, para uma operação lean e focada, então, nesses casos a qualidade deve vir antes da quantidade.

Onde entra a IA (Inteligência Artificial) na gestão por indicadores?

É o uso da inteligência artificial que facilita a extração de insights relevantes da grande quantidade de dados e de indicadores de desempenho que existem nas empresas.

Quando um KPI chega a um valor crítico, pode ser que seria possível ter previsto anteriormente a movimentação no indicador. Isso ocorre pelas relações multidimensionais entre os dados. Ou seja, o movimento de um KPI pode estar relacionado à variações conjuntas em outros indicadores. Este tipo de situação dificilmente seria possível de ser percebida sem o uso de algoritmos de machine learning (aprendizado de máquina)

Sendo assim, a inteligência artificial auxilia em diversos aspectos na gestão de indicadores, entre os quais estão:

  • na predição dos KPI’s futuros, baseado no histórico e no conjunto de características do momento atual;
  • na identificação das causas de alta ou queda dos indicadores de desempenho;
  • em modelos prescritivos, os quais irão, por exemplo, identificar pontos críticos em indicadores e recomendar ações para corrigir alguns pontos, tudo recomendado com IA.

Uso de Inteligência Artificial pode melhorar muito as decisões de gestão nas empresas. Veja aqui as áreas já abordadas em projetos pela Aquarela.

Considerações finais: o futuro dos indicadores de desempenho

Acompanhar indicadores de desempenho se tornou parte do dia a dia das empresas, em todos os setores. Além disso, a quantidade de dados gerados pelas organizações é cada vez maior. Sendo assim, muitas empresas se encontram em meio a dashboards com uma série de indicadores, tabelas e gráficos. No entanto, a questão chave para o futuro dos indicadores de desempenho é “como gerar valor para o negócio?”. Neste sentido, a inteligência artificial aplicadas aos negócios rompe os paradigmas já existentes em termos de análise de dados e coloca as organizações que a utilizam no cerne da transformação digital e da indústria 4.0.

7 Dicas de governança de processos e projetos de Data Analytics

7 Dicas de governança de processos e projetos de Data Analytics

A área de ciência de dados está em franca expansão, graças ao grande potencial de otimização de processos que geram tanto economia de recursos (fazer mais com menos) como ampliação de vendas e recuperação de mercado (vender mais e melhor). Em outras palavras:

“Novos (grandes) poderes geram novas (e grandes) responsabilidades”.

Assim, neste artigo, apresentamos o DCIM Commandments (Conheça a DCIM), um compilado com as melhores práticas (criadas e utilizadas por nossa equipe) para manipulação, tratamento e governança de dados e projetos analytics. Acreditamos com grande convicção que alguns pontos deste compilado podem ser úteis ao amadurecimento da cultura de dados do ecossistema brasileiro (empresarial ou não).

Mantenha os dados seguros

Normalmente (e infelizmente), a segurança dos dados é um dos últimos tópicos a serem discutidos, nós acreditamos e praticamos o contrário disso. Afinal, se os dados são o petróleo da próxima década, quem em sã consciência  deixaria isso vazar?

Com isso em mente, trabalhamos alguns anos desenhando arquiteturas apropriadas para a recepção, processamento e distribuição segura de dados, aliadas a normas internas de conduta que visam garantir a segregação e proteção dos dados internos e dos clientes. Alguns exemplos básicos de regras que utilizamos:

  • Autenticidade: Cada usuário tem seu próprio acesso e cada acesso um conjunto de logs.
  • Confidencialidade: partimos do princípio que toda informação dos clientes é confidencial. Neste sentido todos os acessos aos dados internos são bloqueados, e somente é liberado acesso para aqueles que realmente necessitem.  
  • Dados de clientes nunca entram em pendrives. Somente em discos criptografados.
  • Cada cliente tem seu próprio servidor e bucket de armazenamento, de forma que os dados ficam totalmente isolados uns dos outros.
  • Regras e gestão de senha robustas.
  • Padronização de sistemas. Utilizamos principalmente sistemas operacionais Linux e MacOs, embora vários clientes usem Windows.
  • Redes Virtuais Privadas – VPNs – essas redes são utilizadas para garantir a separação do tráfego de dados na internet e dos serviços em operação.

Resolva um problema real

Ciência de dados abre um potencial enorme de possibilidades, e isso gera grande pressão (inclusive psicológica) por resultados. Um dos principais problemas enfrentados nessa situação é conseguir definir qual resultado que se quer primeiro, e quais os passos a serem tomados. O processo é em essência não linear, então se torna fácil divagar o pensamento em coisas que às vezes parecem razoáveis.

Nesse sentido, recomendados um trabalho de desenvolvimento de comunicação entre os times, com técnicas de design thinking contínuas, voltadas ao estudo dos dados e definição do problema. Em alguns casos é um processo de muita ajuda psicológica mútua. Contudo, por via de regra, os problemas reais devem vir do gestor de negócios, e este deve ser traduzido para sistemas de análise e não ao contrário.

Com tantas ferramentas de analytics surgindo no mercado, é fácil se apaixonar por uma solução e ficar sem apetite no almoço e/ou acordado a noite pensando nos gráficos que piscam, quem nunca né? (brincadeira). O fato é que quando soluções técnicas se tornam mais importantes do que o negócio o rabo começa a abanar o cachorro. Parece brincadeira, mas isso acontece muito nos meios técnicos, gerando um impacto pesado na eficiência das empresas e até na moral dos times. Portanto, mantenha o responsável pelo processo de negócio em todas as reuniões, ele vai ajudar a apagar problemas virtuais que sempre surgem (daria um artigo só falando sobre as classes de problemas não reais gerados pela tecnologia).

Priorise Qualidade à velocidade

Entusiastas de tecnologia (aqueles 2% da população chamados de early adopters) são fascinados por novidades, principalmente quando são rápidas e práticas, mas falando de negócios e da responsabilidade sobre processos com impactos financeiros severos, a orientação deve ser outra.

um modelo de inteligência artificial rápido mas que acerta pouco não pode ser considerado. O foco deve ser a qualidade primeiro depois a velocidade.

A mensuração dos resultados deve ser feita constantemente, tanto internamente (com os dados e métodos internos) como também no cliente (com métodos próprios do próprio cliente). Em outras palavras, todos devem estar vendo o resultado no seu idioma próprio. O desafio no entanto é a grande variação dos testes e necessidade de criação de testes para cada tipo de processo que se utiliza machine learning.

Mindset lean (startup)

Quando se fala de termos como BigData e grandes bases de dados, nossa intuição nos leva a buscar soluções para tratar o máximo de dados, certo? Porém o que temos visto é que o desafio mais constante é ao contrário, chegar no menor conjunto de dados capaz de:

  • Gerar a maior quantidade de conhecimento
  • Atingir o maior impacto de negócios no menor espaço de tempo
  • Preservar a saúde mental de todos os envolvidos (é sério).

O acoplamento leve refere-se a não integração imediata dos protótipos nos sistemas tradicionais (sistemas que já estão em operação), ou seja, sistemas analíticos precisam ser validados isoladamente antes de passar pelos processos de integração.

“O homem que insiste em ver com a mais perfeita clareza antes de decidir, jamais decide. Henri Frédéric Amiel – (1821-1881)”

Por isso, a ideia de rápidas prototipações é trabalhar com dados analíticos em paralelo até validar os modelos de IA, e aí então pensar em questões de integração e desempenho. Vale notar que alguns processos de integração de sistemas podem ser mais custosos do que vários processos de analytics. Nesse caminho sempre é bom lembrar da importância da separação conceitual entre sistemas transacionais e analíticos, já escrevemos sobre isso aqui.

Além do conceito do projeto em si a ser validado pelos times de concepção de analytics, há também o encaixe do modelo criado no roadmap tecnológico da organização que, em 100%, do casos, demanda consultas aos especialistas dos sistemas transacionais.

Zelar pelos metadados

Os dicionários de dados são a base da formação da cultura de dados. E por isso, processos de manutenção constante desses dicionários são importantes, apesar da burocracia que isso possa gerar em cada contexto.  

Anteriormente já escrevemos um artigo com exemplos de dicionários de analytics(O que são dicionários de dados para analytics?), no entanto, aqui vai um resuminho da sua função, que é responder algumas destas perguntas:

  • Quais dados estão disponíveis?
  • O que os dados disponíveis representam?
  • Quais as escalas de mensuração de cada variável?
  • Quem são os responsáveis por cada base e seus respectivos dicionários?
  • Como os dados estão integrados?
  • Há oportunidades de negócio associadas às variáveis?

Planeje a continuidade

Descobri muita coisas legais, mas será que daqui 6 meses elas ainda são válidas? O que mudou de lá pra cá?

As primeiras análises a serem feitas nos dados são chamadas de exploratórias, algo que seria similar a primeira entrada em uma floresta. Neste processo grandes descobertas de vários tipos de riscos e oportunidade são geradas.

O planejamento deve ter a análise exploratória bem mapeada, para poder estruturar as análises que terão o perfil recorrente nos negócios.

“Analytics só gera resultado real quando mudanças (melhorias) nos processos de negócios são executadas na prática”. Por exemplo; não adianta saber que as crianças tendem a faltar menos nos agendamentos médicos se não for feita uma política ou  sistema que ajuda este perfil a ser alocado nos dias com maior incidência de faltas de outros perfis.

Esse viés da execução de processos inteligentes, seja ele um sistema para ações preventivas, preditivas e prescritivas, deve estar sempre presente nas discussões, desenhos de telas, prototipações e na implantação efetiva do sistema, de modo que não seja apenas um painel de monitoramento (Quais as diferenças entre painéis de monitoramento e sistemas inteligentes?)

Mantenha as coisas simples

O excesso de informação gerado por bancos de dados gera o que chamamos de “parálise”: paralisia por excesso de análise. Portanto a grande sofisticação está em simplificar, inclusive a principal ajuda dos algoritmos de mineração é justamente deixar para o computador essa tarefa. Se um modelo não simplifica uma decisão de “Sim” ou “Não”, qual é sua utilidade?

Se o projeto não puder ser explicado em poucas palavras e telas, pode haver algum erro conceitual grave, gerado lá atrás no processo de concepção das análises, momento em que os gestores e técnicos desenham juntos a solução.

De modo geral, pelo menos na nossa visão, se o sistema está bem aderente a necessidade de informação do cliente, as respostas da inteligência artificial estão sendo assertivas e o próprio usuário gosta de apresentar os resultados reais gerados, então temos um caso de sucesso!

Conclusões

Apesar dos bilhões gastos em BI, os dados ainda permanecem inacessíveis para a grande maioria dos usuários de negócios que estão clamando para tomar decisões realmente baseadas em dados. Aqui apresentamos sete pontos (quase mandamentos) relevantes em nossa experiência com dezenas de projetos de análise, sugerindo uma oportunidade para implantação de melhoria dos níveis de maturidade de Data Analytics das organizações que nos seguem. Também, não foi objetivo citar tecnologias específicas para cada caso, mas mostrar pontos de atenção para mitigar possíveis riscos gerenciais inerentes às complexidades de projetos da Data Analytics.

 

Aperfeiçoando a segurança pública com Data Analytics

Aperfeiçoando a segurança pública com Data Analytics

Neste artigo apresentaremos o Case da Secretaria de Segurança Pública de Santa Catarina (SSP), organização que impacta direta/indiretamente a vida de 6.7 milhões de pessoas e que busca ser referência nacional/internacional na gestão da segurança apoiada por dados e inteligência artificial. O estudo de caso mostra como tem sido a caminhada da SSP nos níveis de cultura de Data Analytics do nível 2 para o nível 3, apresentando insights relevantes às organizações de porte similar que buscam estruturar seus processos de analytics com menor risco no menor tempo, alavancando oportunidades com uso de Inteligência Artificial.

Primeiros desafios

Compartilhar e interpretar informações são aspectos essenciais para uma gestão pública transparente e eficaz. Organizações públicas e/ou privadas têm sido tradicionalmente compartimentadas e um dos desafios mais básicos é, portanto, o de conectar os “silos”. Silo nesse contexto refere-se a informações autocontidas com pouca ou nenhuma comunicação entre unidades da organização. No contexto da SSP uma tarefa que se repete em grande parte do trabalho dos gestores de área, além de conectar silos, é amenizar problemas de diversas naturezas. Pode ser a falta de comunicação entre os setores e membros da equipe, pouco tempo para pensar estrategicamente, má distribuição de informações ou baixa agilidade das tarefas rotineiras.

O início do relacionamento entre as organizações se deu no ano de 2017 nos cursos de introdução à cultura de Data Analytics da Aquarela e também nas diversas interações ocorridas no ecossistema de inovação de Florianópolis .

A implantação do projeto trouxe um grande desafio: para que se tenha uma ferramenta ideal de apoio à decisão, precisamos que todos os dados estejam integrados e atualizados.

Na época a secretaria já contava com diversas coletas de dados e já alguns casos pontuais de sucesso com a implementação de BI. O nível 2 de maturidade de Data Analytics se refere a uma situação onde vários dados já eram coletados de alguma forma, porém desacoplados de arquitetura voltada para Data Analytics. Em uma analogia é como se os materiais da casa estivessem todos no terreno, mas a casa em si não estava pronta para morar.

Esta falta de arquitetura de análise gerou grandes dificuldades de garimpar dados dentro da SSP. Por exemplo, alguém pergunta sobre um dado e ninguém sabe quem é a pessoa certa que detém a informação confiável e precisa. Quando isso acontece, além de tempo perdido, gera stress nas equipes.

Um problema era o alinhamento entre os órgãos, pois muitos setores não conheciam informações a respeito dos outros, mesmo que trabalhassem juntos em algumas ações. O projeto Analytics chegou com o intuito de concentrar e compartilhar essas informações. Outra questão importante a ser resolvida foi a tempestividade. Muitos dados estavam desestruturados, o que gerava grande esforço para compilação e uso pelos gestores.  Era necessário que todos dados (ou a maior parte deles) estivessem integrados e atualizados.

Armazenar informações é fácil, mas dar um sentido a isso é difícil. Isto é especialmente desafiador quando você é impedido devido aos limites tecnológicos, que era a realidade da instituição. Informações e conhecimentos são livres, porém os insights eram raros e de difícil comprovação

Atividades do projeto

Diferentemente da gestão tradicional de projetos que se apresentam bastante determinísticos, os projetos de Data Analytics, por outro lado, desafiam os gestores por demandar uma orquestração de ações extremamente específicas para cada caso.

Ao longo do período do projeto, foram necessárias diversas interações internas e externas dos times da SSP até se chegar a conformação da versão 1.0 do escritório de análise. Abaixo listamos algumas das principais atividades :

  • Definição dos papéis de Data Analytics para os níveis de gestão do projeto, gestão de processo, segurança e integração de dados;
  • modelagem de dicionários de dados integrados (O que são dicionários de data analytics?);
  • aquisição das licenças da ferramenta de BI – Qlik sense. A SSP encontrou solução para lidar com esses problemas a partir da adoção de uma única ferramenta tecnológica de Business Intelligence (BI), denominada projeto Analytics;
  • geração de rápidas prototipações vinculadas às áreas da SSP sempre em conformidade com os 3 requisitos básicos de análise (objetivo de negócio, dados disponíveis e processos administrativos);
  • definição da arquitetura de análise com a quebra dos processos por áreas de atuação e segmentação da segurança dos acessos;
  • integração de dados e testes em grande escala;
  • criação da marca do escritório de dados chamado Analytics;
  • parceria com o HUBSSP – o primeiro laboratório de inovação em Segurança Pública do Brasil;
  • pactuar fluxos de informações mais efetivos junto aos órgãos e trabalhamos para garantir que a versão mais atualizada dos dados esteja sempre disponível;

Resultados e situação atual

O Projeto Analytics vem conectando a SSPSC desde a raiz até o topo da árvore e tem sido um absoluto agente de mudança na instituição, transformando a cultura organizacional e aumentando a eficiência da gestão pública. Hoje esse ambiente analítico conta com cento e cinco logins alocados para gestores de todos os órgãos que fazem parte da estrutura da Segurança Pública catarinense:

  • PMSC
  • PCSC
  • IGP
  • CBMSC
  • DETRAN

O ambiente é acessado por gestores de áreas administrativas e operacionais, tanto os que atuam na camada tática quanto estratégica das instituições, numa visão de uso horizontal da plataforma. Assim, o Analytics conseguiu otimizar a circulação das informações entre os setores, pois qualquer servidor pode ser capacitado para consultar informações disponíveis na plataforma e assim pensar estrategicamente. Desde a implantação do projeto,  o acesso à informações, além de ficar ao alcance de todos os públicos com poucos cliques, contempla gráficos que promovem melhor visibilidade e clareza durante a interpretação dos relatórios.

A nova estrutura possibilita, ainda, economia de tempo com a apuração dos dados, reduzindo atrasos nas análises de rotina, pois é muito mais fácil acompanhar os indicadores chave regularmente. Gestão de Contratos (vigência, orçamentos), RH (lotação dos servidores por órgão, faixa etária, grau de instrução), Gestão da Frota (características da frota por modelo, quilometragem rodada, infrações por veículo), Patrimônio (aquisição de bens materiais/móveis por tipo, período, por região) e Operacional (atendimentos policiais por tipo e região em um determinado período), são exemplos de painéis de análises disponíveis na solução.

Com o uso do BI na SSP, qualquer gestor pode consultar um dado. Esses são alguns dos problemas e soluções que o uso do Analytics vem resolvendo e consequentemente vem abrindo caminho para a aplicação de IA nos dados já estruturados (isso abordaremos em outro artigo). Contudo, sabemos da importância em se manter a governança e auditoria desse ambiente para estarmos seguros de que os relatórios estarão disponíveis apenas àqueles que foram designados. Logo, o compartilhamento de informações é propagado de maneira orquestrada e organizada, com total governança e gerenciamento desempenhados pela Coordenadoria de Gestão do Conhecimento da Divisão de Tecnologia da Informação e Comunicação da SSP.

Dashboard de gestão das câmeras: programa de videomonitoramento Bem Te Vi.

 

Visualização integrada dos chamados 193 cobrindo todos os municípios do estado.

Visualização integrada dos chamados 193 cobrindo todos os municípios do estado.

A estratégia adotada para o caso é a gestão centralizada de conteúdo dos dados. Assim, quando um indicador é criado ele pode ser utilizado por qualquer pessoa que tenha acesso ao ambiente analítico, minimizando erros de conceito e fazendo com que todos utilizem a mesma visualização e enxerguem os mesmos números. A área de TI passou a desempenhar um papel de gestora desse “barramento de dados”, possibilitando o uso e reuso das aplicações analíticas, garantindo uma visão integrada  das informações e a governança do projeto.

O aumento do nível de maturidade no tratamento e manipulação de informações usadas no processo decisório e na gestão do negócio fez com que falar em dados passasse a fazer parte do dia a dia dos gestores públicos e isso vem melhorando a cada dia. Além disso, houve início do processo de democratização de acesso aos dados. Através da parceria com o HUBSSP, o time do projeto Analytics realiza seminários sobre temáticas de “Dados & Tecnologia”, com o objetivo de falar em dados. A partir dessa iniciativa começou efetivamente a execução do plano de mudança para elevar a maturidade organizacional em Data Analytics. Esse processo de alfabetização em dados é fundamental pois faz com que os gestores desmistifiquem o uso de ferramentas de BI, estabelecendo uma cultura organizacional pautada em análise de dados.

Falar sobre Data Analytics em órgãos públicos é uma disrupção, afinal ainda é uma temática pouco explorada apesar da necessidade diante do indiscutível e acelerado processo de digitalização das organizações. É preciso modificar ideias e pensamentos, romper paradigmas e atuar fortemente na mudança da cultura corporativa, sendo imprescindível ampliar essa discussão dentro do cenário corporativo governamental.

O Analytics SSP permitiu uma visão panorâmica como um raio-x institucional, o que resultou em ações que agregam diretamente para toda população. A solução beneficia diversos níveis gerenciais das instituições: quando é preciso tomar alguma decisão o acesso é fácil pois informações de todos os órgãos da SSP encontram-se reunidas em um só local, de forma rápida e ágil. Com essa aplicação, não é preciso garimpar dados, o que diminui o tempo de análise e tomada de decisão.

O grande objetivo é transformar a SSP numa organização orientada por dados. O próximo desafio é ampliar o debate institucional na temática de dados abertos e uso de técnicas de Inteligência Artificial e caminhar para o nível 4 de maturidade de Data Analytics. Buscar parcerias e aprendizados tanto com a academia como com o mercado privado é um caminho que a SSP tem adotado. A Aquarela acompanha e tem apoiado essa jornada da SSP no mundo da análise de dados desde o início. Contribuiu ainda com o material digital publicado no blog, como infográficos e e-books, que serviram de base teórica e metodológica para delinear estratégias de implantação e desenvolvimento de Data Analytics na SSP.  

Referências

Case do Analytics na revista Touch (pg. 46)

Inteligência Artificial aplicada ao casamento: até que os dados não nos separem!

Inteligência Artificial aplicada ao casamento: até que os dados não nos separem!

Há quase um ano atrás tivemos o primeiro casamento de um colaborador da Aquarela, nosso CTO Joni Hoppen trocou alianças no dia 25 de novembro de 2017, e como bom cientista de dados que é, não pode deixar sua profissão de fora! Neste artigo, Joni conta como utilizou Advanced Analytics e Inteligência Artificial para encontrar padrões nas mais de 80 mil mensagens trocadas pelo whatsapp entre ele e sua esposa ao longo de 32 meses.

Esperamos que gostem e que se sintam incentivados a casar, ou pelo menos conhecer mais um pouco sobre Advanced Analytics e como isso já está mudando a forma que vivemos, boa leitura!

O casamento

A cerimônia aconteceu no dia 25 de novembro de 2017 em Santa Catarina. Nos conhecemos no famoso “bloco dos sujos” do carnaval de Florianópolis no dia 14 de fevereiro de 2015. Na ocasião eu estava vestido a caráter, ou seja, de mulher (como manda a tradição desse bloco de carnaval) e ela de pirata (mal sabia eu que ela iria roubar meu coração).

Durante 2 anos e 8 meses foram trocadas mais de 85 mil mensagens,até eu me surpreendi, sério! Após o processo de limpeza de dados para conformação Dataset de análise (O que são datasets e como utilizá-los?) sobraram 78550 mensagens válidas, que são mais ou menos como os votos válidos das eleições que excluem brancos, nulos e justificativas. Destas mensagens, foram excluídas todos os emojis. Por falar em emojis, eles dariam certamente uma análise por si só, já que hoje já é até possível fazer buscas no youtube a partir de emojis no celular (experimenta lá e sinta-se um porta-voz egípcio). 

Além das mensagens, houve também um total de 2.324 itens compartilhados, sendo:

  • Fotos – 807
  • Vídeos – 86
  • Áudios – 1431

Que resultam em 723 Megabytes de história.

Apresentação surpresa das análises :)

Apresentação surpresa das análises 🙂

 

Um dia depois do primeiro encontro começamos a trocar mensagens pelo Whatsapp começando por esta:

A primeira mensagem:

15/02/15 08:08:19: Joni: Oi Nubi
15/02/15 08:08:30: Joni: Bom dia

A resposta só veio perto do meio dia:

15/02/15 11:58:29: Nubia : Bom dia!! :).
15/02/15 12:00:26: Joni: Oi bom dia dois minutos antes do meio dia tá valendo.
15/02/15 12:09:26: Nubia: Kkkkk mas eu acordei faz tempo.

Bom, isso foi só o começo, o que escrevo no artigo foram um parte da apresentação dos votos de casamento (foi surpresa para todos), além do objetivo de conquistar o “Sim” da noivíssima, também poderia de alguma forma explicar para as duas famílias o que eu faço na minha vida profissional. Quem é analista sabe como é difícil explicar que o que se faz nessa área é abstrato. Pelas pesquisas, acredito que este trabalho tenha sido uma iniciativa pioneira no mundo. se alguém encontrar algo semelhante, nos avise, somos curiosos!

Análise exploratória

Como alguns já sabem, ninguém chega a receber apoio da Inteligência Artificial se não começar pelas análises estatísticas básicas de exploração dos dados. Assim, com tantas mensagens, o que poderia ser extraído de interessante?

Os metadados são informações que ajudam a explicar a natureza dos dados. Apenas como exemplo, a resolução de uma foto é o metadado da foto. Neste caso estamos falando de mais informações sobre os textos e aqui vão mais alguns números.

Qual comprimento médio das mensagens?


Considerando a contagem de cada dígito das mensagens, chegamos a uma média de 19 letras por mensagem trocada. Porém, essa informação não traz algo muito relevante. Assim, montei um gráfico com a contagem de mensagens em relação com a contagem das letras.

No gráfico abaixo vemos que a Nubia tende a escrever mais mensagens curtas de até 4 letras, ao passo que as minhas mensagens são mais longas (acima de 6 letras). Olhando os dados, alguém pode dizer que ela é mais direta e eu prolixo, será? Ainda, verifica-se uma tendência clara e esperada da correlação entre o tamanho das mensagem e a quantidade delas, ou seja, quanto maior o texto, menos mensagens ocorriam e assim por exemplo, pouquíssimas mensagens ultrapassaram 60 caracteres. Contudo, o que chama a atenção neste gráfico é o surgimento de um padrão nas mensagens de 40 letras que são muito mais frequentes do que na série. O que será que foi escrito com 40 caracteres?

Quantidade de mensagens por quantidade de letras

Quantidade de mensagens por quantidade de letras

Verificando o histórico e filtrando somente mensagens com 40 letras, descobri que o Whatsapp gera um texto no envio de mídias, fotos, vídeos e etc. Esses comportamentos geram pistas para que os algoritmos de Machine Learning consigam descobrir o padrão de comportamento de envios de mídia.

Metadados das mídias

Metadados das mídias

Quantas mensagens são trocadas por mês em média?

Até aquele momento, havia uma média de 88 mensagens por dia, que somando geram 613 por semana e uma média de 2450 mensagens por mês. O total acumulado dos 32 meses de análise foi de 78550 mensagens.  No gráfico de densidade abaixo é possível ver alguns padrões interessantes, como por exemplo, no início eu mandava consistentemente mais mensagens do que ela proporcionalmente. Já a partir do fim de 2015 ela virou o jogo.

Densidade das mensagens

Densidade das mensagens

 

Uma das coisas mais legais de se trabalhar com analytics é conseguir reconstruir a história a partir dos dados. Nesse caso, ficou bem evidente no gráfico uma situação na qual fomos assaltados e um dos celulares foi levado, fato que impactou diretamente no volume de mensagens trocadas em outubro de 2016. Felizmente não foi nada mais sério além dos bens materiais, e assim que substituímos pelo novo aparelho, a quantidade de mensagens voltou aos patamares anteriores. De agosto de 2017 em diante o número de mensagens foi baixando, explicado principalmente pela quantidade de trabalho envolvido nos preparativos do casamento.

Dados absolutos das mensagens

De forma sumarizada, a tabela traz a contagem de mensagens do casal e a soma, sendo classificadas por mensagens afirmativas e sem risos, seguida por afirmativas com risos. Para responder às seguintes questões:

  • Quem escreve mais?
  • Quem faz mais perguntas?
  • Quem dá mais mais risadas?
  • Qual o tipo de mensagem menos comum para cada autor?
Contagem de mensagens

Contagem de mensagens

 

Nota-se claramente que escrevi alguma pergunta contendo risos apenas 36 vezes. Que cara sério! Bom, se vocês estão conseguindo entender a análise, parabéns e bem-vindos ao mundo dos analistas de dados!

Somando as mensagem com risos em afirmações e perguntas, Eu ri 5103 vezes contra 5016 mensagens da Nubia. Achei bem equilibrado até, ainda bem :). Este poderia ser um bom indicador de equilíbrio entre casais. Se alguém ri muito mais do que o outro pode haver algo de errado ou seria certo.

Dados relativos Joni vs Nubia

Os valores absolutos apresentados acima são úteis para diversas perguntas, porém em muitos casos fica um pouco mais difícil responder comportamento em uma análise comparativa entre os autores. Por exemplo: Entre Joni e Núbia quem faz mais perguntas?

Para uma melhor compreensão deste tipo de pergunta, sempre recomendamos que os analistas façam modelagens comparativas usando proporcionalidade, vejam abaixo como fica o mesmo quadro comparando as proporções das respostas entre a Nubia e eu.

Quantidade de respostas

Quantidade de respostas

Fica bastante evidente quem é mais o mais curioso do casal?

Dados relativos aos próprios autores

Agora, aplicando a proporção distribuída pelas colunas temos o comportamento proporcional de cada autor, ou seja, 80% das minhas mensagens eram afirmativas e sem risos, já para a Núbia apenas 67%, sendo que quase 20% das mensagens dela eram perguntas sem risos. E eu sempre achando que eu era mais curioso :).

Quantidade de perguntas

Quantidade de perguntas

 

Interessante que a proporção de perguntas e risadas ficou a mesma, praticamente 13% das mensagens foram risadas, ou seja, grande parte das mensagens são afirmações! Que gente séria, não? Até seria interessante saber qual o padrão nacional e internacional.

As Top 15 palavras mais usadas

Abaixo estão elencadas, como normalmente se faz em análises textuais, as palavras mais frequentes em todas as mensagens trocadas. Importante lembrar que antes de gerar esta análise, foi necessário executar procedimentos de normalização do texto. Esta normalização significa transformar todas as letras em minúsculas e remover todos os acentos e outros “paranauês” de modo que a palavra “Não” seja igual a “não”. Caso contrário a lista conteria “tá” e em segundo lugar em “ta” em oitavo atrás de outras combinações. Essas decisões da preparação são bastante importantes em todo tipo de análise e é um dos motivos pelo qual cientistas de dados altamente qualificados são valorizados no mercado de trabalho no Brasil e principalmente fora dele.

Ranking Termo Aparições
ta 4667

 

bom 4562
vou 3730
nao 3628
to 3618
eu 3071
voce 2768
bem 2721
te 2468
10º oi 2427
11º ja 2118
12º tambem 2091
13º beijinhos 1899
14º gatinha 1730
15º nubi 1706

 

Detecção de padrões com Inteligência Artificial

A Inteligência Artificial pode ser utilizada de muitas formas, seu poder está em detectar comportamentos nos dados de forma automática, e até de forma mais profunda do que um ser humano seria capaz. Neste caso, escolhi fazer o seguinte teste, deixar a máquina ler todas as mensagens por algumas horas e descobrir qual é o comportamento mais típico das minhas mensagens em relação às mensagens da Núbia.

Se questionado, o modelo de IA apresentou uma precisão de 70% de acerto para descobrir quem é o Joni ou a Núbia. Em outras palavras, se apresentar uma nova mensagem para ele, ele acertaria 70% das vezes. Um dos motivos pelo qual o sistema se torna menos preditivo (confuso) sobre a decisão da autoria, foram mensagens em que ambos autores utilizavam as mesmas palavras com a mesma intensidade, como por exemplo:

  • bom dia
  • boa noite
  • agora
  • acho
  • vamos
  • almoço
  • saudades

Perguntando a IA

Quando que você acha que uma mensagem é do Joni?

Resposta:
Quando estão escritas algumas destas palavras na seguinte ordem:

-gatinha,
-trabalho,
-beijos,
-nubi,
-tomar,
-casa,
-linda,
-foto,
-minha,
-adoro

Quando você acha que uma mensagem é da Núbia?

Resposta:

Quando estão escritas algumas destas palavras na seguinte ordem:

-aham,
-quando é uma pergunta,
-baby,
-pela quantidade de letras,
-vou,
-beijos,
-também,
-mimir,
-quero,
-beijinhos,
-ainda,
-só,
-amanhã,
-ta,
-sim,
-eu

 

Conclusões e recomendações

Esse foi um retrato de uma aplicação Outlier de Data Analytics na vida real, que mostra como é possível fazer história apenas conversando no celular. Também mostra como é possível ensinar as máquinas a interpretarem padrões de comportamento em mensagens escritas em português. Pode ser também uma dica para quem está pensando em casar, porque não? Felizmente o “Sim” foi alcançado, e agora o relacionamento mudou de status. Quem sabe futuramente novas análises serão feitas, mas o que importa é conversar pela via real.

Este tipo de análise sobre linguagem natural é um dos tópicos mais difíceis de se abordar, tanto pela complexidade linguística como também pela explosão combinatória que rapidamente ocorrem em textos, aliado aos limites de processamento das máquinas. Logicamente que centenas de outros tipos de análises poderiam ser feitas sobre os mesmos dados, a grande limitação deste projeto foi em relação ao tempo disponível para as análises, já que cada nova ideia acaba demandando testes e avaliações. A área de linguagem natural (estudo de textos) é ampla e complexa, e com grande campo de aplicação no contexto da indústria 4.0 descrita aqui (Indústria 4.0 na visão da Aquarela) . Uma demonstração mais pragmática do impacto dessas abordagens em negócios e pesquisas foram escritas neste artigo (O que é a web 3.0 e sua importância para os negócios ). Essas tecnologias já são amplamente utilizadas nas principais ferramentas de redes sociais, disponíveis para inferir padrões de comportamento para compra, venda, conversão e etc, de modo a gerar a automação de gatilhos de ações preventivas nas bases de clientes.