Iniciativas de fomento à inovação e workshop focado nos desafios da Indústria 4.0 marcam edição 2019 do Business Innovation

Iniciativas de fomento à inovação e workshop focado nos desafios da Indústria 4.0 marcam edição 2019 do Business Innovation

Conheça as estratégias de estímulo à inovação de grandes empresas e saiba como foi o workshop conduzido pela Aquarela para as principais lideranças de inovação do país.

Participaram 75 lideranças de inovação de grandes empresas do Business Innovation 2019, promovido pela Harvard Business Review em parceria com a EBDI. Estiveram no palco inovadores da Coca-Cola, Nestlé, Ambev, Grupo Boticário, 3M,  Vale, Atlantica Hotels, entre outras grandes organizações. A Aquarela Advanced Analytics, representada por Marcos Santos, CEO e Juliana Rodrigues, Analista de Negócios, esteve presente compartilhando os conhecimentos de 10 anos de mergulho profundo no mundo da inovação por meio de Data Analytics e Inteligência Artificial.  Abordamos neste artigo os insights trazidos pelos principais inovadores do ecossistema brasileiro e vamos contar como foi o workshop conduzido pela Aquarela, focado nos desafios da Indústria 4.0.

Business Innovation – como foi o evento

O Business Innovation é um evento promovido pela Harvard Business Review em parceria com a EBDI. Nele participam lideranças de inovação das maiores empresas do país. O tema desta edição, que ocorreu nos dias 27 e 28 de março, foi “Conquiste Comportamentos Inovadores”. Esteve no palco  líderes de empresas como Coca-Cola, Nestlé, Ambev, Grupo Boticário, 3M, Vale, Atlantica Hotels, compartilhando cases, iniciativas e boas práticas para promover a inovação e seu impacto nos negócios.

O evento também contou com o workshop conduzido pela Aquarela, que envolveu as 75 lideranças de inovação na busca de soluções de IA e Analytics para os desafios da Indústria 4.0.

9 insights para fomentar a inovação

Diante de um denso conteúdo, destacamos os principais insights trazidos no evento:

  • O colaborador no centro da inovação. É imprescindível envolver toda a empresa e construir uma cultura organizacional voltada para inovação, que adote estratégias de engajamento dos colaboradores, que valorize a cocriação e estimule o intraempreendedorismo. Sessões de Design Thinking e criação de times multidisciplinares, estimulando a cocriação,  e plataformas para gestão de ideias, promovendo a inclusão e transparência, foram algumas das iniciativas apresentadas no evento;
  • Inovação com foco no consumidor. Destacou-se a importância de entender e superar as expectativas do cliente. O mindset voltado a dados, para entendimento profundo do consumidor, gera insights que levam a inovações que melhoram a experiência do usuário;
  • Disrupção digital. É preciso que as empresas tenham agilidade na sua transformação digital, pois o novo consumidor é digital – é preciso estar onde o cliente está e trazer maior comodidade;
  • Inovação diminui os riscos. Contrapondo a crença de que a inovação é arriscada, mostrou-se o contrário. A evolução de testes que um produto ou serviço passa dentro de um processo de inovação –  através de MVPs, PoCs e pilotos, com feedback constante dos usuários, permite aprender rápido e progredir com assertividade, antes de fazer investimentos na direção errada;
  • A inovação tem impacto direto nos resultados. Comprovou-se que produtos e serviços inovadores têm uma margem de lucro maior, promovida pela diferenciação do produto/serviço e pela redução dos custos;   
  • Desenvolver um forte ecossistema com parceiros e startups ajuda a impulsionar a inovação;
  • Inovação é ágil. É preciso fomentar a agilidade da cadeia de inovação. Com as mudanças cada vez mais aceleradas no mercado e no comportamento dos consumidores, sem agilidade fica inviável inovar;
  • As lideranças de inovação são agentes de mudança e têm um papel fundamental no fomento à inovação, pois exerce uma forte influência sobre os colaboradores, incentivando-os tanto pelo exemplo como pelo reconhecimento.  Exige-se do líder de inovação coragem para desafiar o status quo, para provocar novos olhares e para estabelecer o movimento.

Workshop Indústria 4.0 – Advanced Analytics Canvas

Marcos Santos, CEO da Aquarela, apresenta a dinâmica do Workshop.

Marcos Santos, CEO da Aquarela, abriu o workshop falando do papel da conexão entre inteligência coletiva e inteligência artificial na transformação para a Quarta Revolução Industrial. Destacou que hoje a inteligência artificial é associada a robôs e vista como algo de outro mundo. No entanto, a IA pode estar presente no dia a dia das organizações impactando os negócios e a vida das pessoas de forma acessível e significativa.

Foram lançados quatro desafios focados na Indústria 4.0. As principais lideranças de inovação do país, divididas em quatro equipes, engajaram-se durante duas horas nas discussões do contexto dos desafios e na busca por soluções utilizando o Advanced Analytics Canvas, ferramenta desenvolvida pela Aquarela com o objetivo de elevar o nível de maturidade em projetos de Data Analytics e Inteligência Artificial.   

O workshop foi um sucesso, e ao final foram apresentadas quatro soluções com uso de IA e Analytics, para inovações em vendas no setor financeiro, de gestão inteligente de estoque no segmento alimentício, de recomendação de produto altamente personalizada para conteúdo digital e de mitigação de riscos na manutenção do setor de mineração.


Tendências em Logística e Data Analytics: a transformação que vem dos dados.

Tendências em Logística e Data Analytics: a transformação que vem dos dados.

Com o avanço tecnológico que trouxe junto a evolução de máquinas, sensores, GPS’s e instrumentos eletrônicos cada vez mais modernos, o processo de coleta de dados têm sido fortemente impactado nas empresas do setor de logística. Para acompanhar esta evolução, os sistemas computacionais também têm passado por constantes ajustes e disrupções. Neste contexto de uma complexidade cada vez maior, o caminho fica aberto para que projetos de Big Data e Data Analytics sejam desenvolvidos e decisões data driven sejam tomadas.

Acompanhe neste artigo as tendências e possíveis soluções a serem exploradas em logística e Data Analytics, com técnicas de inteligência artificial e aprendizado de máquina.

Contexto: logística e a cadeia de suprimentos

Logística é uma área derivada da Administração de Empresas, a qual é responsável por prover recursos a uma organização para que suas atividades possam ser desenvolvidas. Na prática, logística trata de movimento, de entregas, de recebimentos, de alocação e armazenagem. É uma das áreas mais complexas e mais fascinantes da Administração. E atualmente uma das áreas com maior quantidade de dados sendo capturados.

Dessa forma, é uma das partes mais importantes da logística gerenciar a cadeia de suprimentos (supply chain). A cadeia de suprimentos envolve todo o sistema logístico responsável por levar desde a matéria prima até a entrega do produto final ao consumidor.

Para fazer este gerenciamento, alguns tipos de sistemas computacionais são bem conhecidos em logística:

    • TMS (Transportation Management System), para melhorar as entregas e otimizar rotas;

 

    • WMS (Warehouse Management System), o Sistema de Gerenciamento de Armazém, que irá controlar todo o inventário e as necessidades de reposição;

 

    • OMS (Order Management System), que fará a gestão dos pedidos;

 

  • LMS (Logistics Management System), o qual é um sistema que integra os demais.

Imagine agora estes sistemas atuando em tempo real em todo território nacional ou até em operações gloabais, gerenciando inúmeras entregas, processos de armazenagem e pedidos ao longo de cada dia. São muitos os dados gerados, e a maioria das empresas não consegue se beneficiar deste bem tão valioso.

Logística e Data Analytics: Supply Chain Analytics

A cadeia de suprimentos é uma enorme fonte de dados, os quais são originados dos clientes, negócios e operações (veja mais). Porém, o que se vê no dia a dia ainda é muitas decisões sendo tomadas com base em planilhas eletrônicas. Contudo, certos tópicos não são eficientemente analisados em planilhas, como probabilidades de falhas nas entregas, fatores que causam o crescimento e aumentam a lucratividade, e possíveis ciclos que são comuns em certas operações logísticas.

Sendo assim, as empresas que se utilizarem dos dados para tomarem decisões de forma preditiva e prescritiva vão deixar de olhar apenas para o passado (como se fosse dirigir olhando pelo retrovisor), e passarão a olhar pra frente, tomando decisões que geram vantagens competitivas.

Trabalhar agindo de forma preditiva e prescritiva na gestão da uma cadeia de suprimentos permite que a organização saia de um posicionamento reativo para um proativo em termos de gestão logística.

Nesse sentido, o termo Supply Chain Analytics trata da aplicação dos conceitos e técnicas de logística e data analytics, big data, machine learning e inteligência artificial para melhorar a margem operacional da companhia.

Por que projetos de Data Analytics para logística?

Devido ao que já foi exposto em termos dos sistemas já consolidados na área de logística, que já permitem uma integração entre dados oriundos de sistemas e frentes de trabalho diferentes, não restam dúvidas de que há um grande potencial de gerar valor a partir dos dados nesta área.

Em resumo, pelo menos os seguintes pontos favorecem a aplicação de logística e Data Analytics de forma conjunta:

    • Alto nível de maturidade de dados quando as empresas do setor de logística são comparadas a outros setores.

 

 

    • Grande quantidade de dados (big data),

 

    • Há grande dificuldade de encontrar casos críticos em meio a tantos dados via painéis de BI ou planilhas eletrônicas.

 

Perguntas chave/aplicações para estruturar projetos de Data Analytics para logística de sucesso

Um dos principais pontos para ter sucesso dentro da organização na execução de projetos de Data Analytics é ter uma cultura organizacional orientada a dados.

Clique aqui e veja o relatório que a Aquarela desenvolveu sobre a “cultura de dados nas empresas brasileiras”

Depois deste passo cumprido, é essencial elaborar boas perguntas de negócio para guiarem os projetos de análise de dados. Por isso, separamos algumas ideias de perguntas de negócio recorrentes quando o assunto é logística e Data Analytics. Também fizemos um mapeamento de possíveis outputs de um projeto de Data Analytics para Logística, veja:

Pergunta Solução de Data Analytics
Quais os clientes que provavelmente não receberão uma entrega? Sistema de análise preditiva para mapear entregas com probabilidade de falhas; e análise prescritiva para recomendar ações corretivas (ligar para reagendar a entrega, etc).
Existem dias ou horários mais propícios a falhas nas entregas?
Quais as ações a serem tomadas para que haja sucesso em entregas com alta probabilidade de falhas?
Quais entregas possuem rotas similares e podem ter seu horário de agendamento ajustado para otimizar e reduzir custos de transporte? Recomendador de novos horários para entregas próximas, com base em análise prescritiva.
Quais as melhores combinações de armazenagem/estocagem? Análise prescritiva para recomendações de locais de armazenamento, considerando as probabilidades de saídas de cada mercadoria.

 

Tendências: a área de Logística e a Indústria 4.0

A área de logística talvez seja uma das que mais irá enfrentar os efeitos da Quarta Revolução Industrial, a chamada Indústria 4.0. Por isso, vale ressaltar que outras frentes além de Data Analytics também estão melhorando as operações de Supply Chain e na logística como um todo, como por exemplo:

 

 

  • Inteligência artificial: sistema completo com IA para otimizar ao máximo a entrada e saída de mercadorias em armazéns logísticos.

Uma convergência entre as aplicações citadas está na geração de uma enorme quantidade de dados. Sendo assim, Big Data é o que todas as aplicações da Indústria 4.0 para logística irão gerar. E para obter insights e vantagem competitiva a partir dos dados não tem como escapar de projetos de análise de dados.

Conclusões: tendências em logística e Data Analytics

A Quarta Revolução Industrial chegou, e a área de logística está com “a faca e o queijo na mão” para usufruir deste momento. É um campo com sistemas robustos e confiáveis, que geram enormes quantidades de dados. A maior parte das análises destes dados, que em sua maioria ainda não são utilizados, é analisada em planilhas eletrônicas.

Os dados em logística irão aumentar cada vez mais, ainda mais com o adventos de novas tecnologias (IoT, drones e uso intensivo de IA). Por isso, é preciso construir times ou squads e investir em projetos focados de análise de dados.

A Aquarela, a partir de análises detalhadas nos dados dos clientes, entrega um sistema prescritor (com recomendações)  para guiar ações de forma objetiva e melhorar a performance logística das organizações, viabilizando decisões data driven nos níveis estratégico, tático e operacional.

 

7 dicas de ouro sobre Design de indicadores

7 dicas de ouro sobre Design de indicadores

No artigo sobre Indicadores de desempenho: de KPI dashboards a prescrições com IA apresentamos como surgiram os indicadores de desempenho, algumas áreas de aplicação e como a Inteligência Artificial pode ser utilizada na gestão destes. Neste artigo vamos falar um pouco sobre aquela que é considerada por alguns como arte e outros como ciência, o design de indicadores.

Peter Drucker já dizia:

“Se você não pode medir, não pode gerenciar”.

Responder a pergunta sobre o que mensurar é de extrema importância, o seu propósito definirá como conduzir o desenvolvimento do indicador, visto que, tem-se aqueles indicadores que medirão desvios da normalidade do cumprimento de seus objetivos (indicadores de monitoramento) ou se servirão como direcionadores para monitorar previamente se a estratégia adotada será cumprida (indicadores de preditivos).

Responder o quê e como medir são indubitavelmente condições essenciais, porém não são suficientes no design de indicadores. Embora extrair insights gerenciais e gerar vantagens competitivas com data analytics seja atualmente uma necessidade para aqueles que desejam se posicionar no cerne da Indústria 4.0 , muitas vezes é contra produtivo a alta gestão monitorar indicadores de cunho táticos ou operacionais, bem como, é inadequado o acesso a informações sensíveis por toda a organização.

Sendo assim, lembre-se de ter claro quem irá utilizar os indicadores desenvolvidos. Veja em nosso artigo, Aperfeiçoando a segurança pública com Data Analytics, um exemplo da utilização de análise de dados por gestores públicos que atuam nas camadas táticas e estratégicas.

O quê, como e por quê

No design de indicadores, além de responder o quê, como e por quê, é necessário responder onde. Afinal,  com cadeias produtivas cada vez mais dispersas, disseminação da telefonia móvel, popularização de sensores e crescentes aplicações de IoT, tornou-se difícil imaginar alguma informação do dia a dia sem algum componente geográfico.

E isso vai além de responder onde será aplicado o indicador, visto que, podemos mensurar a distribuição geográfica do consumo de determinado conteúdo, mapear deslocamentos de atividades produtivas, comportamento diário de clientes, rastreamento de frotas e locais com sinistros, entre outros. Saiba mais em nosso post sobre geointeligência e inteligência artificial.

Dicas de ouro

Esclarecido as perguntas dos parágrafos anteriores, vamos para o aspecto prático do design de indicadores. Carl Anderson no seu excelente livro Creating a Data-Driven Organization apresenta algumas dicas para o desenvolvimento de métricas, acompanhe a seguir uma compilação das 7 regras de ouro para o design de indicadores:

1) Simplicidade

Indicadores devem ser simples, mas não simplórios. Tenha em mente que um único indicador pode conter múltiplas métricas, portanto, parte de sua simplicidade reside na capacidade de condensar informações.

Sua descrição deve ser simples para evitar confusões na sua explicação e implementação. Além disso, é aconselhável que seja comparável entre equipes e diferentes organizações. Obviamente, quanto mais rebuscada a lógica de negócio que o indicador visa contemplar, mais complexo ele será. Cada caso tem suas particularidades, mas tenha em mente que a boa prática evita métricas desnecessariamente complexas.

2) Padronização

Muitas vezes queremos observar o comportamento de sistemas complexos, isso no entanto, envolve dados das mais variadas fontes, que por sua vez possuem diversas unidades de análise e ordens de grandeza díspares. Uma boa estratégia para contornar situações deste tipo, consiste em padronizar as métricas sempre que possível, além de gerar menos confusão, permite que seus processos sejam comparáveis com o de outras organizações e setores, ou seja, você pode utilizar como estratégia competitiva e ferramenta de benchmark.

Documentar, a centralização das informações sobre os indicadores utilizados permite a transmissão do conhecimento entre os setores da organização, o controle de versões e a replicabilidade do indicador. E caso precise utilizar métricas não padronizadas, a documentação permite explicar os motivos que levaram a utilização do referido indicador.

3) Acuracidade

Métricas devem possuir acuracidade, isto é, seu valor numérico médio deve representar a média dos dados sobre o processo de negócio a ser mensurado. Porém, atenção! No design de indicadores tenha cuidado com vieses nas fontes de dados a serem analisados e na própria métrica desenvolvida.

4) Precisão

Métricas devem ser precisas, isto é, devem retornar valores semelhantes quando aplicadas repetidamente nas mesmas condições. Para controlar a precisão tenha em mente o tamanho da amostra dos dados analisados. Quanto maior a amostra menor o erro padrão, ressalta-se, que esta não é uma relação linear, pois o erro padrão é igual ao desvio padrão dividido pela raiz quadrada do tamanho da amostra. Assim, se você quiser dividir pela metade o erro, precisaria quadruplicar o tamanho dessa mesma amostra.

Resumindo, preze pela acuracidade e precisão de suas métricas e, considere o trade-off custo x benefício de uma amostragem maior. Leia mais em nossos artigos sobre O que é amostragem e técnicas de amostragem de dados.

5) Relativo vs. Absoluto

Decidir pela utilização de métricas relativas ou absolutas é de grande importância e deve ser analisada com carinho, essa decisão pode gerar métricas que apresentem um cenário totalmente diferente da realidade.

Imagine um marketplace que possui uma estrutura de assinatura mensal, e 25% de seus clientes são caracterizados como prime (possuem frete grátis para qualquer valor de compra). Seis meses depois os clientes prime correspondem a apenas 15%, o que aconteceu?! Esses clientes cancelaram sua assinatura? Acontece que, se durante esse período o marketplace teve como objetivo aumentar o número total de clientes e o número de clientes prime permaneceu o mesmo, a proporção de prime será mais baixa. Aliás, é possível que a quantidade de clientes prime tenha aumentado enquanto registra-se uma queda na proporção. Resumindo, lembre-se escolha o indicador para ser absoluto ou relativo para que as mudanças sejam devidamente acompanhadas.

6) Robustez

Defina métricas que sejam estatisticamente robustas, isto é, que sejam insensíveis ao comportamento de valores extremos únicos (confira nosso artigo sobre outliers). Pode-se estimar ou visualizar a robustez de seu indicador por meio da re-amostragem. Pegue um subconjunto dos dados e calcule seu indicador, repita várias vezes (fazendo essa substituição) para registrar os valores da métrica e então desenhe um gráfico dessa distribuição obtida e pergunte-se: os resultados estão variando mais do que o esperado ou desejado?

Essa abordagem é o que chamamos análise exploratória de dados e, consiste na elaboração de histogramas, gráficos de dispersão e outras formas de representação gráfica que auxiliam na interpretação dos dados, e então utilize aqueles para guiar sua escolha por métricas e indicadores robustos.

7) Direto

Procure escolher métricas que medem diretamente o processo que você quer controlar. Isto é, nem sempre é possível medir ou quantificar tudo, e talvez você tenha que escolher variáveis proxy, ou métricas indiretas. Resumindo, sempre que possível instrumentalize seus sistemas e processos para registrar os dados no menor nível possível e tente evitar as variáveis proxy.

Bônus

Não reinvente a roda

Lembre-se que a literatura é farta no que diz respeito a indicadores, você não precisa reinventar a roda na elaboração de métricas para seu processo de negócio, repositórios crowd-sourced como kpilibrary.com não apenas listam inúmeros indicadores como também permitem interação entre usuários e compartilhamento de práticas e resultados.

Fazendo o melhor uso dos seus indicadores

Na Aquarela otimizamos processos e resolvemos problemas complexos. Com nosso produto, metodologia e algoritmos, elevamos os níveis de maturidade de Analytics e a competitividade dos negócios, clique aqui e solicite uma demonstração.

 

Indicadores de desempenho: de KPI dashboards a prescrições com IA

Indicadores de desempenho: de KPI dashboards a prescrições com IA

Um dos pontos mais importantes na gestão de empresas é avaliar se os objetivos estratégicos estão sendo atingidos. Para isso, é fundamental monitorar os indicadores de desempenho.

Com o advento da ciência de dados e do uso de inteligência artificial aplicada aos negócios, é possível obter ganhos disruptivos para a organização, capturando insights e relacionamentos entre os indicadores de uma forma que vai além da capacidade analítica humana. Acompanhe detalhes na sequência do artigo.

O que são indicadores de desempenho (KPI’s)?

Indicadores de desempenho (ou KPI’s, Key Performance Indicators) são métricas que quantificam a execução de ações dentro de uma organização, com o fim de monitorar o andamento da empresa na busca para alcançar seus objetivos estratégicos.

Indicadores de desempenho merecem cuidado em suas definições por parte da empresa. Os indicadores são criados para serem mensurados e monitorados por tempo indeterminado. Por isso, os indicadores geram dados históricos, que representam insumos valiosos em análises de dados. Sendo assim, seguem alguns pontos importantes a serem considerados na definição de indicadores de desempenho:

    • Não ter um número exagerado de indicadores. Focar na definição de indicadores que sejam essenciais.

 

    • Garantir a padronização na coleta de dados e cálculo dos indicadores, principalmente quando os mesmos indicadores são mensurados em diferentes unidades da empresa, ou por diferentes equipes..

 

    • Definir regras de negócio e ações a serem tomadas para níveis críticos dos indicadores.

 

    • Acompanhar se os objetivos estratégicos estão sendo atingidos.

 

  • Definir indicadores de desempenho para todos os níveis: estratégico, tático e operacional.

Como surgiram os indicadores de desempenho? Dos demonstrativos financeiros aos dashboards de BI.

Os indicadores de desempenho foram surgindo aos poucos na gestão das organizações. Tudo começou na área de gestão financeira, com o fim de facilitar para os gestores a análise de demonstrações contábeis tradicionais, como a DRE e o balanço patrimonial.

A área de Qualidade desempenhou muitos esforços na definição de indicadores, com forte influência do Toyotismo e a Gestão pela Qualidade Total.

Posteriormente, já na década de 1990, surgiu uma metodologia de gestão de empresas chamada de Balanced Scorecard (BSC), cujo foco é a definição de indicadores que vão além da esfera financeira..

O BSC trabalha com a definição de indicadores para as áreas de: finanças, aprendizado, processos internos e cliente. Todos os indicadores, ainda, devem estar alinhados com a visão e estratégia.

Com isso, a quantificação, a necessidade de coletar dados e uso de estatística passou a fazer parte da gestão das empresas. Mais recentemente, com o avanço dos computadores e da internet, surgiram os dashboards de KPI’s, dentro da área de Business Inteligence (BI).

Atualmente são tradicionais os painéis de BI espalhados em televisões e em sistemas online em algumas empresas. A ideia destes KPI dashboards é trazer a ideia das salas de controle de indústrias para acompanhar todas as esferas da organização.

Um dos pontos mais críticos no qual muitas empresas têm se deparado é com uma situação de excesso de gráficos e tabelas com highlights e uma baixa quantidade de insights data driven que de fato irão gerar valor para a empresa.

Áreas de aplicação e exemplos dos indicadores de desempenho

Alguns indicadores de desempenho que são utilizados são tradicionais e podem ser aplicados a praticamente todo tipo de organização. Este é o caso dos indicadores de desempenho financeiros, por exemplo.

Outros indicadores são mais recentes, e surgiram a partir de mudanças na forma como as vendas ocorrem no mercado. Este é o caso do indicador de churn – que mede o percentual de cancelamentos de serviços de assinatura – o que faz todo o sentido em produtos como Netflix ou Spotify, por exemplo.

Sendo assim, veja na sequência um detalhamento maior sobre algumas áreas de aplicação e exemplos dos indicadores de desempenho.

Indicadores de desempenho financeiros

Tradicionais na área financeira, os indicadores de desempenho neste contexto são geralmente fruto de divisões entre variáveis que constam nas demonstrações contábeis, como a DRE (em que o lucro das empresas é apurado) e o balanço patrimonial.

Entre os indicadores de desempenho financeiros estão: ticket médio, margem de contribuição, ponto de equilíbrio, índices de liquidez (geral, corrente, seca), índices de rentabilidade (ROI, ROA, ROE), indicadores de lucratividade (margens de lucro), entre outros.

Indicadores de desempenho na qualidade

A área de Qualidade teve forte impacto no desenvolvimento de uma cultura de gestão por indicadores dentro do campo de administração. Uma das grandes contribuições da área de Qualidade foi o uso de vasto ferramental estatístico para auxiliar a encontrar falhas de qualidade, principalmente em indústrias.

Alguns exemplos de indicadores de desempenho para a qualidade são métricas six-sigma, índices de produtividade e de perdas.

Indicadores de desempenho em marketing

Recentemente, a área de marketing foi completamente “repaginada” pelo marketing digital. Com isso, veio o advento de ferramentas como o Google Analytics e ferramentas para gestão de leads.

São ferramentas utilizadas para monitorar websites, criando metas de conversões (quando um internauta clica em um link desejado, por exemplo) e painéis de gerenciamento. Como os negócios hoje são cada vez mais digitais, esse tipo de ferramenta faz cada vez mais sentido.

Um exemplo de indicador de desempenho de marketing é a taxa de churn, que indica o percentual de clientes que cancelam serviços de assinaturas em um determinado período. Taxa de conversão e custo por lead são outros indicadores muito utilizados também.

Indicadores de desempenho de recursos humanos

Indicadores de desempenho na área de RH abriram caminho para a área chamada de People Analytics, ou HR Analytics. Entre os indicadores mais trabalhados estão: turnover (giro de colaboradores), clima organizacional, absenteísmo e avaliações de desempenho.

Indicadores de desempenho logísticos

A área de logística é muita rica quando o assunto é mensurar. Percentual de falhas em entregas, percentual de entregas efetuadas com atraso e nível de estoque são apenas alguns dos indicadores..

O problema dos KPI dashboards

Um dos principais problemas pelo qual os analistas de inteligência de negócio (BI) têm passado é: como obter insights a partir dos dados que realmente irão gerar valor de negócio?

Neste contexto que vivemos, em que é dito que o dado é o novo petróleo, temos uma enxurrada de dados vindos de diversas fontes e em diversos formatos (CSV, Excel, SQL, TXT, entre outros). O grande desafio hoje não está mais em mostrar dashboards elegantes e com gráficos chamativos, mas sim em gerar insights relevantes que irão conduzir decisões data driven.

KPI dashboards muitas vezes mostram muitos dados e gráficos, confundindo o processo de tomada de decisão, que é cada vez mais rápido dentro das empresas e também no serviço público.

Em nossos carros, por exemplo, temos apenas um dashboard (painel) com informações essenciais para nossa condução segura no trânsito. Imagine, que o carro tivesse 10 painéis (dashboards), isso tornaria a direção quase impossível.

Da mesma forma, dentro das organizações, é de suma importância manter as coisas simples, para uma operação lean e focada, então, nesses casos a qualidade deve vir antes da quantidade.

Onde entra a IA (Inteligência Artificial) na gestão por indicadores?

É o uso da inteligência artificial que facilita a extração de insights relevantes da grande quantidade de dados e de indicadores de desempenho que existem nas empresas.

Quando um KPI chega a um valor crítico, pode ser que seria possível ter previsto anteriormente a movimentação no indicador. Isso ocorre pelas relações multidimensionais entre os dados. Ou seja, o movimento de um KPI pode estar relacionado à variações conjuntas em outros indicadores. Este tipo de situação dificilmente seria possível de ser percebida sem o uso de algoritmos de machine learning (aprendizado de máquina)

Sendo assim, a inteligência artificial auxilia em diversos aspectos na gestão de indicadores, entre os quais estão:

    • na predição dos KPI’s futuros, baseado no histórico e no conjunto de características do momento atual;

 

    • na identificação das causas de alta ou queda dos indicadores de desempenho;

 

  • em modelos prescritivos, os quais irão, por exemplo, identificar pontos críticos em indicadores e recomendar ações para corrigir alguns pontos, tudo recomendado com IA.

Uso de Inteligência Artificial pode melhorar muito as decisões de gestão nas empresas. Veja aqui as áreas já abordadas em projetos pela Aquarela.

Considerações finais: o futuro dos indicadores de desempenho

Acompanhar indicadores de desempenho se tornou parte do dia a dia das empresas, em todos os setores. Além disso, a quantidade de dados gerados pelas organizações é cada vez maior. Sendo assim, muitas empresas se encontram em meio a dashboards com uma série de indicadores, tabelas e gráficos. No entanto, a questão chave para o futuro dos indicadores de desempenho é “como gerar valor para o negócio?”. Neste sentido, a inteligência artificial aplicadas aos negócios rompe os paradigmas já existentes em termos de análise de dados e coloca as organizações que a utilizam no cerne da transformação digital e da indústria 4.0.

 

7 Dicas de governança de processos e projetos de Data Analytics

7 Dicas de governança de processos e projetos de Data Analytics

A área de ciência de dados está em franca expansão, graças ao grande potencial de otimização de processos que geram tanto economia de recursos (fazer mais com menos) como ampliação de vendas e recuperação de mercado (vender mais e melhor). Em outras palavras:

“Novos (grandes) poderes geram novas (e grandes) responsabilidades”.

Assim, neste artigo, apresentamos o DCIM Commandments (Conheça a DCIM), um compilado com as melhores práticas (criadas e utilizadas por nossa equipe) para manipulação, tratamento e governança de dados e projetos analytics. Acreditamos com grande convicção que alguns pontos deste compilado podem ser úteis ao amadurecimento da cultura de dados do ecossistema brasileiro (empresarial ou não).

Mantenha os dados seguros

Normalmente (e infelizmente), a segurança dos dados é um dos últimos tópicos a serem discutidos, nós acreditamos e praticamos o contrário disso. Afinal, se os dados são o petróleo da próxima década, quem em sã consciência  deixaria isso vazar?

Com isso em mente, trabalhamos alguns anos desenhando arquiteturas apropriadas para a recepção, processamento e distribuição segura de dados, aliadas a normas internas de conduta que visam garantir a segregação e proteção dos dados internos e dos clientes. Alguns exemplos básicos de regras que utilizamos:

  • Autenticidade: Cada usuário tem seu próprio acesso e cada acesso um conjunto de logs.
  • Confidencialidade: partimos do princípio que toda informação dos clientes é confidencial. Neste sentido todos os acessos aos dados internos são bloqueados, e somente é liberado acesso para aqueles que realmente necessitem.  
  • Dados de clientes nunca entram em pendrives. Somente em discos criptografados.
  • Cada cliente tem seu próprio servidor e bucket de armazenamento, de forma que os dados ficam totalmente isolados uns dos outros.
  • Regras e gestão de senha robustas.
  • Padronização de sistemas. Utilizamos principalmente sistemas operacionais Linux e MacOs, embora vários clientes usem Windows.
  • Redes Virtuais Privadas – VPNs – essas redes são utilizadas para garantir a separação do tráfego de dados na internet e dos serviços em operação.

Resolva um problema real

Ciência de dados abre um potencial enorme de possibilidades, e isso gera grande pressão (inclusive psicológica) por resultados. Um dos principais problemas enfrentados nessa situação é conseguir definir qual resultado que se quer primeiro, e quais os passos a serem tomados. O processo é em essência não linear, então se torna fácil divagar o pensamento em coisas que às vezes parecem razoáveis.

Nesse sentido, recomendados um trabalho de desenvolvimento de comunicação entre os times, com técnicas de design thinking contínuas, voltadas ao estudo dos dados e definição do problema. Em alguns casos é um processo de muita ajuda psicológica mútua. Contudo, por via de regra, os problemas reais devem vir do gestor de negócios, e este deve ser traduzido para sistemas de análise e não ao contrário.

Com tantas ferramentas de analytics surgindo no mercado, é fácil se apaixonar por uma solução e ficar sem apetite no almoço e/ou acordado a noite pensando nos gráficos que piscam, quem nunca né? (brincadeira). O fato é que quando soluções técnicas se tornam mais importantes do que o negócio o rabo começa a abanar o cachorro. Parece brincadeira, mas isso acontece muito nos meios técnicos, gerando um impacto pesado na eficiência das empresas e até na moral dos times. Portanto, mantenha o responsável pelo processo de negócio em todas as reuniões, ele vai ajudar a apagar problemas virtuais que sempre surgem (daria um artigo só falando sobre as classes de problemas não reais gerados pela tecnologia).

Priorise Qualidade à velocidade

Entusiastas de tecnologia (aqueles 2% da população chamados de early adopters) são fascinados por novidades, principalmente quando são rápidas e práticas, mas falando de negócios e da responsabilidade sobre processos com impactos financeiros severos, a orientação deve ser outra.

um modelo de inteligência artificial rápido mas que acerta pouco não pode ser considerado. O foco deve ser a qualidade primeiro depois a velocidade.

A mensuração dos resultados deve ser feita constantemente, tanto internamente (com os dados e métodos internos) como também no cliente (com métodos próprios do próprio cliente). Em outras palavras, todos devem estar vendo o resultado no seu idioma próprio. O desafio no entanto é a grande variação dos testes e necessidade de criação de testes para cada tipo de processo que se utiliza machine learning.

Mindset lean (startup)

Quando se fala de termos como BigData e grandes bases de dados, nossa intuição nos leva a buscar soluções para tratar o máximo de dados, certo? Porém o que temos visto é que o desafio mais constante é ao contrário, chegar no menor conjunto de dados capaz de:

  • Gerar a maior quantidade de conhecimento
  • Atingir o maior impacto de negócios no menor espaço de tempo
  • Preservar a saúde mental de todos os envolvidos (é sério).

O acoplamento leve refere-se a não integração imediata dos protótipos nos sistemas tradicionais (sistemas que já estão em operação), ou seja, sistemas analíticos precisam ser validados isoladamente antes de passar pelos processos de integração.

“O homem que insiste em ver com a mais perfeita clareza antes de decidir, jamais decide. Henri Frédéric Amiel – (1821-1881)”

Por isso, a ideia de rápidas prototipações é trabalhar com dados analíticos em paralelo até validar os modelos de IA, e aí então pensar em questões de integração e desempenho. Vale notar que alguns processos de integração de sistemas podem ser mais custosos do que vários processos de analytics. Nesse caminho sempre é bom lembrar da importância da separação conceitual entre sistemas transacionais e analíticos, já escrevemos sobre isso aqui.

Além do conceito do projeto em si a ser validado pelos times de concepção de analytics, há também o encaixe do modelo criado no roadmap tecnológico da organização que, em 100%, do casos, demanda consultas aos especialistas dos sistemas transacionais.

Zelar pelos metadados

Os dicionários de dados são a base da formação da cultura de dados. E por isso, processos de manutenção constante desses dicionários são importantes, apesar da burocracia que isso possa gerar em cada contexto.  

Anteriormente já escrevemos um artigo com exemplos de dicionários de analytics(O que são dicionários de dados para analytics?), no entanto, aqui vai um resuminho da sua função, que é responder algumas destas perguntas:

  • Quais dados estão disponíveis?
  • O que os dados disponíveis representam?
  • Quais as escalas de mensuração de cada variável?
  • Quem são os responsáveis por cada base e seus respectivos dicionários?
  • Como os dados estão integrados?
  • Há oportunidades de negócio associadas às variáveis?

Planeje a continuidade

Descobri muita coisas legais, mas será que daqui 6 meses elas ainda são válidas? O que mudou de lá pra cá?

As primeiras análises a serem feitas nos dados são chamadas de exploratórias, algo que seria similar a primeira entrada em uma floresta. Neste processo grandes descobertas de vários tipos de riscos e oportunidade são geradas.

O planejamento deve ter a análise exploratória bem mapeada, para poder estruturar as análises que terão o perfil recorrente nos negócios.

“Analytics só gera resultado real quando mudanças (melhorias) nos processos de negócios são executadas na prática”. Por exemplo; não adianta saber que as crianças tendem a faltar menos nos agendamentos médicos se não for feita uma política ou  sistema que ajuda este perfil a ser alocado nos dias com maior incidência de faltas de outros perfis.

Esse viés da execução de processos inteligentes, seja ele um sistema para ações preventivas, preditivas e prescritivas, deve estar sempre presente nas discussões, desenhos de telas, prototipações e na implantação efetiva do sistema, de modo que não seja apenas um painel de monitoramento (Quais as diferenças entre painéis de monitoramento e sistemas inteligentes?)

Mantenha as coisas simples

O excesso de informação gerado por bancos de dados gera o que chamamos de “parálise”: paralisia por excesso de análise. Portanto a grande sofisticação está em simplificar, inclusive a principal ajuda dos algoritmos de mineração é justamente deixar para o computador essa tarefa. Se um modelo não simplifica uma decisão de “Sim” ou “Não”, qual é sua utilidade?

Se o projeto não puder ser explicado em poucas palavras e telas, pode haver algum erro conceitual grave, gerado lá atrás no processo de concepção das análises, momento em que os gestores e técnicos desenham juntos a solução.

De modo geral, pelo menos na nossa visão, se o sistema está bem aderente a necessidade de informação do cliente, as respostas da inteligência artificial estão sendo assertivas e o próprio usuário gosta de apresentar os resultados reais gerados, então temos um caso de sucesso!

Conclusões

Apesar dos bilhões gastos em BI, os dados ainda permanecem inacessíveis para a grande maioria dos usuários de negócios que estão clamando para tomar decisões realmente baseadas em dados. Aqui apresentamos sete pontos (quase mandamentos) relevantes em nossa experiência com dezenas de projetos de análise, sugerindo uma oportunidade para implantação de melhoria dos níveis de maturidade de Data Analytics das organizações que nos seguem. Também, não foi objetivo citar tecnologias específicas para cada caso, mas mostrar pontos de atenção para mitigar possíveis riscos gerenciais inerentes às complexidades de projetos da Data Analytics.