Planejamento estratégico de IA e Analytics: conceito e impactos

Planejamento estratégico de IA e Analytics: conceito e impactos

Os benefícios e os impactos positivos do uso de dados e sobretudo da inteligência artificial já são uma realidade no mercado brasileiro em áreas que vão desde precificação dinâmica na educação, a previsão de faltas em agendamentos médicos,  a previsão de quebra de equipamentos e até o monitoramento do mercado de reposição de autopeças. No entanto, para se colher esses benefícios, as organizações necessitam alcançar um nível de maturidade analítica adequada para cada desafio. 

Neste artigo, vamos falar sobre o que é o Planejamento Estratégico de IA e Analytics, quais as características dos cenários que demandam este tipo de projeto dentro da jornada de Transformação Digital das empresas em direção à Indústria 4.0.

O que é o planejamento estratégico de IA e Analytics? 

O planejamento estratégico de IA e Data Analytics é um projeto de caráter estruturante que combina um conjunto de atividades consultivas elaboradas (preferencialmente por equipes com uma visão externa da organização) para o levantamento de cenários, mapeamento de processos analíticos, elaboração de ativos digitais (sistemas e bancos de dados e outros) a fim de auferir os diferentes níveis de maturidade analítica dos times, dos departamentos e da organização como um todo. 

Como resultado, chega-se às definições compartilhadas da visão, missão, valores, políticas, estratégias, planos de ações e boas práticas de governança de dados para alavancar o nível de maturidade analítica da organização no menor tempo e custo possível.  (Quais são os 5 níveis de maturidade analítica?

Sintomas de cenários de baixa maturidade analítica

Embora existam muitos tipos de negócios, produtos e serviços no mercado, apresentamos, aqui, padrões emergentes que ajudam a caracterizar o problema da maturidade analítica das empresas e que podem gerar reflexões interessantes:

  1. Atualmente, é possível saber quais iniciativas de analytics (análises de dados) já aconteceram e quais ainda estão acontecendo? Além disso, quem são os responsáveis? E quais foram os resultados? 
  2. Nas iniciativas analíticas, é possível saber quais dados foram utilizados e até reproduzir a mesma análise? 
  3. As análises de dados acontecem de forma aleatória, espontânea e isoladas nos departamentos? 
  4. É possível visualizar todos os ativos de dados ou datasets disponíveis para gerar análises?
  5. Existem situações em que um mesmo indicador aparece com valores diferentes dependendo do departamento em que é feita a análise? 
  6. Existem dicionários de dados analíticos definidos? 
  7. Qual é o stack tecnológico analítico
  8. Projetos estruturantes de data analytics estão sendo contemplados no planejamento estratégico?

Outros problemas comuns

Identidade organizacional

Cenários com baixa maturidade analítica não apresentam problemas na qualidade de dados de forma isolada. Normalmente, existem problemas sistêmicos que envolvem a complexidade de processos de negócio, o nível de capacitação dos times, processos de gestão do conhecimento e, por fim, as escolhas das tecnologias da operação do ERP, CRM, SCM e como esses sistemas transacionais se relacionam. 

Questões de segurança

As empresas são organismos vivos que evoluem constantemente com pessoas atuando em diferentes áreas. Assim, com o passar do tempo, perde-se o controle dos níveis de acesso de cada colaborador fazendo com que pessoas não autorizadas tenham acesso a informações sensíveis e também o inverso, quando pessoas não conseguem acesso aos dados que precisam para seu trabalho. 

Excesso de planilhas e duplicidades

As planilhas são uma das ferramentas mais úteis e importantes da gestão e por isso estão sempre auxiliando em diversos processos. O grande efeito colateral do uso excessivo de planilhas é a manutenção do conhecimento de cada processo. Quando existem duas ou mais pessoas e o volume de informações e atualizações começam a crescer se torna difícil gerenciar o conhecimento que trafega em blocos com as planilhas. Além disso, muitas duplicidades acontecem e tornam praticamente impossível consolidar dados com segurança e em grande volume.

Mais sobre as limitações das planilhas neste outro artigo

Quais os benefícios do planejamento estratégico de IA e Analytics?

Espera-se de uma gestão data-driven que os dados forneçam não apenas desenhos e rascunhos das condições da operação ou do mercado, mas uma fotografia em alta resolução da realidade presente e futura. Assim, fornece subsídios para o planejamento estratégico corporativo de curto, médio e longo prazo com os seguintes ganhos: 

  • Prontidão processual e tecnológica para projetos de data lakes e laboratórios de Advanced Analytics e IA. 
  • Aumento da intensidade de aplicação de técnicas científicas aos negócios, por exemplo: análises comparativas, simulações de cenários, identificação de padrões de comportamento, previsão de demanda e outros.
  • Aumento da veracidade das informações.
  • Segurança de acesso a informações em diferentes níveis.
  • Aceleração dos processos de onboarding (entrada de novos membros dos times), que por sua vez aprenderam mais rapidamente sobre o cenário de trabalho, como também começam a se comunicar de forma mais eficiente.  
  • Maior enriquecimento de dados a partir do aumento da interação de equipes de diferentes setores para desafios analíticos. 
  • Maior visibilidade das operações de analytics, organização para localizabilidade, acessibilidade, interoperabilidade e reutilização de ativos digitais. 
  • Plano de mudança otimizado para Governança Corporativa orientada a dados.
  • Incorporação da mentalidade Analítica e de IA em diferentes setores. 
  • Homogeneização das políticas e controles de dados.

Planejamento estratégico de IA e Analytics – Conclusões e recomendações 

A elaboração de um planejamento estratégico de IA e Analytics é um passo importante para se atingir o nível de governança de dados que permita o uso intensivo de analytics e inteligência artificial nas operações, uma vez que a alta taxa de insucesso de projetos analíticos estão ligadas à baixa qualidade de dados, de processos e até do correto uso das tecnologias (capacitação).   

Projetos estruturantes, como o planejamento estratégico de IA e Analytics são, ou pelo menos deveriam ser, o primeiro passo na jornada de transformação digital das empresas tradicionais. Por isso, temos a convicção de que no futuro toda empresa de sucesso terá uma ideia clara e compartilhada (visão, missão e valores) do que os dados significam para ela e para o seu modelo de negócio, em contraste aos investimentos em tecnologia de dados pura e simplesmente por conta da concorrência.  

Acreditamos que o foco em dados orquestrados (arrumados e sincronizados) se refletirá em quase todas as áreas, por exemplo: na gama de serviços, nos modelos de receitas, nos principais recursos, processos, estruturas de custos, em sua cultura corporativa, seu foco em clientes e redes, e em sua estratégia corporativa. 

Por último, mas não menos importante, vale apontar que, para que uma estruturação de sucesso aconteça, deve-se ter uma abordagem holística de longo prazo. Isso significa investimentos em tecnologia, pessoas e processos otimizados a fim de permitir o crescimento contínuo dos negócios. 

Como a Aquarela vem atuando

A Aquarela Analytics vem desenvolvendo novas tecnologias e modelos de negócios baseados em dados em uma visão de que a quantidade e disponibilidade desses dados continuará crescente. Assim, levará os negócios a outros patamares de otimização.

O que fazemos especificamente para empresas:

  • Analisamos ecossistemas corporativos geradores de dados;
  • Determinamos a maturidade analítica. Além disso, derivamos campos de ação para organizações e serviços baseados em dados;
  • Desenvolvemos e avaliamos serviços baseados em dados;
  • Identificamos e estimamos o potencial dos dados para modelos de negócios futuros;
  • Desenhamos processos de transformação digital com base científica e orientamos sua integração organizacional.

Mais informações em: www.aquare.la/projetos-estruturantes/

Gostou do artigo? Então, deixe o seu comentário.

Quem é a Aquarela Analytics?

A Aquarela Analytics é pioneira e referência nacional na aplicação de Inteligência Artificial na indústria e em grandes empresas. Por meio da plataforma Vortx e da metodolgia DCIM (Download e-book gratuito), atende clientes importantes, como: Embraer (aeroespacial), Scania e Grupo Randon (automotivo), SolarBR Coca-Cola (alimentício), Hospital das Clínicas (saúde), NTS-Brasil (óleo e gás), Votorantim (energia), dentre outros. Fique atento às novas publicações diárias da Aquarela Analytics no Linkedin e assinando a nossa Newsletter mensal! 

Autores

A utilização da Inteligência Artificial na Indústria

A utilização da Inteligência Artificial na Indústria

É recente o uso de Inteligência Artificial na indústria brasileira, configurando casos isolados considerados outliers. Nesses casos, a utilização de IA já vem gerando resultados otimizados, como a maximização da eficiência nos processos e a redução de custos, além de contribuir para o aperfeiçoamento da vantagem competitiva. 

O que faz algumas empresas se destacarem em relação à normalidade (curva normal) do nível de maturidade das empresas brasileiras é sem dúvida a coerência de seus programas estratégicos de governança de dados e conexão de processos de negócio industriais com as novas e diversas técnicas de inteligência artificial

Neste artigo, vamos compartilhar alguns exemplos do uso da Inteligência Artificial na indústria. 

Gestão e manutenção de ativos

De um modo geral, as indústrias detém grande quantidade de ativos físicos de alto valor agregado. Esses ativos, que demandam um controle apurado de suas condições de uso (monitoramento), podem se beneficiar de estratégias de IA para que suas manutenções sejam mais bem planejadas.

“Todos os ativos precisam de manutenção. A grande questão da otimização é reconhecer o melhor momento para ela”.

Joni Hoppen

A inteligência analítica preditiva e prescritiva, mais dispositivos de IOT, estão atuando para descobrir o melhor plano de ação das manutenções, que, dependendo do cenário (operação, ativos e usuários), podem representar milhões de reais em economia direta. 

Quer saber mais sobre o tema? Acesse o artigo: Manutenção planejada na indústria.

Gestão de preços mais dinâmicos

Com a movimentação dos estoques e das linhas de produção cada vez mais mapeadas digitalmente, torna-se mais tangível materializar estratégias de precificação dinâmica e inteligente dos produtos e até de serviços. Além disso, como efeito direto dessa digitalização, é possível criar e aproximar processos de previsão de demanda baseados em Inteligência Artificial com a operação com ganhos consideráveis de economia pela estratégia de demanda ajustada. 

Recursos humanos otimizados

Assim como as máquinas, as pessoas desempenham um papel fundamental na produção industrial, seja na confecção do produto final ou na construção dos equipamentos. 

Por esse motivo, há a tendência crescente de soluções de IA voltada para a evolução das pessoas. Estes sistemas, chamados de People Analytics ou People 4.0, são soluções customizadas para acompanhar a evolução dos profissionais. Cabe à Inteligência Artificial identificar padrões de comportamento e perfis a fim de recomendar cursos e atividades que auxiliem nas progressões de carreira. 

Em breve, compartilharemos um de nossos cases sobre o assunto.

Desenvolvimento de novos produtos 

Sem dúvidas, a maior parte de todos os produtos industriais que conhecemos e usufruímos hoje são resultado direto das milhares de interações entre profissionais, universidades, empresas, professores e alunos. Mas o que muda no novo paradigma industrial baseado em IA?

Que os novos produtos podem ser concebidos com todos os insumos citados acima e ainda milhões de opções criadas por simuladores 100% digitais. Como resultado, a Inteligência Artificial começa a permitir que a concepção de novas peças seja mais aderente e rápida ao atendimento dos requisitos do mercado. Assim, ela pode, inclusive, gerar peças de melhor qualidade com melhor custo de produção. 

Atualmente, trabalhamos com esta frente que consideramos uma das mais estratégicas da indústria avançada. 

Considerações finais – Inteligência Artificial na Indústria

Neste artigo buscamos apresentar quatro áreas/abordagens do uso estratégico de Analytics com foco na indústria. 

A indústria, em especial, a brasileira, passa por um profundo momento de transformação digital. Ela precisa de aprimoramentos em seu stack tecnológico analítico para então colher os frutos gerados pela inteligência artificial. 

A lista de oportunidades em IA não é exaustiva, mas aponta para alguns caminhos que certamente mudam a forma de se trabalhar na indústria, apresentando resultados cada vez mais expressivos. 

Sobre o futuro, a Inteligência Artificial na indústria ainda reserva algumas novidades. Entretanto, temos a certeza de que os produtos industriais serão mais otimizados e integrados em uma cadeia de valor cada vez mais digital e global. 

Quem é a Aquarela Analytics?

A Aquarela Analytics é pioneira e referência nacional na aplicação de Inteligência Artificial na indústria e em grandes empresas. Por meio da plataforma Vortx e da metodolgia DCIM (Download e-book gratuito), atende clientes importantes, como: Embraer (aeroespacial), Scania e Grupo Randon (automotivo), SolarBR Coca-Cola (alimentício), Hospital das Clínicas (saúde), NTS-Brasil (óleo e gás), Votorantim (energia), dentre outros. Fique atento às novas publicações diárias da Aquarela Analytics no Linkedin e assinando a nossa Newsletter mensal! 

Autor

O que é o PIX e por que ele pode se tornar o banco de dados mais precioso do país?

O que é o PIX e por que ele pode se tornar o banco de dados mais precioso do país?

Introdução

Hoje vamos apresentar o PIX que é um novo método/sistema de transações bancárias/pagamentos que substituirá os conhecidos boletos, TEDs, Docs e outras formas de pagamento.

Como resultado, o PIX promete democratizar e simplificar os pagamentos no Brasil ao mesmo tempo em que, na visão de big data analytics, gerará o banco de dados analítico mais valioso e cobiçado do país.

Aproveitamos também para fazer algumas análises comparativas entre o PIX, métodos tradicionais e criptomoedas.  

O que é o PIX ? 

A ideia do PIX é ser um método/sistema de pagamentos instantâneos que promete agilidade, menor custo e segurança para os usuários com impactos diretos às pessoas físicas e aos negócios no país. De antemão, muitos desses impactos, só saberemos depois da mudança.

“O PIX parece ser uma reação contra as inovações geradas pelas criptomoedas, podendo ser um marco na história bancária do país frente o avanço das das criptomoedas ou até um caminho para elas”.

Uma das principais promessas da plataforma PIX é a eliminação dos custos (financeiro e de tempo) relacionados às transferências financeiras tais como: Boletos, TEDs , DOCs e pagamentos em espécie.

Com ele, será possível efetuar transações financeiras diretamente entre pessoas físicas, empresas e até órgãos governamentais. Será uma opção mais fácil e barata para transferências e pagamentos, o que demonstra grande potencial de conversão de usuários ao novo método.

Ao contrário do que se imagina, o PIX não é uma criação dos bancos brasileiros e sim do governo brasileiro, mais especificamente do Banco Central do Brasil.

Em nossas pesquisas não encontramos o racional por trás do nome de batismo da solução, mas acreditamos que um nome curto e simples pode colaborar em seu processo de adoção pelo público geral. 

Marca oficial do PIX.

Diferentemente das Crypto-moedas  que geralmente são reguladas por comunidade em uma tecnologia chamada blockchain, o PIX é regulado por um órgão centralizado.

Seu lastro é baseado em Moeda fiduciária ou seja, não é lastreado a nenhum metal (ouro, prata). Seu valor está associada a confiança que as pessoas têm em quem emitiu o título, neste caso o Banco Central. Em contrapartida, nas Cryto-moedas é baseado na escassez e unicidade de cada partícula de moeda garantida pela rede de computadores de forma descentralizada. 

As taxas de transferências do PIX serão baixas ou até nulas mas estarão sempre associadas e no controle do Banco Central que, como órgão do estado, que poderá regular as taxas quando necessário de forma tão rápida quanto as transações.

Cryto-moedas tem o custo de transação atrelada a complexidade da mineração de novos códigos e outros custos associados à orquestração e demanda da rede de compradores e vendedores de moeda. 

PIX na visão de Data Analytics

A estruturação PIX atende critérios importantes de governança de dados e os 5 critérios de BigData pois terá volume, velocidade, variedade, veracidade e valor (Informações sobre os 5V do Big Data). 

No mundo de analytics, o PIX pode ser também entendido como uma plataforma que centralizará todas os pagamentos digitais do país gerando um grande repositório de dados (Data Lake) com datasets (o que é dataset) extremamente valiosos porque permitirá em tempo quase real: 

Ainda, com um datalake desta magnitude a disposição do estado, será relativamente fácil relacionar de forma rápida dados de transações com com outros órgãos governamentais como por exemplo da saúde e educação em diversas ocasiões como pandemias por exemplo. Ou então, imaginem que os dados poderiam eventualmente ser compartilhadas com a receita federal por exemplo? 

Muitos outros argumentos podem ser montados a partir das estratégia de analytics, e por isso acreditamos que existem um grande potencial de que este banco de dados regido pelo Banco Central se torne um banco de dados mais precioso do país, caso haja a adoção em massa da população.

A imagem abaixo resume a visão do PIX como uma estratégia de Big Data analytics.

A estratégia de dados do PIX na visão da Aquarela.

Características do PIX

O método Pix tem uma estrutura baseada em 7 características fundamentais:

1. Disponibilidade:

Ter grande disponibilidade significa permitir que as transferências ocorram a qualquer hora e sem demoras, gerando agilidade. Esta disponibilidade inclui, logicamente, feriados, sábados, domingos e horários não comerciais.

2. Conveniência:

A conveniência está ligada a praticidade para se fazer as transferências a partir do celular em casa e outros contextos que facilitam a vida do cidadão.

3. Velocidade:

Uma transação não pode demorar 2 horas para ocorrer e as pessoas ficam ali esperando até que ela ocorra. Por isso cada transação deve ser feita em até 10 segundos. É um grande desafio tecnológico. 

4. Segurança:

Este talvez seja o ponto mais crítico da solução, pois, envolve dinheiro, dados pessoais, relacionamentos, informações de tendências de mercado e o que mais a criatividade humana ou artificial puderem criar.

Logicamente, toda solução tecnológica deve obrigatoriamente cobrir as questões de segurança dos dados em seu stack tecnológico (O que é um stack tecnológico?).

No caso do PIX, a segurança está pautada em esquemas de assinatura digital, certificados ICP-Brasil no padrão SPB e criptográficas baseadas em hardware. Para detalhes, ver o manual divulgado pelo Banco Central neste link .

5. Ambiente aberto:

Diferentes provedores de serviços serão conectados. Será o nascimento do ecossistema de pagamentos instantâneos. Os modelos atuais são fechados ou barreiras de entrada muito altas.

6. Multiplicidade de casos de uso:

Pode ser utilizado para muitos tipos de transações que hoje podem obrigam ser um pagamento somente por boleto por exemplo. Exemplos, a utilização do PIX para a conta de luz, o almoço e até impostos. Hoje existem formas que geram transtornos sistêmicos na sociedade. 

7. Fluxo de dados com informações agregadas:

Outras informações além da transação pode ser adicionadas, do ponto de vista de analytics, é mais dados para análise.

Análise comparativa dos métodos

Na tabela abaixo, temos um comparativo das características basilares do PIX em relação aos atuais serviços de pagamento disponíveis no mercado.

CaracterísticasTradicionalPIXCriptos moedas
DisponibilidadeLimitado aos dias úteis e horario comercial24/724/7
ConveniênciaAcesso presencial, caixas eletrônicos e (recentemente) pelo celularAplicativo de celular QR CodeAplicativo de celular com ou sem QR Code
VelocidadeDe poucos minutos até 2 dias úteis10 segundosInstantâneo ou até 24 horas dependendo da ocupação da rede
SegurançaSenhas simples, cartões e/ou biometriaAssinatura digitalChaves criptográficas
Ambiente abertoNãoSimSim
Multiplicidade de casos de usoSim, mas baixa interoperabilidaeSimSim
Fluxo de dados com informações agregadasNãoSimSim
Comparativo das características do Pix e outros métodos de pagamento.

Fluxo de adoção do PIX

Nesta visualização, apresentamos nossa interpretação de um fluxo simplificado (visão macro da jornada) de um usuário até a sua primeira transferência monetária utilizando o PIX. Todavia, caso tenha adições importantes, deixe seu comentário no artigo que tão pronto revisaremos. 

Fluxo de adoção de usuários da plataforma.

Conclusões

Neste artigo apresentamos o resultado de nossa pesquisa sobre o PIX, comparamos suas características com outros modelos de métodos de pagamento. Em síntese, o baixo custo e a facilidade de acesso colocam o PIX em vantagem diante do que temos disponível hoje no país.

Acreditamos que com a adoção em massa da solução pelos brasileiros, o PIX conseguirá agregar informações que o tornarão o banco de dados mais valioso da américa latina e uns dos mais valiosos do mundo. Por esse motivo, nosso principal alerta se dá para manutenção de sua segurança em seus vários aspectos.

Do ponto de analytics, o banco central teme pela perda do rastreamento dos fluxos financeiros das operações no mundo. Desta forma, este controle (centralização) permite muitos benefícios tais como evitar fraudes financeiras, lavagem de dinheiro e relatórios precisos da realidade do país. 

Sem o custo dos pagamentos este dinheiro ficará no setor produtivo que poderá produzir outros bens e serviços na sociedade.

Ainda, acreditamos que será um grande passo do Brasil no caminho da digitalização de serviços que impulsionarão estratégias de precificação dinâmicas em diversos setores que se beneficiam com uma economia cada vez mais digital.

Quem é a Aquarela Analytics?

A Aquarela Analytics é pioneira e referência nacional na aplicação de Inteligência Artificial na indústria e em grandes empresas. Por meio da plataforma Vortx e da metodolgia DCIM (Download e-book gratuito), atende clientes importantes, como: Embraer (aeroespacial), Scania e Grupo Randon (automotivo), SolarBR Coca-Cola (alimentício), Hospital das Clínicas (saúde), NTS-Brasil (óleo e gás), Votorantim (energia), dentre outros. Fique atento às novas publicações diárias da Aquarela Analytics no Linkedin e assinando a nossa Newsletter mensal! 

Autores

As 5 falhas dos sistemas tradicionais de gestão de pessoas

As 5 falhas dos sistemas tradicionais de gestão de pessoas

Neste artigo trazemos alguns dos principais problemas encontrados em cenários de gestão de pessoas em organizações de médio/grande porte.

Ao elucidar estes pontos, buscamos colaborar com os gestores de recursos humanos e CEOs na busca de uma solução que aumente o nível de maturidade de gestão de dados e pessoas utilizando analytics e inteligência artificial.

Vamos partir de um levantamento dos principais problemas para se chegar a fronteira tecnológica e de processo de RH.

01 – Falta de integração dos dados dos talentos com o DNA da empresa. 

Um erro comum nas organizações é a forma como fazem a gestão de times autônomos. A departamentalização gera tanto separações físicas como lógicas que se refletem diretamente na forma como os dados são organizados e armazenados, criando silos de informação que separam, quase que fisicamente, informações que deveriam ser complementares.(O que são datasets de análise?). 

Esse foco restrito pode impedir que sua empresa utilize todo o potencial de sua estratégia de talentos. A integração dos dados de gerenciamento de talentos deve se expandir muito além do processo de contratação, passando por todo o ciclo de vida dos funcionários, incluindo seleção, desenvolvimento, promoção e sucessão. Em resumo,

A análise de pessoas e estratégia de data analytics deve ser tecida com cuidado no próprio DNA da sua organização.

02 – Falta de integração puramente de dados 

Em muitos casos, as análises possuem diferentes versões em diferentes planilhas feitas por diferentes colaboradores. Com frequência, as organizações correm para reunir o máximo de dados possível, a partir de tais planilhas, e em seguida abandonam os arquivos, sem nunca usar a maior parte. 

A pura e simples coleta de dados não fornecerá nenhum valor para o seu processo de acompanhamento de performance de talentos se não estiver vinculada a uma estratégia sólida de indicadores e analytics.

O benefício de criar, cuidadosamente, um processo integrado de sistemas e significados para people analytics é complexo. Entretanto, assim como um quebra-cabeça, somente depois de colocar corretamente cada peça de sua estratégia de talento em seu lugar, é que o quebra-cabeça passa a ter significado. Felizmente na Aquarela já temos alguns cases muito relevantes na área que mostram a figura completa.

03 – Falta de método e experiência de integração processos e analytics 

Uma das dificuldades mais comuns que as organizações enfrentam ao tentar integrar a análise de pessoas ao processo de contratação é identificar o responsável pela implementação. Falta metodologia de integração (DCIM – analytics business canvas). 

Em muitos casos, a gerência coleta os dados que julga necessários e os despeja na mesa da equipe de RH, que normalmente é mais especialista em pessoas do que em análise de dados (duas áreas complexas por natureza). Essa estratégia quase nunca funciona. 

A gerência, a TI e o RH devem trabalhar juntos, como uma equipe, durante todo o processo de construção. E para facilitar a integração desses times e suas regras de negócio dentro de um sistema que seja integrado e escalável, sugerimos a contratação de empresas de analytics para mediação e construção do processo (Como escolher o melhor fornecedor de data analytics). 

O processo de coleta de dados não deve começar até que os grupos se unam para criar um conjunto claro de metas e objetivos e desenvolver uma estratégia para alcançá-las (metodologia de analytics).

Com a integração entre os times de analytics, gerência, TI e o RH, haverá uma grande mitigação de problemas relacionados tanto a processos quanto a qualidade de dados. Se tudo ocorrer bem, mais rápido acontecerá a automação de processos. 

04 – Falta de uma Arquitetura, Mensuração dos Resultados e Senso de Justiça

Um ponto que costuma ser comum em empresas com um grande número de funcionários ( acima de 500), é a forma como a arquitetura da informação é construída.

Por via de regras há silos de informações (grupos de dados e informações separados), que surgem a partir da otimização que cada departamento da empresa faz ao executar suas funções. 

Por si só, não há nada de errado com isso. Entretanto, no contexto de gestão de pessoas, isso pode ser muito prejudicial a produtividade e bem estar dos colaboradores. Pois, a partir do momento que um determinado membro de uma equipe passa a receber instruções diferentes de gestores diferentes sobre um fato objetivo, cada gestor tem a informação de um silo diferente.

É normal que seja necessário tempo para que o membro em questão possa se organizar para entender e atender ambas as instruções, ou fazer com que ambos os gestores concordem com uma das instruções. 

A gestão de pessoas com analytics pode evitar que isso aconteça por meio uma plataforma (Conheça o Vortx) que materialize uma arquitetura integrada e com visibilidade transversal. Isso, possibilita que todos os gestores estejam em sincronia e minimiza a assimetria de informações.

Além de possibilitar que a mensuração dos resultados possa ser facilmente normalizada de acordo com regras de negócio.

Para que assim, que cada vez mais resultados sejam medidos de maneira objetiva e de acordo com conjunto de metas e objetivos e uma arquitetura de indicadores harmonizada e coerente (dicas sobre a criação de indicadores).

A arquitetura de mensuração dos resultados proposta pela gestão de pessoas com analytics ataca um outro problema que costuma emergir em gestão de pessoas tradicionais. O senso de injustiça em relação às avaliações dos resultados. 

Quando os resultados são avaliados a partir de silos de informações é comum que surjam situações em que os avaliados não compreendam a avaliação. Pois, os avaliados podem ter acesso a um silo de informações que não é o silo que gerou os resultados utilizados para sua avaliação.

Uma situação como essa não é agradável nem para o avaliador nem para o avaliado. Exigindo assim a criação de esforços para que isso seja evitado.

A arquitetura da gestão baseada em analytics permite (deve permitir) que as avaliações sejam feitas de maneira bastante objetiva, mas sem eliminar os aspectos qualitativos da pessoas.

Deve-se destacar que os aspectos qualitativos, apesar de não ter sido mencionado de maneira explícita, são inseridos dentro da arquitetura de resultados baseada em analytics como qualquer outro aspecto de performance dos membros das equipes.

Dessa maneira uma arquitetura integrada possibilita que as equipes de analytics, gestão e RH/Desenvolvimento possam definir conjuntamente os objetivos e metas, medir de maneira transversal os resultados, e a partir dos resultados realizar avaliações transparentes. 

05 – Falta de Tomada de ações a partir de avaliações

O quinto contraste entre a gestão de pessoas tradicional e gestão de pessoas com analytics é visto na tomada de ações a partir de uma avaliação.

A gestão tradicional costuma ter as decisões tomadas com base no conhecimento de especialistas.

Nos casos em que as empresas têm seus processos maduros é elaborado um documento com tais ações que serve como guia para orientar futuras decisões. 

Essa prática é bastante importante porém limitada, pois funciona como uma maneira de organizar o conhecimento tácito dos especialistas da empresa. Em uma escala de nível de maturidade de dados, estamos falando de um cenário no primeiro nível (conheça os níveis criados pela Aquarela).

Com a utilização de analytics e inteligência artifical para a gestão de pessoas possibilita gerar um grande avanço nas ações tomadas a partir das avaliações dos resultados.

A gestão baseada em sistemas de inteligência pode gerar recomendações customizadas para cada membro a partir de uma avaliação. E que em alguns casos não poderia ser possível a partir de um avaliador humano, dependendo da complexidade da análise. 

Os algoritmos são capazes de detectar quais ações, dentro das ações utilizadas pela empresa, tem um impacto maior para a evolução do desempenho dos membros.

Dessa forma o conhecimento tácito dos especialistas é a base sobre qual os algoritmos aprendem o que funciona e o que não funciona.

Para então recomendar ações personalizadas que possibilitam uma gestão de pessoas mais harmônica e em um nível mais alto na escala de maturidade de analytics.

Conclusões e recomendações 

Estamos caminhando para um cenário com um grande aumento da digitalização da economia, novos sistemas estão sendo implantados em diversas áreas das organizações.

Neste artigo buscamos mostrar um pouco mais da nossa visão sobre os sistemas de people analytics com a visão de tipos de desafios enfrentados em situações de gestão de pessoas mais tradicionais e de grande escala.

Caracterizar os principais problemas para a gestão é um primeiro passo para gerar mudanças e criar estratégias.

Esperamos que esses pontos possam ajudar o gestor a transmitir a necessidade de mudança em suas administrações. Sobretudo em negócios onde há mão de obra intensiva, como as áreas de força de vendas por exemplo. 

Na Aquarela utilizamos a plataforma Vortx para aumentar consideravelmente o nível de maturidade da gestão de pessoas com uso de inteligência de dados, cobrindo cada um desses pontos levantados.

Caso tenham interesse em conhecer mais deste produto, não deixe de entrar em contato. 

Quem é a Aquarela Analytics?

A Aquarela Analytics é pioneira e referência nacional na aplicação de Inteligência Artificial na indústria e em grandes empresas. Por meio da plataforma Vortx e da metodolgia DCIM (Download e-book gratuito), atende clientes importantes, como: Embraer (aeroespacial), Scania e Grupo Randon (automotivo), SolarBR Coca-Cola (alimentício), Hospital das Clínicas (saúde), NTS-Brasil (óleo e gás), Votorantim (energia), dentre outros. Fique atento às novas publicações diárias da Aquarela Analytics no Linkedin e assinando a nossa Newsletter mensal! 

Autores

Como implementar precificação dinâmica com sucesso.

Como implementar precificação dinâmica com sucesso.

Já não é mais novidade que sistemas de precificação dinâmica – e inteligente – têm roubado a cena em muitos segmentos do mercado e da indústria, começando pelo e-commerce (que já nasceu digital).

Podemos afirmar com elevado grau de confiança, assim como é discutido pela Forbes, que no futuro, as estratégias de precificação vão incorporar cada vez mais o poder computacional de automação e inteligência, possibilitando assim a flutuação adequada de preços de acordo com as condições de mercado.

O conceito por trás de todo sistema de smart-pricing é um dos mais elementares dentro das ciências econômicas: 

“quando oferta e demanda estão em equilíbrio é quando se obtém a maior eficiência”. 

Ou seja, falar em tornar o preço dinâmico de acordo com as condições de mercado é falar em buscar a equivalência entre oferta e demanda e, por consequência, gerar a eficiência que se traduz em maximização de lucros. 

Segundo Louis da Forbes, em tempos difíceis, como na pandemia do COVID-19, ser eficiente significa sobreviver e minimizar os impactos negativos sobre os negócios, e é por isso que a precificação dinâmica ganha ainda mais importância.

Na Aquarela, desenvolvemos uma metodologia ágil de projetos de analyticsa DCIM -, que garante eficiência e rapidez aos nossos clientes, inclusive em projetos de precificação dinâmica. 

Nas seções a seguir, mostraremos como conseguimos ter implementações bem-sucedidas de precificação dinâmica.

Desenhando uma estratégia de precificação

A base para o sucesso de um projeto de precificação dinâmica é o completo e correto mapeamento dos processos da estratégia de precificação adotada pela empresa, começando na produção, passando pela distribuição e terminando na venda final, considerando também as características de cada produto ou serviço a ser precificado. Cada etapa da cadeia produtiva terá seu peso sobre o preço final.

Com a total compreensão desses processos, é aberta a possibilidade de automatizá-los. O preço pode variar conforme a hora, dia da semana ou qualquer outra unidade de tempo. Ou então, de acordo com a região de comercialização, com a quantidade de estoque ou com as condições de concorrência e mercado. 

Todos os fatores de custo e oportunidade podem ser considerados em um sistema automatizado de precificação dinâmica, singularmente ou em conjunto, desde que os processos estejam bem definidos e mapeados, de modo que tornem evidentes as regras de negócio.

E se não houver uma estratégia consolidada de precificação ou os processos não estão bem definidos? Nestes casos, a equipe de analytics contará com a ajuda dos especialistas de pricing e revenue management para estudar o estado da arte das estratégias de precificação do setor em questão, assim podendo, em conjunto, estabelecerem as estratégias mais adequadas para a empresa e/ou melhor estruturar os processos já existentes.

Leia também: Tipos de estratégias de precificação dinâmica.

Dados

Atualmente, já não é mais possível discordar da frase “data is the new oil!”. A coleta de dados de preços, fechamento de contratos ou qualquer outro tipo de efetivação de vendas é de extrema importância para os times de analytics.

O que chamamos de maturidade de dados não é somente a coleta, mas também um pipeline tecnológico que garanta o armazenamento adequado  sem perda de informação. Ainda mais maturidade a empresa tem se já consegue extrair as próprias análises dos dados. Quanto maior a maturidade, mais rapidamente e de forma mais eficiente é possível extrair a inteligência, como mostrado na figura a seguir:

No contexto de precificação dinâmica, a inteligência pode ser entendida como a extração de regras e insights que não são explícitos para as equipes de pricing. Pela nossa experiência, esse olhar do cientista de dados é extremamente agregativo na construção destes sistemas dinâmicos de precificação.

Caso não exista uma maturidade de dados suficiente para viabilizar o projeto, como proceder?

Para este problema, podemos oferecer um projeto estruturante, que tem como objetivo ajudar empresas a construírem uma sólida cultura de dados. Este curto projeto é dividido em duas partes:

  • na criação do pipeline de coleta e armazenamento de dados; e
  • na definição da ontologia de preços e harmonização de indicadores.

Esta última, se encarrega de garantir que o dado coletado e armazenado viabilize a extração de informação, conhecimento, insights e, por fim, a inteligência, ou seja, garante que o dado tenha, de fato, valor para os planos futuros da empresa. Um pouco deste processo está descrito neste artigo – Dos dados à inovação.

Tecnologia

De nada adianta todo o trabalho dos tópicos anteriores ser realizado se não há tecnologia já existente na empresa que consiga dar conta de atualizar os preços na periodicidade desejada. Por exemplo, de nada adianta existir uma ferramenta que consegue tornar os preços dinâmicos em tempo real se as alterações de preço são feitas manualmente.

Quando a dinamicidade acontece em tempo real, é necessário maior robustez no stack tecnológico das empresas envolvidas. Por isso, o levantamento dos requisitos de sistemas e integrações deve ser feito, para que exista uma estimativa de tempo de implementação, com um cronograma coerente antes do início do projeto.

Precificação dinâmica e inteligente

Neste ponto, já temos um sistema de precificação dinâmica quase completo: temos um sistema operacional que consegue provocar variações de preços de acordo com as condições que foram previamente estabelecidas por regras de negócios, sejam elas extraídas dos especialistas de pricing ou de insights dos dados. O que falta?

O que pode passar despercebido, é que a dinamicidade dos preços pode ficar comprometida, travada, pelas próprias regras de negócio que embasaram o sistema.

O trade-off é claro: elevado grau de controle versus dinamicidade dos preços. Além disso, as regras normalmente não conseguem ser suficientemente genéricas a ponto de conseguirem definir o preço ideal para todas as situações possíveis.

Neste cenário é que entram as aplicações de Inteligência Artificial e Machine Learning, que aparecem como o elemento capaz de aprender, com extensas bases de dados, os padrões mais bem sucedidos do passado, e assim conseguir definir o preço ideal para cada situação. Ou então, com uma abordagem de modelagem diferente e um tanto quanto mais complexa, é possível fazer com que a inteligência artificial consiga definir preços a partir de outros fatores, sem que os padrões do passado sejam a base principal.

A vantagem de um sistema de precificação dinâmica orientado por uma inteligência artificial é que ele consegue ser mais versátil. No entanto, isso implica que as equipes de pricing abram mão do controle sobre a definição de preço, o que pode ser algo não tão desejável.

A solução para o impasse pode ser um sistema híbrido. Um sistema de precificação que tenha elementos gerados por uma inteligência artificial e complementados pelo conhecimento de negócio de especialistas, é o que chamamos de inteligência expandida. Do ponto de vista gerencial, essa é uma opção bastante atrativa, pois consegue equilibrar certa versatilidade e entregar um certo grau de controle no processo de definição de preços.

Avaliação de resultados

Por fim, mas não menos importante, é necessária uma metodologia consolidada que consiga provar a eficácia de um sistema dinâmico de preços versus o sistema tradicional. Para tanto, é bastante comum e eficiente utilizar a metodologia de diferenças das diferenças, que admite um grupo de controle (tradicional) e um grupo de testes (dinâmico) e permite comprovar, estatisticamente, a eficácia ou não da nova abordagem de precificação.

Case

Como exemplo, trouxemos um case utilizando a plataforma Vortx no segmento da educação privada, onde existia um complexo sistema de precificação não automatizado, com extensas regras de negócio para definir a mensalidade/bolsa de estudo ideal para cada aluno.

Com a estruturação, mapeamos os processos e adicionamos fatores como a distância do aluno até a escola, a renda do responsável, a escola que o aluno estudou anteriormente, entre outros 200 variáveis disponíveis no dataset enriquecido da Aquarela. Também adicionamos tratamentos automatizados de outliers (o que são outliers?) para não deixar passar situações que fogem da normalidade.

Partindo disso, todo o processo foi estudado e revisado por cientistas de dados em conjunto com uma equipe de pricing / revenue, removendo e/ou reformulando as regras de precificação existentes. Como resultado, fomos capazes de:

  • Propor insights e regras que agregaram ainda mais robustez ao processo existente;
  • Gerar um aumento de 5% no faturamento total de negociações; e
  • Criar uma maior transparência no processo decisório da alocação de bolsas de estudos.

Utilizando modelagem estatística avançada, fomos capazes de propor indicadores, utilizados como base para a precificação da mensalidade do aluno, a partir de machine learning. Assim, este sistema híbrido foi concluído e colocado em operação dentro de 4 meses.

Conclusão

Os métodos e tecnologias para precificação dinâmica estão chegando ao mercado, incluíndo setores mais tradicionais. Vimos nos primeiros cinco tópicos as etapas que consideramos fundamentais em projetos de precificação dinâmica.

A decisão de digitalizar e dinamizar a escolha dos preços dos produtos/serviços, sabemos, não é simples. Anteriormente escrevemos alguns aspectos importantes neste artigo Escolhendo fornecedores de inteligência artificial e data analytics.

Com nossa metodologia ágil e seguindo o que foi colocado acima, conseguimos entregar uma solução de precificação dinâmica rápida e eficaz em uma área tradicional como a da educação.

Quem é a Aquarela Analytics?

A Aquarela Analytics é pioneira e referência nacional na aplicação de Inteligência Artificial na indústria e em grandes empresas. Por meio da plataforma Vortx e da metodolgia DCIM (Download e-book gratuito), atende clientes importantes, como: Embraer (aeroespacial), Scania e Grupo Randon (automotivo), SolarBR Coca-Cola (alimentício), Hospital das Clínicas (saúde), NTS-Brasil (óleo e gás), Votorantim (energia), dentre outros. Fique atento às novas publicações diárias da Aquarela Analytics no Linkedin e assinando a nossa Newsletter mensal! 

Autores