Os 3 pilares da maturidade de times de analytics: Pessoas, Sistemas e Processos.

Os 3 pilares da maturidade de times de analytics: Pessoas, Sistemas e Processos.

A maturidade do time de analytics importa, e muito. Por que?

Esta semana ficamos sabendo de um caso bastante triste de uma empresa de investimentos que apresentou de forma incoerente um enorme saldo negativo na conta de um usuário, levando-o ao suicídio. Referência 1 e 2.

A história é trágica, mas bastante real sobre a necessidade de reflexão sobre a maturidade dos times de analytics responsáveis por sistemas que, direta ou indiretamente, interagem com a realidade em um novo cenário, com tomadas de decisões que vão além de valores determinísticos e começam a se basear em decisões probabilísticas.  

A maturidade do time de analytics é importante, e é resultado da soma da maturidade das pessoas, dos sistemas e dos processos envolvidos na construção das soluções analíticas.

A maturidade das pessoas 

Seja qual for o tipo de análise, é sempre importante lembrar que o início (alfa) e fim (ômega) da existência do sistema é servir as pessoas, seja utilizando ou não algoritmos de inteligência inteligência artificial

Tal situação já é abordada por algumas empresas referência, como a Rstudio e H2o, que abrem seus códigos para trabalhar em comunidade, ao mesmo tempo que sugerem aos usuários das plataformas que as utilizem para fazer o “bem”. 

Claro que ainda existirão situações onde profissionais amadores, utilizando software pirateado (fraudado), aplicarão golpes e fraudes. A questão central é que maturidade das pessoas se refere a formação dos “cidadãos” a priori. A formação de um cidadão cientista de dados é um longo caminho e já foi abordado neste artigo com vídeo “por que cidadãos cientista de dados são raros”.

Em adição, e de forma mais técnica, um dos passos mais importantes para elevar a maturidade humana dos times de analytics é a promoção da empatia. Em nosso histórico, os projetos de maior sucesso estão associados às equipes com formações multidisciplinares, baixo preconceito (tecnológico/social/racial e outros) e fundamentalmente uma grande curiosidade para entender diferenças.

A melhor forma de atingir uma solução tecnológica e útil no final do projeto é trazendo clientes e usuários para o desenvolvimento, e entendendo profundamente as suas necessidades e sonhos.

Empatia no mundo de software é um americano se dispondo a aprender português para entender o porquê brasileiros (no exterior) ficam puxando as portas que só precisavam ser empurradas para abrir. 

(Joni Hoppen, 2020)

Um vasto conhecimento em analytics não garante desambiguação dos resultados, ou seja, que as pessoas que consomem essas informações terão a mesma interpretação que aqueles que a conceberam tiveram. A análise de ambiguidade é apenas um dos possíveis problemas. 

O time de analytics deve prover o entendimento dessas informações, e pode recorrer a ferramentas consolidadas de Service Design e UX, bem como Design de Indicadores para melhorar a eficiência e segurança da entrega dessas informações. 

Processos de dicionarização de dados também são muito relevantes nesse quesito (O que é um dicionário de dados de analytics?). Afinal, quando um usuário comete um erro, por trás geralmente existe um erro de desenvolvimento e design.

A maturidade dos sistemas 

Muito da maturidade dos sistemas de informação está diretamente ligada ao risco tecnológico assumido pelos arquitetos de solução. No final do dia são eles que definem:

  • Qual ferramenta será utilizada para resolver qual problema, R, Python ou Java
  • O banco de dados será Oracle, Mongodb ou Postgres?
  • A nuvem será Amazon, Microsoft, IBM ou Oracle?
  • Os times tem preparação técnica para o stack tecnológico?  
  • O tempo de processamento é um fator crítico? 

Junto a essas perguntas estão seus porquês, o que dá o realce da complexidade do desafio. Acreditamos ser importante que pelo menos um membro da equipe tenha vivenciado projetos de sucesso e fracasso no que tange a arquitetura de informação. Esse profissional normalmente vem do mercado e não necessariamente da universidade. A comparação entre estes dois é um tema rico para outro artigo. 

Além das questões técnicas de cada tecnologia, uma recomendação importante aos profissionais é a necessidade de aprimoramento contínuo em metodologias de teste. Isso mesmo, teste de software. Embora não seja o tema mais esperado nas palestras (como é a Inteligência artificial), o teste de software é o responsável para garantir que todo o teatro fique de pé antes, durante e depois da apresentação. O bom gestor deve olhar para este aspecto com bastante atenção. 

A maturidade dos processos 

Os processos, assim como pessoas e tecnologias, podem variar enormemente em tamanho, complexidade, formato e risco de negócio (FIA.com.br). 

Vejamos um processo de pricing (precificação) como exemplo: 

  • Quais são os dados básicos de análise? 
  • Como será o fluxo da régua de precificação? 
  • Quem são os atores e sistemas envolvidos na precificação? 
  • Quais produtos entram ou saem de cada régua? 

Como aqui temos um processo grande e potencialmente bastante complexo, ele demora para ser realizado. Os testes serão mais complexos, as interações entre os vários times é praticamente certa, e os requisitos de sistemas tendem a uma complexidade que só poderá ser domada com metodologias consistentes de gestão de sistemas. Estas por sua vez estão na conta do risco tecnológico das empresas. 

Alguns dos processos que consideramos mais relevantes para analytics, e que talvez você ainda não conheça, são a biblioteca de processos ITIL ( Information Technology Infrastructure Library, que em português pode ser traduzido por Biblioteca de Infraestrutura de Tecnologia da Informação). 

Em resumo, segundo a Venki 2020 – O ITIL é o padrão de boas práticas para gerenciamento de serviços de tecnologia da Informação mais amplamente empregado no mundo, e vem sendo construído e aprimorado desde 1980. 

Do ponto de vista de analytics, vemos um ótimo encaixe destes processos no dia a dia de equipes de alta performance em projetos de pricing, manutenção preditiva, people analytics e outros. Um mergulho neste mundo de governança de dados é muito proveitoso. 

Conclusão

Em mais de 10 anos desenvolvendo soluções de diversos tamanhos e em diferentes contextos, conquistamos uma grande maturidade técnica a partir dos padrões encontrados em projetos de analytics, e também na construção da plataforma Vortx

Concluímos que a maturidade dos times é importante para os negócios, para manutenção da marcas (cada vez mais digitais) e para melhorar não só a qualidade dos modelos de machine learning, mas também garantir a consistência dos dados disponibilizados no final dos processos. 

A contratação de equipes já desenvolvidas de analytics não é um processo fácil. Até já publicamos anteriormente um artigo mais detalhado sobre esse processo, porém alguns critérios podem ser levados em consideração na hora de escolher o melhor fornecedor de Data Analytics? 

Para fechar, deixamos algumas recomendações chaves:

  • Preste atenção ao principal objetivo das pessoas envolvidas, avaliando se estão alinhadas aos objetivo de negócio e a visão humanística do profissional. 
  • Segurança de dados não é simplesmente não ser hackeado, é garantir que o sistema não entrega informações incorretas. Em vários casos isso pode ser fatal. Não deixe que os sistemas criarem fake news!
  • Desenvolva uma cultura orientada a ciência, com um forte cunho de testes dos casos de uso, e possibilidade de replicações e cenarização. Escolha os profissionais mais criativos para essa parte, mesmo que pareça contra intuitivo.
  • Ciência de dados não se resume apenas a o desenvolvimento de um software. É importante compor um time com perfil multidisciplinar que atue tanto na construção de modelos complexos, quanto na definição e acompanhamento das metas, entendimento das necessidades dos stakeholders e construção de pipelines seguras e otimizadas.
  • O mais importante é que o usuário final entenda o significado dos indicadores, e não apenas o time de desenvolvimento e análise. Quando isso não ocorre, há uma falha grave de comunicação.
4 métricas fundamentais para qualidade de dados em analytics.

4 métricas fundamentais para qualidade de dados em analytics.

Qualidade de dados tem sido um dos temas mais abordados nos projetos de estruturação em data analytics, sendo um dos principais indicadores do nível de maturidade das organizações. Nossa percepção ao longo dos últimos 10 anos atuando em diferentes setores, é que a Qualidade de Dados é sem dúvida um dos principais fatores ligados ao sucesso ou fracasso dos projetos. 

Embora a baixa qualidade dos dados afete negativamente o Analytics,  destacamos que o contrário – possuir dados de alta qualidade – não é garantia de impactos positivos, pois sucesso de um projeto ainda depende de uma estratégia de negócio adequada, alinhada a uma metodologia de trabalho. Neste artigo, sugerimos algumas métricas para avaliar seus próprios dados e priorizar suas análises.

Mas antes de começarmos, vale deixar um tópico claro:

O que é o índice de qualidade de dados.

O Índice de Qualidade de Dados (IQD) é a composição de diversas métricas (indicadores), que como o nome sugere, busca mensurar a qualidade dos dados analisados. O IQD deve ser empregado na priorização de decisões sobre a utilização de determinados conjuntos de dados (datasets) em projetos de análises de dados. 

Quando bem ajustado pode informar, de forma assertiva, quais dados são mais ou menos adequados para análise e uso de inteligência artificial.

Completude 

A completude é definida como o percentual de registros ou campos preenchidos. 

Ex. Se 100 pessoas recebem um formulário e apenas 40 respondem completamente (completude de registro). Temos 40% de preenchimento. 

Se destes 40 respondentes, 20 não preencheram alguma resposta temos 50% de completude do preenchimento do respectivo campo.

Case Aquarela: Já fizemos uso da Inteligência Artificial para ajudar o Governo do Estado de São Paulo (e seus 645 municípios) a melhorar a completude dos registros de óbito e nascimento nos sistemas DataSus Sim/SINASC.

No mapa abaixo, estão pontuados 397 municípios com mais de 30 nascimentos ocorridos durante um ano, junto ao Índice de Completude dividido em faixas:

  • Verde – alto completude
  • Amarelo – Média completude
  • Vermelho – Baixa completude

O  IQD em conjunto com outros indicadores possibilitou a criação de um Sistema de Recomendação capaz de apontar quais Municípios, Profissionais de Saúde e partes do formulário tinham mais ou menos lacunas, o que resultou em novas e adequadas estratégias de treinamento, redução de custos e claro, aumento da performance do setor público.

Acurácia / Veracidade – Erro de observação

A acurácia e a veracidade avaliam o quão próximo ou distante está a informação da realidade. Ex. A temperatura de todos os pacientes está em 39 graus, será que todos podem estar com febre ao mesmo tempo? Será que é verdade?

Existem diversas formas de verificação, tais como; mudanças na técnica de amostragem (O que é amostragem), substituição dos sensores térmicos, validação da metodologia de captura, transferência de escalas e até uma boa revisão do dicionário de dados, para verificar se as unidades de medidas estão de acordo. 

Já tivemos um caso onde a mensuração estava informada como metros cúbicos, porém na evolução das análises esse indicador apresentou resultados muito incoerentes. Com mais algumas horas de investigação e diversas interações com os especialistas, descobrimos que aqueles números, na verdade, estavam falando de caixas e não metros cúbicos. Um bom analista deve ser desconfiado sempre. 

Consistência

A consistência de um conjunto de dados está associada com vários aspectos, tais como: 

  • Frequência dos preenchimentos;
  • Integração dos dados entre vários bancos de dados;
  • Mudanças nas fórmulas de cálculo ao longo de uma série;
  • Duplicidades ou falta de registros;
  • Presença de outliers (o que são outliers e como tratá los?).

O trabalho de verificação pode ser inicialmente manual, com uso intensivo de visualizações de dados e técnicas estatísticas como verificação de máximas, mínimas, médias, distribuições e assim por diante. 

Para a consistência de dados, menos é mais, por isso sugerimos uma boa discussão entre as equipes de TI e negócios sobre a arquitetura dos bancos de dados durante conformação de datasets analíticos

Em um projeto de pricing para educação, economizamos milhares de horas despendidas com as incoerências entre códigos antigos, novos e não informados. Pequenos ajustes que impactam grandes mudanças trazendo melhores resultados. 

Validade

A validade está ligada ao formato dos dados esperados com os dados informados, mais ou menos um cara crachá que busca garantir que os dados estejam válidos em relação aos modelos adotados. Segue alguns exemplos de dados inválidos frequentes: 

  • Ponto e Vírgula nas casas decimais no padrão Brasileiro (1.345,20) e no padrão americano (1,345.00). 
  • Datas em diferentes formatos “12/janeiro/2020”, “12-01-2020”.
  • Codificação da tabela de acentos (encoding padrão UTF8, Latin-1 e outros tantos) incompatibilidades geram acentos estranhos  (este tópico merece um artigo específico) 

Já realizamos a organização de validade em bilhões de registros se contarmos todos os projetos que já atuamos, como principal recomendação, sempre busque garantir a validade dos dados na origem, se ele for capturado inválido é muito mais trabalhoso.

Conclusões

Neste artigo apresentamos 4 indicadores/métricas de qualidade de dados com exemplos práticos de cases já vivenciados. O conjunto das métricas pode ser utilizado para criar um índice de qualidade de dados, por setor ou departamento da empresa, sendo muito útil na evolução da maturidade de analytics nestes ambientes. 

Vale notar que algoritmos de inteligência artificial não se restringem somente a análises preditivas e prescritivas. Eles podem auxiliar na melhoria dos indicadores, detecção outliers e automação de processos de higienização de dados brutos, por exemplo.  

Vemos que sistemas e práticas de manutenção de métricas são ainda pouco cultivadas, mas devem ganhar força e forma com o movimento e intensificação da digitalização da economia e crescimento da área de data analytics nas empresas. Isso certamente poderá auxiliar na garantia da qualidade da informação dos processos de negócio existentes.  

Trabalhamos com grandes corporações e sempre buscamos utilizar técnicas de tecnologias de analytics de forma prudente, seguindo os conceitos aqui abordados. Estamos a disposição para dúvidas ou sugestões sobre o tema.

 

As 5 falhas dos sistemas tradicionais de gestão de pessoas

As 5 falhas dos sistemas tradicionais de gestão de pessoas

Neste artigo trazemos alguns dos principais problemas encontrados em cenários de gestão de pessoas em organizações de médio/grande porte. Ao elucidar estes pontos, buscamos colaborar com os gestores de recursos humanos e CEOs na busca de uma solução que aumente o nível de maturidade de gestão de dados e pessoas utilizando analytics e inteligência artificial.

Vamos partir de um levantamento dos principais problemas para se chegar a fronteira tecnológica e de processo de RH.

01 – Falta de integração dos dados dos talentos com o DNA da empresa. 

Um erro comum nas organizações é a forma como fazem a gestão de times autônomos. A departamentalização gera tanto separações físicas como lógicas que se refletem diretamente na forma como os dados são organizados e armazenados, criando silos de informação que separam, quase que fisicamente, informações que deveriam ser complementares.(O que são datasets de análise?). 

Esse foco restrito pode impedir que sua empresa utilize todo o potencial de sua estratégia de talentos. A integração dos dados de gerenciamento de talentos deve se expandir muito além do processo de contratação, passando por todo o ciclo de vida dos funcionários, incluindo seleção, desenvolvimento, promoção e sucessão. Em resumo,

A análise de pessoas e estratégia de data analytics deve ser tecida com cuidado no próprio DNA da sua organização.

02 – Falta de integração puramente de dados 

Em muitos casos, as análises possuem diferentes versões em diferentes planilhas feitas por diferentes colaboradores. Com frequência, as organizações correm para reunir o máximo de dados possível, a partir de tais planilhas, e em seguida abandonam os arquivos, sem nunca usar a maior parte. 

A pura e simples coleta de dados não fornecerá nenhum valor para o seu processo de acompanhamento de performance de talentos se não estiver vinculada a uma estratégia sólida de indicadores e analytics.

O benefício de criar, cuidadosamente, um processo integrado de sistemas e significados para people analytics é complexo. Entretanto, assim como um quebra-cabeça, somente depois de colocar corretamente cada peça de sua estratégia de talento em seu lugar, é que o quebra-cabeça passa a ter significado. Felizmente na Aquarela já temos alguns cases muito relevantes na área que mostram a figura completa.

03 – Falta de método e experiência de integração processos e analytics 

Uma das dificuldades mais comuns que as organizações enfrentam ao tentar integrar a análise de pessoas ao processo de contratação é identificar o responsável pela implementação. Falta metodologia de integração (DCIM – analytics business canvas). 

Em muitos casos, a gerência coleta os dados que julga necessários e os despeja na mesa da equipe de RH, que normalmente é mais especialista em pessoas do que em análise de dados (duas áreas complexas por natureza). Essa estratégia quase nunca funciona. 

A gerência, a TI e o RH devem trabalhar juntos, como uma equipe, durante todo o processo de construção. E para facilitar a integração desses times e suas regras de negócio dentro de um sistema que seja integrado e escalável, sugerimos a contratação de empresas de analytics para mediação e construção do processo (Como escolher o melhor fornecedor de data analytics). 

O processo de coleta de dados não deve começar até que os grupos se unam para criar um conjunto claro de metas e objetivos e desenvolver uma estratégia para alcançá-las (metodologia de analytics). Com a integração entre os times de analytics, gerência, TI e o RH, haverá uma grande mitigação de problemas relacionados tanto a processos quanto a qualidade de dados. Se tudo ocorrer bem, mais rápido acontecerá a automação de processos. 

04 – Falta de uma Arquitetura, Mensuração dos Resultados e Senso de Justiça

Um ponto que costuma ser comum em empresas com um grande número de funcionários ( acima de 500), é a forma como a arquitetura da informação é construída. Por via de regras há silos de informações (grupos de dados e informações separados), que surgem a partir da otimização que cada departamento da empresa faz ao executar suas funções. 

Por si só, não há nada de errado com isso. Entretanto, no contexto de gestão de pessoas, isso pode ser muito prejudicial a produtividade e bem estar dos colaboradores. Pois, a partir do momento que um determinado membro de uma equipe passa a receber instruções diferentes de gestores diferentes sobre um fato objetivo, cada gestor tem a informação de um silo diferente. É normal que seja necessário tempo para que o membro em questão possa se organizar para entender e atender ambas as instruções, ou fazer com que ambos os gestores concordem com uma das instruções. 

A gestão de pessoas com analytics pode evitar que isso aconteça por meio uma plataforma (Conheça o Vortx) que materialize uma arquitetura integrada e com visibilidade transversal. Isso, possibilita que todos os gestores estejam em sincronia e minimiza a assimetria de informações. Além de possibilitar que a mensuração dos resultados possa ser facilmente normalizada de acordo com regras de negócio. Para que assim, que cada vez mais resultados sejam medidos de maneira objetiva e de acordo com conjunto de metas e objetivos e uma arquitetura de indicadores harmonizada e coerente (dicas sobre a criação de indicadores).

A arquitetura de mensuração dos resultados proposta pela gestão de pessoas com analytics ataca um outro problema que costuma emergir em gestão de pessoas tradicionais. O senso de injustiça em relação às avaliações dos resultados. 

Quando os resultados são avaliados a partir de silos de informações é comum que surjam situações em que os avaliados não compreendam a avaliação. Pois, os avaliados podem ter acesso a um silo de informações que não é o silo que gerou os resultados utilizados para sua avaliação. Uma situação como essa não é agradável nem para o avaliador nem para o avaliado. Exigindo assim a criação de esforços para que isso seja evitado.

A arquitetura da gestão baseada em analytics permite (deve permitir) que as avaliações sejam feitas de maneira bastante objetiva, mas sem eliminar os aspectos qualitativos da pessoas. Deve-se destacar que os aspectos qualitativos, apesar de não ter sido mencionado de maneira explícita, são inseridos dentro da arquitetura de resultados baseada em analytics como qualquer outro aspecto de performance dos membros das equipes.

Dessa maneira uma arquitetura integrada possibilita que as equipes de analytics, gestão e RH/Desenvolvimento possam definir conjuntamente os objetivos e metas, medir de maneira transversal os resultados, e a partir dos resultados realizar avaliações transparentes. 

05 – Falta de Tomada de ações a partir de avaliações

O quinto contraste entre a gestão de pessoas tradicional e gestão de pessoas com analytics é visto na tomada de ações a partir de uma avaliação. A gestão tradicional costuma ter as decisões tomadas com base no conhecimento de especialistas. Nos casos em que as empresas têm seus processos maduros é elaborado um documento com tais ações que serve como guia para orientar futuras decisões. 

Essa prática é bastante importante porém limitada, pois funciona como uma maneira de organizar o conhecimento tácito dos especialistas da empresa. Em uma escala de nível de maturidade de dados, estamos falando de um cenário no primeiro nível (conheça os níveis criados pela Aquarela).

Com a utilização de analytics e inteligência artifical para a gestão de pessoas possibilita gerar um grande avanço nas ações tomadas a partir das avaliações dos resultados. A gestão baseada em sistemas de inteligência pode gerar recomendações customizadas para cada membro a partir de uma avaliação. E que em alguns casos não poderia ser possível a partir de um avaliador humano, dependendo da complexidade da análise. 

Os algoritmos são capazes de detectar quais ações, dentro das ações utilizadas pela empresa, tem um impacto maior para a evolução do desempenho dos membros. Dessa forma o conhecimento tácito dos especialistas é a base sobre qual os algoritmos aprendem o que funciona e o que não funciona. Para então recomendar ações personalizadas que possibilitam uma gestão de pessoas mais harmônica e em um nível mais alto na escala de maturidade de analytics.

Conclusões e recomendações 

Estamos caminhando para um cenário com um grande aumento da digitalização da economia, novos sistemas estão sendo implantados em diversas áreas das organizações. Neste artigo buscamos mostrar um pouco mais da nossa visão sobre os sistemas de people analytics com a visão de tipos de desafios enfrentados em situações de gestão de pessoas mais tradicionais e de grande escala.

Caracterizar os principais problemas para a gestão é um primeiro passo para gerar mudanças e criar estratégias. Esperamos que esses pontos possam ajudar o gestor a transmitir a necessidade de mudança em suas administrações. Sobretudo em negócios onde há mão de obra intensiva, como as áreas de força de vendas por exemplo. 

Na Aquarela utilizamos a plataforma Vortx para aumentar consideravelmente o nível de maturidade da gestão de pessoas com uso de inteligência de dados, cobrindo cada um desses pontos levantados. Caso tenham interesse em conhecer mais deste produto, não deixe de entrar em contato. 

Como implementar precificação dinâmica com sucesso.

Como implementar precificação dinâmica com sucesso.

Já não é mais novidade que sistemas de precificação dinâmica – e inteligente – têm roubado a cena em muitos segmentos do mercado e da indústria, começando pelo e-commerce (que já nasceu digital). Podemos afirmar com elevado grau de confiança, assim como é discutido pela Forbes, que no futuro, as estratégias de precificação vão incorporar cada vez mais o poder computacional de automação e inteligência, possibilitando assim a flutuação adequada de preços de acordo com as condições de mercado.

O conceito por trás de todo sistema de smart-pricing é um dos mais elementares dentro das ciências econômicas: 

“quando oferta e demanda estão em equilíbrio é quando se obtém a maior eficiência”. 

Ou seja, falar em tornar o preço dinâmico de acordo com as condições de mercado é falar em buscar a equivalência entre oferta e demanda e, por consequência, gerar a eficiência que se traduz em maximização de lucros. 

Segundo Louis da Forbes, em tempos difíceis, como na pandemia do COVID-19, ser eficiente significa sobreviver e minimizar os impactos negativos sobre os negócios, e é por isso que a precificação dinâmica ganha ainda mais importância.

Na Aquarela, desenvolvemos uma metodologia ágil de projetos de analyticsa DCIM -, que garante eficiência e rapidez aos nossos clientes, inclusive em projetos de precificação dinâmica. 

Nas seções a seguir, mostraremos como conseguimos ter implementações bem-sucedidas de precificação dinâmica.

Desenhando uma estratégia de precificação

Sem dúvida alguma, a base para o sucesso de um projeto de precificação dinâmica é o completo e correto mapeamento dos processos da estratégia de precificação adotada pela empresa, começando na produção, passando pela distribuição e terminando na venda final, considerando também as características de cada produto ou serviço a ser precificado. Cada etapa da cadeia produtiva terá seu peso sobre o preço final.

Com a total compreensão desses processos, é aberta a possibilidade de automatizá-los. O preço pode variar conforme a hora, dia da semana ou qualquer outra unidade de tempo. Ou então, de acordo com a região de comercialização, com a quantidade de estoque ou com as condições de concorrência e mercado. 

Todos os fatores de custo e oportunidade podem ser considerados em um sistema automatizado de precificação dinâmica, singularmente ou em conjunto, desde que os processos estejam bem definidos e mapeados, de modo que tornem evidentes as regras de negócio.

E se não houver uma estratégia consolidada de precificação ou os processos não estão bem definidos? Nestes casos, a equipe de analytics contará com a ajuda dos especialistas de pricing e revenue management para estudar o estado da arte das estratégias de precificação do setor em questão, assim podendo, em conjunto, estabelecerem as estratégias mais adequadas para a empresa e/ou melhor estruturar os processos já existentes.

Dados

Atualmente, já não é mais possível discordar da frase “data is the new oil!”. A coleta de dados de preços, fechamento de contratos ou qualquer outro tipo de efetivação de vendas é de extrema importância para os times de analytics.

O que chamamos de maturidade de dados não é somente a coleta, mas também um pipeline tecnológico que garanta o armazenamento adequado  sem perda de informação. Ainda mais maturidade a empresa tem se já consegue extrair as próprias análises dos dados. Quanto maior a maturidade, mais rapidamente e de forma mais eficiente é possível extrair a inteligência, como mostrado na figura a seguir:

No contexto de precificação dinâmica, a inteligência pode ser entendida como a extração de regras e insights que não são explícitos para as equipes de pricing. Pela nossa experiência, esse olhar do cientista de dados é extremamente agregativo na construção destes sistemas dinâmicos de precificação.

Caso não exista uma maturidade de dados suficiente para viabilizar o projeto, como proceder?

Para este problema, podemos oferecer um projeto estruturante, que tem como objetivo ajudar empresas a construírem uma sólida cultura de dados. Este curto projeto é dividido em duas partes:

  • na criação do pipeline de coleta e armazenamento de dados; e
  • na definição da ontologia de preços e harmonização de indicadores.

Esta última, se encarrega de garantir que o dado coletado e armazenado viabilize a extração de informação, conhecimento, insights e, por fim, a inteligência, ou seja, garante que o dado tenha, de fato, valor para os planos futuros da empresa. Um pouco deste processo está descrito neste artigo – Dos dados à inovação.

Tecnologia

De nada adianta todo o trabalho dos tópicos anteriores ser realizado se não há tecnologia já existente na empresa que consiga dar conta de atualizar os preços na periodicidade desejada. Por exemplo, de nada adianta existir uma ferramenta que consegue tornar os preços dinâmicos em tempo real se as alterações de preço são feitas manualmente.

Quando a dinamicidade acontece em tempo real, é necessário maior robustez no stack tecnológico das empresas envolvidas. Por isso, o levantamento dos requisitos de sistemas e integrações deve ser feito, para que exista uma estimativa de tempo de implementação, com um cronograma coerente antes do início do projeto.

Precificação dinâmica e inteligente

Neste ponto, já temos um sistema de precificação dinâmica quase completo: temos um sistema operacional que consegue provocar variações de preços de acordo com as condições que foram previamente estabelecidas por regras de negócios, sejam elas extraídas dos especialistas de pricing ou de insights dos dados. O que falta?

O que pode passar despercebido, é que a dinamicidade dos preços pode ficar comprometida, travada, pelas próprias regras de negócio que embasaram o sistema. O trade-off é claro: elevado grau de controle versus dinamicidade dos preços. Além disso, as regras normalmente não conseguem ser suficientemente genéricas a ponto de conseguirem definir o preço ideal para todas as situações possíveis.

Neste cenário é que entram as aplicações de Inteligência Artificial e Machine Learning, que aparecem como o elemento capaz de aprender, com extensas bases de dados, os padrões mais bem sucedidos do passado, e assim conseguir definir o preço ideal para cada situação. Ou então, com uma abordagem de modelagem diferente e um tanto quanto mais complexa, é possível fazer com que a inteligência artificial consiga definir preços a partir de outros fatores, sem que os padrões do passado sejam a base principal.

A vantagem de um sistema de precificação dinâmica orientado por uma inteligência artificial é que ele consegue ser mais versátil. No entanto, isso implica que as equipes de pricing abram mão do controle sobre a definição de preço, o que pode ser algo não tão desejável.

A solução para o impasse pode ser um sistema híbrido. Um sistema de precificação que tenha elementos gerados por uma inteligência artificial e complementados pelo conhecimento de negócio de especialistas, é o que chamamos de inteligência expandida. Do ponto de vista gerencial, essa é uma opção bastante atrativa, pois consegue equilibrar certa versatilidade e entregar um certo grau de controle no processo de definição de preços.

Avaliação de resultados

Por fim, mas não menos importante, é necessária uma metodologia consolidada que consiga provar a eficácia de um sistema dinâmico de preços versus o sistema tradicional. Para tanto, é bastante comum e eficiente utilizar a metodologia de diferenças das diferenças, que admite um grupo de controle (tradicional) e um grupo de testes (dinâmico) e permite comprovar, estatisticamente, a eficácia ou não da nova abordagem de precificação.

Case

Como exemplo, trouxemos um case utilizando a plataforma Vortx no segmento da educação privada, onde existia um complexo sistema de precificação não automatizado, com extensas regras de negócio para definir a mensalidade/bolsa de estudo ideal para cada aluno.

Com a estruturação, mapeamos os processos e adicionamos fatores como a distância do aluno até a escola, a renda do responsável, a escola que o aluno estudou anteriormente, entre outros 200 variáveis disponíveis no dataset enriquecido da Aquarela. Também adicionamos tratamentos automatizados de outliers (o que são outliers?) para não deixar passar situações que fogem da normalidade.

Partindo disso, todo o processo foi estudado e revisado por cientistas de dados em conjunto com uma equipe de pricing / revenue, removendo e/ou reformulando as regras de precificação existentes. Como resultado, fomos capazes de:

  • Propor insights e regras que agregaram ainda mais robustez ao processo existente;
  • Gerar um aumento de 5% no faturamento total de negociações; e
  • Criar uma maior transparência no processo decisório da alocação de bolsas de estudos.

Utilizando modelagem estatística avançada, fomos capazes de propor indicadores, utilizados como base para a precificação da mensalidade do aluno, a partir de machine learning. Assim, este sistema híbrido foi concluído e colocado em operação dentro de 4 meses.

Conclusão

Os métodos e tecnologias para precificação dinâmica estão chegando ao mercado, incluíndo setores mais tradicionais. Vimos nos primeiros cinco tópicos as etapas que consideramos fundamentais em projetos de precificação dinâmica.

A decisão de digitalizar e dinamizar a escolha dos preços dos produtos/serviços, sabemos, não é simples. Anteriormente escrevemos alguns aspectos importantes neste artigo Escolhendo fornecedores de inteligência artificial e data analytics.

Com nossa metodologia ágil e seguindo o que foi colocado acima, conseguimos entregar uma solução de precificação dinâmica rápida e eficaz em uma área tradicional como a da educação.

Tendências educacionais no pós Covid-19

Tendências educacionais no pós Covid-19

Em nossa visão como desenvolvedores de tecnologia para educação, Aquarela e Studos, entendemos que o uso intensivo de tecnologias de informação e inteligência artificial nos processos educacionais se farão cada vez mais presentes.

Este novo cenário ocorre tanto do ponto de vista da estratégia em planos de expansão comercial, precificação de matriculas e aquisição de escolas quanto em nível de operação, com recomendações personalizadas de ensino de acordo com o perfil do estudante, da escola, do conteúdo e da região do país.

Em um cenário pós Covid19, teremos uma crescente digitalização do ensino, apoiada pela capilaridade da internet e dos dispositivos móveis, e sobre tudo, dos novos hábitos.

Resumo das tendências:

  1. A evolução exponencial das plataformas digitais, que via internet, estarão e continuarão democratizando o ensino, seja pelos computadores pessoais ou pelos dispositivos móveis.
  2. A computação em nuvem, que permite uma capacidade quase infinita de processamento e armazenamento a custos on-demand e muito mais baratos que manter a infraestrutura;
  3. IA atuando na otimização contínua dos itens digitais responsáveis pela geração de valor dos modelos de negócio. 

Oportunidades da IA para Educação.

Com vistas a tendência, preparamos um resumo das oportunidades reais deste novo ambiente educacional.

Educação personalizada de alto impacto 

Criação de treinos personalizados para os alunos com base nas dificuldades de aprendizagem, dosando a proficiência dos itens com base em diversas variáveis como: percentual de acerto, metas estipuladas, perfil do usuário, quantidade de questões resolvidas por período e agrupamento de semelhantes.

A Studos já dispõe de mais de 90 mil questões catalogadas com mais de 32 milhões de respostas em seu app (Studos APP). Alguns desses dados já revelam padrões importantes da educação nacional, que hoje é estimada em 180 mil escolas públicas/privadas espalhadadas nos 5 mil municípios brasileiros.

O objetivo de todos os trabalhos em dados é conseguir um alto grau de acurácia e precisão na personalização das informações, de modo que os(as) alunos(as) possam praticar com menos questões e ter melhores resultados, já que o sistema busca encontrar e preencher as lacunas mais importantes da visão de mundo de cada indivíduo. Desta forma, o impacto desta solução será medido em:

  • Redução dos índices de evasão das escolas públicas ou privadas.
  • Redução nos níveis de stress estudantil.
  • Aumento do desempenho educacional das escolas a nível nacional.

Precificação dinâmica e inteligente

A precificação dinâmica na educação (O que é precificação dinâmica) já é uma realidade no Brasil, e deverá ter impulso nos projetos de transformação digital.

Na Aquarela, por exemplo, após alguns anos de pesquisa, desenvolvemos uma solução de Smart Pricing Educacional, que tem a função principal de otimizar os recursos educacionais por meio do ajuste de preço/bolsa de estudo em relação a oferta e demanda de turmas, intensidade de concorrência, qualidade das escolas, e estimações precisas de marketshare, fatores sócio econômicos e outras centenas de variáveis. A inteligência artificial escolhe, em tempo real, o peso de cada fator na formação do preço, criando o valor ideal para cada caso.

O nível de sofisticação operacional, já comum em sistemas de e-commerce e venda de passagens áreas, começará a fazer parte também da rotina das novas escolas alinhadas a indústria 4.0

Automação de tarefas administrativas

Um educador passa uma quantidade enorme de tempo classificando tarefas e testes. A IA pode intervir e fazer um trabalho rápido dessas tarefas, e ao mesmo tempo, oferecer recomendações sobre como fechar as lacunas do processo de aprendizado.

Embora as máquinas já possam classificar testes de múltipla escolha, elas estão muito perto de poder avaliar respostas escritas também. À medida que a IA entra em ação para automatizar as tarefas administrativas, abre mais tempo para os professores passarem com cada aluno.

Os professores terão mais tempo para se concentrarem em habilidades de ensino mais específicas para o ser humano, como inteligência emocional e criatividade. (StudyInternational)

Mapeamento de fluxos educacionais

A Inteligência Artificial pode fazer uma identificação quantificada do fluxo da logística educacional das escolas, desenhando os caminhos de sucesso e insucesso de alunos.

Essas tecnologias extraídas da área de logística, permitirão identificar gargalos operacionais, de modo que os gestores poderão atuar com grande precisão nos pontos mais importantes do fluxo, e também estimar quantativamente o impacto da remoção destas etapas.

Expansão educacional baseada em IA

Com a riqueza do dados disponíveis publicamente (e harmonizados estrategicamente), se torna possível utilizar a inteligência artificial para encontrar oportunidades de investimento educacionais em quase todos os pontos do país com apenas algumas iterações.

Hoje, é possível entender desde o fluxo de alunos entre os municípios até questões e tendências regionais. Assim, a inteligência artificial pode, por exemplo, buscar lugares com alto desempenho escolar, ampliando assim as oportunidades de expansão por meio de aquisições estratégicas. (Ver mais em geo-marketing de expansão)

Conclusões e recomendações

Neste artigo, compartilhamos um pouco de nossa visão das tendências da educação com base em nosso conhecimento prático baseado em dados. Não abordamos questões de sobre realidade virtual aumentada e educação a distância EAD que, apesar de também serem uma tendência, já há muito material disponível.

Portanto, concluímos que:

  • Teremos um futuro educacional que será cada vez mais digital, personalizado e ubíquo.
  • Existe muito potencial para que a educação brasileira seja melhorada com apoio de tecnologia de dados, porém o desafio tecnológico é todavia grande. Neste sentido escrevemos já anteriormente um artigo comentando sobre esta questão (Como escolher o melhor fornecedor de Analytics?).
  • Grandes mudanças estão ocorrendo na educação, tanto na forma de disponibilização de conteúdos como no comportamento e nos processos.
  • Os gestores desta nova educação deverão ter cada vez mais dados, maior uso de IA para tomada de decisão e uma visibilidade cada vez mais profunda da grande e complexa cadeia de distribuição de conhecimento dos mais de 70 milhões de estudantes brasileiros.

Dúvidas ou sugestões, nos escreva!

Para ficar por dentro desses e outros materiais, assine nossa newsletter!